NOTE DE SYNTHÈSE Rédacteur informaticien 2014
Transcription
NOTE DE SYNTHÈSE Rédacteur informaticien 2014
NOTE DE SYNTHÈSE Rédacteur informaticien 2014 Les données ouvertes, ou open data, désignent des données numériques d’origine publique ou privée, mises à la disposition du plus grand nombre. À l’aide des documents suivants, vous exposerez de façon structurée la définition, la mise en œuvre, les usages, les risques et les perspectives de l’open data. LISTE DES DOCUMENTS JOINTS 1. Open Data Is Not Just For Governments Anymore… – Jennifer Belissent http://blogs.forrester.com – 21/02/2013 – 3 pages 2. Gartner Says Big Data Makes Organizations Smarter, But Open Data Makes Them Richer www.gartner.com – 22/08/2012 – 2 pages 3. L’open data comme objet politique : transparence vs participation ? – Morgane Gaulon-Brain www.zdnet.fr – 14/12/2012 – 1 page 4. How the Global Open Data Movement is Transforming Journalism – Jeanne Bourgault www.wired.com – 31/05/2013 – 2 pages 5. Why Open Data Alone Is Not Enough – Jesse Lichtenstein www.wired.com – 28/06/2011 – 1 page 6. Données ouvertes (extraits) http://fr.wikipedia.org – 4 pages 7. Charte du G8 pour l’Open Data : la France dévoile son plan d’action – Xavier Berne www.pcinpact.com – 08/11/2013 – 3 pages 8. La lente marche des données publiques vers l’Open Data – Sandrine Cassini www.lemonde.fr – 13/10/2013 – 2 pages 9. L’Open Data : les risques potentiels de l’ouverture des données publiques – Antoine Chéron www.journaldunet.com – 01/03/2011 – 3 pages 10. Sur Data.gouv.fr, l’accès aux données publiques devient collaboratif – Édouard de Mareschal www.lefigaro.fr – 31/12/2013 – 1 page 11. Open Data : pour le bien des entreprises et des finances publiques – Bertrand Paul http://lecercle.lesechos.fr – 21/11/2013 – 3 pages 12. Open data : ouvrir ses données au public, ça peut rapporter gros Vincent Berdot et Olivier Discazeaux – http://pro.01net.com – 21/08/2013 – 3 pages 1 Open Data Is Not Just For Governments Anymore... ... Nor has it ever really been. Government data has long been a part of strategic business analysis. Census data provides insights into local standards of living and household budgets, health needs, education levels, and other factors that influence buying patterns for all kinds of goods and services. The US Bureau of Labor Statistics and the International Labour Organization provide data on employment and the availability of skilled labor that helps inform decisions on where to locate manufacturing or other facilities. The World Bank and UN data provides insights into global trends. Moreover, the release of government data has itself spurred billion-dollar industries. Think weather data released in the 1970s by the National Oceanic and Atmospheric Administration – which gave birth to the weather industry and services like Accuweather, weather.com, wunderground, and newer services like ikitesurf.com’s “wind and where.” Data from the US Global Positioning System (GPS) was opened to civilian and commercial use in the 1980s and has given rise to thousands of location-based services. Think FourSquare, Yelp, and Where’s The Bus? At the city and local government level, open data complements these existing data sources with data on government assets, operations, and performance. And, at the federal level, the mandate to further open public data through the Health Data Initiative [8] and other federal data initiatives in Energy, Education, and other industries expands available data sources. What can you do with this data? Innovate. And, if you don’t, your competitors will. New competitors will rise up and disrupt the status quo in all industries. There are already some great examples of companies using government data to complement their internal data for strategy decisions, for product innovation, and for new services themselves. Healthy example of data innovation The health industry has feverishly adopted the use of data to enhance existing services and provide new ones. • Healthgrades.com provides a comprehensive source of information on hospitals and doctors, aggregating data on clinical outcomes, patient safety, and patient satisfaction. Healthgrades aggregates data from a variety of sources, including the Centers for Medicare and Medicaid Services, surveys from HCAHPS (Hospital Consumer Assessment of Healthcare Providers and Systems), Scientific Registry of Transplant Recipients, and data from individual states and other healthcare bodies. Apparently, people spend more time researching purchases of a car or refrigerator than their doctor: 34% of Americans spend less than 1 hour researching a physician. • 100Plus takes basic health information (weight, height, diet, activities, stress level) and creates a benchmark that is used to compare people to those with similar attributes. Their health predictions are based on large amounts of information culled from sources like the National Institutes of Health and the Centers for Disease Control. • Healthline provides a health search engine that has ingested massive amounts of data from Health and Human Services (HHS) agencies and other sources to help make Internet searches on health topics and issues substantially more reliable, accurate, and helpful. Healthline registers over 100 million search entries per month, making it the largest health search engine on the Internet. RI 2014 1/3 http://blogs.forrester.com 21/02/2013 1 And, data innovation is not limited to startups: • Aetna has integrated HHS data on everything from care provider quality to the availability of eldercare support services to the latest medical education information for patients into an “IT cockpit” for nurse case managers in its call centers to help these nurses provide information-rich support for patients. Aetna recently acquired Healthagen, the developer of the mobile app iTriage, a mobile and web platform that allows patients to make better informed health decisions. iTriage has used HHS health facility locator databases to help consumers find nearby care providers. The app has over 3 million downloads on the iTunes store. Banking on data innovation The banking industry has equally invested in the data revolution as cited in a recent Wall Street Journal blog : • JPMorgan Chase generates a vast amount of credit card information and other transactional data about US consumers. Several months ago, it began to combine that database, which includes 1.5 billion pieces of information, with publicly available economic statistics from the US government. Then it used new analytic capabilities to develop proprietary insights into consumer trends and offer those reports to the bank’s clients. The technology allows the bank to break down the consumer market into smaller and more narrowly identified groups of people, perhaps even single individuals. And those new reports can be generated in seconds, instead of weeks or months, JPMorgan Chase CIO Guy Chiarello told CIO Journal. • Citi, for its part, is experimenting with new ways of offering commercial customers transactional data aggregated from its global customer base, which clients can use to identify new trade patterns. “New silk roads are being created, and we think this information could show signs for which might be the next big cities in emerging markets,” says Don Callahan, who manages internal operations and technology at Citi. According to Mr. Callahan, the bank shared such information with a large Spanish clothing company, which it was able to use to determine where to open a new manufacturing facility and several new stores. Embracing The Open Data Model Companies are not just using data themselves, they are inviting others in to see and use their data. • RI 2014 In 2008, Mint.com launched Mint Data, an initiative that aggregated anonymous spending data from Mint’s users to give real-time insight on what people were spending on across the country. The data was able to identify the most popular restaurants in San Francisco (by visits), the top shopping spots in New York City (by highest average spend), and the highest spending cities in the US. Mint Data also showed spending data both by average purchase price and by popularity, which is defined by number of transactions per month. The rankings could be viewed by category, such as “food and dining,” by specific business, and broken down to the city level. For example, Mint Data showed that the average spend at a Starbucks in New York City is $5.38. 2/3 http://blogs.forrester.com 21/02/2013 1 Mint Data was a little ahead of its time. But Intuit has now launched a new data program for developers that provides access to: • • Over 65 million accounts and 11 million users supported today. • Financial data from over 19,000 financial services organizations across the US and Canada. • Aggregate consumer and business financial account data, plus autocategorized transactions. • Secure API for cost-effective, self-serve data access. • SDKs for .NET and Java to accelerate development of your app. In another example, Credit Agricole [25] (CA) has launched a developer program with the slogan “applications for you and by you.” The CA Store is a co-creation platform that brings together the bank’s customers – and their application needs – and independent developers and provides the developers with access to anonymised banking data. The CA Store provides an app store making available these new applications and services. I’ll stop there with my examples. As you can likely tell, I’m excited about the data opportunity. I’ve been a data geek for a long time: Ask me about running policy simulations all night long on housing data in Russia. And now the data revolution and the new “data economy” are really democratizing the use of data and the benefits that it provides. Jennifer Belissent RI 2014 3/3 http://blogs.forrester.com 21/02/2013 2 Gartner Says Big Data Makes Organizations Smarter, But Open Data Makes Them Richer Open Data on the Agenda for Gartner Symposium/ITxpo, October 21-25, Orlando, Florida Whereas "big data" will make organizations smarter, open data will be far more consequential for increasing revenue and business value in today's highly competitive environments, according to Gartner, Inc. "Big data is a topic of growing interest for many business and IT leaders, and there is little doubt that it creates business value by enabling organizations to uncover previously unseen patterns and develop sharper insights about their businesses and environments," said David Newman, research vice president at Gartner. "However, for clients seeking competitive advantage through direct interactions with customers, partners and suppliers, open data is the solution. For example, more government agencies are now opening their data to the public Web to improve transparency, and more commercial organizations are using open data to get closer to customers, share costs with partners and generate revenue by monetizing information assets." Gartner analysts believe an open data strategy should be a top priority for any organization that uses the Web as a channel for delivering goods and services. Open data strategies support outside-in business practices that generate growth and innovation. Enterprise architects help their organization connect independent open data projects by creating actionable deliverables and information-sharing practices that generate business-focused outcomes for achieving strategic customer growth and retention objectives. Gartner analysts said that any business that has a data warehouse should consider how it can use data as a strategic asset and revenue generator. Maturing technologies for data quality and data anonymization can help mitigate regulatory restraints and risk factors. Open data APIs provide simple, Web-oriented means for data exchange, and linked data techniques are effective for generating big datasets. When considering the long-term benefits of an open data strategy, organizations should investigate the types of data exchange now emerging where information producers and consumers share data for profit. Emerging data marketplaces are also places for organizations to open their data — potentially turning their "data into dollars." The challenge is to keep the barriers to entry low to enable participation by different types of business and streamlined processes for adding and vetting data sources. Monetizing data is a technological and operational challenge. If an enterprise's goal is to unlock its data's full revenue potential, it needs to be able to reach all possible data buyers efficiently. "With tight budgets and continued economic uncertainty, organizations will need leaders who can craft breakthrough strategies that drive growth and innovation," said Mr. Newman. "As change agents, enterprise architects can help their organizations become richer through strategies such as open data." Although openness is a pervasive and persistent issue in IT, there is very little agreement about exactly what "open" means. According to Gartner analysts, an informal definition of openness is a level playing field where everyone can play a game that can evolve. There is a positive relationship between the openness of information goods (for example, code, data, content and standards) and information services (for example, services that offer information goods, such as RI 2014 1/2 www.gartner.com 22/08/2012 2 the Internet, Wikipedia, OpenStreetMap and GPS) and the size and diversity of the community sharing them. From the viewpoint of enterprise information architects, this is known as the information-sharing network effect: the business value of a data asset increases the more widely and easily it is shared. Open data APIs are a lightweight approach to data exchange. Their use is now considered a best practice for opening data and functionality to developers and other businesses. Organizations use APIs to generate new sources of revenue, spur innovation, increase transparency and improve brand equity. "The challenge for organizations is to determine how best to use APIs and how an open data strategy should align with business priorities," Mr. Newman said. "This is where enterprise architects can help. While some internal IT functions may be using APIs to fulfil local or specific application needs, the enterprise architecture process harvests and elevates good works as first-class strategic priorities that create business-focused outcomes. As a strategic enabler, APIs are a powerful means with which to build an ecosystem, and a first step toward monetizing data assets." RI 2014 2/2 www.gartner.com 22/08/2012 3 L’open data comme objet politique : transparence vs participation ? Les données ouvertes ont la particularité d’être nées de la pratique et non d’un dispositif législatif (comme c’est le cas pour les données publiques). La création du terme open data remonte à 1995, même s’il n’est apparu que récemment dans le champ politique, comme le rappelle Simon Chignard, spécialiste de l’open data. C’est en effet l’Open Government Initiative portée par Barack Obama dès le lendemain de son investiture en janvier 2009 qui a marqué l’amorce politique du phénomène. Tim O’Reilly a joué un rôle clef dans la genèse des données ouvertes en réunissant un groupe de travail de trente personnes (sponsorisé par Yahoo et Google) en décembre 2007 à Sebastopol en Californie. L’Open Government Working Group a défini huit principes de l’Open Governement Data : « Data Must Be Complete / Primary / Timely / Accessible / Machine processable / Non-Discriminatory / Non-Proprietary / License-free ». Cette étape a constitué une avancé majeure dans la définition des données ouvertes. Pourtant, Simon Chignard considère que c’est aussi à ce moment-là, aux États-Unis, qu’est né « le péché originel » de l’open data, avec l’émergence de deux lectures : la transparence des gouvernements et la participation citoyenne. Celles-ci constituent les promesses fondatrices de l’open data. Plus ou moins contradictoires, elles se révèlent néanmoins complémentaires, puisqu’elles fondent ensemble les piliers de l’open démocratie. En pratique, ces lectures variables de l’open data traduisent l’émergence de trois courants, dont les visions se distinguent par la force variable accordée à ces promesses centrales que sont la transparence et la visibilité : D’abord, l’approche libérale se fait l’écho d’une défiance à l’égard de l’acteur public, voyant la transparence comme un outil pour dénoncer. Ensuite, la famille libérale-libertaire repose davantage sur la méfiance à l’égard des gouvernements, préférant alors concevoir la transparence à des fins de surveillance. Enfin, le mouvement participatif est basé sur la notion de bienveillance, en ambitionnant de reconstruire la confiance citoyenne envers les institutions. On pourrait relativiser la portée de ces catégories comme relevant de l’anecdotique au sens où l’open data ne serait finalement qu’un mouvement unique, mais non. Certes, la question des données ouvertes repose globalement sur l’idéal d’open government, mais les trois courants présentés traduisent bien une scission entre les credo et les objectifs visés par leurs partisans. Simon Chignard rappelle le débat suscité par une étude comparative de la fondation IFRAP (famille libérale) sur l’enseignement public et privé, les apports de celle-ci étant contestables par les tenants de la conception participative. Le mouvement de l’open data, né outre-Atlantique, se diffuse à grande vitesse depuis que le champ politique se l’est approprié. Mais les collectivités qui ouvrent leurs données en tant que telles ne répondent a priori qu’au principe de transparence. D’où l’enjeu d’encourager les dimensions d’appropriation et de participation à ce mouvement pour que les citoyens prennent réellement conscience des apports de l’open data dans la vie démocratique et quotidienne. Aux côtés de l’idéal d’open government, la dimension démocratique de la sphère Internet entre également en scène avec ses fondations participatives. Morgane Gaulon-Brain RI 2014 1/1 www.zdnet.fr 14/12/2012 4 How the Global Open Data Movement is Transforming Journalism While traditional media continue their difficult decline, a cadre of the most innovative reporters, from Afghanistan to the Amazon, are quietly transforming journalism by harnessing the power of open data. Working in collaboration with civil society groups and governments, they are applying new digital tools to increasingly available data troves to tell stories via powerful interactive graphics. As a result, they are increasing transparency and empowering communities. In Brazil, for instance, Infoamazonia.org was one of the first efforts to create a cross-border map of data on environmental exploitation combined with journalist and citizen coverage. The site paints a detailed picture of the forces behind environmental degradation in the Amazon. Obtaining non-proprietary data and news coverage are vital to the success of the project. Recently, Infoamazonia reporters analyzing the National Institute for Space Research data discovered a 220% rise in the rate of deforestation of the Amazon in Brazil compared to the previous year. In Kenya, the Data Dredger project encourages traditional media to embrace data-driven journalism. Funded by USAID and led by Internews, the effort has created dozens of interactive graphics exploring Kenya’s most serious health issues and offered it to media outlets for free. Using these visualizations, Kenyan journalists have written stories on topics such as the exodus of much-needed doctors to other countries, and how counterfeit drugs are hindering the fight against malaria. Many data projects arise from concerns about global corruption and impunity. For example, the Afghan media development organization Nai has created a map of attacks against journalists in Afghanistan; Freedom House and the International Center for Journalists are creating a similar map for Mexico. The success of early data projects has shifted the tone from he-said, she-said sound bites to solid data sources, and has further inspired journalists, civil society organizations and governments to pool their efforts, and their data. Africa Open Data features datasets from 10 countries so far and Open Data Latinoamerica launched in May with data from five countries. Crowd-sourced and local data collection efforts are becoming more and more feasible because of new technologies. These include open source data collection kits and tools for data scraping, cleaning, analysis and visualization. Tools and resources offered by Ushahidi and OpenStreetMap, among others, have paved the way for journalists to create compelling datadriven visualizations. There is a common motivation behind all of this fantastic collaboration in data visualization. Breaking news is now often the domain of social media, and advertising dollars are divided among the millions of professional and non-professional content providers who want a piece of the pie. But there is growing need and demand for in-depth content and analysis that people can’t get anywhere else and are willing to pay for. RI 2014 1/2 www.wired.com 31/05/2013 4 Unfortunately, data-driven reporting is not easy. Governments, corporations and NGOs have to be persuaded to share data; journalists and techies have to be coaxed out of their comfort zones to integrate data projects into their day-to-day work; and the audience has to demand quality analysis. Furthermore, data literacy remains a major barrier to widespread adoption of data journalism both for journalists and for their audiences. In a global economy where information is increasingly a most important currency, data needs to be conveyed in a way that helps citizens make more informed decisions. Particularly in developed countries, media need to measure whether flashy, interactive data visualizations are effective in conveying useful information or are merely disorienting. Despite all the creativity and collaboration in this emerging field, the future of data journalism is still opaque. It remains to be seen whether this new model of reportage will be compelling enough to attract the kinds of audiences and advertisers that media need to survive. However, it is heartening to see the kinds of innovative projects that are emerging from the open data movement. Data-driven journalism is opening windows onto previously dark corners and giving people the information they need to understand and take action on the issues they care about. If journalism is to remain relevant and viable, its practitioners would do well to explore and expand the use of new data technologies while keeping this fundamental goal in mind. Jeanne Bourgault Jeanne Bourgault is President and CEO of Internews, an international non-profit media development organization whose mission is to empower local media worldwide to give people the news and information they need, the ability to connect and the means to make their voices heard. RI 2014 2/2 www.wired.com 31/05/2013 5 Why Open Data Alone Is Not Enough If you care about transparency, these are interesting times. WikiLeaks may have faded from the headlines, but growing numbers of people accept the notion that information collected by and about the government should be online, searchable, and mashable. At least 16 nations have major open data initiatives; in many more, pressure is building for them to follow suit. The US has posted nearly 400,000 data sets at Data.gov, and organizations like the Sunlight Foundation and MAPlight.org are finding compelling ways to use public data—like linking political contributions to political actions. It’s the kind of thing that seems to prove Louis Brandeis’ famous comment: “Sunlight is said to be the best of disinfectants.” But transparency alone is not a panacea, and it may even have a few nasty side effects. Take the case of the Bhoomi Project, an ambitious effort by the southern Indian state of Karnataka to digitize some 20 million land titles, making them more accessible. It was supposed to be a shining example of e-governance: open data that would benefit everyone and bring new efficiencies to the world’s largest democracy. Instead, the portal proved a boon to corporations and the wealthy, who hired lawyers and predatory land agents to challenge titles, hunt for errors in documentation, exploit gaps in records, identify targets for bribery, and snap up property. An initiative that was intended to level the playing field for small landholders ended up penalizing them; bribery costs and processing time actually increased. A level playing field doesn’t mean much if you don’t know the rules or have the right sporting equipment. Uploading a million documents to the Internet doesn’t help people who don’t know how to sift through them. Michael Gurstein, a community informatics expert in Vancouver, British Columbia, has dubbed this problem the data divide. Indeed, a recent study on the use of open government data in Great Britain points out that most of the people using the information are already data sophisticates. The less sophisticated often don’t even know it’s there. Data divides have consequences. Consider the recent adventures in the financial markets: The quants on Wall Street applied their savvy to manipulate theoretically open data for personal gain. Or look at the catastrophic effects of bundling unacceptable real estate risk into something that, to the less datasavvy, appeared to be financially sound mutual funds. The reality of these data divides is that information is anything but transparent to the majority of people—even if it’s technically available. India also passed a Right to Information Act in 2005, requiring governments and agencies to digitize many records and respond quickly to any citizen’s request for information. It has the potential to shine light on pervasive inefficiencies and rampant corruption. But so far it’s helped only the middle class, not the massive underclass, which remains at risk of intimidation and violence. (Far from being encouraged to use open data, many have been murdered for doing so. The Guardian calls people silenced in this manner “Right to Information martyrs.”) The concern that open data may simply empower the empowered is not an argument against open data; it’s an argument against looking at open data as an end in itself. Massive data dumps and even friendly online government portals are insufficient. Ordinary people need to know what information is available, and they need the training to be conversant in it. And if people are to have anything more than theoretical access to the information, it needs to be easy and cheap to use. That means investing in the kinds of organizations doing outreach, advocacy, and education in the communities least familiar with the benefits of data transparency. If we want truly open government, we still have to do the hard work of addressing basic and stubborn inequalities. However freely it flows, the data alone isn’t enough. Jesse Lichtenstein RI 2014 1/1 www.wired.com 28/06/2011 6 Données ouvertes (extraits) Une donnée ouverte est une donnée numérique d’origine publique ou privée. Elle est produite par une collectivité ou un service public (éventuellement délégué). Elle est diffusée de manière structurée selon une méthodologie et une licence ouverte garantissant son libre accès et sa réutilisation par tous, sans restriction technique, juridique ou financière. L’ouverture des données (en anglais open data) représente à la fois un mouvement, une philosophie d’accès à l’information et une pratique de publication de données librement accessibles et exploitables. Elle s’inscrit dans une tendance qui considère l’information publique comme un bien commun (tel que défini par Elinor Ostrom) dont la diffusion est d’intérêt public et général. En Europe et dans certains pays, des directives et lois imposent aux collectivités de publier certaines données publiques sous forme numérique. Éléments de contexte et de définition L’ouverture des données est une philosophie visant à rendre des données numériques accessibles à tous et à s’affranchir des restrictions sur le droit d’accès et de réutilisation. Ces restrictions peuvent être imposées par l’usage de formats propriétaires ou de licences restrictives, notamment les licences payantes parfois mises en place sur des données publiques. L’ouverture vise à publier les données selon une méthodologie qui supprime les restrictions limitant notamment leur exploitation et reproduction. Le statut de donnée ouverte est applicable à tout type de données numériques. À titre d’exemple, on peut citer les données sur le transport, la cartographie, les statistiques, la géographie, la sociologie, l’environnement ou encore le juridique et par analogie et sous certaines conditions à des œuvres protégées par le droit d’auteur, des œuvres littéraires, artistiques et scientifiques, œuvres cinématographiques, dessins, photographies, sites internet. La publication de données ouvertes rejoint le terme plus général d’Open knowledge par l’Open Knowledge Foundation qui le définit comme étant une connaissance, c’est-à-dire une œuvre, notamment musicale, cinématographique ou des données tel qu’un article scientifique, une donnée géographique, gouvernementale ou administrative. Le terme ouvert est défini comme la liberté d’utiliser, de réutiliser, de redistribuer librement l’œuvre originale. Les données ouvertes s’inscrivent dans une démarche plus vaste de transparence et de participation des citoyens que l’on retrouve dans toutes les politiques d’ouverture des droits et qui se manifeste parfois par l’acronyme ODOSOS (de l’anglais « open data, open source et open standards », littéralement données ouvertes, logiciel libre et format ouvert), démarche elle-même comprise dans le mouvement plus général de l’innovation ouverte. RI 2014 1/4 http://fr.wikipedia.org 6 Des champs d’application multiples Des racines dans le monde universitaire Les données ouvertes peuvent concerner les données du secteur public avec les notions de e-gouvernement ou encore d’e-démocratie. Elles peuvent aussi être des données issues d’instituts de recherche scientifique publics (ou privés bénéficiant de financements publics, ou souhaitant volontairement ouvrir et partager leurs données), souvent parallèlement à une libre diffusion des résultats de recherches ; On parle alors dans ce contexte de « libre accès » ou « libre diffusion », dont la première définition a été donnée par la Déclaration internationale sur le libre accès de Budapest en 2001 qui constitue un véritable appel lancé aux chercheurs et visant à encourager leur participation au mouvement du partage gratuit de la production scientifique. De là, de nombreuses autres initiatives vont voir le jour ailleurs dans le monde avec par exemple la Déclaration de Berlin de 2003 sur le libre accès à la connaissance en sciences et sciences humaines ; suivi en mars 2005, depuis Southampton, d’une nouvelle Déclaration appelée Berlin III visant à renforcer les mesures adoptées dans le cadre de Berlin I. Le projet pour le séquençage du génome humain a été permis par un Open data Consortium crée sur proposition de Jim Kent en 2003 et dont les bénéficiaires vont aussi être les pays en voie de développement où les universités et centres de recherche n’ont pas toujours accès aux périodiques scientifiques. À côté du mouvement de l’open science data, les données ouvertes s’étendent au secteur privé, avec certaines organisations à but non lucratif. À titre d’exemple, Wikipédia et les grands wikis de la même famille placent tous leur contenu sous licence libre CC-by-sa, et le dernier projet de cette famille Wikidatata est une base de données ouverte de bases de données libres. Certaines entreprises s’orientent vers le « libre » en choisissant des licences plus ou moins ouvertes pour les données et informations qu’elles génèrent, en publiant par exemple des articles, des études, et même des œuvres artistiques. Les enjeux dépassent donc maintenant le simple droit d’accès aux documents administratifs. Un mouvement de libération des données publiques en effervescence Historiquement, ce sont les États-Unis qui ont les premiers lancé un large processus de libération des données publiques (obligation légale pour l’État et ses agences) depuis la loi « Freedom Information Act » de 1966. Mais les facilités offertes par l’Internet lui ont donné un regain d’intérêt de la part du secteur public depuis 2009. Dans le monde, des mesures en faveur de davantage de transparence vis-à-vis des citoyens se multiplient et l’Open data apparaît comme l’un des moyens de satisfaire leur volonté de participer à la vie de la Communauté et d’exercer leur droit d’être informé en associant un principe des externalités positives au principe de la donnée publique considérée comme bien commun. En Europe, en 2003, la Directive 2003/98/CE du Parlement européen et du Conseil du 17 novembre 2003 sur la réutilisation des informations du secteur public (en anglais, directive) dite PSI (Public Sector Information) va dans le même sens. RI 2014 2/4 http://fr.wikipedia.org 6 Les anglais ont une loi Freedom of Information Act qui date de l’an 2000. En France, ce mouvement rencontre l’intérêt de nombreuses collectivités (un décideur sur deux de collectivités locales interrogés par MARKESS International en 2012, déclarait envisager l’élaboration d’une stratégie “open data” avant 2014). La directive PSI est transposée par une ordonnance complétée d’un Décret le 30/12/2005 pris en l’application de la loi CADA de 1978. Il peut notamment faciliter la mise en œuvre du droit d’accès des personnes aux documents administratifs, prévu en France par la loi du 17 juillet 1978 puis par la directive 2003/98/CE du Conseil de l’Europe du 17 novembre 2003 sur la réutilisation des données publiques. Les données ouvertes dans le Web des données Les principaux problèmes de l’exploitation des données ouvertes sont de l’ordre technique car les données en masse ne peuvent pas être traitées humainement. Le concept de Web des données appliqué aux données ouvertes met en œuvre 3 mécanismes : 1. permettre l’existence de la donnée sur le réseau à travers une URI unique (cela inclut les URL) ; 2. diminuer le coût de transformation de la donnée en apportant des formats standards lisibles par les machines (comme avec RDF, RDFa ou les Microdonnée dans le HTML5) ; 3. améliorer la qualité de la donnée pour éviter qu’un traitement de mise à disposition ne puisse les altérer. Un entrepôt de données même avec des erreurs est préférable qu’un entrepôt biaisé. Ainsi, des mécanismes pour la fréquence et l’automatisation des mises à jour de la donnée par les producteurs des données est possible avec un service SPARQL sur ces données. Les données ouvertes ne sont contrôlables par leurs producteurs (contrôle des mises à jours) et réellement exploitables par d’autres qu’à la condition d’utiliser ces 3 mécanismes. Bénéfices Publics et sociaux En Grande-Bretagne, le croisement des données ouvertes a permis une diminution de 30 % de la facture de consommation d’énergie dans les bâtiments publics en seulement deux mois. Mais certaines applications de réalité augmentée dérangent : par exemple, BeenVerified.com indique les adresses des délinquants sexuels répertoriés et Whoslobbying croise les agendas des ministres aux rendez-vous qu’ils ont avec les milieux d’affaires. De plus, des voix s’élèvent pour rendre transparents les échanges économiques et financiers pour : • éviter les problèmes systémiques qui plongent de nombreux pays dans une crise économique permanente, • éviter les délocalisations abusives d’entreprises qui maquillent leurs comptes pour justifier leurs plans sociaux. RI 2014 3/4 http://fr.wikipedia.org 6 Cependant, l’ouverture des données est souvent uniquement associée à l’idée de réduction des coûts. Les innovations de rupture par l’émergence d’usages inattendus sur ces données vont permettre, à titre d’illustration, la publication de données ouvertes sur les hôpitaux, permettant d’améliorer la qualité de leurs services. Les technologies Évolution du Web des données de 2007 à 2010 par les plus optimistes Les données ouvertes sont soumises à une seule contrainte, qui est d’être accessible par tous types de machines pour permettre leur traitement. Cela implique que les données ouvertes soient interopérables. Si les données ne respectent pas les standards du Web pour permettre leur interopérabilité, on parlera de données bridées car leur réutilisation est moindre, voire quasiment nulle. Ce critère d’interopérabilité n’a jamais été réellement respecté dans l’industrie, jusqu’en 2008 où le standard SPARQL est devenu une recommandation du W3C. Ce langage de requête permet aux développeurs de tester leurs requêtes directement depuis leurs navigateurs Web sur les données ouvertes en ligne puis de développer leur propre programme pour analyser ces données. On peut ainsi consommer les données à distance sans avoir à les transformer ou à les déplacer. Ainsi, les gouvernements au Royaume-Uni et aux États-Unis ont commencé à basculer leurs données dans le Web des données ouvert (en anglais, Linked Open Data ou LOD) en respectant les standards du W3C et en offrant un point d’accès SPARQL pour les développeurs. Exemple de données réellement ouvertes : pour trouver sur une carte les écoles les plus proches de son domicile avec les données de Data.gov.uk (du gouvernement au Royaume-Uni) qui offre toutes les données relatives aux écoles sur son territoire. Une conséquence de ce choix politique, d’offrir un vrai standard pour les données publiques comme le Web des données, est décrit dans le livre « Linking Government Data ». Dans ce livre est décrit comment le Web des données est passé de quelques 40 millions de triplets RDF au sein de quatre entrepôts de données en 2007 à 203 entrepôts avec plus de 25 milliards de triplets avec 395 millions de liens à la fin 2010. Les plus optimistes parlent de croissance exponentielle des données (comme dans l’illustration : Évolution du Web des données) et annoncent un Web 3.0 et même un possible point de singularité dans l’avenir. Quoi qu’il en soit, ce choix politique a permis d’ouvrir de nouvelles pistes de recherche scientifique, économique et sociale. RI 2014 4/4 http://fr.wikipedia.org 7 Charte du G8 pour l’Open Data : la France dévoile son plan d’action Récemment pointée du doigt pour être à la traîne au niveau international en matière d’Open Data, la France a dévoilé hier son « plan d’action » pour l’application de la Charte du G8 relative à l’ouverture des données publiques. En clair, le Premier ministre a dévoilé comment l’exécutif allait s’y prendre pour atteindre les engagements pris en juin dernier par le chef de l’État. Ceci passe notamment par l’identification de jeux de données publiques à fort potentiel. Explications. En juin dernier, les dirigeants des huit plus grandes puissances mondiales ont adopté une « Charte pour l’ouverture des données publiques ». Au travers de ce texte, les membres du G8 ont notamment reconnu que « l’accès libre aux données publiques et leur réutilisation gratuite » devait être la règle, hors cas particuliers. Dans l’optique de mettre en place d’ici fin 2015 les grands principes et engagements portés par cette charte, les États-Unis, le Japon, l’Allemagne, la France, le Royaume-Uni, l’Italie, le Canada et la Russie promettaient de présenter « d’ici la fin de l’année » des plans d’action nationaux. C’est désormais chose faite pour Paris, Matignon ayant dévoilé hier le « plan d’action » de la France pour l’application de la Charte du G8 relative à l’ouverture des données publiques. Ce dernier se décline sous la forme de différents points. Identification des jeux de données ayant un « fort potentiel » Si certains jeux de données publiques considérés comme ayant un « fort potentiel » sont déjà mis en Open Data (résultats des élections, budget, certaines cartes de l’IGN ou statistiques de l’INSEE), il reste encore de nombreuses bases de données à libérer. Matignon identifie ainsi celles qui devraient l’être prioritairement. C’est par exemple le cas en matière de : Criminalité et justice. Si le gouvernement met déjà à disposition sur data.gouv.fr des données relatives aux faits constatés par les forces de Police et de Gendarmerie, il promet d’engager des travaux « pour publier d’ici 2015 des données plus précises » s’agissant de leur localisation. De son côté, le ministère de la Justice « travaillera à la mise à disposition d’ici 2015 de données statistiques agrégées sur des condamnations inscrites au Casier judiciaire dans un format réutilisable ». Finances et marchés publics. Le ministère de l’Économie et des finances va se pencher sur la publication, d’ici 2015, de « la totalité des données relatives aux attributaires des marchés publics engagés par l’État ». Bercy devra de plus travailler sur la façon d’industrialiser, de généraliser et d’accélérer la mise à disposition des données relatives aux lois de finances initiales et rectificatives, mais aussi des données contenues dans les annexes (« jaunes ») budgétaires. S’agissant du détail des dépenses publiques, Matignon affirme prudemment que le ministère du Budget et celui de l’Économie et des finances « travailleront à la mise à disposition d’ici 2015 de données sur le détail des dépenses engagées par l’État, au-delà d’un montant à déterminer ». Développement international. Le Premier ministre indique que la France « s’efforcera de publier, dès 2014 pour les pays pauvres prioritaires, ses données d’aide au développement dans le format de l’Initiative Internationale pour la Transparence de l’Aide (IITA) ». RI 2014 1/3 www.pcinpact.com 08/11/2013 7 Transports. Le ministère de l’Intérieur va plancher sur la mise à disposition des données concernant les résultats des auto-écoles, sans qu’aucune date ne soit avancée. Éducation. Matignon promet que le ministère de l’Éducation nationale et l’ONISEP « travailleront à la mise en ligne de données sur l’éducation », ces dernières devant « permettre une meilleure information des parents sur l’offre scolaire, le nombre d’enseignants ou le nombre d’élèves par classe dans les établissements, ainsi que les adresses des établissements scolaires ». Environnement. Le chef du gouvernement indique que l’Office national de l’eau et des milieux aquatiques (ONEMA) « travaillera à l’ouverture des données du système d’information des services publics sur l’eau et l’assainissement », sans qu’il n’y ait -une nouvelle fois- de précision de date. Conditions météorologiques. « Météo France engagera un chantier de prospective sur les évolutions possibles de son modèle économique » annonce le plan d’action du gouvernement. L’établissement public poursuivra en outre « ses actions d’amélioration, d’ici à 2015, de la convivialité d’accès et de l’interopérabilité des données historiques, des observations issues du réseau météorologique et des données de prévision issues des modèles numériques ». Activité gouvernementale. Matignon affirme que la Service d’information du gouvernement (SIG) « étudie les moyens de mettre à disposition les données publiques contenues dans la base de données des sites archivés des précédents gouvernements ». On le comprend rapidement, les promesses ne sont pas très engageantes, l’exécutif se bornant à affirmer la plupart du temps qu'il va « travailler » à l’ouverture de certaines données. Néanmoins, le cap et les objectifs sont désormais connus et fixés. Des débats thématiques associant la société civile En outre, six débats thématiques vont être organisés sous la houlette de la mission Etalab, l’objectif étant d’identifier de nouveaux jeux de données à libérer. Ces débats vont concerner les domaines de la santé, du logement, de l’enseignement supérieur et de la recherche, des transports, des risques environnementaux, ainsi que celui des dépenses publiques. Il est précisé que chacun d’entre eux donnera lieu à la remise d’un rapport, lequel devra contenir « des recommandations en termes d’ouverture cohérente des données, en précisant les bénéfices attendus de cette ouverture ». Ces rapports seront adressés aux ministères concernés. L’exécutif peu bavard s’agissant du principe de gratuité Après avoir réaffirmé le principe de gratuité des données publiques, Matignon rappelle au travers de son plan d’action que ce principe a vocation à se généraliser. Deux jours après la remise officielle du rapport Trojette, lequel appelait justement à supprimer les trop nombreuses redevances réclamées par l’administration pour la réutilisation de certains jeux de données publiques, le gouvernement ne s’étend cependant pas davantage sur la question. Rappelons quoi qu’il en soit que le Premier ministre a promis des arbitrages pour le mois de décembre, laissant entrevoir de « premières décisions de suppressions de redevances pour 2014 ». RI 2014 2/3 www.pcinpact.com 08/11/2013 7 S’agissant de l’ouverture des formats dans lesquels sont publiées les données publiques, l’exécutif tient à rappeler « son attachement à l’utilisation de formats ouverts », affirmant qu’il « poursuivra la mise à disposition de données lisibles en bloc par les machines dans la plus large mesure possible ». Jean-Marc Ayrault insiste en outre sur le fait que la France encourage l’usage de formats libres et ouverts pour les données publiques, mais aussi pour les applications de ces données. « Le gouvernement privilégiera, dans la mesure du possible, le développement de sites en formats ouverts pour ses services publics en ligne plutôt que d’applications mobiles liées aux plateformes propriétaires » assure à cet égard le plan d’action de l’exécutif. Deuxième version de la plateforme « data.gouv.fr » sera en ligne d’ici la fin de l'année La refonte du site d’Open Data « data.gouv.fr » avait déjà été annoncée en février lors du séminaire gouvernemental dédié au numérique. Le plan d’action de l’exécutif en remet une couche, maintenant que la nouvelle plateforme « sera ouverte au public d’ici la fin de l’année 2013 ». Matignon affirme par ailleurs que « la refonte de la plateforme, basée sur des outils Open Source, permettra de tenir compte des retours d’usage, des suggestions des utilisateurs, des exigences liées à l’augmentation des ressources mises en ligne, de la multiplication des portails d’Open Data et des nouveaux publics intéressés par l’ouverture des données publiques ». « Regards Citoyens » veut rester vigilant La diffusion de ce plan d’action a été saluée par l’association Regards Citoyens, qui s’est réjouie par voie de communiqué de « l’annonce de la libération de nouvelles données », ainsi que de « l’amélioration de certaines autres » données. L’effort est cependant encore incomplet aux yeux de l’organisation, qui regrette que l’exécutif ne fasse pas référence à certains jeux de données à fort potentiel et actuellement soumis à redevance (données relatives aux lois et règlements, registres des entreprises, etc.) -contrairement aux engagements pris par François Hollande-. « Regards Citoyens espère donc que ce document n’est qu’un document d’étape, et attend des décisions promises pour le 12 décembre une politique gouvernementale plus ambitieuse encore, afin de permettre la pleine mise en œuvre des engagements présidentiels ». Rappelons enfin que les membres du G8 ont convenu de faire un point d’étape lors du prochain sommet, lequel se tiendra en juin 2014 à Sochi (Russie). Xavier Berne RI 2014 3/3 www.pcinpact.com 08/11/2013 8 La lente marche des données publiques vers l’Open Data Plus de transparence et de démocratie, telle est la promesse de l’Open Data. Cette expression en vogue désigne la mise à disposition des données publiques : réserve parlementaire, population carcérale, effectifs des professeurs, aides financières aux PME, délits, pollution atmosphérique, tarifs agricoles… Aujourd’hui en France, pas moins de 350 000 jeux de données, représentant 2 800 fichiers différents, sont en ligne sur Data.gouv.fr, la plate-forme du gouvernement créée en décembre 2011. Pour accélérer un mouvement déjà en marche aux États-Unis ou au Royaume-Uni, le président Nicolas Sarkozy avait créé Etalab, mission logée à Matignon et chargée d’encourager les administrations, parfois frileuses à l’idée de dévoiler ce qu’elles considèrent comme étant leurs secrets d’alcôve. Les premiers résultats montrent le bout de leur nez. Les collectivités sont ainsi entrées dans la danse mercredi 9 octobre, avec le lancement de l’association Open Data France. Sont dans la boucle des métropoles comme Toulouse, Nantes, Rennes, Bordeaux, Montpellier, Lyon ou encore Nice et Strasbourg. Loin derrière les États-Unis Mais la France est encore loin derrière les États-Unis, où le président Barack Obama a lancé, quasiment le jour de son arrivée à la Maison Blanche en janvier 2009, un vaste programme d’ouverture des données publiques. Des coûts de santé aux plaintes pour fraudes à la carte bancaire en passant par la météo, l’administration américaine a vu large… Désireuse de donner l’exemple sur les usages qui pouvaient être faits de ces informations, elle a développé des sites à destination des citoyens, montrant précisément, sous forme de graphiques, l’utilisation de l’argent public par le gouvernement. Si l’administration Obama s’est montrée aussi volontariste, c’est aussi dans l’espoir d’inciter les entreprises à s’emparer de ces données pour créer de nouveaux services. Générer de la croissance et de l’emploi, voilà l’autre promesse de l’Open Data. Dans l’Hexagone, le gouvernement partage la même ambition. « Grâce aux concours DataConnexions, où nous sélectionnons des projets innovants, nous connaissons déjà une centaine de start-up qui utilisent les données publiques », affirme le président d’Etalab, Henri Verdier. À l’image de Meilleursagents.com, un site immobilier qui évalue immeuble par immeuble le prix des appartements à partir des données cadastrales. Ou encore de Home’n’go, encore dans l’immobilier, une jeune start-up qui utilise les données de l’Insee pour que les acquéreurs potentiels puissent connaître en détail le quartier (la proximité des établissements scolaires et leur taux de réussite, les différentes classes sociales présentes, la proportion de propriétaires, etc.). Une trentaine de grands fichiers sont payants Mais, en France, la route est encore longue. Devant les réticences toujours vives, le premier ministre, Jean-Marc Ayrault, a envoyé fin septembre à tous les ministères une circulaire les incitant à se montrer plus coopératifs. « Les citoyens sont en droit de demander des comptes à leur administration publique », martèle Henri Verdier, président d’Etalab. RI 2014 1/2 www.lemonde.fr 13/10/2013 8 « Il y a une grande résistance de l’administration. Le fichier complet de la carte scolaire, par exemple, n’est pas disponible. C’est un scandale. Une véritable libération des données pourrait créer un développement économique fort », se plaint François Bancilhon, qui a lancé il y a deux ans Data-Publica.com, un site qui vend des services sur mesure basés sur l’extraction de données publiques. Les craintes sont nombreuses, notamment dans le secteur de la santé, où la question de la vie privée se pose clairement. Autre frein, le caractère payant des données. En théorie, leur accès est gratuit, mais une trentaine de grands fichiers, comme les immatriculations automobiles, le cadastre, les informations déposées par les entreprises au tribunal de commerce, sont payants. De grands opérateurs d’État comme l’Institut national de l’information géographique (IGN), Météo France ou le Service hydrographique national, spécialisé dans les cartes marines, réclament eux aussi des redevances. Mais la mise à disposition totale de ces informations ne ferait-elle pas d’abord le jeu des géants américains, qui bâtissent leur fortune grâce aux données disséminées sur le Web ? Google avait lancé son service de cartographie Google Maps sur la base de vieilles cartes IGN. « On n’est pas obligé de nourrir le fauve, estime Henri Verdier. Les opérateurs d’État peuvent développer des modèles économiques et des stratégies industrielles autour de leurs données, comme le font Facebook ou Google ». Cette dîme réclamée au citoyen par des opérateurs privés ou des administrations publiques paraît injustifiée aux yeux de beaucoup. Comme le résume François Bancilhon, « il n’y a pas de raison que l’on paie deux fois nos impôts ». Sandrine Cassini RI 2014 2/2 www.lemonde.fr 13/10/2013 9 L’Open Data : les risques potentiels de l’ouverture des données publiques Quelles sont les incidences et les risques liés à l’ouverture et la mise à disposition de données publiques à des tiers ? Les activités de l’État sont à l’origine de la production d’une quantité considérable de données qualifiées de publiques lorsqu’elles sont produites dans le cadre de l’activité du service public. L’ouverture des données publiques, appelée plus communément en anglais « Open data », consiste à mettre à la disposition de tous, sous une forme exploitable, le plus grand volume possible de données. Les services de l’État et des collectivités locales ont dû apprendre à favoriser la réutilisation de leurs données publiques. En effet, la loi du 17 juillet 1978 qui prévoit la liberté d’accès aux documents administratifs régulé par la Commission d’accès aux documents administratifs (CADA) a été modifiée en 2005 (transposition de la directive européenne du 17 novembre 2003) afin de prévoir un droit de réutilisation de ces données publiques. La loi précise que, pour se faire, les administrations sont libres de fixer des redevances qui doivent être décrites dans une licence fournie par l’établissement public aux réutilisateurs. En général, la réutilisation des données pour un usage non commercial sera libre de toute redevance. Le système mis en place permet aux citoyens, aux acteurs économiques, aux chercheurs ou à la presse de se saisir des données publiques. Dans une société où le web mobile se développe à grande vitesse et où les technologies permettent un traitement rapide d’un grand nombre d’informations, la réutilisation des données publiques est riche de promesses (sont déjà mis en place un site sur l’activité de chaque député, une cartographie interactive des lieux accessibles aux personnes handicapées ou encore la disponibilité en temps réel des vélos en libre-service à Rennes ou à Bordeaux -villes pionnières en la matière-). Le mouvement semble débuter en France. La ville de Paris a lancé sa plateforme de données publiques, Opendata.paris.fr, le 27 janvier dernier et l’État, à l’instar d’autres pays comme les États-Unis ou le Royaume Uni, va se doter prochainement de son portail gouvernemental rassemblant les données publiques. Le sujet semble donc faire consensus en ce qu’il permettrait la transparence de l’action administrative et le développement du marché de l’information. Il convient toutefois d’en mesurer les conséquences : « l’Open data » n’est pas sans comporter certains risques. Les risques liés à la transparence L’Open data peut être à l’origine d’un changement des rapports de force entre les citoyens et l’État quant aux décisions à prendre, et notamment quant à l’évaluation et la légitimité des politiques de service public et de leur efficacité en fonction des données chiffrées disponibles. Face aux données, le citoyen sera tenté de discuter du bien fondé de chaque décision. Si le citoyen a bien évidemment un droit de regard sur la dépense publique, il pourra être contesté le fait qu’il dispose des compétences nécessaires pour évaluer tel ou tel projet. À titre d’exemple, serait alors discuté la nécessité d’ouvrir ici ou là une école, une maison pour jeunes, ou un bureau de poste en fonction des données démographiques fournies. Le RI 2014 1/3 www.journaldunet.com 01/03/2011 9 gouvernement pourrait donc être confronté à une perte de pouvoir sur les données et sur la prise de décision en général. Par ailleurs, les réutilisateurs peuvent aussi détourner les informations fournies afin de produire des sites intrusifs ou discrimimants et source d’inquiétudes pour les citoyens. L’exemple des États-Unis, où les réutilisateurs se sont rués sur les données de criminalité pour produire des cartographies par ville ou recensant l’origine ethnique des habitants d’un quartier, est souvent décrié. Enfin, l’ouverture de ces données pourrait avoir pour conséquence sur le long terme la privatisation des services publics. En effet, l’accès à ces données et leur réutilisation par des entreprises privées pourraient laisser penser que l’État n’a plus le monopole des services publics, le privé pouvant alors assumer certaines fonctions, et notamment la production de données publiques pertinentes agencées et remaniées en leur faveur. L’exigence de clarté et de transparence ne pèse dès lors que sur le secteur public. Pourtant, la communication de leurs données par les entreprises privées pourrait aussi s’avérer aussi fort utile : l’exemple est souvent donné des opérateurs de télécommunications qui disposent de données anonymes précises sur la fréquentation des quartiers de la ville, sur le trafic sur les grands axes routiers, ainsi que des fournisseurs d’énergie ou des entreprises de collecte des déchets. Dès lors, n’existe-t-il pas un risque de déséquilibre entre l’administration dont le travail est totalement dévoilé et les entreprises privés qui continueront à garder la maîtrise de leurs données ? Les risques liés à la vie privée Certaines données ne sont pas concernées par ce mouvement d’ouverture : les informations détenues par des organismes culturels ou d’enseignements et de recherche, les données sur lesquelles des tiers détiennent des droits de propriété intellectuelle, et naturellement les documents contenant des données personnelles. Toutefois, il est parfois délicat de faire la part entre données publiques et données personnelles. Le débat suscité par l’adoption de la LOPPSI en témoigne. En effet, son article 30ter introduit au Sénat a particulièrement suscité de vives réactions puisque cet article menaçait fortement l’Open data en France en proposant de soumettre les réutilisateurs de données publiques sous licence à un contrôle de comportement (de moralité). Plusieurs amendements ont été déposés par des députés de droite comme de gauche en vue de rectifier le tir. Un amendement de la commission des lois a été adopté afin de restreindre ces contrôles de moralité à la seule réutilisation des données d’immatriculation des véhicules. En effet, l’Open data ne subissait ici que le dommage collatéral de la légalisation d’une pratique : l’utilisation et la vente par l’État des données personnelles relatives aux cartes grises à des fins de marketing. Une confusion entre données personnelles et publiques est créée. Il existe donc un risque certain pour que l’Open data concerne parfois des données pouvant être qualifiées de personnelles puisque même pour le législateur la confusion est de mise. Les risques liés à la marchandisation des données Dans le cadre de sa mission de mise en valeur du patrimoine numérique public, l’Agence du patrimoine immatériel de l’État (APIE) a proposé deux modèles de licences de réutilisation des données publiques basées sur le paiement de redevances, sauf dans l’hypothèse d’une RI 2014 2/3 www.journaldunet.com 01/03/2011 9 réutilisation non commerciale. Cette orientation consistant à marchander les données publiques, alors qu’elles sont le fruit de l’exercice du service public financé par tous, n’est pas exempt de risques. En effet, il ne faudrait pas qu’un tel système empêche les petits acteurs d’obtenir une licence car trop chère. Ceci créerait un déséquilibre entre les grandes entreprises pouvant librement s’offrir des données publiques exploitables et les petites ne pouvant y accéder. La question de la tarification est donc centrale, et la réutilisation des données par un maximum d’acteurs en dépendra. Le risque étant que l’exploitation de ces données ne soit réservée qu’à des lobbies qui, grâce à leur puissance et leurs moyens financiers, en fassent un usage à leur avantage au détriment des instituts publics de production de données géographiques ou statistiques qui, faute de budget, devront diminuer leurs activités. Afin d’éviter ce risque, certains préconisent l’utilisation de modèles de licences libres mis en place à l’étranger. Les risques liés à la fiabilité et à la complexité des données Un autre risque est qu’en ouvrant au public ces données, soit révélé leur manque de fiabilité. Ce qui pourrait discréditer l’action publique et remettre en cause le travail effectué par les administrations. Par ailleurs, les données pourraient aussi être difficiles à comprendre car trop complexes, si bien que les dépenses mises en œuvre par l’État pour assurer leur mise à disposition du public ne serviraient pas au citoyen qui ne peut les interpréter mais uniquement à des spécialistes, souvent financés par des entreprises puissantes. Ici encore, un déséquilibre dans l’accès aux données pourrait naître. À terme, on pourrait redouter que ces entreprises falsifient les données avant de les communiquer au public afin de les tourner à leur avantage... Les risques liés à une utilisation massive et abusive des données Une des plus grandes craintes soulevée par les observateurs de l’Open data est la peur de voir des entreprises étrangères profiter à moindre coût de ces données pour en faire un usage commercial, parfois abusif en ce qu’il serait à la limite du pillage. Les données publiques françaises seraient alors exploitées par des groupes étrangers sans que cela ne rapporte de bénéfices à l’État, puisque le propre de ces entreprises est de ne pas payer d’impôts en France. L’exemple constamment cité est celui de Google, qui est souvent accusé de « pillage » en raison de ces litiges l’opposant aux titulaires de marques ou aux éditeurs. Ce risque d’exploitation massive voire intrusive des données, souvent mis en avant par les partisans d’un discours protectionniste, ne doit pas être exclu. L’affaire Wikileaks a montré que l’ouverture des données publiques est un sujet plus qu’épineux. La France a toujours été réticente à diffuser volontairement ses données publiques, pourtant le mouvement semble en marche. Il faut donc désormais compter sur la bienveillance de tous les acteurs (réutilisateurs et pouvoirs publics) afin de contenir, ou du moins limiter, les risques évoqués afin de faire de l’Open data un mouvement juste et équilibré. Antoine Chéron Avocat Associé, Cabinet ACBM Avocats RI 2014 3/3 www.journaldunet.com 01/03/2011 10 Sur Data.gouv.fr, l’accès aux données publiques devient collaboratif Développé par la mission intergouvernementale Etalab, la nouvelle version du portail d'accès aux données publiques s'ouvre aux contributions des internautes, sur le modèle de Wikipedia. La France fait un pas de plus vers la transparence à l’anglo-saxonne. Le portail d’accès aux données publiques Data.gouv.fr a fait peau neuve, pour se rapprocher de ses grands frères, l’américain Data.gov et britannique Data.gov.uk. « Cette nouvelle mouture était vraiment attendue par la communauté open data », explique Benjamin Gans, de Data Publica. Cette société spécialisée dans le développement de « jeux de données » a été sollicitée par le gouvernement, lors d’« ateliers codesign », pour la mise en œuvre de la nouvelle version. « Jusqu’à présent, Data.gouv.fr ressemblait plus à un dépôt de données qu’à une vraie plateforme interactive intégrée dans un écosystème », poursuit-il. Plus de 200 contributeurs L’« open data », c’est l’idée selon laquelle les données produites ou détenues par les institutions publiques, notamment gouvernementales, devraient être publiques, gratuites et facilement accessibles à tous, sans restriction de copyright ou de brevet. Le concept séduit le gouvernement. Le jour du lancement de la nouvelle version de Data.gouv.fr, le premier ministre Jean-Marc Ayrault a annoncé dans la foulée la suppression d’une dizaine de redevances sur des données publiques, dont celles en vigueur sur legifrance.gouv.fr, la CADA, ou encore sur certaines données de l’Éducation nationale. La principale avancée de Data.gouv.fr réside dans son ouverture aux contributions extérieures. Initialement alimentée uniquement par l’administration, la plateforme de données publiques accepte désormais les contributions d’internautes, de chercheurs et d’entreprises. Sur le même modèle que wiki, chacun peut contribuer librement en ajoutant des données d’intérêt public, mais aussi enrichir ou compléter des jeux de données préexistants pour les rendre facilement exploitables. Parmi les données intéressantes désormais disponibles sur le site, on trouve les comptes des partis et groupements politiques au titre de l’exercice 2011, les subventions allouées au titre de la réserve parlementaire pour 2011 et 2012, ou encore la liste des marchés publics conclus entre 2008 et 2012. Ces données brutes ont ensuite vocation à être traitées, triées et mises en forme par des journalistes, associations ou autres, pour faire parler les chiffres. Il devient par exemple possible de créer la carte des communes où vivent les plus riches contribuables à partir de données qui recensent les communes en fonction du nombre de contribuables assujettis à l’ISF. La nouvelle plateforme a été mise en œuvre par Etalab, une mission supervisée par le secrétariat général pour la modernisation de l’action publique, cher à Matignon. Elle rassemble déjà 10 fois plus de producteurs de données que la version précédente. En tout, elles sont plus de 200 organisations à contribuer, que ce soient des centres de recherche, des collectivités locales, des représentants du monde associatif ou de la société civile. Mais il y a surtout quatre fois plus de données. Les Ordonner constituait donc un enjeu fondamental. Ainsi, les 350 000 fichiers que comptait l’ancien site ont été rassemblés en 2 900 séries cohérentes. Un nombre multiplié par dix depuis la publication de la nouvelle version. Pourtant, la plateforme reste perfectible. « Il manque encore des données fraîches, notamment sur la délinquance, note Benjamin Gans. Il manque aussi plusieurs données dans des domaines considérées comme sensibles, comme des données parlementaires, ou celles relatives à la santé. Il reste donc un travail de transparence à poursuivre ». Édouard de Mareschal RI 2014 1/1 www.lefigaro.fr 31/12/2013 11 Open Data : pour le bien des entreprises et des finances publiques Les évolutions du web et de ses usages poussent nos collectivités vers la logique de la gouvernance ouverte ou OpenGov. S’il s’agit encore trop largement d’un miroir aux alouettes, l’ouverture et la mise à disposition des données publiques -l’Open Data- est une réelle opportunité pour le développement de nos entreprises et par conséquent de nos territoires. Depuis maintenant plus de 20 ans, notre société connaît des changements majeurs liés directement aux évolutions technologiques. Chacune d’entre elles pourrait être qualifiée de révolution tant elle change, au-delà des métiers, les modes de vie des populations. Les piliers de la révolution technologique des dernières années résident dans deux éléments centraux : l’arrivée du World Wide Web et la croissance de la capacité à collecter, stocker et analyser des quantités sans cesse croissantes de données. Côté données, on célébrait il n’y a pas si longtemps de cela l’arrivée de la disquette 5,25 pouces qui faisait alors figure de géant du stockage en comparaison de sa grande sœur de 8 pouces. À peine quelques années plus tard, on évoque sérieusement la mise en place d’espaces de stockage de l’ordre du brontooctet, soit à peu de chose près l’équivalent d’un million de milliard de milliard de disquettes. Côté Web, depuis les années 90, le nombre d’appareils connectés augmente de 15 % par an et dépassera les 2 milliards d’unités avant 2 ans. D’ailleurs, il y a déjà plus d’objets connectés que d’internautes. De l’ordinateur au téléphone en passant par les nouveaux gadgets, lunettes, montres ou appareils ménagers, chaque connexion est créatrice de données. Données pour lesquelles, sous l’impulsion d’entreprises comme Google, Amazon ou encore Facebook, le stockage systématique est devenu la norme. Cette obsession de la donnée a été rendue possible par l’évolution du Web. À l'origine pensé comme un outil de consultation et de création d’information, il s’est métamorphosé dans les années 2000. C’est l’arrivée du Web 2.0 : un espace de liberté, d’échanges et de collaborations dans lequel tout passe par la donnée. En nous permettant, voire en nous encourageant à partager notre vie et à commenter celle des autres, les grands groupes se sont offerts de l’information. Aujourd’hui, c’est ainsi plus de 250 millions de photos qui sont quotidiennement postées sur Facebook... et qui contribue ainsi à l’enrichissement de la mémoire numérique de la firme californienne. La prochaine mue du web sera rendue possible par les nouvelles technologies : nuage informatique (cloud computing) et bases de données géantes. On parle alors du web 3.0, défini par Tim Berners-Lee comme celui de l’interaction entre toutes les données. Pour cela, vive le Cloud, vive le Big Data et vive l’Open Data. Mais quid du rôle de nos institutions dans cette nouvelle révolution ? Quid de leur engagement vis-à-vis de l’Open Data ? La question mérite d’être posée car nos administrations sont des mines d’or de données -souvent inexploitées-. RI 2014 1/3 http://lecercle.lesechos.fr 21/11/2013 11 Sous couvert du concept d’OpenGov, l’Open Data permettrait de mettre en place la démocratie de demain : transparente, coopérative et participative. En ces périodes de défiance vis-à-vis de nos politiques, il est surtout un argument de poids pour les élus dans leur quête d’une nouvelle image. Dans les faits, il s’agit peut-être bien d’un miroir aux alouettes. Pour le moment en tout cas. Reprenons les trois arguments en faveur de cet OpenGov : Le premier : la transparence. La mise à disposition par une collectivité de certaines de ses données, celles qu’elle a choisies, n’est nullement un signe de transparence. Au quotidien, dans la plupart des collectivités, les élus d’opposition souffrent pour obtenir les informations dont ils ont besoin. Croit-on vraiment que l’Open Data consistera à rendre toutes les informations disponibles ? Peut-être, mais il est également très vraisemblable que le travail sérieux des oppositions et celui non partisan des journalistes continueront d’être au cœur de cette quête de transparence de la vie politique. Le second : la participation. Il faut rappeler ici que le vrai pouvoir des citoyens réside dans les urnes : c’est le droit de vote. Un simple regard sur les taux de participation aux différentes élections des dernières années -présidentielles exclues- nous laisse voir à quel point les Français sont impliqués dans la vie citoyenne. Que la mise à disposition de plateformes de données sera un facteur de participation des populations, voilà peut-être une simple utopie à laquelle ne souscriraient que les plus techno-naïfs. Les citoyens impliqués le seront peut-être encore d’avantage. Mais celui qui n’a pas l’envie aujourd’hui de se déplacer pour mettre un bulletin dans une urne, ne sera probablement pas plus séduit à l’idée de passer des heures à analyser des données ouvertes sur le Web. Et enfin le dernier : la coopération. La mise en place de partenariats, les échanges avec les entreprises, voilà certainement de véritables opportunités offertes par l’ouverture de la donnée publique. Cette coopération justifie, à elle seule, la mise en place de l’Open Data en France. En effet, au-delà des valeurs véhiculées par le concept, il y a une véritable réalité économique. Cette mise à disposition des données offre des perspectives concrètes à notre pays et peut créer de véritables ponts entre le « privé » et le « public ». En ce sens, le Premier Ministre a raison d’inviter les membres du gouvernement à partager leurs données. Mais face à la culture « touche à tout » de nos élus -mise en exergue par les combats pour la clause générale de compétence-, la tâche n’est pas mince. Il faut que les collectivités arrivent à « laisser faire », à simplement ouvrir les données. Elles ne doivent ni subventionner les projets, ni chercher à exploiter elles-mêmes ces données. En tout cas pas dans une période où l’on sollicite autant les français pour équilibrer les comptes publics. Les défenseurs d’un État omniprésent risquent de s’insurger. Il s’agit quand même de mettre à disposition d’entreprises, afin qu’elles puissent s’enrichir, des données qui appartiennent à ceux qui les financent : les contribuables. N’est-ce pas un peu choquant ? Trois éléments de réponses : 1. Les données en question doivent être, quoi qu’il arrive et ce, souvent pour des raisons légales, récupérées et stockées par les collectivités. Il ne s’agit donc pas tant de les récolter pour le compte des entreprises, mais plutôt de les mettre à disposition de ces dernières. N’oublions également pas que le devoir fiscal des entreprises leur ouvre des RI 2014 2/3 http://lecercle.lesechos.fr 21/11/2013 11 droits : les contribuables, personnes physiques et morales confondues, sont collectivement propriétaires de ces données. 2. Si ce ne sont pas les entreprises qui se chargent de les valoriser mais bien les collectivités, les contribuables devront payer cette valorisation. 3. Si elles sont utilisées par les entreprises, ce seront ces dernières qui supporteront le risque financier et, en cas de succès, créeront de la valeur et de l’emploi. Le rôle de nos collectivités, particulièrement en période de crise, n’est pas de devenir éditeur de logiciel, ni de faire tourner la commande publique à tout va. Elles doivent plutôt accompagner le tissu économique territorial en permettant notamment aux entreprises intéressées et capables de les valoriser d’avoir accès gratuitement aux données publiques. Charge aux entreprises de concevoir les services utiles aux consommateurs. Charge à elles de prendre les risques économiques liés aux projets qu’elles lanceront. En cas de succès, c’est notre société qui en bénéficiera. Parallèlement, les données publiques ont un rôle majeur à jouer dans la gestion de nos administrations, par exemple en matière d’anticipation ou de rationalisation. Il est urgent de les mobiliser au service du pilotage stratégique et de la réflexion prospective et dans le même temps de renoncer au travers électoraliste du « quel service vais-je annoncer en fanfare pour faire parler de moi auprès des électeurs ? ». Bertrand Paul RI 2014 3/3 http://lecercle.lesechos.fr 21/11/2013 12 Open data : ouvrir ses données au public, ça peut rapporter gros Les administrations ne sont plus les seules à rendre publiques les informations qu’elles détiennent. Désormais, les entreprises y voient aussi le moyen de développer des services innovants. Fini la mauvaise surprise des trains de banlieue bondés. Depuis quelques jours, SNCF met à disposition de ses usagers une application mobile les renseignant sur l’affluence des rames de train. Grâce à elle, par exemple, les salariés travaillant dans le quartier d’affaires de La Défense sauront quel est le wagon le moins bondé. Tranquilien -c’est le nom de cette appli- contribuera également à la bonne gestion de l’affluence par les voyageurs, qui pourront indiquer depuis leur smartphone le taux d’occupation de leur voiture. Un tel système prédictif n’aurait jamais vu le jour si SNCF n’avait pas partagé certaines de ses données. En effet, Tranquilien est le premier cas français concret de ce que l’on appelle l’open data (l’ouverture des données) proposé par une entreprise. En clair, elle a rendu accessible une partie de ses informations dans un format réutilisable par d’autres, afin d’en faire profiter le plus grand nombre. Aujourd’hui, cette démarche concerne avant tout les administrations, qui sont de plus en plus contraintes par la loi à la transparence. Les principales villes de France et les ministères ont déjà commencé à publier des données sur les transports, la topographie, les services publics, les marchés signés ou encore les budgets. En plus de sa vertu démocratique, la libération des informations contribue à l’émergence de nouvelles activités imaginées par ceux qui les exploitent, que ce soient des développeurs, des start up ou des chercheurs. Graines de services. Cette perspective économique suscite un intérêt grandissant des entreprises. Certes les banques, pour leurs transactions, ou le secteur automobile, pour la production, n’ont pas attendu l’arrivée de ce concept pour échanger avec leurs partenaires économiques. Mais la logique de l’open data va bien au-delà. Il s’agit de diffuser les données sans présupposer de leur utilisation future. À charge pour les acteurs de l’innovation de s’en emparer et de créer de nouveaux services. Quelles sont les sociétés concernées au premier chef ? “ Les délégataires de services publics (DSP), dans les mondes du transport, de l’énergie, de l’eau ou des déchets ”, répond Chloé Bonnet, cofondatrice du cabinet Five by Five, structure spécialisée dans l’open data des organisations. Dans le sillage des collectivités, des groupes comme Lyonnaise des eaux, La Poste ou encore SNCF sont, eux aussi, incités à un devoir de transparence. D’autres grands noms, purement privés, investissent à leur tour ce terrain : Crédit agricole, JPMorgan Credit, JPMorgan Chase, Nike, l’assureur santé américain Aetna… “ Le monde bancaire et celui de la domotique, tous deux gros producteurs de données, devraient constituer la deuxième vague de l’open data des entreprises ”, prédit Chloé Bonnet. Évidemment, leur démarche est intéressée. Certaines se servent de cette transparence comme argument commercial. À l’instar de Nike qui, après le scandale lié au travail des enfants chez ses sous-traitants, a commencé à publier les informations sur sa chaîne d’approvisionnement pour faire la lumière sur ses pratiques de fabrication. Même souci de soigner son image pour Lyonnaise des eaux qui, depuis mi-juin, publie sur son site des données sur la qualité de l’eau des communes. L’union fait la force. Le véritable enjeu de ce partage des données tient à la meilleure valorisation de celles-ci. Certes, la publication et la transformation de ce capital, autrefois conservé jalousement, RI 2014 1/3 http://pro.01net.com 21/08/2013 12 profite d’abord à la société civile. “ Des chercheurs pourraient prédire les inondations grâce à l’historique du niveau des cours d’eau dont nous disposons ”, illustre Frédéric Charles, DSI de Lyonnaise des eaux. Mais les entreprises qui jouent le jeu sont, elles aussi, gagnantes. Car cela leur permet de proposer à leurs clients de nouveaux services qu’elles n’auraient jamais imaginés, ou même pu développés, en restant seules. L’appli Tranquilien en est la parfaite illustration. “ La start up Snips, qui a programmé cette application et les modèles prédictifs liés à l’affluence des trains, disposait de compétences analytiques très poussées que nous n’avions pas en interne ”, relève Romain Lalanne, responsable de l’open data de SNCF. Cette création profite aujourd’hui à l’activité logistitique du transporteur ferroviaire. “ Avec Tranquilien, nous pourrions réguler, en théorie, une partie des demandes de transport sans pour autant devoir affréter des trains supplémentaires ”, poursuit Romain Lalanne. Mais les sociétés ne savent pas toujours quelles informations gagneraient à être exploitées. “ Les données de localisation des cartes SIM des clients d’un opérateur, pourtant primordiales pour la gestion de son réseau, offrent peu d’intérêt pour d’autres acteurs ”, signale à titre d’exemple Simon Chignard, auteur de l’ouvrage “ Open Data ” et membre du réseau d’experts Etalab (la mission gouvernementale chargée de l’ouverture des données publiques). À moins, bien sûr, qu’elles ne soient rapprochées d’autres sources d’information, comme le trafic routier ou encore le parc immobilier urbain. Mêlées de données. Les services les plus pertinents pour les consommateurs ou les citoyens s’obtiennent en mêlant des données publiques, des informations issues d’entreprises et d’autres d’ordre personnel (géolocalisation de consommateurs, données saisies par les usagers…). “ C’est grâce à ce triptyque que l’opérateur de transport londonien a pu absorber l’affluence record de passagers lors des derniers jeux Olympiques ”, illustre Bruno Marzloff, directeur du cabinet d’études Chronos. Comment ? Précisément en analysant toutes les données issues des cartes de transport des usagers, des caméras de surveillance, des téléphones mobiles ou des fils Twitter afin de mieux prévoir les flux des voyageurs. Les sociétés ont également tout intérêt à collaborer entre elles. Les seules initiatives (timides) en la matière concernent, pour l’instant, le transport des voyageurs tous moyens confondus. En mai, la Mairie de Paris a ainsi organisé un concours de programmeurs (Moov’in The City) pour la création d’applications visant à coordonner les différents modes de déplacement sur la capitale. RATP, SNCF et JCDecaux (Velib’) ont à cette occasion partagé leurs données. “ Nous pourrions imaginer que tous les opérateurs municipaux (EDF, sociétés de distribution d’eau…) s’organisent pour réunir les éléments d’information liés aux travaux. Ici, l’open data se mettrait au service d’une meilleure coordination des activités ”, se prend à rêver Frédéric Charles. Pour l’heure, la plupart des entreprises ne sont tout simplement pas prêtes à “ libérer ” leurs données. Ne serait-ce que pour des questions de sécurité ou de confidentialité. Elles préfèrent souvent ouvrir leurs interfaces de programmation (ou API), donnant ainsi à la communauté des développeurs l’occasion de concevoir des logiciels dialoguant avec leurs systèmes d’information. Un concept qui a le mérite de conserver l’esprit initial de l’open data (rendre service à la communauté, lui permettre de se réapproprier certaines informations) tout en sécurisant les données de l’entreprise. Solutions alternatives. Crédit agricole a emprunté cette voie avec son CA Store, lancé en septembre dernier. Il s’agit d’une place de marché d’applications mobiles qui met en relation clients et développeurs. Les premiers sont invités à déposer leurs idées d’applications et à noter les suggestions déjà déposées. Charge ensuite aux seconds, les développeurs, surnommés ici des digiculteurs, de bâtir les applications suscitant l’intérêt le plus large. Ces derniers ne manipulent RI 2014 2/3 http://pro.01net.com 21/08/2013 12 aucune donnée des clients. La banque leur donne simplement accès à une interface de programmation documentée et à une clé qui leur ouvre les portes d’entrée du système d’information. Crédit agricole s’assure ainsi qu’elle répond réellement aux besoins de sa clientèle. La Poste a adopté une démarche similaire avec son service d’identité numérique (IDN), un système initialement utilisé pour les courriers recommandés électroniques. Désormais, il donne accès à une liste des internautes dont l’identité a pu être vérifiée par un facteur. Depuis octobre dernier, les sites d’échange et de location entre particuliers peuvent facilement intégrer ce service (grâce à une API) sur leur site en ligne. Avec cette garantie contre l’usurpation d’identité, leurs clients ont plus de chance de réussir leur troc ou leur location. Malheureusement, peu de sociétés se sentent aujourd’hui capables d’en faire autant, car autoriser l’accès au trésor que représentent leurs données est un virage culturel radical. Celles qui choisissent le statu quo passent à côté de nouveaux services innovants pour leurs consommateurs. Et se privent au passage des bénéfices indirects des projets open data, qui conduisent souvent à une meilleure diffusion de l’information au sein de l’entreprise. Des chantiers de modernisation, dont Lyonnaise des eaux et SNCF tirent parti aujourd’hui. Au final, c’est souvent le pragmatisme qui prévaut à l’heure de franchir le pas. “ Si nous n’avions pas permis aux clients de mieux gérer leurs données personnelles, d’autres l’auraient fait à notre place, assure Emmanuel Methivier, dirigeant du GIE CA Store. Et pas toujours dans les conditions de sécurité et de confidentialité que nous souhaiterions. ” Crédit Agricole a donc choisi d’appliquer l’adage affirmant que l’on n’est jamais mieux servi que par soi-même. En ouvrant ses données, mais selon ses propres règles. Une place de marché de la donnée pour améliorer les services Urbains On entend souvent dire que les données sont le pétrole de demain. Mais il est difficile d’estimer leur valeur aujourd’hui. À plus forte raison lorsqu’elles émanent des entreprises. C’est précisément pour déceler ce potentiel qu’une vingtaine de sociétés se réunissent depuis deux ans à l’initiative du cabinet d’études Chronos. Baptisé Datact, ce programme, qui réunit des entreprises comme EDF, SNCF, La Poste, Total, Pages jaunes ou Vinci, a commencé par une longue phase de réflexion. “ Il nous a fallu un an pour admettre l’idée que croiser des sources différentes conférerait de la valeur aux données. Puis une autre à étudier les modèles économiques derrière cette valorisation ”, explique Bruno Marzloff, directeur de Chronos. Les initiatives devraient voir le jour cette année, puisqu’il est envisagé de bâtir une véritable place de marché pour la publication et le partage des informations autour des services urbains. Elle s’appuiera sur un protocole facilitant le partage des informations, ainsi que sur une liste des services coproduits par les entreprises partenaires de Datact (intermodularité des transports, gestion de l’énergie, mobilité…). Restent quelques incertitudes. “ La plateforme ne sera alimentée que si nous parvenons à démontrer la valeur de ces services. C’est tout l’enjeu de nos réflexions ”, tempère Stéphane Evanno, vice-président responsable du développement mobilité et ville intelligente chez Bosch France. Cet industriel allemand fournira l’application. Autre enjeu : le traitement des données avant leur publication. “ Celles que détiennent les entreprises ne sont pas toujours propres ni cohérentes ”, souligne Stéphane Evanno. Un toilettage préalable sera indispensable. Vincent Berdot Olivier Discazeaux RI 2014 3/3 http://pro.01net.com 21/08/2013
Documents pareils
Open Data : quels enjeux et opportunités pour l`entreprise
Le mouvement d’ouverture des données (Open Data) s’inscrit dans ces
trois tendances essentielles et dans une dynamique forte, le fameux «
momentum » anglais. Celui-ci emporte progressivement l’adhé...