Cloud computing ou l`informatique dans les nuages Les points de
Transcription
Cloud computing ou l`informatique dans les nuages Les points de
IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE Cloud computing ou l’informatique dans les nuages Les points de fonction Bimestriel - mai/juin 2010 Green IT : fable écologique ou sujet incontournable pour la DSI ? n°85 Le web sémantique : la voie royale pour gérer l’information ? Ils diffusent leur code logiciel en open source ZOOM OUTSOURCING L’avis des Directions Informatiques Ministère des Finances Direction Générale des Impôts Nadine Chauvière Sous-Directrice des SI de la DGI « Les solutions d’Application Intelligence CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de tableaux de bord composés d’indicateurs techniques objectifs afin de faciliter le dialogue avec les équipes et avec nos maîtrises d’ouvrage. » Groupe SFR Cegetel Eric Eteve Directeur Informatique Centre Ingénierie Mobilité « La solution CAST de gestion de la soustraitance est un élément clé dans le système de pilotage mis en place par SFR-Cegetel sur ses TMA. Nous avons constaté une attention plus particulière apportée par les SSII à la qualité des livrables et à la fiabilité des chiffrages depuis qu’ils savent que nous pouvons facilement les auditer. » Framatome - Groupe AREVA Michel Fondeviole DSI de Framatome-ANP « CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec le sous-traitant ainsi que des indicateurs nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome un outil de progrès partagé. » En savoir plus Demandez le Livre Blanc rédigé par le Gartner Group et CAST sur ce thème : « Information Series on Application Management » : www.castsoftware.com/outsourcing Découvrez l’expérience de plusieurs sociétés utilisatrices de solutions d’Application Intelligence : www.castsoftware.com/customers www.castsoftware.com La maîtrise des applications et des prestataires dans une opération d’outsourcing De la valeur ajoutée de l’Application Intelligence pour piloter efficacement un parc applicatif sous-traité Dans l’externalisation des applications métier, c’est surtout la volonté d’accroître l’efficacité opérationnelle de l’informatique qui est motrice : pouvoir fournir plus rapidement un service à valeur ajoutée aux utilisateurs et aux clients dans un contexte en perpétuelle évolution. C’est là que le bât blesse : l’externalisation des applications métier occasionne un risque de perte rapide de savoir-faire technologique et par conséquent critique. Vigilance et suivi sont de mise pour garder le contrôle de la qualité de service et éviter les dépendances par nature dangereuses. L’externalisation réussie d’applications métier est donc le fruit d’une vision anticipatrice partagée avec le prestataire. Sont ainsi apparues des solutions dites d’Application Intelligence, basées sur Publi-Reportage La valeur ajoutée de ce type de solutions d’Application Intelligence est visible à chaque étape d’une opération d’outsourcing, comme décrit ci-après. trat con de Fin Appe ls d 'off res Cycle de vie d'une opération d'Outsourcing Co ntr ôle des coûts i de Suiv connaissance s sfert de Tran Comme dans n’importe quelle opération d’outsourcing, le contrat liant le fournisseur est capital, en particulier les SLAs. Néanmoins, les applications métier étant par nature soumises à de fréquents changements en cours de contrat, les seuls SLAs se révèlent vite insuffisants pour garantir la qualité de service et éviter les dérives de coûts. une technologie avancée d’analyse de code source. En fournissant des indicateurs techniques aux donneurs d’ordre, ces solutions permettent de piloter un parc applicatif sous-traité en temps réel, tant en terme de qualité, que de maintenabilité et de coût. Résultat : le donneur d’ordre conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec son sous-traitant. technique Recette L es entreprises, devenues plus mûres vis-à-vis de l’outsourcing, sont désormais capables d’opérer des externalisations plus stratégiques. On l’a récemment observé dans l’automobile avec Renault ou dans la grande distribution avec Carrefour. jet pro Audit de l’existant et préparation des appels d’offres • Déterminer les caractéristiques techniques du portefeuille applicatif existant avant de le sous-traiter • Disposer d’informations de référence pour évaluer les propositions des sous-traitants • Obtenir une image à l’instant t des applications pour permettre un suivi dans le temps Transfert vers le prestataire • Réduire la phase d’acquisition de la connaissance pour entreprendre plus vite des tâches productives • Diminuer le coût lié à la production d’une documentation exploitable et maintenable par le prestataire Contrôle de la qualité et des coûts en cours de projet • Suivre l’évolution de la maintenabilité et de la qualité pour éviter toute dérive • Etre capable de valider la quantité et la qualité du travail facturé • Etre en mesure de challenger le sous-traitant lors des négociations d’avenants • Industrialiser les recettes techniques Renouvellement de contrat, transfert ou ré-internalisation • Déterminer et qualifier les écarts entre la prestation prévue et les livrables recettés • Disposer des informations techniques caractéristiques du portefeuille applicatif en fin de prestation Le leader mondial de ce type de solutions est d’ailleurs un éditeur français, CAST. Reconnu par les analystes informatiques comme précurseur du marché, CAST compte plus 500 comptes utilisateurs de sa plate-forme d’Application Intelligence dans le monde. édito Révolution annoncée de la programmation IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE Le rachat annoncé de Sybase par SAP remet sur le devant de la scène trois avancées majeures des SGBD. En premier lieu, les technologies In-memory permettent de travailler en mémoire sur des volumes de données très importants. Bien entendu, chaque éditeur propose sa propre technologie, souvent suite au rachat d’une société spécialisée. Seconde technologie à examiner : le stockage des données en colonnes. En limitant les résultats aux seuls champs utiles à la requête, le colonage accélère encore l’accès aux données en les enregistrant dans l’ordre des index, ce qui évite de « balayer » tous champs de chaque enregistrement. Et cette optimisation devient plus sensible encore pour les applications analytiques. Enfin, le serveur analytique Sybase IQ rencontre un franc succès auprès des sociétés financières et des opérateurs télécom, grâce à sa capacité de détecter à la volée des contenus dans les flux transactionnels pour des applications de type antiblanchiment financier. Toutefois, cette approche de type CEP (Complex Event Programming), le colonage ou In-memory seraient réellement plus intéressants avec des programmes en exploitant tous les avantages. Ce qui réclame de nouveaux modes de programmation, et promet donc une décade encore riche en innovations ! José Diz Rédacteur en Chef Editeur Press & Communication France Une filiale du groupe CAST 3, rue Marcel Allégot 92190 Meudon - FRANCE Tél. : 01 46 90 21 21 Fax. : 01 46 90 21 20 http://www.it-expertise.com Email : [email protected] Rédacteur en chef José Diz Email : [email protected] Directeur de publication Aurélie Magniez Email : [email protected] Abonnements/Publicité Email : [email protected] Conception Graphique Nicolas Herlem Email : [email protected] Parution IT-expert - (ISSN 1961-9855) est un journal édité 6 fois par an, par P&C France, sarl de presse au capital de 60 976,61 e. Avertissement Tous droits réservés. Toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 P&C France. Toutes les marques citées sont des marques déposées. Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. Toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de Press & Communication. Abonnements 01 46 90 21 21 Vous pouvez vous abonner gratuitement sur http://www.it-expertise.com/ 4 IT-expert n°85 - mai/juin 2010 IT-expert n°85 - mai/juin 2010 Sommaire 6 Dossier Cloud computing ou l’informatique dans les nuages Mathieu Poujol, directeur chez Pierre Audoin Consultants apporte un éclairage salutaire sur ce domaine de plus en plus assombri par le marketing. S’appuyant sur des résultats d’études, il dresse un état des lieux du Cloud vu par les entreprises, en France et en Europe. 12 Technique Les points de fonction Visant à mesurer la « valeur fonctionnelle » d’une application ou d’un projet, les points de fonction. À l’heure de l’industrialisation des applications et des développements, ces points de fonctions nés dans les années 70 ont de nouveau le vent en poupe. Un dossier exhaustif et incontournable. 20 Actualités Internationales 24 Quoi de neuf docteur ? Les informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances. Green IT : fable écologique ou sujet incontournable pour la DSI ? Obligations réglementaires, réduction des coûts, image de l’entreprise, stratégie d’innovation… de multiples leviers peuvent inciter les entreprises à déployer une politique Green IT. L’acteur explique les différents organismes et acteurs qui contribuent à cette évolution d’avenir dans l’informatique. 32 Comment ça marche ? Le web sémantique : la voie royale pour gérer l’information ? Découvrez comment les agents logiciels et le Web sémantique révolutionnent la gestion des documents sur Internet et dans l’entreprise. L’auteur passe en revue tous les aspects : utilisateurs et accès, modèles de représentation, multimédia, distribution et automatisation… Un point complet ! 39 Livres Virtualisation en pratique par Kenneth Hess et Amy Newman et Gestion de projet agile par Véronique Messager Rota. 40 Rubrique à brac Ils diffusent leur code logiciel en open source Pourquoi certaines entreprises partagent-elles leur code source avec la communauté du logiciel libre ? Éditeurs, entreprises utilisatrices, communautés ou fondations… Voyage au cœur d’un monde très particulier, et aux modèles économiques variés et innovants. IT-expert n°85 - mai/juin 2010 5 C loud computing ou l’informatique dans les nuages Au cœur de tous les débats et de la communication des acteurs de l’informatique, le Cloud Computing occupe une large partie de la scène informatique depuis plusieurs mois. Au-delà des effets marketing, ce concept recouvre plusieurs réalités et propose de nouveaux modèles prometteurs. Sur quels concepts repose le Cloud Computing ? Et quelles sont les réalités du marché ? 6 IT-expert n°85 - mai/juin 2010 Dossier Une réalité aux contours clairement définis Un nouveau concept ou une nouvelle approche nécessitent avant tout une définition claire des concepts et une compréhension de leur articulation. Définitions L’informatique dans les nuages ou Cloud Computing est un concept où les ressources informatiques sont virtualisées et dynamiquement élastiques (provisionnement et déprovisionnement automatique). Ces ressources sont fournies comme un service à travers Internet, de manière transparente pour les utilisateurs. Le concept inclut l’infrastructure as a service (IaaS), la plateforme as a service (PaaS) et le software as a service (SaaS). « L’IaaS ou Infrastructure as a Service » consiste à fournir de l’infrastructure informatique (typiquement via une plateforme virtualisée) comme un service. Plutôt que d’acheter des serveurs, des logiciels, de l’espace pour le centre de données ou de l’équipement réseau, les clients acquièrent ces ressources informatiques comme un service complètement externalisé. Ce service est facturé en fonction du niveau de consommation de la ressource. C’est une évolution de l’hébergement web. « Le PaaS ou Plateforme as a Service » consiste à fournir une plateforme informatique ainsi qu’une pile de solutions de développement, de test et d’exécution ; le tout étant consommé comme un service. Cela facilite le déploiement d’applications, en réduisant le coût et la complexité généralement associés à l’achat et à la gestion des couches de base du matériel informatique et des logiciels. Toutes les fonctionnalités requises pour soutenir le cycle de vie complet des applications sont fournies. « Le SaaS ou Software as a Service » est un modèle de déploiement de logiciels par lequel un éditeur offre à ses clients la licence d’utilisation d’une application à la demande. Le logiciel est consommé comme un service. Les fournisseurs de logiciels en régime SaaS assurent soit l’hébergement de l’application sur leurs propres serveurs web, soit le téléchargement du logiciel sur l’environnement client (ils peuvent le désactiver après utilisation ou expiration du contrat). Les fonctionnalités à la demande peuvent être gérées en interne ou par un tiers fournisseur de services d’applications. L’IaaS correspond à la partie infrastructure de la technologie Cloud Computing, le PaaS à la partie middleware, et le SaaS à la partie applicative. Le SaaS offre des services d’application à travers le web. Il s’agit d’une évolution du concept de fournisseur de service d’applications - Application Service Provider (ASP), basée sur une infrastructure plus efficace (centres de données optimisés Cloud Computing) et avec une mise à disposition de l’application plus standardisée (services web sur IP). Le concept d’informatique dans les nuages pourrait être également considéré comme de l’utility computing par lequel les utilisateurs finaux peuvent accéder aux ressources informatiques presque aussi facilement qu’à l’électricité ou à l’eau courante. Il peut être privé (intégré au système informatique de la société, à l’intérieur de son pare-feu) ou public. Dans sa forme externe (privé ou publique), la technologie « Cloud » peut être considérée comme un nouveau moyen d’externaliser certaines parties du système informatique d’une société. Ce modèle est orienté vers les dépenses en investissements (OPEX plutôt que CAPEX) et vers une automatisation complète du centre de données. Les nuages publics (Google, Microsoft, Amazon…) sont une nouvelle forme d’externalisation (infogérance), incluse dans le segment de l’externalisation applicative (cf. Associated IT Services profile). Quant au nuage privé, il s’agit d’un concept architectural autour duquel les organisations (utilisateurs finaux) bâtissent leurs centres de données de nouvelle génération, de manière optimisée et virtualisée. En mars 2010, PAC a réalisé des entretiens téléphoniques avec 200 décideurs français d’entreprises de plus de 200 personnes afin de mesurer l’impact du Cloud Computing en France. Une très forte majorité d’entre eux affirme s’orienter de préférence vers le développement d’un Cloud privé. Sur quel type de Cloud Computing êtes-vous en train/ investiriez-vous en premier? Infrastructure cloud computing prioritaire dans les investissements 13% 71% 7% ■ cloud privé ■ cloud public ■ cloud hybride Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France L’assemblage des meilleures nouvelles technologies Important : la catégorie des logiciels payants du type jeux accessibles via le web n’est pas incluse dans notre analyse. L’informatique dans les nuages est un des éléments clés, avec l’Open Source et l’Architecture orientée services (SOA), de la révolution industrielle de l’informatique. Le Cloud est né de la prolifération des systèmes virtualisés pour les serveurs hors mainframes (serveurs de milieu de gamme et X86). Cette évolution a permis de dissocier et de découpler des logiciels d’applications des plateformes matérielles. IT-expert n°85 - mai/juin 2010 7 Le Cloud Computing consiste en une évolution structurelle des centres de données. Elle intègre de nombreuses technologies récentes (comme la virtualisation, les piles technologiques Internet, l’informatique verte – Green IT) ainsi que les dernières tendances (globalisation, smart grids – « grilles intelligentes »), et cela, afin de pousser plus loin le concept de centre de données. Cette évolution a été rendue possible grâce aux progrès effectués au niveau des outils et de l’intermédiation. Cela a permis de distribuer dynamiquement les ressources matérielles en fonction des besoins applicatifs, sans que ces applications fonctionnent forcément sur des outils informatiques spécialisés. Le renouveau de l’externalisation et du stockage Il parait fort probable qu’une bonne partie des activités liées à l’externalisation va migrer vers le Cloud Computing. Et cela, parce que le concept permet la réduction de coûts via l’optimisation, la mutualisation, la consolidation et la virtualisation de l’infrastructure informatique. Ce qui incarne justement l’un des leviers les plus significatifs des services d’outsourcing. L’informatique dans les nuages va également impacter les services de stockage et d’hébergement, car elle propose des services de qualité pour un prix final très bas par rapport aux offres spécifiques du marché. Ainsi, le service Cloud S3 (Simple Storage Service) d’Amazon est rapidement devenu l’une des principales plateformes de stockage au niveau mondial. De la puissance à la demande L’accès à de la puissance de calcul et à des ressources informatiques à travers l’Internet va aussi stimuler le développement de client léger virtualisé qui accèderont au Cloud afin de suppléer à leurs ressources limitées (par définition) par des ressources (puissance de calcul, stockage) disponibles à travers le nuage. Un exemple avec le service EC2 (Elastic Compute Cloud) d’Amazon qui propose des serveurs virtuels activables à distance via Internet. Et cela ouvre de nouvelles opportunités pour le marché, par exemple l’offre YuuWaa de Gemalto, un hybride unifié et sécurisé de stockage qui combine une clé USB et la base de la technologie Cloud. Les logiciels Open Source (OSS) prospèrent également avec le Cloud Computing, car la plupart de ces plateformes sont bâties sur des composants OSS. Par conséquent, l’OSS est un facilitateur du modèle dans les nuages, du fait aussi qu’il favorise l’ouverture de ces plateformes. Toutefois, cela ne signifie pas que les offres sont Open Source!… Finalement, le Cloud Computing est également très lié au SOA (Architectures orientées services), car le Cloud est une architecture orientée services. Un marché en forte croissance Sources Les chiffres de marché sont issus du programme de recherche SITSI®, un programme d’analyse du marché global des services informatiques et des logiciels que PAC a développé depuis plus de 15 années. Les principaux éléments de la méthodologie incluent de la recherche documentaire ainsi que des entretiens avec les acteurs majeurs du marché. Ces données ont été utilisées par PAC pour sa mission sur le futur du logiciel en Europe, qui a été réalisée cette année pour le compte de la DG7 de la Commission Européenne. L’étude est consultable sur le site de la Commission Européenne : http://cordis.europa.eu/fp7/ict/ssai/study-sw-2009_en.html Valeur de marché par région – si disponible (tout en EUR 2008 constant) Area 2007 2008 2009 2010 2011 EU 27 2 741 3 321 3 974 4 743 5 663 2012 6 725 Croissance annuelle du marché Area 2007 2008 2009 2010 2011 2012 EU 27 21,1% 19,7% 19,4% 19,4% 18,7% M€ Cloud Computing - EU27 8 000 7 000 6 000 5 000 4 000 3 000 2 000 1 000 0 ■ Saas Total ■ Paas Total ■ Iaas Total 2007 8 2008 2009 2010 IT-expert n°85 - mai/juin 2010 2011 2012 Market Market structure structure 2008 2012 SaaS PaaS IaaS Cloud computing CAGR 08/12 50.5% 14.3% 35.2% 100% 50.9% 15.0% 34.1% 100% 20.5% 19.6% 17.5% 19.3% Dossier Analyse générale du marché Le rythme de développement du Cloud s’est accéléré ces derniers temps et cela va continuer dans le futur. Le Cloud apporte des offres aux coûts généralement optimisés pour les organisations. Mais il apporte aussi et surtout de l’élasticité, de l’automatisation et une facilité d’utilisation inédits. Flexibilité et disponibilité dépendantes du réseau Les avantages identifiés les plus importants sont des coûts optimisés, la flexibilité, la simplicité et la capacité des utilisateurs finaux à transformer une partie de leurs dépenses d’immobilisations (CAPEX) vers des dépenses d’exploitation (OPEX). La sécurité et la dépendance envers le réseau sont les principaux inconvénients. Quels sont les principaux avantages du Cloud Computing ? Disponibilité des ressources à la demande 42% Flexibilité 34% Facile d'accès et accès en self service Payer pour ce que vous consommez, sans investir à l'avance 29% 21% Optimisation de l'infrastructure 19% Performance 14% Rapidité de mise en œuvre 12% Sécurité 0% 11% 5% 10% 15% 20% 25% 30% 35% 40% 45% Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France Quels sont les principaux inconvénients du Cloud Computing ? Sécurité 50% Dépendance au réseau 35% Perte de contrôle 23% Technologie non mature à répondre clairement à plusieurs questions juridiques (règles de conformité dans certains pays/secteurs verticaux comme le secteur bancaire au Luxembourg) et de sécurité (données nationales sensibles, données industrielles confidentielles…). À cela s’ajoute le fait que la plupart des centres de technologie Cloud ne sont pas encore basés en Europe et/ou ne sont pas gérés par des sociétés commerciales européennes. Beaucoup de sociétés informatiques risquent aussi d’être trop dépendantes des fournisseurs de technologie Cloud, car beaucoup de ces technologies ne sont pas assez « ouvertes ». L’association du logiciel libre et du Cloud Computing pourrait dans certains cas apporter une réponse à cette problématique. L’élaboration de systèmes avancés de chiffrement et une régulation européenne forte sur la localisation des données et l’interconnexion des Clouds sont d’autres aspects à prendre en compte dans la réponse à apporter à ces problématiques. Investissements amont L’informatique dans les nuages promet une efficacité maximale pour les centres de données ainsi que pour la livraison de logiciels. Cependant, parvenir à ce résultat nécessite de grands investissements de la part des fournisseurs de services informatiques. Ces investissements ont été réalisés au niveau des industries de production lourde (les industries à grand nombre d’actifs) et seulement quelques acteurs européens peuvent remplir les conditions dans ce domaine, sur le long terme. Les fournisseurs traditionnels d’outsourcing (T-Systems, Capgemini, Atos Origin…) et les opérateurs télécoms (Orange Business Services, BT Global Services, Deutsch Telekom…) sont les acteurs les plus éligibles à ce niveau. L’infrastructure réseau Le Cloud Computing rend les systèmes informatiques plus dépendants qu’ils ne l’étaient de la qualité des réseaux de télécommunication. Toutefois, ces réseaux ne sont pas réservés exclusivement aux services informatiques, et transportent aussi de la voix et de l’image/vidéo. ET cette dernière se montre très gourmande en bande passante. Un aspect limitera pour quelque temps encore le recours massif à des Clouds publics trop lointains. En revanche, pour que le Cloud Computing se développe, des investissements très conséquents devront encore être réalisés dans les infrastructures réseau européennes et internationales. 10% Limitations techniques et matérielles pour l'utilisateur 6% Complexité dans l'administration du système 6% Compétences 6% 0% 10% Création et destruction de valeur 20% 30% 40% 50% 60% Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France Tout n’est pas toujours rose au pays du Cloud Sécurité & confidentialité des données L’un des principaux problèmes liés au Cloud Computing provient du fait que les utilisateurs ont le sentiment de perdre le contrôle sur leurs données. Ce concept implique également la capacité L’informatique dans les nuages est une innovation de rupture qui transforme l’informatique, la faisant passer d’une industrie légère à une industrie lourde : c’est-à-dire d’une industrie basée sur la main-d’oeuvre en une industrie basée sur les investissements. Ce type d’innovation, selon la théorie de Schumpeter sur la destruction créative, aura de fortes conséquences sur le marché. La plus notable est que l’hypermutualisation qu’elle apporte réduira fortement le segment de marché des « workloads » les plus banalisés. Cela pourra engendrer des problèmes conséquents pour certains acteurs informatiques, mais libérera également des capacités d’investissement chez les clients pour des projets à plus forte valeur ajoutée. IT-expert n°85 - mai/juin 2010 9 L’Europe doit mesurer l’impact de ce changement et l’accompagner, car le Cloud Computing gagne et continuera de gagner du terrain assez rapidement. Premièrement, sur des activités noncoeur de métier (stockage, environnement de développement, messagerie, environnement de test…), puis sur les applications critiques les plus « front-office » (CRM, RH…). Comme il s’agit d’un modèle du type infogérance, sa configuration de développement est censée suivre le même chemin, en apportant toujours plus de valeur ajoutée au fil du temps. Et tout comme l’outsourcing, le Cloud Computing atteindra ses limites dans la valeur qu’il peut offrir au client, en fonction de la criticité des systèmes et de la nature des processus d’affaires. Cette mutation va générer un haut niveau de demande en services de conseil et en services informatiques pour la construction des centres de nuages publics ou privés. Cela afin d’évaluer le contenu à mettre dans le nuage, ou afin d’en évaluer la sécurité… est basé sur des volumes et des ventes à faibles marges grâce à des centres de données accessibles à travers Internet. Ce modèle s’avère donc très adapté aux modèles d’affaires existants des opérateurs en télécommunication. Toutefois, ces acteurs font face à des défis majeurs, car les spécialistes américains du Cloud ont bien l’intention de coloniser le Cloud européen. En termes d’automatisation, facilitée par ce modèle, le Cloud Computing remplace la force de travail par de l’investissement en capital. Cela illustre le modèle d’évolution des économies avancées énoncées par les théories économiques classiques. L’Europe détient du capital et une force de travail onéreuse. Comme pour l’automobile ou la sidérurgie, mieux vaut pour l’Europe qu’elle mise sur une très forte automatisation afin de conserver ses usines à logiciel que son territoire. En ce sens, le Cloud peut aussi être considéré comme un recours face aux délocalisations. n Pour l’utilisateur final, le transfert de valeur se fait via la transformation des dépenses pour le matériel et les équipements informatiques vers des dépenses pour des services (de Capex vers Opex). Globalement ce transfert de valeur sera bénéfique pour l’industrie SSBS (Software & Services Based Software), mais les entreprises et les compétences devront évoluer assez rapidement. Compétitivité de l’Europe L’Europe reste à la traîne face aux États-Unis en matière de Cloud Computing. En effet, les acteurs dominants du marché sont tous basés aux États-Unis, autant pour les spécialistes comme Salesforce.com ou Amazon que pour les acteurs traditionnels comme IBM ou Microsoft. Les entreprises américaines bénéficient de leur ancrage sur le plus grand marché au monde et d’une très forte culture du capital-risque. Mathieu Poujol, Directeur Fondé par Pierre Audoin en 1976 (Paris), PAC est le seul groupe européen avec une couverture globale : de fortes compétences locales et réponse globale. PAC est le spécialiste de l’industrie du logiciel et des services informatiques : des fournisseurs de logiciels et services informatiques, des utilisateurs de services informatiques, des influenceurs et des organismes publics. Son approche intégrée couvre toute la chaîne de valeur de nos clients : des rapports prêts à l’emploi, des services de commercialisation & conseil. Site web : https://www.pac-online.com Néanmoins, l’Europe dispose de forts atouts, notamment grâce à son industrie des télécommunications. Le Cloud Computing 10 IT-expert n°85 - mai/juin 2010 Les points de fonction Imaginés dès les années 70, les points de fonctions ressuscitent pour accompagner les besoins de gouvernance SI et de gestion de projets, pour lesquels une mesure objective s’impose. Ils deviennent aussi un moyen de faciliter la communication entre informaticiens et utilisateurs. 12 IT-expert n°85 - mai/juin 2010 Technique La mesure comme levier de la gouvernance SI L’approche de la gouvernance SI reposant sur la mesure constitue une représentation objective du SI, commune à tous les acteurs : direction, MOA, MOE et prestataires. Ce levier est de plus en plus pertinent pour éclairer toutes les décisions relatives à la gouvernance du SI : • L’alignement du SI sur les objectifs stratégiques de l’entreprise, • L’analyse de la valeur, • La maîtrise des coûts, délai et qualité, • Le pilotage de la performance et maturité des processus SI, • La gestion anticipée des ressources et des risques, • L’urbanisation progressive du SI, • Le benchmarking, • Le changement et l’amélioration continus. Les avantages de l’analyse par les points de fonction sont multiples : • description des besoins des utilisateurs et du périmètre du SI dans une nomenclature fonctionnelle détaillée, dont les éléments sont obtenus par l’application de règles précises, normalisées et auditables, • mesure des composants de cette nomenclature fonctionnelle, également suivant des règles standard, • organisation des éléments de la nomenclature suivant les différents axes de l’urbanisation SI et mesure des différentes strates et composants du SI urbanisé, • benchmarking, grâce aux multiples référentiels de mesures et d’indicateurs déjà disponibles. Ces avantages illustrent les trois éléments essentiels de la mesure par les points de fonction : la nomenclature fonctionnelle, les mesures et les référentiels de mesures et d’indicateurs. La nomenclature fonctionnelle peut se révéler un outil d’une grande efficacité pour la prise de décision relative au SI. En effet, elle traduit les besoins des métiers et des utilisateurs. Elle peut également exprimer les services qu’une application est susceptible de fournir aux utilisateurs. Ces deux visions divergent souvent (par exemple, fonctions fournies par les ERP et effectivement utilisées…) et cette divergence des points de vue est une des sources principales de conflits entre MOA et MOE. La nomenclature fonctionnelle, par sa précision et son objectivité, favorise grandement la résolution de ces problèmes. C’est pourquoi nous introduisons un ratio d’une grande importance pour les urbanistes et architectes : « Taux d’urbanisation » = Nombre de Points de fonction fourni par le SI/Nombre de Points de fonction exprimés par les utilisateurs. L’évaluation en points de fonction permet d’affecter une valeur objective et auditable à tous les composants du SI et aux indicateurs de performance des processus SI. La gouvernance SI est en vogue aujourd’hui. La maturité des entreprises dans ce domaine est très variable. La maîtrise de la mesure et l’usage de ces mesures donnent une idée assez précise de cette maturité. Les points de fonction y contribuent grandement. Culture de la Valeur Culture du Pilotage Ex. : BSC Culture de la Performance Ex. : KPI Culture de la Mesure Ex. : Valorisation en Points de Fonction Le principe des points de fonction Les points de fonction sont un standard depuis la fin des années 70. Au milieu des années 90, une normalisation expérimentale est entreprise par l’AFNOR. En 2003, l’ISO normalise la partie mesure du standard de l’IFPUG (International Function Points User Group). Historique de la norme • En 1979, Allan Albrecht (IBM) propose une première version de sa méthode. Une mesure de la production logicielle basée sur les fonctions utilisateurs. Elle doit aider à prévoir la taille d’un projet, son effort de développement et la productivité du développement informatique. Albrecht a ainsi développé une métrique indépendante de la technique de développement qui n’a pas les inconvénients du comptage du nombre de lignes de code. • En 1986, a été fondé l’IFPUG (International Function Points User’s Group) pour assurer la plus grande diffusion de cette méthode. • En 1995, l’AFNOR (Association Française de NORmalisation) normalise la méthode sous la référence normative expérimentale XP Z 67-160. • En 2003, l’ISO (International Organization for Standardization) normalise la méthode sous la référence 20926:2003. IT-expert n°85 - mai/juin 2010 13 Les points de fonction ont pour objectif de mesurer la « valeur fonctionnelle » d’une application ou d’un projet. La mesure fonctionnelle est représentative de l’importance des services d’une application existante, des besoins des utilisateurs ou de l’ampleur des développements à réaliser. Et cette mesure est réalisée selon le point de vue fonctionnel des utilisateurs. Elle s’effectue en mesurant les données et les fonctions selon plusieurs catégories (2 pour les données et 3 pour les fonctions) et suivant 3 niveaux de complexité (faible, moyen et élevé). Les catégories des données : • Les données internes appelées GDI en français et identifiées sous le terme ILF (Internal Logical Files) dans le standard IFPUG et la norme ISO. • Les données externes appelées GDE en français et identifiées sous le terme EIF (External Logical Files) dans le standard IFPUG et la norme ISO. Les catégories des fonctions : • Les Entrées appelées ENT en français et identifiées sous le terme EI (Externals Inputs) dans le standard et la norme. • Les Sorties appelées SOR en français et identifiées sous le terme EO (Externals Outputs) dans le standard et la norme. • Les interrogations appelées INT et identifiées sous le terme EQ (External Inquiry) dans le standard et la norme. Le principe de la méthode consiste à compter l’ensemble des composants perçus par les différents utilisateurs d’une solution. La façon dont sont mis en œuvre les composants (données ou fonctions) n’est pas prise en compte. Les aspects d’implémentation ou de réalisation technique ne sont pas étudiés dans la partie normalisée de la méthode, car cette dernière se focalise uniquement sur les aspects fonctionnels. Entrées Périmètre étudié Sorties Interrogations PF Entrées 20 Sorties 35 Interrogations 12 GDI 30 GDE 14 Total 111 Interrogations Type Sorties Frontières du système étudié Entrées GDI GDE Autres applications Par utilisateur, on désigne les utilisateurs finaux, les administrateurs fonctionnels, la MOA, mais aussi les applications tierces qui échangent des résultats. Les données référencées et qui sont modifiées par une application tierce doivent être comptabilisées car elles correspondent à des données externes. 14 IT-expert n°85 - mai/juin 2010 Les services offerts aux applications tierces sont comptés de la même façon que les fonctions offertes aux utilisateurs humains sous la forme d’Entrées, de Sorties ou d’Interrogations. Le terme « Nomenclature fonctionnelle » désigne l’arborescence des fonctionnalités qui identifie précisément le contenu métier du système mesuré. Seuls les composants visibles depuis l’extérieur de l’application sont comptés. Les autres composants sont ignorés, car dépendant des choix d’implémentation ou liés aux solutions technologiques mises en œuvre. A partir de cette liste, pour chaque composant, à partir de l’association entre leur catégorie et leur complexité, les règles de la norme IFPUG fournissent un poids fonctionnel. Catégorie de Composant Complexité Faible Complexité Moyenne Complexité Elevée GDI 7 10 15 GDE 5 7 10 Entrée 3 4 6 Sortie 4 5 7 Interrogation 3 4 6 La valeur fonctionnelle de la solution est obtenue par l’addition du poids fonctionnel de tous les composants. Il s’agit donc d’une approche additive. La valeur fonctionnelle, en points de fonction, s’établit selon trois principales façons de compter : • La mesure détaillée (detailled) détaille l’ensemble des composants et leurs caractéristiques (catégorie et complexité) de chaque composant. Cette mesure est très précise, mais très chronophage. • La mesure moyenne (light) obtient une bonne précision sans être excessivement chronophage. Pour un grand nombre de composant, cette mesure présuppose de la convergence des complexités vers une valeur moyenne. Elle détaille l’ensemble des composants et leur catégorie. La complexité n’est pas précisée, tous les composants sont comptés avec une complexité moyenne. Cette mesure est nettement plus rapide que la mesure détaillée pour une faible diminution de la précision. • La mesure rapide (fast) estime rapidement l’ordre de grandeur du nombre de points de fonction. Elle ne détaille pas l’ensemble des composants de la nomenclature fonctionnelle. Diverses techniques permettent aux experts d’approcher le nombre de points de fonction. La plus connue consiste à établir un ratio représentatif entre poids des données et poids des traitements et à ne compter que les données. Technique Principales étapes de l’évolution du standard et de la norme • 1984 : IBM CIS & A GUIDELINES 313 – Version originale d’Allan Albrecht étendue dans le guide d’IBM intitulé « IBM CIS & A Guideline 313, AD/M Productivity Measurement and Estimate Validation ». • 1988 : Release 2. Cette évolution des pratiques de comptage a été réalisée pour tenir compte de l’extension des mesures PF et de nouveaux environnements de comptage. • 1990 : Release 3 est plus qu’une évolution. Le comité de L’IFPUG (International Function Points User Group) a défini un cadre homogène et cohérent de comptage en remplacement du nombre important des différentes règles de comptages. C’est le premier pas vers l’établissement d’un standard de mesure des PF quelque soit le type d’organisation. • 1994 : Release 4 intègre, principalement, des règles de mesure permettant d’estimer les PF tôt dans le cycle de vie des projets à partir des IHM. • 1999 : Release 4.1 clarifie des éléments peu documentés dans la version précédente. Elle permet de rendre l’ensemble des règles de comptage plus consistant et moins susceptible d’interprétations. • 2000 : Release 4.1.1 corrige quelques erreurs de la version précédente. • 2001 à 2003 : Release 4.2 ne remet pas en question les règles. Principalement elle restructure le manuel pour une meilleure accessibilité et lisibilité. • 2005 : Release 4.2.1 corrige quelques erreurs de la 4.2 • 2009 : Sortie de la 4.3 qui distingue nettement la mesure PF normalisée ISO du facteur d’ajustement (non fonctionnel et non normalisé ISO). Répartition de la valeur fonctionnelle par type d’applications Groupe de données externes (GDE) 8% Groupes de données internes (GDE) 24% Interrogations (QUE) 15% Entrées (ENT) 29% Sorties (SOR) 24% GDE GDI Application Référentiel fournisseur Sorties Interrogations Axes d’analyse Domaine fonctionnel Technologie Ages des applications… Entrées Les points de fonction s’utilisent au-delà de ce que propose l’IFPUG. Dans de nombreux cas, les points de fonction apportent un moyen de mesure riche et fiable. Les points de fonction sont utilisables dans le cadre de la gouvernance SI. Pratiquement, la première utilisation des points de fonction concerne la valorisation fonctionnelle du parc d’application d’une organisation. Nombre de Points de fonction L’utilisation des points de fonction est multiple. L’IFPUG propose trois principales utilisations : 1. La valorisation fonctionnelle des applications. Compte la valeur du parc applicatif et compare la valeur fonctionnelle de diverses applications. Ce type de comptage offre également un moyen de comparaison entre les fonctions utilisées et celles qui sont offertes par une application. Elle met en regard les fonctions livrées et les fonctions commandées à un prestataire. 2. La valorisation projet mesure l’ensemble des composants fonctionnels à réaliser dans le cadre d’un nouveau projet. Cette valorisation est un point essentiel d’entrée pour l’estimation de charges, car le facteur le plus influent de l’effort est la taille du développement demandé. Cette estimation de charges peut se faire selon le standard IFPUG (non normalisé ISO) ou via d’autres méthodes d’estimation de charges qui acceptent les points de fonction en entrée comme COCOMO II. 3. La valorisation d’évolution. Cette dernière part d’une nomenclature fonctionnelle où la nature de l’évolution de chaque composant est marquée (Modification, Suppression, Création). Comme pour la valorisation d’un projet, celle de l’évolution est un point d’entrée pour l’estimation de charges. Une gouvernance du SI au point Nombre de Points de fonction Des points de fonctions : pour quoi faire ? Types de composant IT-expert n°85 - mai/juin 2010 15 Les points de fonction (PF) permettent de mesurer la maturité des processus DSI en fournissant des indicateurs incorporés dans des tableaux de bord. Les PF sont utilisables dans le benchmarking. Ils servent à valoriser son parc applicatif selon lusieurs axes : domaine applicatif, technologie, progiciel, âge des applications, etc. Maintenir un référentiel associant les points de fonction avec d’autres métriques permet de déterminer des ressources utiles telles que le nombre d’ETP (Equivalents Temps Plein) pour les maintenances (correctives, préventives, évolutives), les assistances de divers niveaux, la prévision statistique du nombre d’anomalies… CMMI ainsi que le Cobit préconisent l’emploi des points de fonction comme base de mesure. Niveau Utilisation Taille des applications Taille des projets 1 : Initial/performed Taille des spécifications Estimation de l’effort par les PF Taille des lots projets (externalisation/internalisation…) Mesure de la stabilité fonctionnelle (créations, suppressions, modifications…) Ratios : Coût / PF, PF / Heure, Défauts / PF, tests (en heures) / PF… 2 : Managed Valorisation en PF des interfaces avec les autres applications par les PF Corréler les tailles des applications en PF avec les changements de gestion des risques Ratios support : Heures de support / PF, PF / Personne support, … 3 : Defined 4 : Quantitatively managed 5 : Optimized Utilisation pour la mesure de la performance des processus (PF/processus) Utilisation comme base de mesure pour le contrôle statistique de la qualité produit Ratios : Productivité organisation (Total PF / Total effort), qualité globale (Nb défauts / PF), Durée de réparation (Temps / panne / PF), délais moyen avant panne (Temps /panne / PF…) Analyse d’impact et estimation des impacts inter-projets et au niveau de l’organisation (Comparaison en PF des zones d’urbanismes, mutualisation zones transverses, taux de mutualisation…) Ratios : Défauts / PF (Taux de défaut), PF réutilisés / PF Total (taux de réutilisation), PF mutualisés / PF Total (Taux de mutualisation), PF progiciels / PF Total (Taux de progecialisation)… Exemple d’utilisation des points de fonction selon les niveaux de maturité CMMI : Les points de fonction servent de support à l’établissement des schémas directeurs. Cette méthode fournit un moyen pour déterminer la valeur fonctionnelle et les coûts de développement des applications. Associée à une méthode d’analyse de la valeur, elle contribue à définir les priorités des différents projets. Dans le même ordre d’idées, les points de fonction sont un support à la gestion de portefeuilles de projets en fournissant une mesure de la valeur fonctionnelle des applications qui composent les portefeuilles… 16 IT-expert n°85 - mai/juin 2010 Technique Les projets mieux maîtrisés Des mesures pour urbaniser le SI Les points de fonction sont un outil important dans la gestion de projet. L’association des points de fonction à l’urbanisation SI met à la disposition des urbanistes une métrique. Cette métrique permet de mesurer le poids fonctionnel des zones, des quartiers ou des îlots de l’urbanisation. L’adéquation avec les objectifs stratégiques métiers est mis en évidence par cette mesure. Les points de fonction offre à l’urbaniste des métriques pour valoriser chaque composant de la cartographie ainsi que l’ensemble de son SI. « La comptabilité fonctionnelle » qui mesure les évolutions en points de fonction sert pour valoriser la dérive fonctionnelle. Réalisée à chaque phases d’un projet (émergence, cadrage, spécifications générales, spécifications détaillées…), quantifie la dérive qui est détectée et mieux maîtrisée. Cette analyse lève des alertes, par exemple, si le besoin n’est pas mature, la dérive fonctionnelle reste importante même dans les phases avancées du projet. Cette analyse mesure cette dérive et alerte rapidement le chef de projet. Variation brute Variation nette (somme ajouts, suppressions et modifications) Delta Ajout t Nomenclature t t vers t+1 + Ajout Valeur fonctionnelle du périmètre Ajouts additionnés Modification Valeur fonctionnelle du périmètre Modifications prises en compte - Valeur fonctionnelle du périmètre Suppressions déduites Valeur fonctionnelle du périmètre Initial Suppression Variation de la valeur fonctionnelle du périmètre entre t et t+1 Suppression Modification Delta t+1 t+1 Nomenclature t+1 Périmètre total sur lequel porte la variation pour passer de t à t+1 Le suivi du réalisé et du « reste à faire » est mesurable par les points de fonction. Cette mesure est un outil de suivi de la progression du projet en points de fonction livrés et non pas en simples charges. Une corrélation des deux suivis mesure la performance des équipes tout au long du projet. Ce suivi est un outil de diagnostique de l’avancement fonctionnel qui lève rapidement des alertes en cas de problèmes dans l’avancement du projet. La valeur fonctionnelle d’un projet permet d’estimer les charges selon un cycle de vie défini. Cette estimation est réalisée soit par coefficient de performance associé aux technologies, aux catégories de projets…, soit au travers de méthodes d’estimation de charges compatibles avec les points de fonctions (ex. COCOMO II). En fin de projet, l’établissement d’un bilan de comparaison des mesures réelles par rapport aux prévues (valeur fonctionnelle PF et charges de réalisation) sert à l’organisation à capitaliser son expérience au travers de l’enrichissement d’un référentiel de mesures. Au-delà de ces valorisations, la méthode des points de fonction favorise la compréhension et le dialogue entre MOE et MOA. Simplement au travers de la liste fonctionnelle des composants de l’application, la méthode des points de fonction offre une vision de l’application accessible à toutes les parties prenantes. La méthode des points de fonction offre un moyen de détection des fonctionnalités présentes dans plusieurs applications. Les points de fonction associés à l’urbanisation mesurent le taux de redondance ou de factorisation des composants du SI. Par exemple, avec un taux de factorisation nul, la valeur d’un îlot correspondra à la somme des valeurs fonctionnelles des applications qu’il contient. Dans le cas contraire, la valeur de ce même Îlot sera plus élevée (factorisation des composants applicatifs du SI pour le même périmètre fonctionnel au niveau de l’îlot). Les points de fonction proposent un outil de mesure des référentiels partagés. Ils servent à mettre en évidence les informations partagées au sein d’une organisation (Groupes de données externes communs à plusieurs applications). Ils servent de valoriser fonctionnellement les services communs réutilisables. Par exemple au sein d’une administration la valeur de l’architecture applicative a été mesurée. Cette mesure constate une augmentation de la valeur fonctionnelle d’une application. Mais, elle correspond à une diminution globale de la valeur du patrimoine du fait de la factorisation des services réutilisables. À service constant, la diminution de la valeur de patrimoine est bénéfique, car elle reste corrélée à la baisse des coûts de maintenance. Quelques limites et contraintes La principale contrainte des points de fonction est liée au processus de mesure. Ce processus s’appuie en partie sur la documentation de l’application. Si la documentation est fiable, la mesure est fiable. Dans le cas contraire, la valeur ajoutée et l’expertise du compteur entrent en jeu. Dans des cas défavorables, deux experts peuvent arriver à une variation de 5 % et 10 % de la mesure. Cette imprécision est maîtrisable, car traçable par la nomenclature fonctionnelle, mais nécessite de se rapprocher des utilisateurs. Pour l’estimation projet, la norme ISO se limite aux aspects strictement fonctionnels. Elle ne prend pas en compte la complexité de réalisation, pas plus que les moyens humains, matériels et technologiques. Les exigences non fonctionnelles ne sont pas prises en compte. Ces limites ont un impact fort lorsqu’une estimation de l’effort d’un projet est réalisée statistiquement au travers d’un référentiel de productivité interne IT-expert n°85 - mai/juin 2010 17 ou externe. En revanche, leur impact reste limité dans le cas de l’utilisation de la méthode Cocomo II qui intègre ces aspects. La méthode des points de fonction est statistique. Plus la taille fonctionnelle mesurée est importante plus les résultats sont exploitables. Enfin, compte tenu de l’approche essentiellement fonctionnelle, la méthode des points de fonction stricto sensu doit être étendue pour s’adapter aux projets techniques, scientifiques, d’ergonomie ou à la maintenance corrective. Une panoplie d’outils Les outils liés aux points de fonction sont de trois ordres : comptage, référencement et estimation de l’effort. Type Produits Comptage FP Workbench™, SCOPE™, SFERA ®, FP Outline™, PQMPlus™, SIESTA © Référencement FP Workbench™, SCOPE™, SFERA ®, FP Outline™, PQMPlus™ Estimation SPR Knowledge Plan™, ISBSG ©, COCOMO Certains outils permettent de réaliser un comptage rapide comme FP Outline, KISS et SPR KP Composants. L’intérêt consiste à enrichir progressivement le comptage. Les autres outils nécessitent de définir la liste des composants et leurs caractéristiques au travers de saisies multiples. Cependant, ces outils ne permettent pas la réalisation de saisies rapides et de saisies de masse. 18 IT-expert n°85 - mai/juin 2010 De nombreuses organisations utilisent des outils réalisés à l’aide de tableur tels que ceux de Microsoft ou d’Open Office. Le principal défaut de ces outils réalisés sur ces plateformes bureautiques réside dans l’absence de fonction de référencement. Néanmoins, ils sont totalement adaptables. Certains outils tels que ceux de CAST permettent de réaliser un comptage à partir du code applicatif. Ainsi, AIP (Application Intelligence Platform) réalise l’analyse du code et des requêtes de l’IHM. Cet outil détermine également les évolutions fonctionnelles et permet d’obtenir rapidement l’évaluation d’un parc existant. Dans tous les cas, cette évaluation sera complétée par un calibrage effectué par un expert afin de garantir la conformité des mesures aux normes et aux règles de comptage de l’organisation. Ces outils automatiques ne produisent pas de nomenclature fonctionnelle, cadre de toutes les négociations ou d’utilisation des méthodes agiles tel que le backlog de Scrum. Technique Pascal Lemaître, Consultant senior Utilise les points de fonction auprès des principaux clients de Semantys (Michelin, DGFiP, SNCF…) et coresponsable de l’évolution de la gamme Semantys d’outils de comptage et d’estimation de charges. [email protected] Utilisation des points de fonction en France Depuis de nombreuses années, diverses organisations utilisent les points de fonction : Renault, PSA, Michelin, Orange/France Télécom, SFR, Bouygues Télécom, la Société Générale, la SNCF…. Certaines administrations telles que la DGFiP (Direction Générale des Finances Publiques), le Ministère de l’Agriculture et de la pêche utilisent les points de fonctions. La mise en place des points de fonction suit un processus qui commence par l’évaluation patrimoniale afin d’obtenir un niveau de maturité suffisant avant de passer à la valorisation des évolutions et à l’estimation de charge. Depuis plusieurs années ce processus est suivi auprès de Michelin et de la DGFiP. Aujourd’hui, la DGFiP utilise les points de fonction pour mesurer la valeur fonctionnelle de ses applications et de leurs évolutions. Les points de fonction servent de base de mesure pour des indicateurs dans le cadre de la mise en place de CMMI. Au-delà des utilisateurs, de plus en plus de SSII pratiquent les points de fonction. Certains acteurs demandent à leur soustraitant de s’engager sur des productivités pour la création, la suppression et la modification de PF dans le cadre de marché de TMA (Tierce maintenance applicative). Ces contrats nécessitent, de la part des SSII, la maîtrise des points de fonction incluant la gestion d’un référentiel selon les domaines d’intervention et les technologies de production pour s’engager sur des coefficients de productivité. n Références IFPUG : www.ifpug.orvg ISO : www.iso.org ASSEMI : assemi.fr SFERA ® : www.dpo.it FP Outline™, PQMPlus™ : www.totalmetrics.com FP Workbench™ : www.charismatek.com Lionel Perrot, Consultant Manager Utilise les points de fonction depuis plus de 10 ans et intervient auprès des principaux clients de Semantys. Il est coresponsable, au sein du pôle gouvernance de Semantys, de la mise en œuvre des points de fonction dans les processus de mesure SI. M. Lionel Perrot est membre de l’ASSEMI. [email protected] Joël André, Directeur, cofondateur du cabinet Membre de l’IFPUG et de l’ASSEMI, il utilise les points de fonction depuis plus de 15 ans et intervient auprès des principaux clients de Semantys. Il est responsable de l’offre SEMANTYS et particulièrement de l’utilisation des points de fonction. [email protected] FP Outline™, PQMPlus™ : www.totalmetrics.com ISBSG : http://www.isbsg.org/ Knowledge Plan ® : www.spr.com PQMPlus™ : www.qpmg.com SIESTA © : www.sogeti.nl CAST : www.castsoftware.com COCOMO II : sunset.usc.edu/csse/research/COCOMOII IT-expert n°85 - mai/juin 2010 19 Actualités internationales Le Cloud SAP Business ByDesign arrive enfin cet été À l’occasion de son show « SAPPHIRE Now » à Francfort mi-mai, SAP a présenté Business ByDesign 2.5 comme le lancement de son offre d’ERP en mode Cloud, destinée aux TPE et PME/PMI (à partir d’une dizaine d’utilisateurs). Outre l’intégration native des technologies Office de Microsoft, on constate également une interface améliorée grâce à la technologie Silverlight de… Microsoft. Parmi les nouveautés : l’analyse en temps réel des données de l’entreprise en mémoire (y compris sur Excel) via la technologie InMemory ; la mobilité sécurisée pour les connexions mobiles et 3G à l’ERP, un premier niveau de personnalisation (écrans et formulaires essentiellement) ; des offres prépackagées (préparamétrées) en fonctions de certains métiers. Enfin, SAP confirme que sa plate-forme reste multitenant, et propose même la possibilité aux entreprises d’opter pour des ressources matérielles dédiées (CPU, mémoire, disque). On regrettera que cette option soit baptisée « monotenant », un mot qui rend le message du multitenant ambigu (une seule plate-forme logicielle pour tous les clients qui se c réent une instance, sur ressources dédiées ou non). Business ByDesign 2.6 prévue en fin d’année s’ouvrira plus un peu plus à la personnalisation et au développement par mash-ups (et DLL internes documentées) aux SSII et aux DSI. Elle devrait accélérer la dynamique de l’offre, avant l’arrivée de la plate-forme de développement (PaaS) en ligne (.net et Visual Studio) courant 2011. n Microsoft verse 200 millions de dollars à VirnetX Pour mettre fin aux poursuites pour violation de brevet initiées par le spécialiste américain de la sécurité VirnetX à son encontre, Microsoft a finalement négocié et versé 200 millions de dollars. VirnetX avait déjà gagné un premier procès en 2007 contre l’éditeur de Windows pour l’utilisation par celui-ci de sa technologie brevetée de réseau privé virtuel (VPN) dans Windows OS XP, Windows Vista, Windows Server 2003, Live Communications Server, Windows Live Messenger, etc. Microsoft avait été condamnée à verser 105,75 millions de dollars d’amende (85,29 millions d’euros). Et Virnet avait récemment renouvelé sa plainte, mais cette fois pour les systèmes d’exploitation Windows 7 et Windows Server 2008. VirnetX travaille pour la CIA (agence de renseignements américaine) pour sécuriser les communications en temps réel (messageries instantanées, téléphones portables…) et commercialise les brevets issus de ces travaux. Une bonne publicité pour cette petite société cotée, mais une affaire qui écorne encore l’image du géant de Redmond… n 20 IT-expert n°85 - mai/juin 2010 Actualités internationales SAP offre 5.8 milliards de dollars pour s’emparer amicalement de Sybase Le 12 mai, SAP crée l’événement en proposant environ 5,8 milliards de dollars (65 dollars par action) pour racheter le spécialiste de bases de données Sybase. On a beaucoup entendu, et SAP a souligné, l’intérêt des technologies mobiles de Sybase. Toutefois, et bien que Sybase ne soit pas très connu en France (en dehors de spécialistes), « c’est un peu court ». En effet, l’entreprise jouit aussi d’une grande réputation sur les bases de données, et particulièrement pour le décisionnel ou sa solution IQ (Interactive Query) qui occupe une place de choix dans les secteurs financier et des télécommunications. Secteurs où justement SAP souhaite se renforcer… Bien plus que la mobilité Si Sybase est effectivement devenu une référence sur les applications mobiles, il est surtout historiquement un éditeur de bases de données à forte image technologique (conception des SGBD dynamiques et des applications Web dès le milieu des années 90), dont une des versions est à l’origine de SQL Server. Excusez du peu ! Voici donc une liste de quelques-unes des technologies phares de l’éditeur si convoité : • ASE (Adaptive Server Enterprise, et sa version Cluster) est le SGDBR de Sybase conçu pour les applications critiques ou à fort volume transactionnel, clairement positionné face à Oracle et SQL Server. • Sybase IQ (Interactive Query), est un SGBDR destiné aux applications analytiques (datawarehouse) combinant stockage en colonnes, indexation totale et compression des données. Plus de 1700 clients qui intéressent au plus haut point SAP. • Le SGBDR Advantage Database Server combine langage SQL et interfaces de développement natives compatibles avec les outils de programmation les plus répandus. Destinée aux éditeurs et programmeurs, elle se positionne en base de données pour applications client/serveur performantes et à fort volume transactionnel. • SQL Anywhere : base de données relationnelle « légère » (avec fonction de synchronisation sur un plus gros SGDBR) pour applications bureautiques sur de multiples plates-formes, dont téléphones mobiles. Ses outils permettent de concevoir et de déployer des applications pour ces environnements. • Sybase iAnywhere Mobile Office propose une infrastructure mobile complète pour apporter aux messageries électroniques d’entreprise l’ouverture vers la plupart des environnements mobiles. Et Sybase Unwired Platform offre une architecture pour développement sans contraintes et de déploiement automatisé pour les applications mobiles. Mobilité pour la finance (nBanking, RAP - The Trading Edition), les opérateurs de télécommunication (MMX 365). • Sans oublier le très populaire environnement de développement PowerBuilder et le module de conception de métadonnées PowerAMC. On comprend mieux alors pourquoi SAP a proposé une telle somme, obligeant un éventuel surenchérisseur à réfléchir à deux fois. n Microsoft attaque Salesforce en justice M algré une politique traditionnellement non agressive envers ses concurrents, Microsoft semble cette fois bien décidée dans sa poursuite contre Salesforce.com pour violation de neuf de ses brevets. Si l’on ne connait actuellement pas le détail de ses brevets, le responsable de propriété intellectuelle chez Microsoft, Horacio Gutierrez affirme que l’éditeur investit « des milliards de dollars chaque année pour fournir des logiciels et des services de qualité. Nous sommes responsables face à nos clients, nos partenaires et nos actionnaires de la sauvegarde de cet investissement. Nous ne pouvons pas rester les bras croisés tandis que d’autres sociétés portent atteinte à notre propriété intellectuelle. » L’arroseur arrosé a déjà dû faire face à plusieurs procès en la matière, et a perdu récemment contre les sociétés i4i sur le XML et VirnetX sur le VPN. Mais surtout, Salesforce.com est devenu un concurrent sérieux face à ses offres CRM, et devient un vecteur très porteur pour les autres concurrents de Microsoft en portant leurs solutions en mode Cloud sur sa plate-forme, tandis que le géant de Redmond lance sa plate-forme de développement Cloud baptisée Azure, concurrente de force.com de salesforce. Simple coïncidence ? n IT-expert n°85 - mai/juin 2010 21 Unity : l’interface Ubuntu allégée pour netbook Mark Shuttleworth, créateur de la distribution Ubuntu a confirmé que la version 10.10 Netbook Edition de cette suite Linux proposerait un environnement de bureau allégé baptisé Unity. La nouvelle organisation de l’écran (plus sobre) tirera profit des technologies Gnome 3 : le lanceur d’applications sur la gauche, la barre de recherche en haut aux côtés des menus de la fenêtre active, etc. À la manière de ce que propose Sony, Ubuntu sera proposé en mode Instant-on, un démarrage ultrarapide en « Ubuntu Light » en quelques secondes avec des fonctions de base : lecture de médias, accès à Internet. Une bonne nouvelle pour les utilisateurs de Netbook qui recherchent généralement un équipement léger, réactif, et surtout, non pénalisé par une interface trop riche pour ce type d’usage. n SFR passe devant Free sur l’ADSL E n gagnant 148 000 abonnés au premier trimestre 2010, AFR totalise 4,592 millions d’abonnés à l’ADSL (contre 4,56 pour Iliad) soit une croissance de 13,6 % comparé à mars 2009. Dans le même temps, Free n’a recruté que 88 000 abonnés, et en a perdu 40 000 chez Alice… Orange s’est lui contenté de 57 000 nouveaux clients ADSL. Bonne nouvelle : SFR a abaissé son taux de désabonnement à moins de 13 %. Décidément, un très bon premier trimestre pour Free qui a attiré 225 000 clients, contre 149 000 pour Bouygues Telecom, tandis qu’Orange en perdait 173 000 ! Au total, SFR revendique 20,3 millions d’utilisateurs mobiles (dont 15 millions abonnés). Pour renforcer cet effet du en partie aux nouveaux forfaits Illimythics, SFR va lancer de nouvelles offres premium, destinées à répondre aux besoins de clients prêts à payer pour obtenir plus. La prochaine version de sa box triple-play devrait intégrer l’accès à de nouveaux services à valeur ajoutée qui n’ont pas été précisés. Et le tout pour un prix inchangé de 29,90 euros. À suivre… n Symantec en quête de plus d’identité rachète Verisign « En mai, fais ce qui te plait ! » : le mois des emplettes pour Symantec qui s’offre les activités Identité et Authentification de l’éditeur américain Verisign pour environ 1,28 milliard de dollars. Le panier regroupe les solutions SSL (Secure Socket Layers), Certificate Services, PKI (Public Key Infrastructure) Services, VeriSign Trust Services et VPI (VeriSign Identity Protection) Authentication Service. Renforçant ainsi son offre d’authentification unique (SSO), ravivée par l’explosion du Cloud Computing, l’éditeur se positionne plus fortement sur la gestion des risques, marché de plus en plus porteur. Cette acquisition (qui serait finalisé vers septembre 2010) suit le rachat de PGP Corporation (300 millions de dollars) et GuardiaEdge (70 millions de dollars), spécialistes du chiffrement et de la prévention des fuites de données. De son côté, Symantec se consacrera uniquement à la gestion des noms de domaines. n 22 IT-expert n°85 - mai/juin 2010 Actualités internationales Google annonce son service Paas App Engine Business L ors de sa conférence Google I/O à San Francisco mi-mai, l’éditeur de services en ligne à dévoilé la nouvelle version entreprise de son App Engine, service d’hébergement d’applications Google s’appuyant sur technologies VMware, avec portabilité en mode Cloud. Google se positionne sur les plates-formes de développement d’application Cloud pour les entreprises (PaaS, platform as a service). Initialement destiné aux développeurs d’applications Web, l’App Engine proposait d’héberger des applications destinées au grand public. Toutefois, les utilisateurs jugeaient le concept limité et non adapté aux applications d’entreprise. App Engine for Business s’est enrichi du « minimum syndical » : une console d’administration pour gérer et veiller sur les applications, un support technique, une garantie de service de 99,9 % de disponibilité, mais aussi la possibilité de définir des politiques de sécurité et d’accès aux applications métiers. La tarification très agressive est mise en place : 8 dollars par utilisateur et par mois, avec un plafond de 1 000 dollars mensuel. Actuellement, la solution est disponible pour un nombre limité d’utilisateurs. Bientôt devraient arriver : installation de bases de données, ajout du protocole SSL pour protéger les échanges… n Office 2010 arrive avec les Office Web Apps Oracle acquiert Secerno pour protéger ses bases de données Oracle poursuit sa politique d’acquisition externe avec le rachat mi-mai du britannique Secerno, développeur des pare-feux Datawall pour les bases de données, prévenant la perte de données. D Un contrôle d’accès aux données qui intéresse le leader mondial qui complète ainsi son offre de sécurisation des environnements de données : Identity Management, Advanced Security, Database Vault et Audit Vault. En effet, Datawall sait bloquer en temps réel les évènements interdits par les processus, pour les applications critiques ou non. « Notre solution comble les brèches laissées par les politiques de sécurité, y compris celles concernant les utilisateurs de confiance ou à très haut privilège dans le système » assure-t-on chez Secerno. Des fonctions très utiles dans le cadre du respect des règles de conformité imposées par les autorités nationales et internationales, segment sur lequel œuvre également l’éditeur britannique. Les solutions Secerno supportent les produits Oracle, Microsoft SQL Server et Sybase. n isponible dès le 12 mai pour l’entreprise et le 15 juin pour le grand public, la suite Microsoft Office 2010 n’apporte finalement pas de grands bouleversements par rapport à la version 2007 : de nombreuses améliorations d’affichage et des vidéos intégrées dans les documents PowerPoint. Outllook 2010 propose lui plus de nouveautés : le menu-ruban est enfin disponible partout (tout comme Access 2010) ou encore un Social Connector (historique des communications, y compris des réseaux sociaux). En revanche, Office 2010 incarne pleinement la stratégie Software+Services en combinant licences Cloud et service on-line. En effet, Office 2010 et SharePoint sont déclinés en versions allégées sous forme de services Web. Les Office Web Apps sont proposées aux entreprises via un contrat annuel ou par abonnement mensuel et par utilisateur sur Microsoft Online Services. La version Famille/TPE est commercialisée à 379 euros, et la version professionnelle à 699 euros. Les services en ligne Office Web Apps, utilisables en cohérence avec les logiciels Office, s’attaquent donc aux outils Google Apps, pour 50 dollars par an pour les professionnels. Google annonce déjà deux millions d’entreprises utilisatrices de ses Google Apps. Il était temps que Microsoft réagisse… n IT-expert n°85 - mai/juin 2010 23 Green IT : fable écologique ou sujet incontournable pour la DSI ? L’informatique verte ou Green IT est au cœur de l’actualité IT depuis 2008. Manifestations, rapports d’experts et analyses sont largement repris dans la presse générale et spécialisée. En 2008, le cabinet d’analyse Gartner classe le sujet « Green IT » parmi les 10 technologies clés pour les entreprises dans les prochaines années. Plusieurs forums et séminaires lui sont régulièrement consacrés en France. Une offre matérielle, logicielle, de conseil… se construit et un marché se structure… 24 IT-expert n°85 - mai/juin 2010 Quoi de neuf Docteur ? Sous l’impulsion du monde politique, les réglementations se mettent en place : • Aux États-Unis, une initiative globale liée à l’environnement a été lancée en octobre 2009 (GreenGOv Challenge sur le site de la Maison-Blanche http://www.whitehouse.gov/greengov/) et le Green IT en constitue une des briques ; • En Allemagne, un programme national de 25 millions d’euros a été lancé en 2009 à l’initiative du ministère de l’Environnement (BMU) pour participer à l’efficacité énergétique des technologies de l’information ; • En France, un rapport sur les Technologies de l’Information et de la Communication (TIC) et le développement durable a été remis en 2009 à Jean-Louis Borloo et Christine Lagarde. Au-delà de ce buzz et d’un possible effet de mode, où en sont concrètement les DSI ? Sont-elles devenues Green ? Les diverses lectures du Green IT Face aux besoins des entreprises de maîtriser leur empreinte écologique, de réduire leurs dépenses énergétiques et celles de leurs clients, de mettre en place leur politique de développement durable, la fonction informatique offre des solutions. Pour certains, le Green IT est donc positif et apporte des solutions à l’ensemble de l’entreprise et à ses clients pour réduire l’empreinte écologique. Or, la DSI est aussi un département avec des hommes, des ressources… qui consomment, se déplacent, etc. Et surtout, elle s’avère très gourmande en consommation énergétique. C’est pourquoi d’autres cantonnent le Green IT à l’ensemble des dispositifs et solutions pour réduire cette « empreinte DSI ». Dans les entreprises du secteur tertiaire, la fonction informatique est devenue le principal consommateur énergétique, donc un des principaux pollueurs. Une étude de la Commission européenne estime, au plan mondial, que la fonction informatique dans l’ensemble des entreprises et organisations représenterait 2 % de la consommation énergétique globale et des émissions de gaz à effet de serre. Soit autant que le poids des transports aéronautiques. Cependant, le Green IT doit s’apprécier selon ces deux niveaux de lecture : la DSI en tant que pollueur qui prend des dispositions pour réduire ses propres empreintes et la DSI en tant que fournisseur de solutions pour réduire l’empreinte environnementale de l’ensemble de l’entreprise. La DSI pollueuse directe ou indirecte Un constat : « réduire la consommation énergétique des datacenter et du parc informatique » représente plus de 70 % de la littérature produite et des solutions décrites sur le Web concernant le Green IT. Cela couvre l’ensemble des idées, expérimentations et solutions concernant la virtualisation, les techniques matérielles et logicielles sur les postes de travail, les nouvelles solutions de serveurs, les outils et techniques d’optimisation de la dépense énergétique des centres de données. Les principaux acteurs sont les constructeurs de matériels. Parmi les thématiques traitées dans les 30 % restant de la littérature, on note le recyclage des matériels informatiques (en application de la directive européenne DEEE - Déchets d’équipements électriques et électroniques -notamment) ou les réductions d’usages du papier et des consommables au sein de la DSI. La DSI active pour réduire l’empreinte environnementale Selon leur secteur d’activité et leur stratégie, les entreprises ou organisations mettent en place des projets de réduction de leur empreinte environnementale. Ils s’adressent naturellement à la DSI pour évaluer, mesurer, rendre des comptes. Mais aussi, lorsqu’il s’agit de mettre en place de nouveaux processus, de nouvelles technologies, de nouveaux usages. Ainsi, la DSI peut mettre en place des projets de dématérialisation des flux intra voir inter entreprise, de l’automatisation de type workflow, de la vidéoconférence, des outils collaboratifs pour réduire les déplacements des collaborateurs… Elle peut aider à déployer des dispositifs couplés à de l’électronique pour piloter les dépenses énergétiques dans les bâtiments ou encourager les bons usages et bonnes pratiques environnementales : covoiturage, bourses aux transports, communautés Développement durable… IT-expert n°85 - mai/juin 2010 25 La DSI est également là pour aider à la réduction de l’empreinte écologique des clients et des partenaires de l’entreprise. Les technologies de type SmartGrid et les solutions logicielles mises à disposition des clients des entreprises (ex. CarbonHub) accompagnent cette tendance qui va continuer à croître. Au sein de la DSI, quels sont les secteurs et missions plus particulièrement concernés par le Green IT ? Sur la base d’un fond de plan des missions de la DSI, quels sont les impacts et/ou réflexions à avoir vis-à-vis du Green IT ? STRATEGIE Arbitrage des projets RELATION CLIENT Méthodes DEVELOPPEMENT DE SOLUTIONS Gestion des problèmes Gestion des configurations Gestion des habilitations Gestion des versions Test & Qualification Gestion des demandes Gestion des changements Maintenance des applications Exploitation & maintenance systèmes Exploitation & maintenance réseau La DSI en tant que pollueur direct ou indirect Sourcing Continuité de services Formation Capacité Organisation Processus Etudes & Développement Administration des données Exploitation des applications La DSI en tant que fournisseur de solutions et de technologies Ressources Gestion compétences PRODUCTION Disponibilité CONTROLE Finance PROCESSUS METHODES Sécurité Indicateurs / Tableaux de bord de pilotage Achats HELP DESK UTILISATEURS Oresys© INCIDENTS Contrôle et Gestion des risques Comptabilité FOURNITURE DE SERVICES DES Pilotage des projets/ Activités Management Budget GESTION Urbanisme & Architecture SI POLITIQUES SYSTEMES Gestion des besoins et demandes Conventions de services Gouvernance Informatique Facturation des services CLIENTS PILOTAGE Stratégie Informatique Fournisseurs 1. Stratégie informatique : intégrer des objectifs et un chapitre Green IT dans le schéma directeur 2. Urbanisme et Architecture du SI : promouvoir une architecture flexible, agile, durable permettra des solutions et des processus moins énergivores. 3. Arbitrage des projets : ajouter des critères d’arbitrage relatifs à la contribution du projet à la réduction de l’empreinte environnementale et à la politique Développement durable de l’entreprise. 4. Politique Systèmes : choisir les architectures, matériels et logiciels qui optimisent la consommation énergétique. 5. Processus : outillage des processus de l’entreprise (système de workflow) 6. Développement de solutions : mise en place de système de comptabilité carbone, de dématérialisation… 7. Exploitation et maintenance réseau : mise en place de solutions de vidéo-conférence, de travail à distance… 8. Achats : mise en place d’une politique d’achats de matériels « verts » a. Indicateurs/tableaux de bord de pilotage : suivi de l’impact des activités de l’entreprise sur l’environnement (empreinte carbone, tableau de bord DSI (papier, énergie…)) b.Ressources : mise en place d’une nouvelle organisation des ressources humaines et matérielles de la DSI (réduction papier, déplacements du personnel…) c. Conventions de services : inclure des critères et indicateurs liés au green IT (par exemple sur les consommables…) d. facturation des services : évoluer vers une refacturation/comptabilisation développement durable e. Fourniture de services : mettre en place un SI de la DSI qui dématérialise les échanges et réduit les impacts f. Exploitation et maintenance des systèmes : contrôle et maîtrise de la consommation énergétique des datacenter g. Exploitation des applications : outiller avec des dispositifs de surveillance et des logiciels de virtualisation Illustrations de l’impact du Green IT sur le métier de la DSI 26 IT-expert n°85 - mai/juin 2010 Quoi de neuf Docteur ? Quelles motivations poussent les projets Green IT ? Pour déployer et maintenir des projets Green IT, l’entreprise doit y trouver son compte, y être contrainte, ou encore puiser une motivation dans ses valeurs ou sa communication. On distingue généralement les moteurs suivants dans les projets Green IT : 1. La mise en conformité par rapport à la règlementation européenne ou autre (ex : mise en œuvre de la directive REACH dans les grands groupes industriels pour la traçabilité des substances environnementales dangereuses) ou l’anticipation de la règlementation (ex : la mise en place de démarche HQE et de projets Smart Grid (réseau de distribution d’électricité « intelligent ») par les acteurs de la construction et des travaux publics). La Commission européenne est aujourd’hui le principal « producteur » de règlementation environnementale dans le monde, et une grande partie des autorités règlementaires de par le monde s’inspire de ses mécanismes ou directives. 2. Les opportunités de réduction des coûts et de performance économique (ex : dématérialisation des factures chez Bouygues ou au Ministère des Finances, dématérialisation des relevés bancaires à la BNP Paribas). 3. La volonté d’inventer de nouveaux produits ou services différenciant afin de profiter d’une opportunité Business ou d’améliorer l’image de la marque auprès de ses clients (ex : Écocomparateurs de la SNCF, notation environnementale des produits d’épargne de la banque Crédit Agricole). 4. L’appartenance du développement durable au cœur de la stratégie de l’organisation avec un engagement social et environnemental fort. Cette stratégie se décline alors en objectifs opérationnels et projets auxquels le SI est associé. L’engagement des grandes entreprises sur la voie de la Neutralité Carbone est un exemple : (ex. HSBC, Danone et d’autres grandes entreprises). 5. L’impulsion collective et les changements culturels qui s’accompagnement d’un changement des habitudes de travail (ex : projets de mobilité, télé travail et web-conférences). 6. Une demande d’un engagement plus fort de l’entreprise sur les enjeux environnementaux qui peut venir soit de l’interne (les salariés), soit de l’externe (les clients, éventuellement relayés par les médias, les ONG ou les voix politiques). Généralement, la DSI ne sera que l’un des rouages des programmes d’actions environnementales qui pourraient être lancées par l’entreprise. Dans tous ces cas, comme pour l’arbitrage de tout projet informatique, une justification économique reste l’élément clé pour mener à bien les projets « étiquetés Green IT ». Les sponsors de ces projets sont le plus souvent la direction générale poussée par la stratégie de l’entreprise. Une partie de ces initiatives est toutefois à mettre à l’actif du DSI dans un mode proactif vis-à-vis du reste de l’entreprise. Au sein des grandes entreprises publiques et privées, les avancées environnementales de l’IT ont souvent été initiées par les départements Développement durable. Ils se sont généralement traduits par des projets concrets relatifs à la réduction de la consommation de papier, au recyclage du matériel, à la mise en place d’alternatives sur les déplacements des collaborateurs, aux solutions de télétravail et de mobilité… Le sujet « Green IT » commence à être identifié comme un sujet à part entière. On constate aujourd’hui l’émergence d’un nouveau métier au sein des grandes DSI : le chef de projet Green IT. Ce dernier peut jouer plusieurs rôles : correspondant SI et collecteur d’information pour le directeur Développement durable, chef de projet agitateur d’idées ou coordinateur des actions environnementales de la DSI, responsable de programme (programme Green Computing chez Axa Technology Services, Greening IT Program chez BNP Paribas…), etc. IT-expert n°85 - mai/juin 2010 27 La maturité des organisations sur le sujet reste toutefois très variable selon les secteurs et leur sensibilité au développement durable. Parmi les mesures au plus fort potentiel de réduction de l’empreinte écologique, on peut citer : • la dématérialisation (visioconférence, télétravail et E-Commerce), • l’optimisation des consommations électrique en heures de pointe (pilotage à distance du chauffage et des équipements domestiques (« smart home », recharge « intelligente » des véhicules électriques), • l’optimisation des transports (optimisation des réseaux logistiques professionnels, aide à la conduite des véhicules, TIC embarquées pour permettre le développement du « paiement au kilomètre » (de l’assurance au kilomètre jusqu’à l’autopartage type Autolib’). Globalement, les réalisations concrètes restent encore modestes, mais les économies réalisées et l’efficacité de certaines solutions Green IT semblent conforter une demande croissante de la part des entreprises sur le sujet. Les acteurs de l’univers « Green IT » Pour aider les entreprises et organisations à prendre en compte le sujet Green IT, des acteurs émergent sur ce secteur en cours de structuration. Direction Générale Constructeurs Directions métiers Cabinets de conseil TIC et DD Fournisseurs d’énergie Editeurs Autres prestataires Infogérant Personnel de l’entreprise DSI INFRASTRUCTURES EXPLOITATION DEVELOPPEMENT L E S H O M M E S PRESSION Clients / Engagement RSE / Parties prenantes / Lobbying Les institutionnels de la Fonction SI © ORESYS Les principaux acteurs de l’univers Green IT 28 IT-expert n°85 - mai/juin 2010 Le Règlementaire ou Législateur Quoi de neuf Docteur ? Les fournisseurs (de matériels, de logiciels, de conseil et d’expertise…) • Les constructeurs sont les premiers acteurs à s’être emparés du sujet Green IT. Regroupés dans des groupes de travail comme le Green Grid, ils ont participé à la création d’un marché Green IT sur le matériel aujourd’hui mature comme en témoigne l’usage de l’indicateur PUE (Power Usage Effectiveness) qui mesure l’efficacité énergétique des équipements informatiques. L’abondance des projets et de littérature sur la consommation énergétique des matériels et datacenters est de leur fait. • Les éditeurs de logiciels sont également dynamiques. On peut segmenter ce marché de la façon suivante : - Les solutions spécifiques de collecte de données et de système de reporting (Enablon, Verteego, Tennaxia…), - Les logiciels de virtualisation, d’exploitation, de réseau… - Les logiciels d’optimisation du poste de travail (Avitis…), - Les logiciels de mesures de l’empreinte de la DSI, de bilan carbone de l’entreprise (mettant en œuvre les méthodes de calcul ADEME ou autres), - Les solutions de travail à distance, WebEx, plateforme collaborative 2.0… - Les plateformes collaboratives qui agissent par pédagogie et partage de bonnes pratiques permettent d’agir sur l’usage et les comportements (CarbonHub…). À noter que ces dernières peuvent être très efficaces du fait du mouvement citoyen qui se met en place autour du Développement durable et du Green IT. • Les cabinets de conseil en TIC et/ou Développement durable qui apportent efficacité et conseil dans ce marché en ébullition. Les institutions et associations de la fonction informatique • En France, le Syntec Informatique a mis en place un groupe de travail sur le Green IT à l’origine de la parution de deux livres blancs (dématérialisation, télétravail). • Le CIGREF est à l’origine d’un outil d’auto-évaluation de l’écoresponsabilité du SI. Le monde de l’informatique français est en cours de structuration autour du sujet Green IT. Les législateurs français, européens ou internationaux Le Green IT est né et est tiré par la règlementation. Le facteur de dynamisme du secteur n’est pas que le reflet des fournisseurs, éditeurs et cabinets de conseil souhaitant créer un nouveau marché. Ce marché existe (ou existera) du fait des nouvelles contraintes règlementaires portées par les politiques et les citoyens. Le rôle du législateur s’est avéré et reste essentiel dans la structuration de l’univers Green IT. Au niveau européen, par exemple, certaines directives majeures contraignent les entreprises à se transformer, à définir et outiller de nouveaux processus métier. La DSI intervient pour créer les nouveaux outils de tracking et de consolidation/reporting développement durable, pour modifier/créer de nouveaux processus (par exemple certains simples d’alerte éthique, d’autres très complexes). Parmi ces réglementations certains processus SI sont concernés comme le suivi du cycle de vie du matériel qui doit inclure la fin de vie et recyclage. IT-expert n°85 - mai/juin 2010 29 Trois directives majeures vis-à-vis de la DSI donnent presque systématiquement lieu à des projets dans les entreprises : • DEEE (Déchets Équipement électrique électronique): enlèvement et traitement des déchets d’équipements électriques et électroniques professionnels et modalités de traitement de ces déchets (pour tous les équipements fonctionnant avec une prise électrique, une pile ou un accumulateur) – décret n°2005-829 du 20 juillet 2005 • RoHs (Restriction of the use Of Hazardous Substances in electrical and electronic equipment) : limitation de l’utilisation de 6 substances dangereuses dans les équipements électriques et électroniques – directive 2002/95/CE • Reach : enregistrement, évaluation et autorisation des produits chimiques – règlement du 18/12/2006 À l’échelle française, au titre de l’Engagement national pour l’Environnement issu du Grenelle de l’Environnement, une prochaine étape d’ici à 2011 pourrait être l’obligation pour les entreprises de plus de 500 personnes et les collectivités territoriales d’élaboration d’un bilan d’émissions des gaz à effet de serre. Début mai 2010, les suites du Grenelle de l’Environnement sont discutées par les députés à l’Assemblée Nationale, notamment à la suite de la parution du rapport du député Michel Havard sur l’obligation d’élaboration d’un bilan d’émissions des gaz à effet de serre. La DSI serait alors un partenaire privilégié pour l’application de cette règlementation. Il est clair aujourd’hui que la règlementation environnementale se fera de plus en plus contraignante dans les années à venir, en Europe ou ailleurs. Conclusion Réglementaire Pression réglementaire Pour l’entreprise et pour la DSI 1. Diagnostic Empreinte Environnementale DSI Proposer des solutions / outils innovants ENTREPRISES Clients 2. Plan d’action 3. Mesure et suivi Proposer des outils de reporting et de mesure Coûts Innovation Opportunité businesss © ORESYS Le Green IT - des projets au centre des préoccupations Développement durable des entreprises 30 IT-expert n°85 - mai/juin 2010 Quoi de neuf Docteur ? Le décalage peut paraître important entre le « bruit » médiatique autour du Green IT et les réalisations concrètes dans les entreprises. Reste que la problématique du développement durable est devenue incontournable dans les objectifs et les modes de fonctionnement des entreprises en France, et plus largement en Europe. Selon une étude du cabinet BCG de janvier 2009, l’usage des TIC serait indispensable pour mettre en place les nouvelles solutions dans les secteurs où l’essentiel des réductions d’émissions de Gaz à Effet de Serre (GES) est possible. Il pourrait contribuer à un tiers de l’objectif de réduction national d’ici 2020. La capacité de la DSI à réduire sa propre empreinte environnementale n’adresse qu’une partie de la problématique (même si elle est non négligeable). Le véritable enjeu réside dans la capacité des DSI à accompagner la transformation des entreprises vers une performance à la fois économique et environnementale, une performance… durable. Avec le durcissement des règlementations et les enjeux économiques qui peuvent être atteints grâce à des solutions IT, la DSI a l’opportunité de jouer un rôle clé dans les entreprises autour du Green IT, pour ces prochaines années. Sujet de mode, le Green IT va devenir une préoccupation majeure. Il impacte non seulement la DSI et l’entreprise mais également les clients et les partenaires externes. n François-Xavier Chenevat, Responsable de l’activité Développement durable Arnaud Mestre, Consultant en charge des offres Green IT Érik Ghesquière, Directeur associé du cabinet, depuis plus de 25 ans en conseil auprès des Directeurs du Système d’information Acteur majeur du conseil en management et organisation, Oresys est une société indépendante de 230 consultants basée à Paris, Lyon, Bruxelles qui aide ses clients à piloter leurs activités, améliorer la performance et mettre en œuvre leurs projets de transformation. ORESYS intervient sur toutes les dimensions : métiers, organisation, processus, système d’information, accompagnement du changement. Site web : http://www.oresys.eu/ IT-expert n°85 - mai/juin 2010 31 Le web sémantique : la voie royale pour gérer l’information ? À l’heure où l’on commence à parler du Web 3.0, le web sémantique revient sur le devant de la scène. Malheureusement dix ans après avoir été lancé par Tim Berners-Lee, force est de constater que le web sémantique est loin d’être une réalité. Cependant s’il a été initialement conçu et imaginé pour une utilisation dans le cadre du Web, le web sémantique, mais surtout les technologies qu’il sous-tend, intéresse de plus en plus les organisations en quête d’interopérabilité et d’automatisation plus importante de la gestion de leurs informations. 32 IT-expert n°85 - mai/juin 2010 Comment ça marche ? L’agent logiciel au coeur du système Aujourd’hui, le Web est exploité par des individus qui recherchent des informations via des moteurs de recherche et qui exploitent eux-mêmes les résultats. Demain, le Web devenu sémantique sera exploité en priorité par des machines et des agents logiciels, qui traiteront eux-mêmes les questions posées par les individus pour leur apporter le résultat le plus pertinent. Comment l’intelligence vient à l’agent Qu’est-ce qu’un agent ? Il est difficile de donner une définition du terme d’agent tant la notion même d’agent reste ambigüe. Non seulement ce terme est utilisé pour désigner des applications qui sont souvent très différentes, mais aussi de nombreuses communautés venant d’horizon divers utilisent les agents pour des applications très différentes les unes des autres. Dans cet article, la définition qui correspondra le mieux est donnée par Jacques Ferber (dans « Les systèmes multi-agents : vers une intelligence collective », Intereditions Paris, 1995) : « On appelle agent intelligent une entité réelle ou abstraite qui est capable d’agir sur elle-même et sur son environnement, qui dispose d’une représentation partielle de cet environnement, qui, dans un univers multi-agents, peut communiquer avec d’autres agents et dont le comportement est la conséquence de ses observations, de sa connaissance et des interactions avec les autres agents. » Structure d’un agent La figure suivante présente la structure simplifiée d’un agent intelligent. Un agent intelligent évolue dans un environnement. Il doit être en mesure de recevoir des informations de cet environnement (par des récepteurs) et d’agir sur ce même environnement (par des effecteurs) suivant un comportement établi à partir des observations et du raisonnement de l’agent. AGENT Récepteur Effecteur Intelligence Environnement Les modules de communications sont primordiaux, d’autant plus que l’environnement est constitué d’autres agents avec lesquels l’agent peut coopérer pour atteindre son objectif. Caractéristiques d’un agent La recherche sur les technologies d’agent est relativement récente. De ce fait, elle est en perpétuelle évolution et les approches se multiplient. Toutefois, nous pouvons identifier quelques caractéristiques qu’un agent doit posséder pour qu’il puisse être qualifié d’agent intelligent. Autonomie L’agent doit pouvoir prendre des initiatives et agir sans intervention de l’utilisateur. Car, ce qui le distingue fortement d’un autre type de logiciel tient dans son objectif spécifique et prédéfini qui lui confère son autonomie. Capacité à communiquer et à coopérer L’agent doit pouvoir échanger des informations plus ou moins complexes avec d’autres agents, avec des serveurs ou avec des humains. Capacité à raisonner, à réagir à leur environnement L’agent doit être capable de s’adapter à son environnement (qui peut être composé d’autres agents, du web en général ou des utilisateurs) et aux évolutions de celui-ci. Cette adaptation doit s’appuyer sur l’analyse de l’environnement extérieur. Mobilité Les agents doivent pouvoir être multi-plateformes et multi-architectures. Ils doivent pouvoir se déplacer sur le réseau où ils accomplissent des tâches sans que l’utilisateur ait le moindre contrôle sur celles-ci. IT-expert n°85 - mai/juin 2010 33 Grâce au web sémantique, proposé initialement par le W3C, le Web va devenir un espace d’échanges d’informations entre individus et machines, donnant accès à un très grand volume d’informations, et fournissant les moyens de gérer ces informations. À la différence du Web que nous connaissons aujourd’hui, le web sémantique permettra aux utilisateurs de se décharger d’une bonne partie de leurs tâches de recherche, de construction et de combinaison des résultats. Cependant, pour qu’une machine puisse traiter l’énorme volume d’informations disponibles sur le Web, et donc fournir une aide importante aux utilisateurs, elle doit être caractérisée par une capacité accrue à accéder aux ressources et à raisonner. En d’autres termes, elle doit posséder un minimum d’intelligence. Aujourd’hui il existe sur le Web, des moteurs d’indexation et de recherche, des procédures d’extraction et d’analyse d’information, qui lui confère une certaine intelligence. Toutefois, cette intelligence est beaucoup trop rudimentaire pour pouvoir satisfaire aux conditions du web sémantique. En effet, nous n’avons pas encore la possibilité d’exploiter des connaissances pour une gestion plus efficace des informations : recherche par le contenu des documents, raisonnement, résolution de problèmes, etc. Le web sémantique a donc la lourde tâche d’apporter des solutions et donc des outils pour résoudre ce problème majeur. Cinq défis majeurs à relever Le web sémantique est d’abord une nouvelle infrastructure devant permettre à des agents logiciels d’aider plus efficacement différents types d’utilisateurs dans leur accès aux ressources sur le Web qu’il s’agisse de sources d’information et/ou de services. Pour y parvenir opérationnellement, le web sémantique doit relever plusieurs défis : La gestion de la diversité des utilisateurs, des contenus et des moyens d’accès • Comment rendre le Web réellement accessible ? • Comment combiner efficacement les différents médias disponibles sur le Web ? • Comment adapter les contenus aux différents moyens d’accès : réseaux et terminaux ? La gestion des modèles de représentation des connaissances • Comment aboutir à un consensus sur les différents langages de représentation des connaissances ou sur les ontologies utilisés ? • Comment assurer, de la manière la plus automatique possible, l’interopérabilité et les transformations entre les différents formalismes et les différentes ontologies ? 34 IT-expert n°85 - mai/juin 2010 La manipulation de documents multimédia • Comment représenter le contenu sémantique d’images, de sons ou de vidéos ? • Comment annoter automatiquement des images, des sons ou des vidéos pour en améliorer la recherche d’informations ? La gestion de la distribution • Comment gérer les différentes architectures : services distribués, architectures peer-to-peer, agents mobiles, architectures Grid, etc. ? • Comment gérer les problèmes de sécurité sous-jacents ? La gestion intelligente des services • Comment prendre en compte la sémantique dans la description, la découverte, la sélection et la composition de services ? • Comment permettre une plus grande personnalisation et adaptation à l’utilisateur de ces services ? Pour relever efficacement ces défis, l’idée principale du web sémantique repose sur la séparation des informations de leur présentation pour en faciliter la gestion et le traitement. Ces opérations sont d’autant plus simples que les ressources sont identifiées de manière unique et organisées autour d’une ontologie. Concrètement, le web sémantique peut être vu comme une infrastructure au sein de laquelle chaque ressource est couplée à des métadonnées, définies à l’aide de langages qui permettent de décrire les ressources ainsi que les relations qui les lient à l’aide de marqueurs sémantiques. Ces langages constituent un socle pour définir des ontologies, entités indispensables pour faciliter l’exploitation automatique ou semi-automatique du contenu par un ordinateur tout en conservant la signification du contenu pour les êtres humains. Le web sémantique vise l’automatisation et non la compréhension ! La vocation première du web sémantique est de faciliter la communication entre machines et agents logiciels. Il ne s’agit en aucun cas de traiter du langage naturel qui est la vocation du Traitement automatique du langage (T.A.L.). Schématiquement, le web sémantique cherche à associer une structure à l’information non structurée pour en faciliter le traitement. Comment ça marche ? Des langages à la base des échanges Différents langages de niveau de complexité croissante sont proposés afin de mieux exploiter, combiner et raisonner sur les contenus des ressources accessibles. User Interface & Applications Trust Les vocabulaires s’affinent : RDF, RDFS, OWL et SPARQL Proof RDF est au cœur des recommandations du W3C en matière de web sémantique. Il constitue l’élément de base pour l’échange de données, car il possède une syntaxe robuste est simple pour décrire les documents. Ontology: OWL Rule: RIF RDFS Data interchange: RDF Crypto Unifying Logic Query SPARQL Cette approche « en couche » présente deux bénéfices majeurs : 1.Elle permet une avancée progressive et graduelle dans les processus de standardisation et d’acceptation par les utilisateurs. 2.Elle sépare bien les langages en fonction de leur complexité. Ainsi, cette approche doit permettre de disposer du langage au bon niveau de complexité, celle-ci étant fonction de l’application à réaliser. XML URI/IRI Un aspect central de l’infrastructure est sa capacité d’identification, de localisation et d’accès aux ressources de façon simple, robuste, et efficace. Cet accès repose sur la notion d’URI (Uniform Resource Identifier) qui permet d’attribuer un identifiant unique à un ensemble de ressources. L’application la plus connue du concept d’URI est l’URL (Uniform Resource Locator). La notion d’URI est à la base même du langage RDF (Resource Description Framework) qui constitue le deuxième élément important du web sémantique : un langage pour décrire le contenu des documents/ressources, pour associer une sémantique à ces descriptions, et des moteurs d’inférences pour les manipuler. Une caractéristique importante de ce langage est d’être systématiquement exprimable et échangeable dans une syntaxe XML. Ceci permet de bénéficier de l’ensemble des technologies développées autour d’XML : XML Schemas, outils d’exploitation des ressources XML (bibliothèques JAVA, etc.), bases de données gérant des fichiers XML. L’objectif initial de RDF était de représenter au mieux des métadonnées pour en faciliter l’exploitation. RDF a permis par exemple d’exprimer de larges vocabulaires, comme le catalogue de produits UNSPSC (United Nations Standard Products and Services Code). De manière plus générale, RDF permet de représenter le Web comme un ensemble de ressources caractérisées par un identifiant, un nom, des attributs typés, et reliées entre elles par des liens étiquetés « sémantiquement ». Les spécifications de RDF proposent un système orienté-objet de classes formant un schéma de données caractérisé par des triplets obéissant à une sémantique formelle universelle. Ces triplets sont de la forme (Sujet, Prédicat, Objet) autrement dit (Chose, Propriété, Valeur) ou encore (Ressource, Métadonnée, Valeur) ou tout simplement (Sujet, Verbe, Complément). RDF définit un modèle de données abstrait, indépendant de toute syntaxe ou mode de stockage des données. RDF est aux données, ce que HTML est aux pages Web. La simplicité de ce modèle peut être une des clés de son acceptation, même s’il peut faire l’objet de nombreuses critiques comme l’impossibilité de définir des hiérarchies de classes et de propriétés. Pour remédier à ce problème, le langage RDFS (RDF Schema) a été créé. Mais pour décrire et définir des ontologies structurées, l’utilisation RDFS n’est pas suffisante. Le W3C préconise l’utilisation du langage OWL (Ontology Web Language) qui n’est rien d’autre qu’un vocabulaire XML basé sur RDF. IT-expert n°85 - mai/juin 2010 35 Le principe d’OWL est de fournir des règles et des contraintes logiques entre les triplets définis en RDF de façon à assurer une interconnexion entre chaque élément. En d’autres termes, le langage d’ontologie OWL sert à décrire des classes et leurs relations, lesquelles sont inhérentes aux documents et applications Web. OWL constitue dès lors le ciment du web sémantique, car il donne la cohérence nécessaire aux imbrications formalisées en RDF. Au final, l’intérêt de l’existence d’ontologies produites à partir du même standard repose sur la possibilité d’une intégration plus riche et garantit l’interopérabilité des données au travers des frontières applicatives. Dans un contexte « métier », une ontologie décrite avec OWL peut également servir à énoncer des règles métiers, qui viennent décrire les mécanismes d’un processus, propre à l’entreprise. OWL Règles Ontologies RDF schéma Modèles de métadonnées RDF Métadonnées XML schéma Modèles de documents XML Documents structurés Unicode Données brutes Dernier élément clé du web sémantique : SPARQL (Query Language for RDF) le langage de requête RDF, maillon essentiel dans la manipulation des données. S’apparentant SQL, le langage de requête des bases de données relationnelles, SPARQL permet d’interroger n’importe quel élément d’un triplet RDF pour extraire l’information recherchée. Du web à l’entreprise D’un point de vue opérationnel, force est de constater que le web sémantique est loin d’être une réalité même si les premières applications sont aujourd’hui disponibles comme les microformats. En revanche, les technologies du web sémantique intéressent de plus en plus les entreprises, car elles leur offrent de nombreuses opportunités. En effet, l’utilisation des ontologies offre trois avancées majeures : des possibilités de recherche améliorées, une automatisation des tâches possibles bien plus importantes et surtout une interopérabilité des systèmes que nous allons présenter dans les paragraphes suivants. 36 IT-expert n°85 - mai/juin 2010 Microformats, premières applications du Web sémantique L’objectif des microformats consiste à intégrer au cœur des documents HTML des éléments sémantiques afin de faciliter l’échange d’informations entre machines. Pour y parvenir, les microformats apportent des marqueurs sémantiques dans les attributs HTML classiques. Côté usage, les microformats servent aujourd’hui à décrire des données liées à la personne, comme son profil, son carnet d’adresses, l’agenda ou encore les données liées aux coordonnées géographiques. Des informations susceptibles d’être traitées par une autre application en ligne, échangées, ou tout simplement sauvegardées. Il existe aujourd’hui un certain nombre de microformats qui fournissent des marquages spécifiques : • hCard : pour l’échange d’informations liées aux contacts • hCalendar : pour la les événements • hResume : pour la description des CV • XFN : pour formaliser les relations entre personnes • hReview : pour les critiques De nombreux sites importants utilisent les microformats : Flickr, Technorati, Ice Rocket, Meet-up, .Mac… Améliorer la recherche Les ontologies offrent des capacités de recherche très puissantes. En effet, l’objectif d’une ontologie est de modéliser les différents concepts d’un domaine et surtout de définir les liens qui existent entre ces concepts. Chaque élément des documents qui utilisent cette ontologie possède une représentation sémantique. De ce fait, il est beaucoup plus facile d’effectuer des recherches complexes constituées d’éléments possédant une relation sémantique. Par exemple, la recherche des dirigeants des entreprises pharmaceutiques européennes est beaucoup plus simple à l’aide d’une ontologie, car celle-ci décrit les liens qui existent entre un dirigeant et une entreprise, entre une entreprise et un secteur d’activité, etc. Simplifier l’automatisation Chaque élément des documents étant représenté grâce à une ontologie (la machine est capable de connaître leur signification et les relations qui les lient), il devient très facile d’automatiser certaines tâches grâce à des algorithmes d’inférence. L’inférence est un processus qui permet de produire de nouvelles informations à partir d’autres informations tenues pour acquises à partir de règles formelles. Comment ça marche ? Dans son expression la plus basique, l’inférence revêt la forme d’un simple mécanisme de « pattern matching », c’est-à-dire un mécanisme qui permet de comparer deux modèles et de les appareiller s’ils sont semblables. Si par contre les informations fournies ne sont pas semblables, des mécanismes plus complexes, avec des chaînes de raisonnement plus importantes, peuvent être requis. Ainsi, les algorithmes d’inférence définissent des actions à réaliser en fonction des types de concepts et des relations existantes entre eux. En d’autres termes, on définit des tâches à partir des métadonnées, ensuite grâce à la description du document à l’aide de l’ontologie, on est en mesure d’exploiter les entités du document pour réaliser les tâches définies de manière totalement automatique. qui permettent aux utilisateurs d’avoir une vision partagée des informations et des connaissances de l’entreprise, malgré l’hétérogénéité de leurs sources. Cette vision pouvant aussi correspondre à une vue plus abstraite et qualitative des données et donc plus signifiante pour l’utilisateur. Un hub de connaissance permet de gérer un processus complexe d’accès aux connaissances provenant de sources hétérogènes : Sécutrité De l’importance de l’interopérabilité Parmi les différents aspects informatiques, celui de l’intégration des systèmes d’information est sans doute l’un des plus importants. Malheureusement, la plupart des organisations, au cours des années, ont multiplié les systèmes pour gérer l’information et la connaissance : G.E.D., bases de données, groupware, intranet, etc. Au final, elles ont mis en place des systèmes autonomes et hétérogènes, possédant chacun un modèle de données spécifique. Les efforts consentis sur les middlewares n’ont de véritables impacts que sur les processus et très peu sur les modèles de données. Ceci handicape énormément les systèmes d’information visant à intégrer différentes sources de données qui doivent faire l’objet de développements spécifiques aussi coûteux que difficiles à réaliser et maintenir. Parmi les solutions possibles à ce problème, les technologies sur lesquelles repose le web sémantique semblent aujourd’hui être le moyen qui s’impose pour faciliter l’interopérabilité entre les systèmes d’informations de l’entreprise. Les ontologies fournissent les interfaces idéales entre l’information et les diverses applications qui souhaitent les utiliser à des fins de traitement. En effet, les ontologies offrent la possibilité de représenter et d’organiser la connaissance à l’aide d’un unique modèle de données commun à l’ensemble des applications de l’entreprise. Elles offrent le moyen de mettre en place des référentiels métiers partagés sur lesquels vont pouvoir être adossées les connaissances et informations. De plus, les ontologies représentent un moyen efficace pour fédérer l’information ou du moins centraliser son référencement, quels que soient son format et sa localisation. Le web sémantique fournit ainsi une infrastructure facilitant l’intégration de sources d’informations hétérogènes. D’un point de vue opérationnel, les technologies du web sémantique peuvent être utilisées pour la mise en place de hubs de connaissances dont le rôle est d’unifier et d’organiser l’accès aux différentes sources d’information disponibles dans l’entreprise. Il s’agit en quelque sorte de systèmes de médiation Publication Personnalisation Organisation Index Texte Accès Métadonnées Sécutrité Web Documents Groupware DWH 1.Sélection des sources pertinentes étant donnée une requête posée, 2.Accès à ces sources pertinentes quels que soient leurs propres modalités et leur propre vocabulaire, 3.Combinaison automatiquement des réponses partielles obtenues à partir de plusieurs sources de façon à délivrer une réponse globale. Prenons un exemple pour illustrer ces propos. Supposons qu’un utilisateur pose la requête suivante : Quels sont les spectacles à l’affiche à Montpellier ce soir ? Où ont-ils lieu ? Quelles sont leurs critiques ? Imaginons qu’il existe deux sources d’information. La première, reposant sur des fichiers XML, offre la liste des spectacles, leur type, leur nom, éventuellement les comédiens et les critiques. La seconde, reposant sur une base de données relationnelle, contient, pour chaque spectacle, le nom de la salle où le spectacle a lieu et son adresse exacte. La réponse à la requête devra être construite en interrogeant chacune d’elle et en combinant les résultats de l’interrogation de façon à offrir à l’utilisateur une réponse globale. Pour parvenir à ce résultat, la conception du serveur de connaissances peut reposer sur une approche dite centralisée qui consiste à définir une ontologie qui regroupe l’ensemble des concepts et des relations modélisant le domaine d’application du système. IT-expert n°85 - mai/juin 2010 37 Requête Hub de connaissances Wrapper Wrapper Wrapper Wrapper L’utilisateur pose alors ses requêtes dans les termes du vocabulaire structuré fourni par l’ontologie qui va établir la connexion entre les différentes sources accessibles. Ensuite, l’interrogation effective des sources se fait via des adaptateurs, appelés « wrappers » en anglais, qui traduisent les requêtes « abstraites » (l’intégration d’information repose sur l’exploitation de vues abstraites décrivant de façon homogène et uniforme le contenu des sources d’information dans les termes de l’ontologie) dans le langage de requêtes spécifique accepté par chaque source. Une autre approche, dite décentralisée, peut être envisagée. Celleci consiste à considérer un groupe de hubs de connaissances ou chacun peut indifféremment jouer un rôle de serveurs de données ou de médiateurs avec ses pairs en participant de manière distribuée et collective au traitement des requêtes des utilisateurs. Requête Hub de connaissances Hub de connaissances Hub de connaissances Wrapper Wrapper Wrapper Wrapper Wrapper Wrapper Wrapper Source Source Source Source Source Source Source Cette approche autorise la recherche de données dans des sources non directement connectées aux sources du serveur interrogé. Cependant, de nouveaux problèmes apparaissent, notamment des problèmes liés à la connexion des différents systèmes mis en relation. En effet, il est indispensable de définir des correspondances sémantiques entre les ontologies manipulées par chacun des systèmes. Au final, le grand intérêt des hubs de connaissances réside dans leur capacité à intégrer l’existant. 38 IT-expert n°85 - mai/juin 2010 Un bon début, mais peu de compétences L’utilisation des technologies du web sémantique ouvre de nouvelles perspectives en matière d’interopérabilité des systèmes d’informations. Cependant, les entreprises qui souhaitent se lancer dans la mise en place d’ontologies sur l’ensemble de leur système d’information peuvent se trouver confrontées à quelques difficultés. En effet, il n’existe pas de méthodologie standardisée pour guider les entreprises dans la création d’ontologies. La création d’une ontologie est une affaire de spécialiste dans la mesure où il faut avoir des compétences à la fois dans le domaine à modéliser, en matière de représentation des connaissances et en linguistique. Une pluridisciplinarité des compétences encore peu répandue. Et même s’il existe aujourd’hui des ontologies publiques dans un très grand nombre de domaines, encore faut-il qu’elles soient bien adaptées au contexte de l’entreprise… n Gilles Balmisse, Directeur associé Knowledge Consult Knowledge Consult est un cabinet spécialisé dans la mise en oeuvre de la gestion des connaissances, du travail collaboratif, des réseaux, de la gestion des contenus, de la veille ainsi que de la conduite du changement et des outils associés. Site web : www.knowledgeconsult.com/fr/ Livres Virtualisation en pratique Les projets de virtualisation informatique se multiplient. Une tendance qui risque de perdurer et même de s’amplifier. Et les technologies multiples (bien qu’assez proches) obligent les informaticiens impliqués ou intéressés à bien appréhender les différences entre les solutions proposées. Correctement traduit de l‘américain, cet ouvrage s’ouvre sur une explication des principes et des intérêts de la virtualisation intéressant et bien illustré. Ensuite, il propose un panorama et une comparaison des principales solutions existantes : VMware (Server et ESXi), Citrix XenServer, Microsoft (Virtual PC, Hyper-V), VirtualBox de Sun… La seconde partie illustrée de nombreuses captures d’écrans, des tableaux et des schémas, aborde non seulement la virtualisation des serveurs et des postes de travail, mais aussi la virtualisation du stockage ou des réseaux. Après les considérations matérielles essentielles en comparant les offres des constructeurs (HP, IBM, Dell, Sun, Assembleurs et même Cloud Computing), les auteurs se penchent sur la gestion de ces infrastructures, point délicat qui a longtemps freiné un essor si prometteur en performance et en productivité pour les entreprises. Très pratique, cette dernière partie aborde tous les aspects : planification, déploiement, sécurité et postproduction. Un accompagnement pas-à-pas qu’apprécieront autant les néophytes que les plus aguerris. Un guide indispensable pour comprendre les enjeux et les technologies de virtualisation. Virtualisation en pratique Kenneth Hess, Amy Newman Éditeur : Pearson 360 pages - environ 36 E Gestion de projet agile Dans la droite ligne des approches méthodologiques de développement rapide (RAD ou Rapid Application Development), les méthodes agiles reprennent le concept d’itération et des rôles spécifiques comme celui de « facilitateur » favorisant la discussion entre utilisateurs et informaticiens. Ce dernier aspect est justement au cœur du succès actuel des approches comme Scrum, Lean ou eXtreme Programming (sous-titres de l’ouvrage). En effet, le succès croissant des méthodes agiles prouve combien cette « rupture » s’avère bénéfique pour la conduite de projets. Encore faut-il en comprendre les ressorts. Les conduites de projet traditionnelles consistent à recueillir les besoins et organisent de façon généralement figée les étapes qui s’enchaînent. Les méthodes agiles visent plutôt à affiner la définition des besoins au cours du projet, en se reposant sur la souplesse des équipes. Les auteurs s’appuient sur leur longue expérience des projets informatiques pour expliquer comme « Recueillir efficacement les besoins », « Planifier son projet », le suivre et en gérer les hommes. Puis l’ouvrage aborde les approches agiles et les rôles des divers experts de ces méthodes. Le lecteur appréciera le panorama des outils utilisables dans le cadre d’un projet agile. Gestion de projet agile Véronique Messager Rota Éditeur : Eyrolles 272 pages - environ 30 E IT-expert n°85 - mai/juin 2010 39 Ils diffusent leur code logiciel en open-source Depuis quelques années les solutions open source renforcent leur présence dans les entreprises à tous les niveaux : logiciels internet, système d’exploitation, composants techniques (framework), ou encore progiciels (ERP, CRM…). Pourquoi et comment décide-t-on de diffuser son code en open source ? 40 IT-expert n°85 - mai/juin 2010 Rubrique à brac Les décideurs perçoivent de plus en plus les avantages à l’utilisation de logiciels open source : disponibilité, fiabilité, évolutivité, indépendance vis-à-vis d’un fournisseur unique, etc. Et le « phénomène open source » a pris plus d’ampleur en quatre ans, faisant parfois basculer des pans entiers des systèmes d’information vers les logiciels open source. L’objectif du projet Eclipse consiste à fournir un framework de développement pour l’industrie informatique dont l’outil de développement java intégré. Ensuite, cette plate-forme est partagée avec d’autres acteurs (y compris concurrents) pour rationaliser les coûts. Et, à leur tour les autres membres vont rejoindre le projet. Au-delà des consommateurs de logiciels open source, qui sont les concepteurs de ces solutions (sociétés ou groupe de personnes) ? Pour comprendre la réussite de la fondation Eclipse, il suffit de constater la présence des plus grands acteurs informatiques parmi ses très nombreux membres. La fondation Eclipse a stimulé la création d’outils autour du monde Java et au-delà, contribuant activement à la croissance du marché informatique. Sans Eclipse, les entreprises développeraient -sans aucun doute- bien moins en langage Java. Le portefeuille « propriétaire » d’IBM autour d’Eclipse est très riche, et contribue sensiblement à son chiffre d’affaires, en offrant des plug-ins (ajouts) qui facilitent la vie de ses clients. On y retrouve diverses organisations : de grandes fondations mondialement reconnues, des sites Internet autour du langage de programmation Java, quelques sociétés qui éditent des logiciels avec une version open source et une version supportée, et des sociétés qui créent des structures afin de répondre à leurs besoins spécifiques via la diffusion de logiciels en mode open source. Les grandes fondations de l’édifice Open source Par « fondations », il faut entendre « sites communautaires qui ont une existence légale », comme les « foundations » aux ÉtatsUnis, les associations, les GIE, etc. La fondation apache Toute fondation est née d’un ou plusieurs projets. Ainsi, la fondation Apache est issue du projet de serveur Internet apache en 1995. Et le site Web apache.org est apparu en 1999. À l’origine, l’équipe était composée de 8 personnes. Actuellement, la fondation est composée de centaines de membres et de presque autant de projets (plus ou moins actifs). Le site propose un mode de fonctionnement commun à tous les projets et un partage de valeurs autour de l’open source, basé une licence libre très tolérante. Quelques sociétés fondent leurs activités autour de la diffusion avec support de logiciels de la fondation : • Tomcat avec SpringSource et Progress Software • ServiceMix avec Progress Software • Maven et Sonatype Mais, la fondation Apache vit surtout grâce à ses communautés qui sont composées de personnes physiques qui contribuent (sur leur temps libre ou dans le cadre professionnel) aux projets : contribution de code source (Committers en anglais), soumission d’anomalies, testeurs, etc. Apache dispose des communautés les plus actives et les plus développées dans le monde du langage de programmation Java. La fondation Eclipse Le projet Eclipse a été initié par la société IBM afin de doter la communauté Java d’un outil de développement intégré (IDE en anglais). Ceci visait à favoriser l’adoption de ce langage par ses clients et à augmenter la taille de la communauté Java. Toutefois, IBM disposait déjà du savoir-faire autour de son outil Visual Age qu’il déclinait pour permettre le développement dans plusieurs langages : Cobol, Java, etc. Le site communautaire JBoss L’intérêt d’une démarche open source ne se limite pas au partage de code, mais tient aussi dans le fait qu’elle pérennise aussi un outil ou un concept grâce à un groupe d’utilisateurs. Ainsi, le site jboss.org offre tout l’outillage nécessaire autour de son serveur d’application JBoss. Et les projets de la communauté s’étendent des composants de développements (framework) aux les outils de développements (JBoss IDE est composé de plug-ins Eclipse !), en passant par des outils intelligents (drools ou JBoss ESB)… La communauté JBoss est extrêmement variée et fournit tout ce dont une entreprise a besoin pour développer du logiciel. La société JBoss (comme sa maison mère RedHat) fait preuve d’un grand esprit communautaire : ses membres et leurs investissements font évoluer les projets. Et la société JBoss emploie uniquement le chef de projet (projet leader) et quelques développeurs qui assurent le support des versions commerciales. Pourquoi des sociétés sont-elles prêtes à payer des abonnements de maintenance et de support (du service et non des licences) ? Parce que cela leur permet d’obtenir en priorité de l’assistance pendant une durée importante (de 5 à 10 ans). Essentiel lorsque l’on sait que dans la version « communautaire », seule la dernière version est maintenue. Cela oblige quasiment les utilisateurs à adopter nécessairement la dernière version, même s’ils n’en ressentent pas le besoin. De nombreuses personnes participent à ces projets sous forme de code source, tests, documentations… sans pour autant faire partie de la société Jboss/RedHat. Le site communautaire ow2 Le site communautaire ressemble beaucoup à la fondation apache. D’origine européenne, cette fusion des sites Objectweb et Orientware a pour objectif de fournir tous les outils de développement, et les briques de middleware (serveur d’application) au monde Java : un serveur d’application (Jonas), un ESB (Petals), des outils de processus métiers (Bonita), des outils de reportings (SpagoBI) etc. IT-expert n°85 - mai/juin 2010 41 Quelques sociétés comme Bonitasoft ou Petals link se développent rapidement, démontrant la validité économique du modèle open source, y compris dans l’Hexagone. Les éditeurs open source Pourquoi un éditeur choisit-il dès le départ de diffuser son logiciel sous la forme d’une licence open source ? Deux raisons principales se détachent pour expliquer ce choix : • Le marché n’est pas mûr pour ce type de produit. L’existence d’un outil open source favorise son utilisation par un plus grand nombre d’utilisateurs. Une fois son utilisation répandue, les offres de supports, de consulting et de formation peuvent se justifier. • Ce type d’outil est déjà très présent sur le marché, et il s’agit de démontrer que ce logiciel apporte plus et mieux pour beaucoup moins cher, y compris dans une version supportée. Deux démarches illustrées par le moteur de règles drools de JBoss et l’outil ETL de Talend. Le moteur de règles drools de JBoss Il existe de nombreux outils autour de l’intelligence artificielle et des moteurs de règles. La complexité de ces outils ne simplifie pas leur prise main et leur installation, sans parler des coûts de licence qui les réservent à un marché de niche. Le projet open source drools a été placé sur le site codehaus.org. Les contributeurs de ce projet ont ensuite été recrutés par JBoss. En cinq ans, Drools est passé du statut de simple moteur de règles à celui d’outil de management du cycle de vie des règles de gestion en entreprise. drools ne beneficie pas de la maturité de quelques outils propriétaires disposant de plus de 20 ans d’existence, mais il s’en approche. À l’origine, simple outil, drools s’est progressivement enrichi de multiples fonctionnalités, et s’est doté d’outils de mise en place évolués pour assumer des tâches plus complexes. L’outil ETL de Talend Il y a quelques années, le marché des ETL était exclusivement dominé par quelques grands noms de l’informatique qui avaient le plus souvent racheté de plus petits éditeurs spécialisés. Ces derniers avaient dans un premier temps convaincu de nombreux clients grâce au niveau de fonctionnalités avancé et à l’indépendance de leurs solutions face aux grands éditeurs. Dans ces conditions, difficile pour un nouvel arrivant de jouer sur l’indépendance de façon crédible. C’est pourquoi la société Talend a innové en fournissant un ETL open source de très grande qualité. Aujourd’hui, il bouscule clairement les acteurs installés sur ce marché. En effet, Talend offre des versions commerciales qui ajoutent des fonctionnalités d’entreprise (droit d’accès, partage de code, serveur exécution de batch, etc.). Plus récemment, un outil de MDM est venu s’ajouter à l’offre existante et permet d’offrir une plate-forme logicielle qui vient prendre des parts de marché aux grands éditeurs du marché (IBM, Oracle, etc.) 42 IT-expert n°85 - mai/juin 2010 Les projets de partage des ressources Quelques sociétés décident de mettre en commun des ressources internes ou de créer une société commune pour des besoins informatiques. Un mode de fonctionnement qui se répand à l’exemple des GIE informatiques en France. Moins fréquent, certains vont jusqu’à en diffuser le code en mode open source. Le projet capatincasa.com est un consortium de sociétés qui mettent en commun un framework Java pour faciliter le développement d’interfaces graphiques. Un retour vers le « client lourd,java swing/applet java ». Ce projet est orchestré par une personne rémunérée par les membres, et animé par des développeurs internes de ces mêmes sociétés. Régulièrement, les membres se réunissent pour parler du projet et arrêter des décisions techniques. Ce mode de fonctionnement original est mené à l’initiative des décideurs informatiques et repose sur des principes simples et pragmatiques d’efficacité autour d’une problématique simple de développement d’interfaces graphiques. Le projet vaadin s’intéresse aussi au développement d’interfaces graphiques en Java, mais son modèle économique est différent. En effet, les membres confient à la communauté du projet le développement ainsi que la maintenance de leurs applications. En contrepartie, le groupement (qui est une société) fournit la couche technique et la maintient dans le temps. Il s’agit en fait d’une couche technique de présentation proche du développement de clients lourds en java. Toutefois, vaadin recours à un explorateur internet standard de type Firefox. Pour permettre la richesse événementielle d’un client riche, le framework vaadin génère du code JavaScript qui s’exécute sur le poste client. Cette démarche est assez proche du framework apache wicket. L’originalité du projet vaadin est de garantir une compatibilité du code métier dans le temps. Avant 2007, le projet vaadin utilisait son propre framework JavaScript comme moteur de rendu. Puis il est passé à Google Web Toolkit (GWT), sans modifier l’interface de programmation de son framework. Rubrique à brac Dans ces deux exemples, la diffusion des composants en open source peut paraître secondaire. Pourtant, il est au cœur de la stratégie visant à ne pas enfermer l’utilisateur dans une technologie propriétaire. L’objectif consiste à faire participer de nouveaux adhérents afin de pérenniser la solution mise en œuvre. Plusieurs types d’adhésion sont possibles : • L’utilisateur peut prendre le socle, l’utiliser et y participer sous une forme communautaire ; • L’utilisateur souhaite bénéficier de la formation et du service dans le cadre de ses projets, voire du support et de la maintenance autour du socle ; • L’utilisateur peut confier le développement et/ou la maintenance de ses développements à Vaadin. Ce dernier point représente une approche originale et peu répandue. Pourquoi proposer son code logiciel en open source ? Pour des sociétés utilisatrices, la motivation essentielle pour mettre une partie de son portefeuille logiciel en open source doit viser un objectif concret et précis. Proposer du code en open source sans réel objectif clairement défini ne mettra pas en valeur le logiciel et risque de créer des déceptions et désillusions. Le monde de l’open source est souvent perçu comme un monde idéal et parfait. En réalité, il s’agit plutôt d’un écosystème : • très exigeant : ceci est accentué par le côté transparent des éléments techniques dont le code source, la documentation associée, etc. Ceci diffère des logiciels propriétaires dont il est impossible de connaître le fonctionnement interne. Seul le fonctionnement « boite noire » est possible. Ce qui permet au seul éditeur d’améliorer le fonctionnement interne et son architecture lors des nouvelles versions. • très « effet de mode » : il faut être présent dans les salons spécialisés, dans la presse, sur les bons blogs, etc. Cela demande donc des ressources dédiées dont le seul objectif est d’animer et de maintenir le tissage de ce « réseau » pour permettre au projet d’être vu et reconnu. Les questions qui seront sans cesse posées : N’existe-t-il pas d’autres solutions sur le marché ? En quoi votre projet est-il différent ? Pourquoi n’avezvous pas cherché à vous rapprocher d’un autre projet ? • de communautés : Il faut faire vivre sa communauté, recruter de nouveaux membres, animer les blogs, les forums, animer les canaux de chat (IRC), etc. De plus, il faut disposer d’une équipe « core » qui permet un fonctionnement continu du projet. C’est la richesse et la motivation de sa communauté qui va permettre à un projet de durer et de s’étendre. Il nécessite des équipes motivées et convaincues de la démarche. Le projet candidat à la mise en open source doit déjà disposer d’une communauté interne importante et qui doit satisfaire aux critères du monde open source : • Une architecture technique et logicielle documentée et justifiée, • Un code source qui suit les recommandations architecturales, • Des tests unitaires automatisés et complets pour permettre de valider la non-régression fonctionnelle lorsque de nouveaux contributeurs arriveront sur le projet, • Une documentation qui permet au nouvel arrivant d’entrer facilement dans le projet, • Une forge de développement type sourceforge pour permettre le travail collaboratif, • Des outils d’intégration continue et de qualité pour permettre de contrôler et de suivre la qualité du projet, • Une équipe et un chef de projet solides dès le départ, • Une volonté de la hiérarchie de faire vivre le projet open source en plus du projet interne. Ce point n’est pas à négliger, car il sera important dans le temps de conserver l’équipe dédiée au projet open source. D’autant qu’il faut du temps pour établir une communauté, • Une fois que la communauté démarre, il faut admettre que le projet suive des intérêts ou des chemins qui ne sont pas ceux que l’on aurait choisis pour un projet interne. Ceci est notamment vrai pour les priorités dans la correction des anomalies ou dans le traitement des évolutions, • Il faut prévoir dès le début une possibilité de « support payant » pour permettre à certains, y compris en interne, de disposer des maintenances de versions finalisées. Quelques pistes pour réussir Le monde open source est riche en nouveaux projets. Très peu survivent dans le temps par manque d’implication de leurs membres et par sous-estimation de l’énergie et des moyens à mettre en oeuvre. Mettre en place un projet open source doit faire partie de la stratégie de l’entreprise ou de ses projet Les principaux points de réussite sont : • La mise en place nécessite des équipes très motivées et qui y voient un intérêt personnel important. • Lancer un projet open source avec une gestion de projet classique ne fonctionne pas. Un chef de projet open source doit être un leader charismatique qui fédère une somme d’individualités, et qui s’entoure de personnes plus compétentes que lui sur de nombreux sujets. Il doit être respecté par les membres de son équipe et de la communauté qu’il dirige. • Un outillage informatique important doit permettre d’automatiser un maximum de tâches. • Le projet doit vivre dans le temps et cela peut durer quelques années. • Une présence dans toutes les manifestations du monde open source s’impose pour offrir une vitrine à la communauté, et recruter de nouveaux membres et utilisateurs. n Nicolas Héron, Architecte J2EE, SOA et moteur de règles au sein du groupe Adéo, contributeur au projet drools IT-expert n°85 - mai/juin 2010 43
Documents pareils
Pourquoi et comment déployer une Gouvernance des contenus
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE