Les bénéfices d`industrialisation d`un projet SOA Enjeux et clés de la
Transcription
Les bénéfices d`industrialisation d`un projet SOA Enjeux et clés de la
IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE Les bénéfices d’industrialisation d’un projet SOA Enjeux et clés de la migration (première partie) Pilotage d’une DSI : pour un Project Management Office engagé Bimestriel - mai/juin 2011 Stratégie d'intégration Master Data Management au SI avec Microsoft Master Data Services n°91 édito Que faites-vous pour ne pas scléroser votre SI ? IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE Comment ne pas imaginer une évolution de l’informatique vers une infrastructure sous-traitée à la manière de l’énergie électrique ? Dans l’absolu, l’entreprise a-t-elle réellement besoin d’acquérir et de maintenir du matériel informatique ? On a longtemps reproché (et c’est parfois encore une réalité) à certains managers de penser que leur rôle ne tenait pas dans la rétention de l’information. De même, les DSI n’ont-ils pas tendance à imaginer que maîtrise de l’information rime avec possession du matériel et création d’applications spécifiques ? Certes, des problèmes sociaux sont inévitables. Pourtant, la disette des compétences sur le marché n’obligera-t-elle pas bientôt à sous-traiter des pans entiers de son SI ? Quoi qu’il en soit, une décorrélation des diverses couches applicatives et matérielles est souhaitable. Autant pour simplifier la maintenance et réduire les coûts (dans une démarche de type Itil ou d’automatisation) que pour se préparer à une éventuelle externalisation, de type cloud ou non. D’ailleurs, des contrats obligeant des prestataires à fournir une qualité de service mesurable ne représentent-ils pas une solution intéressante ? D’autant que la mutualisation leur donnerait un avantage de taille pour recruter les meilleurs talents, forcément plus rentables que pour une entreprise, surtout de taille moyenne. José Diz Rédacteur en Chef Editeur Press & Communication France Une filiale du groupe CAST 3, rue Marcel Allégot 92190 Meudon - FRANCE Tél. : 01 46 90 21 21 Fax. : 01 46 90 21 20 http://www.it-expertise.com Email : [email protected] Rédacteur en chef José Diz Email : [email protected] Directeur de publication Aurélie Magniez Email : [email protected] Abonnements/Publicité Email : [email protected] Conception Graphique Nicolas Herlem [email protected]/ Parution IT-expert - (ISSN 1961-9855) est un journal édité 6 fois par an, par P&C France, sarl de presse au capital de 60 976,61 €. Avertissement Tous droits réservés. Toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 P&C France. Toutes les marques citées sont des marques déposées. Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. Toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de Press & Communication. Abonnements 01 46 90 21 21 Vous pouvez vous abonner gratuitement sur http://www.it-expertise.com/ 2 IT-expert n°91 - mai/juin 2011 IT-expert n°91 - mai/juin 2011 Sommaire 4 Dossier Les bénéfices d’industrialisation d’un projet SOA À travers l’exemple du logiciel Microsoft BizTalk Server 2010, l’auteur relate l’évolution des technologies vers le SOA (ESB, workflow, cloud computing…). Cycles, industrialisation, tests… tout est passé en revue avec un angle pratique et technique, code inclus ! 14 Technique Enjeux et clés de la migration (première partie) Plus qu’une pénible étape, la migration doit être considérée comme une évolution pleine d’opportunités. Désimbrication, ingénierie de la coexistence, définition des clés de réussite : le dossier propose une approche avisée pour réussir les étapes clés de ce projet à part entière. 20 Actualités Internationales 25 Comment ça marche ? Les informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances Pilotage d’une DSI : pour un Project Management Office engagé Les défis de la DSI pour piloter la transformation sont multiples : gérer ou changer de prestataires d’infogérance et de TMA, intégrer les équipes MOA, assumer la production tout en concrétisant les demandes… Pour relever tous ces défis, l’auteur propose d’étendre le PMO (Project Management Office) du suivi des plannings à un rôle stratégique de pilotage de la DSI. 32 Quoi de neuf docteur ? Stratégie d'intégration Master Data Management au SI avec Microsoft Master Data Services Disposer d’une source de données de référence unique et fiable est un enjeu majeur. Après l’explication des concepts et des différentes architectures, le dossier les illustre à travers un exemple avec la suite Microsoft SQL Server 2008 R2 et BizTalk Server. 43 Livres Performance des architectures IT : comprendre, résoudre et anticiper - 2ème édition de Pascal Grojean, Médéric Morel, Simon-Pierre Nolin et Guillaume Plouin et Concevoir, animer et réussir un projet de Tatiana Bouzdine Chameeva, Alain Labruffe et Emmanuel Carré. IT-expert n°91 - mai/juin 2011 3 Les bénéfices d’industrialisation d’un projet SOA ou BizTalk Server 2010 par l’exemple D epuis plusieurs années, le concept d’Architecture orientée services (SOA) est arrivé à maturité dans les entreprises. Plus qu’un nouveau vocabulaire sur des idées préexistantes, la stratégie SOA est désormais au centre des grands projets d’intégration et de rationalisation des services informatiques. Selon la définition qu’adopte l’entreprise, la SOA établit un modèle architectural dont le but est d’améliorer l’efficacité, l’agilité et la productivité d’un système d’information, en plaçant les services comme éléments principaux à travers lesquels la logique des solutions applicatives est représentée pour l’atteinte des objectifs métiers. Au cœur des solutions SOA se trouvent, d’une part, la notion d’orchestration – orchestration des services, à l’aide d’une plateforme ESB ; et orchestration des processus métiers, à l’aide d’un moteur d’exécution – et, d’autre part, la notion d’échange de messages et d’interconnexion des systèmes applicatifs, à l’aide de connecteurs. Toutes ces notions sont couvertes, en ce qui concerne les solutions Microsoft, par le serveur de médiation Microsoft BizTalk Server 2010. Cette plateforme serveur est l’une des briques proposées par Microsoft pour la mise en œuvre de solutions SOA. 4 IT-expert n°91 - mai/juin 2011 Dossier Évolution de la plateforme applicative Microsoft Depuis quelques années, les solutions SOA doivent s’adapter à de nouvelles contraintes, pour apporter de meilleures réponses aux utilisateurs, tout en s’appuyant sur un nombre croissant de services applicatifs disparates, à l’intérieur comme à l’extérieur de l’entreprise. Ces solutions doivent être « hautement connectées », tant avec les partenaires commerciaux, les clients, les fournisseurs que les employés « mobiles » de l’entreprise. Dans le même temps, les projets de mise en œuvre sont soumis aux contraintes de réduction des coûts, obligeant à accroître la réactivité et la productivité dans la mise en œuvre des solutions. La plateforme applicative Microsoft a donc évolué pour tenir compte de ces nouvelles contraintes. Une première évolution, apportée par BizTalk Server 2009, concerne l’introduction d’un bus de services d’entreprise (ESB) à la plateforme d’échanges. Les fonctionnalités de routage dynamique, de transformation dynamique et de découverte des points de terminaisons (endpoints) permettent de simplifier les problématiques d’intégration, tout en favorisant la réutilisation des services et en garantissant la maintenance en souplesse des solutions d’échanges. Seconde évolution intégrée à la plateforme serveur via l’extension Windows Server AppFabric, le support pour les services à exécution continue (long running) tire parti d’une meilleure gestion des ressources pour garantir l’exécution correcte sur le long terme (recycling). Cette fonctionnalité permet la mise en œuvre de workflows longs, persistants et capables de répondre aux impératifs de montée en charge sur un ensemble de serveurs par l’utilisation d’un cache distribué. Une troisième évolution majeure, située au cœur de la stratégie Microsoft, concerne le virage vers le Cloud Computing – c’est-à-dire la capacité à procurer de la puissance de calcul et du stockage massif à l’échelle d’internet – via son offre de Platform as a Service (PaaS) Windows Azure. Cette offre apporte des réponses en termes de réduction des coûts et de limitation des risques dans la mise en place de solutions distribuées, tout en procurant de l’agilité. Cette stratégie séduit de nombreux décideurs, qui peuvent s’appuyer sur une expertise tierce pour la construction et l’exploitation de vastes centres de données. Bien plus que meilleure productivité Les solutions SOA qui reposent sur Microsoft BizTalk Server sont, par nature, hétérogènes et distribuées. Elles nécessitent donc, sans doute plus encore que tout autre projet de développement classique, de se doter d’une infrastructure applicative et d’outils solides pour mener à bien leur mise en œuvre. Sans outillage approprié, de nombreuses opérations manuelles doivent être réalisées et répétées sur un ensemble de serveurs ou de plateformes logicielles différents (arrêt d’un serveur IIS, redémarrage d’un processus BizTalk, etc.) De plus, ces manipulations doivent être effectuées selon un ordre précis, qui conditionne la mise en condition opérationnelle réussie d’une solution applicative. L’industrialisation d’un projet de développement porte donc sur l’élimination de ces opérations en se fondant sur l’automatisation de la plus grande partie possible des étapes liées à la mise en œuvre d’une solution logicielle ; de la construction des éléments exécutables à la mise en condition opérationnelle d’un environnement complet. Les bénéfices de l’industrialisation d’un projet SOA vont bien au-delà de la seule amélioration de la productivité. En s’appuyant sur une démarche systématique et un outillage approprié, l’automatisation de la mise en œuvre de plateformes applicatives permet de répondre avec une grande réactivité aux défaillances et aux pannes, tout en garantissant un haut niveau de service (respect des engagements de services). De même, l’automatisation des tests unitaires et des tests d’intégration permet d’apporter des corrections rapides à la solution en fonctionnement, tout en garantissant l’identification immédiate de régressions ou d’impacts éventuels. Deux aspects s’avèrent essentiels à l’industrialisation d’un projet SOA : l’industrialisation des tâches liées au développement applicatif lors de la phase de mise au point et l’exploitation/maintenance de la solution en phase de fonctionnement nominal. IT-expert n°91 - mai/juin 2011 5 Scénario et inventaire Cet article s’articule autour du cas d’une entreprise de vente en ligne qui souhaite interconnecter l’ensemble de son SI à l’aide de solutions Microsoft. La mise en place d’une architecture SOA consistera à interconnecter un ensemble de briques différentes et hétérogènes, et mettre en œuvre un ensemble de processus qu’il faudra « orchestrer ». La solution devra répondre aux impératifs d’évolution – lors du remplacement d’un partenaire applicatif par un autre, par exemple – et d’ajustements des règles métiers en fonction de l’activité. Une entreprise de vente en ligne a besoin de : • Dispenser l’ensemble des produits dont elle dispose au travers d’une vitrine Internet. • Gérer les différents processus de réservation de produits, validation, paiement, etc. • Gérer son stock de produits. Pour cela, les éléments suivants sont au cœur de son système d’informations : • Une application de commerce en ligne accessible à tout client potentiel. • Un système CRM qui centralise les clients et prospects et permet d’exécuter les animations commerciales. • Un système ERP qui centralise les articles assure la gestion du stock, la facturation, etc. • Un moteur d’exécution des processus, pour l’acquisition d’un nouveau client et la gestion des offres promotionnelles. Figure 1 – Un exemple de solution SOA Ces différents éléments peuvent être à la fois à l’intérieur et à l’extérieur du SI. À l’extérieur du SI, le site est hébergé sur la plateforme Microsoft Windows Azure qui permet d’assurer une disponibilité tout au long de l’année, y compris pendant les périodes de forte affluence (e.g. les soldes, fêtes de fin d’années, etc.). À l’intérieur du SI, l’exécution des processus est assurée par Windows Server AppFabric, afin de profiter d’une interface d’administration simplifiée pour les services WCF et les workflows, et d’une capacité à assurer les monter en charge via un cache évolué. 6 IT-expert n°91 - mai/juin 2011 Dossier La plateforme Microsoft BizTalk Server 2010 est utilisée pour relier les différents systèmes et orchestre les principaux processus. Enfin, la connectivité entre le SI et les partenaires est assurée par Windows Azure AppFabric Service Bus qui prend en charge, de manière sécurisée, les communications à destination des tiers. Industrialisation du développement logiciel Vers des cycles plus courts et itératifs Dans le domaine du développement logiciel, l’automatisation des étapes liées à la transformation d’un programme – écrit sous forme de code source – vers un fichier exécutable a toujours été possible, à l’aide de scripts ou de fichiers de descriptions. Cependant, l’industrialisation du développement logiciel va bien plus loin. En effet, les solutions logicielles sont de plus en plus complexes et distribuées. Ce qui signifie que l’automatisation doit porter non seulement sur l’étape de « compilation », mais aussi sur un grand nombre d’étapes supplémentaires, comme le conditionnement pour installation ou le déploiement. De plus, le processus de développement est, par nécessité, itératif. En effet, il n’est plus possible de mettre en œuvre des solutions complexes et hétérogènes sans s’appuyer sur une étape importance de gestion de la qualité – tests unitaires, recette, etc. Au fur et à mesure que la complexité des systèmes augmente, l’industrialisation apporte des bénéfices en termes de productivité et d’agilité. L’automatisation permet de réduire la durée d’exécution et de mettre en œuvre des cycles de développement plus fréquents et itératifs. MSBuild pour coordonner une solution BizTalk Server MsBuild est la plateforme de build – ou d’intégration continue – du framework .Net, utilisée pour la production des fichiers exécutables. À l’aide de directives figurant dans des fichiers XML, le concepteur et le développeur décrivent l’ensemble des éléments du projet et les transformations qui leur sont associées. Par exemple, un fichier source pourra être compilé ; un assembly .Net pourra être copié dans le GAC, etc. Chaque directive peut être associée à une ou plusieurs autres selon une relation de « dépendance », qui permet de décrire l’intégralité du projet sous forme de hiérarchie ordonnée. L’utilisation de ces fichiers peut être comparée à une check-list pour le déroulement de l’ensemble des étapes nécessaire à la production d’une solution à partir des seuls fichiers sources. La complexité et l’hétérogénéité des solutions, qui couvrent l’ensemble des briques applicatives mentionnées, obligent les équipes à se doter d’un tel mécanisme d’automatisation. Sans cela, il serait impossible de garantir le respect des nomenclatures et des normes (arborescence, etc.) en vigueur sur le projet. Figure 2 – Fichier de configuration MsBuild IT-expert n°91 - mai/juin 2011 7 Parmi les multiples étapes à franchir pour un développement complet, on recense : • Déploiement des services WCF sur IIS, • Alimentation de référentiels et/ou configurations dans SQL Server, • Déploiement dans SharePoint de formulaires de validation et de restitution des étapes des processus, • Déploiement des itinéraires ESB Toolkit dans SQL Server, • Déploiement des assemblies BizTalk dans la base de configuration BizTalk et dans le GAC, • Déploiement des assemblies .Net dans le GAC (potentiellement sur plusieurs machines), • Déploiement des packages dans Windows Azure, • Etc. Les bénéfices apportés par la mise en place d’une solution de développement industrialisée sont importants. Ils portent, notamment sur : • Une mise en place d’environnements de développements rapide, l’ensemble des tâches est automatisée. • Une montée en compétence rapide des nouvelles ressources du projet et un accès immédiat à l’environnement. Le test avec BizUnit en trois étapes L’adoption d’une stratégie de test unitaire est fondamentale dans le cadre de la mise en place d’une intégration continue. Un environnement de développement doit être utilisé afin de dérouler l’ensemble des tests unitaires (les tests de charges étant quant à eux réservés à une plate-forme de Bench ISO Production). De nombreux outils peuvent être utilisés pour effectuer des tests unitaires. BizUnit est un outil très répandu dans l’environnement de développement BizTalk. Ce framework permet de mettre en place des tests automatisés. Ces derniers sont décrits sous forme de documents XML, facilement modifiables en fonction des environnements à tester. Un test est composé de trois « Stage » : • Setup : mise en place de la plateforme pour l’exécution du test, • Exécution : exécution des actions et validation, cette étape est exécutée si l’étape de setup est validée, • Cleanup : retour de la plateforme à son état initial, cette étape est toujours exécutée. Chaque étape est complétée par des « TestStep », permettant de décrire les étapes que l’on veut dérouler dans le cas de test. Des assemblies et classes supplémentaires peuvent être créées par le développeur afin de satisfaire son test. Cependant, on remarque que la mise en place d’un test pour un nouveau développeur n’est pas aisée, il doit en effet se familiariser avec la syntaxe et la lecture d’un cas de test sous forme XML n’est pas automatique. Des composants designers basés sur cet outil existent, mais il n’évolue pas avec le produit et leur utilisation est parfois fastidieuse pour un utilisateur non développeur. 8 IT-expert n°91 - mai/juin 2011 Dossier Figure 3 - Exemple de cas de test BizUnit WF Test Case Designer : le workflow en plus Pour améliorer encore la productivité, un nouvel outil a été développé en s’inspirant de BizUnit mais sans aucune dépendance vis-à-vis de ce dernier. WF Test Case Designer reprend les mêmes principes en profitant de Workflow Foundation 4.0 afin de proposer une nouvelle dimension utilisateur. Alors que BizUnit était destiné aux développeurs avec l’utilisation de Visual Studio pour la réalisation de projet de test, WF Test Case Designer ouvre la solution aux utilisateurs de recette pour décrire leur cas de test via une interface conviviale. La lecture du cas de test peut s’effectuer sans connaissance particulière et la présence de Visual Studio pour écrire le test n’est plus obligatoire. Figure 4 – Conception d’un cas de test WF Test Case Designer IT-expert n°91 - mai/juin 2011 9 Le test étant un Workflow, il peut être hébergé dans tout moteur de Workflow. La mise en place d’une plateforme d’exécution de test permet une automatisation des tests et donne la possibilité de créer des workitems, bug, rapport en fonction du résultat du workflow. (Plus d’informations sur http://wftestdesign.codeplex.com) Industrialisation de l’Exploitation et de la Production Une fois développées, les solutions mises en œuvre autour de BizTalk Server doivent être déployées, parfois de manière étagée, sur des plateformes de développement, de recette, de préproduction puis de production. Chaque plateforme constitue un environnement complet, souvent composé de plusieurs serveurs physiques qui doivent donc être mis à jour de façon coordonnée. Les équipes en charge de l’exploitation ont saisi tout l’intérêt d’automatiser le plus possible les opérations liées au déploiement. L’industrialisation de ces étapes du « transport inter-environnements » apporte de nombreux avantages : • La réduction du nombre d’opérations – et la probabilité d’erreurs – permet de limiter le périmètre des compétences requises. • La centralisation de la livraison permet de faciliter la gestion de configuration et le suivi des versions. • La centralisation du paramétrage et l’automatisation du déploiement apportent une capacité à revenir à tout moment à une version antérieure de l’application. Cependant, l’automatisation du déploiement nécessite des outils différents de ceux mentionnés lors de la phase de mise au point du développement logiciel. L’outillage retenu doit permettre de répondre à un double impératif, à la fois au moment de la mise en production initiale de la solution et pendant toute la durée de l’exploitation. D’une part, il doit assurer le « transport » au sens strict (la capacité à déployer la solution d’un environnement à un autre) ; d’autre part, il doit permettre la mise en œuvre d’un nouvel environnement (ajout d’un nouveau cluster, reprise après défaillance technique, etc.). Industrialiser les développements BizTalk avec PowerShell Depuis longtemps, Microsoft travaille sur une refonte complète de ses outils de scripting. Avec Windows Server 2008, une nouvelle invite de commandes est fournie en standard. PowerShell est à la fois une invite de commandes interactives et un langage de scripting dont la conception est née d’un besoin de simplifier les tâches dévolues à l’administration de systèmes applicatifs de plus en plus complexes et distribués. En effet, chaque plateforme qui doit être administrée de manière automatique vient traditionnellement avec une interface de programmation et une ligne de commandes spécifiques. Figure 5 – Diversité des outils pour l’administration 10 IT-expert n°91 - mai/juin 2011 Dossier PowerShell s’appuie sur un ensemble de « fournisseurs », extensions logicielles qui interviennent en façade d’une technologie ou d’une plateforme serveur et dont le rôle est d’exposer ces particularités de manière homogène, afin d’unifier les tâches d’administration sur l’ensemble des plateformes serveurs (Windows Server, SQL Server, Internet Informations Services, etc.). De plus, en lieu et place de la manipulation de texte, utilisée traditionnellement, les commandes PowerShell consomment et produisent des objets .Net. Ainsi, une commande peut être chaînée à la suivante sans effort supplémentaire, car ce sont des objets - avec leurs propriétés et leurs méthodes - qui transitent dans le pipeline. Enfin, PowerShell supporte nativement le concept de « remoting », qui apporte des capacités de communication RPC aux objets .NET. Cette fonctionnalité est idéale pour l’administration de solutions distribuées. Incidemment, les dernières versions des plateformes serveur Microsoft exposent toutes une interface de programmation qui repose sur le framework .NET. C’est pourquoi PowerShell est un outil particulièrement adapté pour les tâches d’administration de ces plateformes, et c’est pourquoi Microsoft fournit désormais systématiquement une interface PowerShell avec chacune de ses plateformes. Provider PowerShell pour BizTalk Server Cependant, BizTalk Server 2009 et 2010 n’incluent pas nativement d’interface de programmation via PowerShell, ce qui semble être une curieuse omission. C’est pourquoi nous avons conçu, développé et mis à disposition notre propre fournisseur PowerShell pour BizTalk Server sur un site de développement collaboratif (http://psbiztalk.codeplex.com). Figure 6 - Fournisseur PowerShell pour BizTalk Server Notre fournisseur PowerShell pour BizTalk Server permet de combler l’écart qui existe vis-à-vis des autres plateformes serveur. Ainsi, les administrateurs et les exploitants ont à leur disposition un outil souple, accessible et puissant pour réaliser des tâches d’administration de leurs solutions. À titre d’exemple, la commande ci-après – qui peut figurer dans un script – permet d’arrêter d’un seul coup toutes les applications BizTalk Server. Cette opération peut-être utile, par exemple, pour des raisons de maintenance. IT-expert n°91 - mai/juin 2011 11 Figure 7 - Arrêter toutes les applications BizTalk avec PowerShell La syntaxe des commandes PowerShell est assez intuitive, car elle s’aligne sur les concepts propres à chacune des plateformes Microsoft pour lesquelles elles ont été conçues. Dès lors, la mise en œuvre d’une bibliothèque de scripts d’administration de la solution est facilitée, même si la solution elle-même fait appel à des technologies différentes. Et ce, même si les éléments qui doivent être administrés sont hébergés sur des plateformes distribuées. Incontournable industrialisation Les logiciels et plateformes serveur Microsoft sont bien intégrés, car ils reposent sur le framework .Net et proposent tous une interface d’administration par PowerShell. Pour autant, les solutions SOA nécessitent souvent d’intégrer des briques hétérogènes. Avec l’évolution de la plateforme applicative Microsoft, on constate que le périmètre des solutions SOA, adoptées par de plus en plus de grandes entreprises, ne cesse de s’élargir, pour comprendre les applications composites – hébergées en partie dans le cloud – et pour intégrer des échanges avec de plus en plus de partenaires applicatifs distribués. L’industrialisation incarne donc l’un des moyens indispensables pour maîtriser la complexité des projets de mise en œuvre des solutions SOA. Une industrialisation réussie s’appuie sur un outillage complet de la chaîne d’automatisation des traitements. n Maxime Labelle, MVP Biztalk Server. Architecte Microsoft SOA Jérémie Devillard, MCTS Biztalk Server. Consultant Microsoft SOA Logica Business Consulting est l’entité Conseil du groupe Logica, entreprise du service en business et technologie qui réunit 39 000 collaborateurs. Elle propose conseil en management, intégration de technologies et externalisation à ses clients du monde entier, dont les plus grandes entreprises en Europe. Logica crée de la valeur pour ses clients en intégrant avec succès les hommes, les enjeux business et les technologies. Elle s’engage dans des collaborations à long terme et exploite ses savoirs pour répondre de façon innovante aux besoins de ses clients . Site web : www.logica.fr/conseil 12 IT-expert n°91 - mai/juin 2011 Après la virtualisation, parlons Cloud Privé. Découvrez comment Windows Server va changer les perspectives. La virtualisation des serveurs fait l’objet de toutes les promesses. Celles d’une IT plus efficace, au service de l’entreprise, petite ou grande. La virtualisation, nous y sommes. Mais au-delà ? Au-delà, il y a le Cloud Privé. Une solution pour gérer votre infrastructure comme un centre de services permettant de fournir les applications à la demande et répondre ainsi plus efficacement aux évolutions de l’entreprise et du marché. Windows Server Hyper-V et System Center vous permettent de contrôler votre activité de bout en bout grâce à des services de gestion intégrés - tout en vous laissant libre de faire appel à la puissance du Cloud Public. Car l’idée d’un Cloud Privé tient fondamentalement en un mot : le contrôle. Votre Cloud Privé vous appartient. Vous souhaitez utiliser différents hyperviseurs ou systèmes d’exploitation ? C’est une décision qui vous revient car la technologie et les solutions des fournisseurs que vous utilisez doivent rester au service de vos besoins et non l’inverse. L’informatique n’est plus seulement une question de hardware, de software ou de maintenance. Il s’agit désormais d’imaginer de nouvelles sources d’efficacité pour contribuer à la croissance de votre entreprise. Aussi, moins vous consacrez de temps à résoudre des problèmes qui n’ont plus lieu d’être, plus vous en consacrez à trouver de nouvelles solutions. En somme, plus de puissance informatique, c’est simplement plus de puissance stratégique. C’est ça la puissance du Cloud. Microsoft.fr/cloud/cloudprive Enjeux et clés de la migration (première partie) L es projets de système d’information ne sont plus, à présent, des projets « pionniers », ils viennent en général se substituer à un système existant, ou interagir avec le reste du patrimoine SI. Au-delà des aspects techniques et par les changements induits, ils ont aussi un impact sur les utilisateurs, les clients et autres parties prenantes. 14 IT-expert n°91 - mai/juin 2011 Technique Dès lors, la migration se déroule à la mise en place du projet, comme étape obligée, parfois longue et coûteuse, souvent risquée et source d’incidents ou d’échec pour le projet lui-même. Cette question est peu traitée dans la littérature particulièrement absente sur ce sujet, bien que les retours d’expérience soient souvent exemplaires des errements ou des succès. Ces deux complexités et ces deux certitudes se confrontent lors de la migration. Entre l’existant et la cible, le potentiel des cheminements est immense, et les pièges multiples. Seuls certains de ces chemins minimisent les risques d’échec ou de dérapage. Seuls certains aboutissent sans encombre, ni déception. Vu l’ampleur du propos et des développements nécessaires, deux articles successifs traiteront le sujet : • l’un dédié au rappel des enjeux et à l’identification des clés de succès ; • l’autre posant les principes et techniques pour réaliser une « ingénierie » de migration optimale. La migration à la confluence des enjeux L’approche ainsi présentée est totalement dédiée à la problématique de la migration et ne relève d’aucun autre courant de pensée, mis à part les préceptes de l’urbanisme « à la française » qui préconisent, dans un cadre plus global, la déformation continue et sans rupture du patrimoine SI. Car chaque discipline répond à des enjeux bien caractérisés : la qualité des spécifications, l’urbanisme d’insertion de la cible, les performances de l’architecture technique, l’agilité des développements, l’appropriation par les utilisateurs… et naturellement chaque discipline considère la migration comme étant, de son point de vue, un sujet de second ordre. L’exercice de toutes les vérités Pourtant les réponses à chacun de ces enjeux seront visibles dès la migration. Et surtout, leur cohérence sera soumise à rude épreuve. Ainsi, les concours de circonstances prétendument malheureux et pourtant prévisibles seront au rendez-vous pour révéler clairement les conflits d’objectif et de priorité. Occasion de toutes les maladresses, la migration met en exergue les incompréhensions entre les différentes disciplines et acteurs du projet. Tout projet de système d’information doit en pratique organiser le passage d’une situation « existante » à une « cible ». Même si cette cible n’est pas totalement définie a priori, et si des degrés de liberté sont laissés pour l’adapter progressivement, on ne peut se laisser guider par l’opportunisme tout au long du cheminement vers la cible. La migration ne doit pas laisser de place à l’improvisation. En effet, les projets complexes sont parsemés de choix explicites, ou sournoisement implicites, souvent –hélas- sans retour. Remettre en cause un de ces choix entraine généralement des répercussions incommensurables : surcoûts, dérapage des délais, impact d’image, voire impasse technique inavouable. Ceci renforce donc la nécessité des spécifications et de l’ingénierie des exigences. Cependant, au-delà des théories sur ces exigences, des méthodes de modélisation, des techniques de développement et d’intégration, la migration reste l’exercice de toutes les vérités. Car le succès de la migration ne réside pas seulement dans l’élégance du modèle cible, l’agilité du cheminement, la prévention de la conduite du changement, l’efficacité des tests, le professionnalisme de la gestion de projet, la stratégie de bascule des données, la clairvoyance de la gouvernance… Elle procède de tout cela et il y a dans toutes ces perfections autant de sources potentielles de dysfonctionnement ou de blocage sans que l’une prédomine dans tous les cas de figure. La migration réunit, en quelques scènes, la dramaturgie de la complexité : • l’existant, issu d’années de pratiques, d’interprétation des contraintes, masque un terreau de compromis, parfois utiles ; • la cible est une belle envolée, saturée de bonnes intentions et de codes parfois inutiles. La problématique de la migration est celle d’un écosystème vivant, qui évolue et se confronte aux erreurs des docteurs es systèmes d’informations, aux rêves des maîtres d’œuvre comme aux exigences des maîtres d’ouvrage. Trop souvent les maîtres d’ouvrage, peu enclins à saisir les multiples dimensions du futur système, et se reposant en particulier sur la maîtrise d’œuvre pour le volet technique et son cadencement, ne parviennent pas à imposer les priorités et finalités du projet, qui ne sont pas techniques. La migration fonctionne alors à rebours (la charrue tirant les bœufs), les impératifs techniques imposant leurs fausses prérogatives. Attentes utilisateurs Migration données Exigences Absolues Big-Bang Existant Intégration sur-complexe Effet domino Cible Cible Dégradé différé IT-expert n°91 - mai/juin 2011 15 Une problématique transformée en potentiel Dans le cadre des projets, la place faite à la migration est paradoxale. D’une part, elle incarne une étape majeure pour le projet, qui aborde les premières difficultés, apporte les premiers résultats, et engage des choix irréversibles, tant pour les aspects fonctionnels, techniques, ou d’appropriation, voire d’image pour les clients. D’autre part, elle est bien souvent peu étudiée, sousestimée, sans solide anticipation pour examiner les risques et les minimiser, prévoir les parades ou maximiser les avantages. Pourtant, si on se focalise sur la seule problématique de la migration, quelle richesse de possibles, quels leviers apparaissent ! Au-delà des enjeux traités par chaque discipline de la maîtrise d’ouvrage ou de la maîtrise d’œuvre, il s’agit en effet de trouver, pour une trajectoire qui sera finalement unique et jouée dans un temps réduit, les meilleurs compromis. En effet, tout n’est réalisable immédiatement, mais les apports tangibles au plus tôt sont porteurs de réussite, d’équilibre économique et de meilleur échelonnement des risques. Car dans tout projet se nichent de nombreux risques, dont l’intensité est fluctuante. En somme il s’agit d’optimiser cette phase et de mettre le futur système sur de bons rails, en examinant tous les aspects, y compris du point de vue des utilisateurs, et des diverses parties prenantes : • En réduisant les multiples aléas inhérents aux choix sur lesquels se base le projet : - choix conditionnant la suite du projet (architecture d’ensemble, complexité des modèles, image, rupture pour les utilisateurs…) pour lesquels des chemins de non-retour sont franchis, et que la migration peut valider en temps utile ; - choix d’infrastructure du projet (référentiels, progiciel) pour lesquels des risques inhérents sont pris (risque fournisseur, effet domino, obsolescence, erreur de pari prospectif), et que la migration peut poser ou remettre en cause au plus près de leur opportunité, car l’avenir est incertain et les paris anticipés inutiles. • En améliorant le retour sur investissement par : - un apport de valeur au plus tôt pour les aspects les plus déterminants, - une simplification pour éviter les interactions sources d’incidents et d’imprévus, et mise sous contrôle des phases transitoires, 16 IT-expert n°91 - mai/juin 2011 - une visibilité prévenant les déconvenues et rejets, et limitant l’effet tunnel pour l’ensemble des parties prenantes. • En adoptant une tactique et une dynamique de combat, et un tempo adapté aux temps de cycle incontournables : - par exemple, il peut être urgent de répondre, même par un « bricolage » à certaines attentes, du fait des enjeux business, des impératifs réglementaires, des contraintes sociales ; - ou alors ce sont des paris technologiques qu’il faut rapidement valider, avant de s’engager sur une voie sans retour, et parce qu’ils sont incontournables et structurants ; - ou, au contraire, laisser le plus longtemps ouverts ces paris pour ne figer un choix qui n’a de conséquences qu’en fin de période transitoire, quand la « bascule » sera complète. On aura eu la prudence d’ailleurs de différer au maximum un tel choix pour laisser murir le marché de l’offre. Ainsi, la problématique d’une migration, complexe et aux multiples aspects économiques, sociaux et techniques, mérite considération et les lettres de noblesse. De fait, à l’occasion de la migration, apparaissent des leviers souvent négligés pas chaque discipline : Il s’agit de transformer pas à pas une vision complexe en réalité opérationnelle, utile et praticable, de revisiter les finalités pour maîtriser les aléas et imprévus qui surgissent. Après ces quelques considérations de « bon sens », une méthode pragmatique de migration s’impose. Ces considérations sont de plusieurs ordres : • trouver les « clés », majeures pour la tactique de migration ; • prévoir une cible « migratoire », cruciale pour traiter les régimes transitoires, souvent absents des études de cibles. Cette problématique se décline en 2 thèmes : - La désimbrication qui autorise des cycles de vie des composants du SI différentiés, - L’ingénierie de la coexistence au sein du SI, avec une « chirurgie des flux » adaptée. • Enfin, la mise en musique de la transition de l’existant vers la cible doit être formalisée, écrite un peu comme un scénario, une mise en scène. Les différentes étapes, et sous-étapes, de la transformation impulsée par le projet sont à prévoir, organiser, piloter, communiquer. Dans ce premier article, les 2 premiers thèmes seront abordés. Technique Déterminer les clés Pour ordonner la bataille de la migration, il convient en premier lieu d’identifier les « clés » de la réussite ou de l’échec de l’histoire qui va se jouer. Une clé est caractérisée par la conjonction d’aléas et de certitudes : • aléas propres à la clé, et donc risques induits ; • certitudes de conséquences sur le futur système, ou sur le projet lui-même. En effet, on raisonne ici au niveau de telle ou telle composante du système, le système étant pris au sens large, système technique bien sûr, mais aussi utilisateurs ou autres parties prenantes, voire outils ou acteurs du projet lui-même. Si donc une composante du système est affectée d’aléas, et que ces incertitudes peuvent avoir des conséquences par ailleurs (effet domino, image négative, délais d’attente, surcomplexité, avenant contractuel…) la situation sera fortement préoccupante. Cette composante sera « clé » pour la migration, car pouvant la perturber, voire favoriser l’échec. ne sera plus focalisée sur la cohérence, la complétude de la cible et le fonctionnement harmonieux du futur système dans toutes ses dimensions, mais qui devra mettre en relief toutes les sources d’aléas qui ne manqueront pas de perturber la tranquille mise en œuvre du système. Cette recherche des clés et des parades relève à la fois de la maîtrise d’ouvrage, pour les aspects non techniques (aléas sur la conduite du changement, sur l’image, sur la qualité des données, sur le déploiement), et de la maîtrise d’œuvre pour les composantes techniques. Pour autant, cet exercice n’est pas vain pour concevoir la cible elle-même. En effet, face à un problème identique, de multiples solutions cibles peuvent être imaginées. Certaines d’entre elles, du pur point de vue du résultat projeté, sont totalement identiques. Et, sur le papier, en quelque sorte confondables comme de vraies jumelles. En revanche, entre ces solutions jumelles, l’une sera « migratoire » et l’autre impliquera par exemple le drame du « big bang ». En réalité, il existe toujours plusieurs clés, qu’il faut correctement identifier, par exemple : • composante d’architecture technique innovante, mal maîtrisée ; • ensemble de données existantes, dont on ignore la qualité, nécessitant au quotidien dans le système actuel, de lourds travaux de mise à jour. Il est courant que ce dispositif soit reconduit et inscrit dans la cible sans autre forme de procès : surcoût, surcomplexité et rejet par les utilisateurs sont des risques induits classiques. Un audit de la qualité des données, un audit du modèle de données sont d'utiles préventions pour assainir ce sujet lourd de conséquences ; • besoins des utilisateurs pris au pied de la lettre, enfermés dans des spécifications trop détaillées et rigides par rapport à la réalité de l’offre technologique, et plombant l’évolutivité du système, alors qu’un test en situation serait révélateur et peu couteux ; • appel au marché, sur des segments en évolution rapide, impliquant un choix structurant pour le système, ou pour les utilisateurs. Pour chaque clé, il faudra choisir la conduite et les parades adaptées. Il sera dès lors judicieux, une fois les clés repérées, de limiter soit leurs incertitudes, soit leurs conséquences : prototypage, proof of concept, échantillonnage, utilisateurs pilotes, audit des données… Une bonne tactique consiste à ordonner la migration en positionnant : • au plus tôt ce qui est à tester et conditionne la suite ; • ce qui apporte de la valeur, basé sur des solutions simples (les fameux « quick-win ») ; • au plus tard, ce qui dépend du marché et risque d’évoluer. Concevoir la migration revient donc à revisiter la cible avec une optique tactique et pragmatique. Cela implique une vision qui IT-expert n°91 - mai/juin 2011 17 La cible migratoire Les techniques de désimbrication Il existe assez naturellement des cibles non « migratoires », car difficiles à faire évoluer. Ceci peut être dû à de multiples facteurs : existence d’un SI central très complexe où toute évolution est couteuse par ses impacts en développement, conduite du changement…, imbrication autour d’un ERP lui-même complexe et souvent basé sur une technologie en voie d’obsolescence et héritant des contraintes du passé, processus durcis par la réglementation, force des habitudes… Le modèle des données est-il non-redondant ? A-t-on utilisé au mieux la modélisation pour atteindre une généricité, sans pour autant créer une surcomplexité. Pourquoi ne pas séparer les champs sémantiques, en ne mettant en cohérence que le minimum ? Gérer ce minimum en dehors du cœur fonctionnel ? L’extraire de l’ERP ? Auditer la qualité des données ? Vérifier leur utilité ? Pris l’avis des utilisateurs ? Estimer des alternatives déclinant tous les jeux de subsidiarité ? Identifier clés et parades On relève cependant un facteur commun à toutes ces rigidités : la trop forte imbrication de la cible prévue. Désimbriquer devient alors le maître mot. Pour concevoir une cible dont l’architecture permette les déformations qui facilitent la migration, on peut appliquer diverses approches : • Recourir à une architecture de services, avec en particulier l’objectif de mixer des applications existantes et de nouveaux composants. On peut ainsi préserver une partie de l’existant, ou différer sa réécriture au moment le plus opportun, éviter les chocs inutiles et prématurés. • Articuler la cible autour d’un « pivot », sorte de référentiel de données réduit à sa plus simple expression, qui permet de gérer la bascule entre deux régimes applicatifs. D’ailleurs la gestion des données de référence est clé de voute pour une cible migratoire. • Exclure du cœur de la cible les fonctions qui sont maintenant disponibles sur le marché, et sont traitées par des outils (moteurs de règles, moteurs de recherche, outils de Business Intelligence, outils de workflow, messagerie, collaboratif, GED, portail, etc.) matures et performants. Ceci allège d’autant la cible et la contraint à des interfaces et des appels de services clairs. En outre, certains de ces logiciels sont source de « quick win », et créent des circuits courts pour impliquer les utilisateurs d’entrée de jeu, évitant la paranoïa de l’hypermodélisation. Mettre en scènes Désimbriquer Opérer la coexistence Auditer les données Le décor est posé Le thème de la migration est des plus riches et cet article ne considère qu’une moitié du sujet… Certes le décor est posé, mais il reste à approfondir deux sujets : • L’ingénierie de la coexistence, qui permet la vie du SI et sa transformation en douceur pendant la dangereuse phase de migration. • La mise en scène du scénario de migration, afin de maîtriser ce processus complexe et d’apporter une belle fin à cette histoire. Ces sujets seront traités dans un prochain article : ingénierie de migration, coexistence et mise en scène. n Toutes ces approches sont nécessaires et complémentaires pour lutter contre la facilité de la cible intégrée et son big bang fatal. Et, il ne suffit pas de décréter qu’il y va d’un développement agile : à l’architecture de donner l’agilité et non aux composants qu’elle assemble. Bien au-delà de la migration, la désimbrication permet d’anticiper sur les cycles de vie des composants. Certains sont matures et il est inutile de vouloir les recréer, les réinventer, souvent en moins bien, en développant une solution « maison ». D’autres composants restent plus expérimentaux et méritent une approche prudente. Dans tous les cas, la vitesse du marché est à évaluer, ainsi que les alternatives qui limitent la captivité par rapport à l’éditeur, à ses virages stratégiques, aux fusionsacquisitions. L’évolutivité et la maîtrise des risques passent par ces évaluations. Dans cette ingénierie de la désimbrication, l’audit des données s’avère crucial. 18 IT-expert n°91 - mai/juin 2011 René Mandel, Fondateur Acteur majeur du conseil en management et organisation, ORESYS est un cabinet indépendant de 250 consultants, basé à Paris, Lyon, Lille, Nantes et à Bruxelles, Lausanne. ORESYS aide ses clients à piloter leurs activités, améliorer leur performance et mettre en œuvre leurs projets de transformation. ORESYS intervient sur toutes les dimensions des programmes de transformation des entreprises : métiers, organisation, processus, Système d’Information, accompagnement du changement. Site web : www.oresys.eu IDC, filiale du leader mondial du conseil, et des études dans les technologies de l’information. Comment gagner en agilité face aux nouveaux impératifs métiers ? En ces temps d’incertitudes, et après avoir résisté à la crise, le décisionnel reste au cœur des préoccupations des organisations françaises. Agilité, visibilité, réactivité, mobilité, instantanéité : tous ces attributs dont se pare le décisionnel sont autant de réponses à l’impératif de gagner en agilité et en faculté d’adaptation dans un monde imprévisible. IDC France vous donne rendez-vous jeudi 9 juin 2011 (9h – 15h30) au Centre d’affaire Etoile Saint Honoré, Paris 8ème pour participer à la conférence « IDC Décisionnel et Data Management 2011 » Au programme : • Vision et AnAlyse iDC : évolution des besoins et des usages de solutions d’informatique décisionnelle 2011 – 2014, en France et en Europe • le DéCisionnel De nouVelle générAtion : gagner en intelligence grâce à une meilleure prise en compte du contexte des informations • Des ChAntiers De plus en plus Critiques Autour Des Données • RetouR d’expéRience de pRojets décisionnels : spécificités et facteurs de succès Avec le témoignage de Marie-claude poelman, dsi, nature & découvertes Au travers des analyses de tendances, d’interventions d’experts et de témoignages utilisateurs, vous pourrez faire un point complet, identifier les nouveaux enjeux auxquels vous devez faire face et les solutions qui s’offrent à vous. programme détaillé et inscription gratuite : http://www.idc.com/france/BI2011 Code invitation : ITX Contact : Valérie Rolland [email protected] tel : 01.56.26.26.85 Cette conférence gratuite est uniquement réservée aux entreprises utilisatrices. Conférence organisée par avec le soutien de Actualités internationales La fin de la « taxe Google » ? Après avoir une première fois repoussé la taxe de 1% sur la publicité en ligne de six mois fin 2010, Eric Besson, ministre de l'Economie numérique, avait annoncé son aménagement. Cette « taxe Google » visant les achats de publicité en ligne réalisés par les géants du Web avait été critiquée (y compris par le gouvernement), car elle impactait finalement surtout fortement les PME françaises investissant sur Internet. Son entrée en vigueur semble être remise en question par Eric Besson sur Canal+ fin mai qui a expliqué ne pas souhaiter que l’application de ce texte ait lieu en juillet prochain. En outre, le ministre a annoncé une réunion à l'automne sur le financement des infrastructures visant à assurer l'avenir d'Internet. Par ailleurs, la députée UMP d'Eure-et-Loir Laure de La Raudière aurait déposé un amendement visant à supprimer les lignes concernant cette taxe du projet de loi de finances, son examen aura lieu le 6 juin. n Gallimard, Flammarion et Albin Michel attaquent Google Littérature Avec Google Livres, le géant des moteurs de recherche souhaite numériser le patrimoine littéraire mondial pour en favoriser l’accès au plus grand nombre. Mais les éditeurs de ce même monde n’entendent pas se laisser flouer. En effet, Google estime qu’une grande partie des ouvrages numérisés est épuisée, tandis que les éditeurs dénoncent la démarche purement commerciale du géant de Mountain View. Et il est vrai que les visites sur ce service génèrent de juteuses recettes publicitaires. Les trois éditeurs réclament la coquette somme de 9,8 millions d'euros de dommages et intérêts pour la numérisation sans autorisation de près de 10 000 livres (9797). En revanche, Hachette Livre a signé un accord avec Google en novembre dernier fixant les conditions de numérisation des œuvres en langue française épuisées dont il détient les droits. La justice américaine a rejeté l’accord que Google avait contracté avec l’AAP (Association of American Publishers) et l’Authors Guild pour exploiter les œuvres numérisées inscrites au registre américain des droits d'auteurs et émanant de pays anglo-saxons (Royaume-Uni, Canada et Australie). En outre, Google a déjà été condamnée en 2009 en première instance, puis assigné par La Martinière, la Société des gens de lettres (SGDL), le Syndicat national de l'édition (SNE), et Gallimard en 2010. Et si Google Livres devenait réellement gratuit et sans publicité ? Les éditeurs attaqueraient certainement alors pour manque à gagner... Après la musique et les films, le livre se voit à son tour bousculé par Internet. Pour le meilleur ou pour le pire ? n 20 IT-expert n°91 - mai/juin 2011 Actualités internationales Skype valait donc 8,5 milliards de dollars ? Microsoft n’a pas hésité à signer un chèque de 8,5 milliards de dollars pour s’emparer de Skype, malgré ses 7 millions de dollars de pertes en 2010 (contre 418 en 2009). Steve Ballmer, dirigeant de Microsoft, a même souligné que cette acquisition est la plus coûteuse jamais réalisée par le géant de Redmond. Certes, Skype compterait environ 170 millions d’abonnés actifs à son service de messagerie instantanée texte-audiovidéo et de téléphonie sur Internet, dont seulement 8 millions payants (des chiffres avancés par des analystes et non par Skype…). En outre, l’entreprise a réalisé un chiffre d’affaires de de 860 millions de dollars contre 719 millions den 2009. Ce prix excessif s’explique par le fait qu’eBay aurait fait monter les enchères, et que Skype avait annoncé son intention d’entrer en bourse cette année. Steve Ballmer s’est contenté de préciser que Microsoft souhaitait essentiellement gérer « les données, la voix et la vidéo sur un seul et même écran » pour la téléphonie mobile, les ordinateurs, les tablettes ou les téléviseurs. Il semblerait aussi que l’entreprise espère renforcer sa stratégie sur la téléphonie mobile et les réseaux sociaux. Rappel : Microsoft dispose déjà de ses services en ligne dont Windows Live Messenger (ex MSN), et de la version professionnelle Lync (ex Communication Manager). Le lion sort de sa réserve Bref, les observateurs se posent logiquement de multiples questions sur cet énorme investissement surcoté, et sur la stratégie de Microsoft. Il n’en fallait pas plus pour que Bill Gates (lui-même !) sorte de sa réserve. Surtout après que l’information ait circulé indiquant que des membres du comité de direction n’avaient pas soutenu ce rachat, certes discutable à ce prix. Le cofondateur de l’entreprise a donc expliqué sur la BBC avoir « fermement soutenu cet accord lors au conseil d'administration » dont il reste un membre actif. Et il confirme que 7 des membres n’avaient pas soutenu l’opération. Pour lui, la vidéoconférence est un investissement sur l’avenir, et réunir les équipes de Skype et de Microsoft pourrait s’avérer payant. Toute polémique sur des investissements inconsidérés risque d’entrainer très vite des sanctions boursières difficiles à tempérer. Malgré son éloignement des affaires, Bill Gates vielle toujours au grain… n La fin du mouchard iPhone L’iPhone (4 et 3 GS), l’iPad (1 et 2) conservent dans une base de données locale les informations de géolocalisation permettant –éventuellement- de reconstituer tous les mouvements de leur possesseur. Suite à la polémique grandissante autour de cette « atteinte à la vie privée », Apple a apporté une solution avec la mise à jour 4.3.3 de son système d’exploitation iOS. Jusqu’alors, l’iPhone et autres conservaient des traces des déplacements en utilisant les emplacements des émetteurs GSM. Cela servait certainement à améliorer les performances des applications utilisant la géolocalisation. Des logiciels et applications web utilisant cette possibilité dans un but plus discutable commençant à apparaître, Apple a mis les bouchées doubles pour y remédier, expliquant qu’il s’agissait d’un malentendu avec les développeurs Apple. n IT-expert n°91 - mai/juin 2011 21 e-commerce.fr : 28 millions d’acheteurs Réalisé par Médiamétrie et la Fevad (Fédération du e-commerce et de la vente à distance), le baromètre du e-commerce au premier trimestre 2011 montre une croissance de 11 % du nombre de cyberacheteurs français en un an. Soit 3 millions de Français en plus pour un total de 27,9 millions de cyberacheteurs, soit 72,5 % des internautes dans l’Hexagone. Et l’e-commerce n’est plus le domaine des classes aisées et des technophiles. En effet, Médiamétrie indique que les internautes de plus de 50 ans et les CSP moins sont de plus en plus nombreux, et que deux internautes sur trois (et pas uniquement des cyberacheteurs) affirment faire confiance à la vente en ligne. Parmi les 15 sites marchands les plus visités, eBay.fr caracole en tête avec 10,4 millions de visiteurs uniques par mois. Juste derrière, Amazon.fr affiche 9,8 millions de visiteurs uniques, suivi de Cdiscount avec 8,6 millions et PriceMinister avec 8,4 millions. De belles performances, même si toutes ces visites ne donnent pas forcément lieu à des achats. n Brands (1) Visiteurs uniques moyens par mois Couverture moyenne (en % de la population internaute) Visiteurs uniques moyens par jour 1 eBay * 10 444 000 25,4% 1 595 000 2 Amazon * 9 899 000 24,0% 948 000 3 Cdiscount * 8 671 000 21,0% 818 000 4 PriceMinister * 8 469 000 20,6% 803 000 5 Fnac * 7 778 000 18,9% 673 000 6 Groupon 7 494 000 18,2% 771 000 7 Voyages-Sncf.com * 7 211 000 17,5% 546 000 8 La Redoute * 6 995 000 17,0% 577 000 9 Vente-privee.com * 6 079 000 14,8% 1 311 000 10 Pixmania * 6 069 000 14,7% 459 000 11 Carrefour * 5 849 000 14,2% 418 000 12 3 Suisses * 5 372 000 13,0% 399 000 13 Rue du Commerce * 4 986 000 12,1% 358 000 14 Brandalley.com * 4 735 000 11,5% 446 000 15 Kiabi.com * 4 101 000 9,9% 279 000 * Les sites adhérents à la Fevad sont signalés par un astérisque Source : Médiamétrie//NetRatings - Catégories créées spécialement pour la Fevad - France - Tous lieux de connexion Moyenne mensuelle des mois de janvier, février, mars 2011 - Applications Internet exclues - Copyright Médiamétrie//NetRatings - Tous droits réservés Un iPhone qui sait lire et écrire… Speech-to-Text et Text-to-Speech. Ces deux technologies consistent à retranscrire des sons en texte et réciproquement à l’image de ce que réalisent des produits comme Dragon Naturally speaking. On trouve également ce type de fonctions dans certaines versions de Windows 7, par exemple. Le brevet déposé par Apple viserait précisément à convertir des appels téléphoniques vocaux en texte à l’initiative de l’appelant. Puis, l’interlocuteur pourrait aussi répondre par un texte que l’iPhone lirait à l’utilisateur. Le brevet Apple concernerait une conversion matérielle assurée directement par l’iPhone au niveau matériel. À suivre… n 22 IT-expert n°91 - mai/juin 2011 CRI Actualités internationales Attribution des licences mobiles 4G : c’est parti ! L’Arcep (autorité de régulation des communications électroniques et des postes) et le gouvernement ont fixé le début de la procédure d’attribution des licences 4G pour fin mai-début juin. Et les licences seront délivrées entre l’automne 2011 et début 2012. Toutefois, le dépôt des dossiers de candidature ne débuterait qu’en septembre 2011. Quatre ou cinq opérateurs pourraient être autorisés à déployer la 4G sur leur propre réseau. L’Arcep a par ailleurs précisé les conditions d’utilisation des bandes de fréquences 800 MHz (récupérées de la télévision analogique) et 2,6 GHz (jusqu’alors réservées à l’armée). La Commission Consultative des Communications Electroniques (CCCE) doit publier sa décision d’ici fin mai, avant que le gouvernement puisse publier les appels à candidatures. L’autorité rappelle les trois principaux critères pour l’attribution des licences 4G : « aménagement numérique du territoire », « concurrence effective et pérenne sur le marché mobile » et « valorisation du patrimoine immatériel de l’État ». Afin de limiter la fracture numérique, les titulaires seront soumis à des obligations de couverture 4G : 99,6 % de la population métropolitaine (à terme) mais aussi au niveau départemental. Le régulateur souligne que le dispositif vise aussi à inciter les candidats opérateurs à ouvrir leurs réseaux aux opérateurs virtuels (MVNO). Considérées à juste titre comme « patrimoine immatériel de l’État », ces fréquences seront valorisées en conséquence. L’exploitation des licences 4G fera donc l’objet d’enchères combinatoires à un tour, avec un prix de réserve de 2,5 milliards d’euros (comme l’a mentionné Éric Besson, ministre délégué à l’économie, dans un entretien à La Tribune). Petits joueurs s’abstenir ! D’autant qu’il faudra ajouter à ce montant le coût de construction du réseau. n OSS CRIM IME SCENE DO NOT CR CR S OS CR T NO DO E EN S CRIME SC IME SCENE DO NOT CROS Mono est mort : Vive Xamarin ! Après avoir racheté Novell en novembre dernier, Attachmate avait tout simplement licencié tous les employés liés au projet Mono, version open source de la plate-forme Microsoft .Net, que l’éditeur de Windows considérait avec bienveillance. Pourtant, la distribution Suse Linux de Novell créait une passerelle très intéressante entre cet environnement et les applicatifs Windows ou la plate-forme ASP.Net. L’histoire aurait pu finir ainsi. Mais c’était oublier un peu vite la volonté de fer de Miguel de Icaza, responsable du projet Mono. Ce dernier vient d’annoncer la naissance de la société Xamarin, visant à maintenir en vie le projet open source Mono et à contribuer fortement à Moonlight (Silverlight en mode open source). Dans quelques mois, la société proposera d’ailleurs des versions commerciales pour iOS et Android, car MonoTouch et Mono for Android appartiennent toujours à Attachmate. n IT-expert n°91 - mai/juin 2011 23 Ouverture du premier Free Center Les abonnés (ou ex-abonnés) reprochent souvent à Free son manque de contact et l’absence de présence physique. Qu’à cela ne tienne, le trublion de l’Internet triple-play hexagonal se lance dans l’aventure en ouvrant une première boutique en plein centre de Rouen. Enfin, une relation directe avec le client ! On peut raisonnablement penser que les ambitions de l’entreprise dans la téléphonie mobile jouent forcément en ce sens. Ce Free Center se veut « un lieu de découverte des offres de Free, essentiellement de la Freebox Revolution et des services qui tournent autour… ». Des conseillers accompagneront les clients pour leur expliquer les offres et finaliser leur souscription en ligne. Présenté comme un lieu expérimental, ce Free Center vise à tester les réactions du public avant un éventuel élargissement sur l’Hexagone. Ces frais supplémentaires conséquents permettront-ils toujours à Free de maintenir une politique de prix agressifs ? Et ces Free Centers amélioreront-ils vraiment la relation client ? n Les radars à nouveau invisibles, même sur smartphone ? Afin d’améliorer la sécurité routière, le gouvernement a finalement décidé de modifier les dispositions en place, et de supprimer la signalisation des radars. Cette interdiction porte non seulement sur les GPS et équipements électroniques dédiés, mais aussi sur les applications pour téléphones mobiles. En effet, les autorités ont estimé que ces avertisseurs incitaient plutôt à ne pas respecter les limitations en dehors de ces « zones repérées ». Bien entendu, Coyote, Inforad et Wikango -les trois principaux fabricants français concernés- ont protesté lors d’une conférence de presse, arguant que « Les chauffeurs de taxis, chauffeurs routiers, motards, artisans ou particuliers » pâtiraient de cette décision, perdant au passage un « permis de conduire souvent synonyme de permis de travail ». Au passage, l’application réelle de cette décision risque de poser quelques problèmes. Un GPS non mis à jour pourra éventuellement être détecté. Encore faudrait-il que tous les agents concernés soient formés en ce sens. Mais qu’en sera-t-il des smartphones ? D’une part, la manœuvre s’avérerait délicate ; d’autre part, un agent de la force publique peut-il vraiment fouiller un téléphone personnel sans autre forme de procès ? Cela mérite plus que réflexion ! Il faut pourtant bien lutter contre l’insécurité. n 24 IT-expert n°91 - mai/juin 2011 Comment ça marche ? Pilotage d’une DSI : pour un Project Management Office engagé IT-expert n°91 - mai/juin 2011 25 De plus en plus sollicitées, les Directions des Systèmes d’Information font face à des défis importants et contradictoires, du type : • se montrer force de proposition vis-à-vis de la stratégie métier de l’entreprise, tout en maintenant un patrimoine applicatif important, difficile à maîtriser et à faire évoluer ; • s’engager sur des délais et des coûts, mais sur des sujets nouveaux avec des équipes qui n’ont pas forcément le sens du management et de la responsabilisation ; • faire preuve d’une réactivité importante vis-à-vis de leurs clients, alors que leurs processus sont parfois complexes et font intervenir de nombreux acteurs et aussi bien internes qu’externes à leur organisation ; • Etc. Pour que la DSI soit plus crédible, à la fois vis-à-vis de ses clients et donneurs d’ordre internes, ainsi que de ses équipes et fournisseurs, une cellule dédiée de Project Management Office (PMO) peut fortement contribuer à maîtriser ces défis. Historiquement, le PMO (Project Management Office) a souvent été cantonné à organiser le suivi des temps passés, ou tenir à jour des plannings sur certains projets. Cependant, il peut jouer un rôle plus stratégique pour le pilotage de la DSI et contribuer à sa transformation. La mise en oeuvre de ces principes auprès d’une DSI d’une centaine de personnes, filiale d’un groupe international, servira d'exemple dans cet article. Trois défis majeurs pour que la DSI reprenne la main En 2010, cette DSI a dû faire face à 3 grands défis simultanés : 1.Changer de prestataires d’infogérance et de TMA pour des raisons économiques, mais aussi pour se réapproprier la connaissance de son SI, trop longtemps laissé entre les mains d’un seul prestataire amenant à une perte de contrôle progressive par la DSI. Il lui fallait aussi sortir d’un cadre contractuel trop figé qui empêchait l’évolution du système d’information, et déresponsabilisait trop les managers de la DSI. Après plus de 10 ans d’infogérance avec le prestataire précédent, on imagine bien la difficulté de la tâche. 2.Intégrer les équipes MOA (maîtrise d’ouvrage) au sein de la DSI. Auparavant dispersées dans les directions métiers, elles doublaient certaines fonctions (connaissance des applications), créant un climat de suspicion et de frustration, donc anticollaboratif et peu propice à la maîtrise du SI et à son évolution. Ce rapprochement allant de pair avec une internalisation au sein de la DSI de la gestion des processus métier, pour assurer la cohérence avec le système d’information. 3.Revoir toute la chaîne de fabrication et de mise en production des projets et demandes de maintenance, en particulier avec la mise en place d’une procédure de recette intégrée indépendante, afin de garantir la qualité de ce qui est mis en œuvre. Ceci imposant donc le cadencement des versions du système d’information, en évitant les mises en production au fil de l’eau telles que vécues auparavant. On le voit donc, un véritable programme de transformation de la DSI, difficile à mettre en œuvre sur une année. La mise en place d’un PMO Pour piloter cette transformation, et mettre en place une structure de gouvernance pérenne, cette société a décidé de mettre en place une entité PMO. Il s’agissait en particulier de résoudre des difficultés illustrées dans le tableau ci-après : 26 IT-expert n°91 - mai/juin 2011 Le cloisonnement Les difficultés de communication Les dérives à répétition Objectifs multiples et flous Traitement en urgence des problèmes Tendance naturelle de toutes les organisations, aussi bien au sein de la DSI, que la DSI vis-à-vis des directions fonctionnelles. Un des rôles du PMO a consisté à casser le plus possible les barrières inutiles, les comportements de chapelle. Par exemple en organisant des comités transverses, en s’assurant que l’information circule, que toutes les bonnes personnes sont impliquées dans les décisions… Le positionnement du PMO en transverse à la DSI facilite ce rôle. Cette difficulté, très souvent rencontrée, entre informaticiens et fonctionnels comme entre un prestataire et son client… est liée à l’utilisation de jargons (métier ou technique), et au fait qu’on n’ose pas toujours demander des explications quand on n’a pas compris. Les problèmes sont escamotés… Le PMO sera aussi vigilant sur ce point, en faisant reformuler, en s’assurant que tout le monde est en phase, que les points sont bien compris de tous et que chaque sujet est pris en charge par un acteur. Toute DSI redoute le décalage de ses projets informatiques, entraînant des coûts supplémentaires, une insatisfaction des utilisateurs finaux et une perte de sa crédibilité. On présente souvent comme une fatalité que les projets dérivent, et donc que les budgets explosent. Les excuses sont nombreuses, depuis les nouveautés technologiques, les changements de périmètre, l’impact des autres projets… On est ici au cœur de la mission du PMO, qui devra briser ce cercle vicieux, en s’assurant que les estimations initiales sont réalistes, que les risques sont anticipés, que les changements sont maîtrisés. On touche ici au mode de management au sein de la DSI, pour les personnels internes et les externes. Il est fréquent que les services supports ne soient pas particulièrement motivés sur la réussite des projets. Et l’on constate souvent que les objectifs ne sont pas alignés. Le PMO là encore pourra s’assurer de la cohérence de ces objectifs, de leur compréhension par tous les acteurs, sans se substituer au management bien sûr. Exercice délicat. Comités pléthoriques Peu de traces du passé, documentation inaccessible… Cette difficulté apparaît souvent sur les projets, et rares sont les organisations qui savent anticiper les difficultés pour un traitement plus serein. Dans la plupart des cas, le management ne s’implique que lorsqu’il se retrouve au pied du mur, et qu’il faut tout résoudre en mode « panique ». Là aussi le PMO joue son rôle d’anticipation et alerte les décideurs au bon moment des difficultés, tout en proposant des plans d’action prédéfinis. Dans une organisation qui n’est pas sûre de sa gouvernance, un biais est d’organiser des réunions avec trop de monde. Cela évite de provoquer des susceptibilités, en plaçant la réunion comme un enjeu de pouvoir. L’inefficacité est au rendez-vous, et les décisions finissent par être prises ailleurs. Le PMO doit s’assurer que l’objectif de chaque réunion est clair : information, créativité, décision… Que les réunions sont préparées, le nombre de participants adapté, que des actions ou des décisions en sortent. La DSI doit gérer des patrimoines applicatifs sur de nombreuses années. Le maintien de la connaissance et le recours aux documents pertinents sont indispensables, d’autant que les acteurs ou les prestataires évoluent. Le PMO peut proposer d’organiser cette information, pour en faciliter sa maintenance et son accès. Il pourra ainsi mettre en place un espace documentaire partagé pour les projets, avec une organisation et un processus qui permettent d’archiver les documents correctement, facilitant le travail collaboratif entre les acteurs. Cette liste n’est évidemment pas limitative. IT-expert n°91 - mai/juin 2011 27 Après avoir pris conscience des difficultés, un dispositif mis en œuvre pour les résoudre s’impose. Dans le cas considéré, deux approches ont été simultanément mises en place : • la production de résultats concrets rapidement, sur les principales difficultés rencontrées, pour assoir la crédibilité de l’équipe et pour qu’elle fasse ses preuves ; • la proposition d’un dispositif pérenne de PMO et de gouvernance. Produire des résultats rapidement L’une des principales difficultés ressenties tenait dans le manque de vision globale face à l’arrivée simultanée de plusieurs grands projets. Ces derniers présentaient des interactions entre eux, mal identifiées, tout comme leur impact sur les services support (recette, mise en production). Chaque projet était correctement planifié, mais sans tenir compte du reste du monde. Le PMO a travaillé à mettre en exergue ces contraintes, de façon claire. Même si ce travail a abouti à rallonger de 6 mois les délais des projets, cette décision a pu être prise de manière objective et partagée entre maîtrise d’ouvrage et maîtrise d’œuvre. Un premier résultat a donc été de produire la feuille de route du portefeuille des projets, tenant compte de leurs interactions entre eux, c'est-à-dire avec un planning réaliste. 2010-T3 juil-10 DOMAINE PROGRAMME PROJET STATUT Projet 1 Déploiement pilote Projet 2 Developpement en cours Projet 3 Recette Projet 4 Conception en cours Projet 5 Etude engagée Projet 6 Conception en cours Projet 7 Non engagé Projet 8 Non engagé Projet 9 Etude engagée Projet 10 Non engagé Projet 11 Non engagé Projet 12 Non engagé Projet 13 Déploiement pilote Projet 14 Recette Projet 15 Recette Programme 1 Domaine 1 Programme 2 28 IT-expert n°91 - mai/juin 2011 Projet 16 Recette Projet 17 Developpement en cours Projet 18 Developpement en cours Projet 19 Non engagé 01 08 15 août-10 23 01 08 15 sept-10 23 01 08 15 23 2010-T4 oct-10 01 08 15 2011-T1 nov-10 23 01 08 15 déc-10 23 01 08 15 janv-11 23 01 08 15 2011-T2 févr-11 23 01 08 15 mars-11 23 01 08 15 avr-11 23 01 08 15 mai-11 23 01 08 15 juin-11 23 01 08 15 IT-expert n°91 - mai/juin 2011 23 29 Toujours dans cette approche initiale, l’équipe a pu mettre en place des premiers comités de coordination pour s’assurer que les chefs de projets communiquaient entre eux, mais aussi avec les services supports. Le décloisonnement a très rapidement permis une meilleure communication. Mettre en place un dispositif pérenne La confiance étant établie, à la fois avec le management et les opérationnels, un dispositif durable a pu progressivement se mettre en place : • Un reporting régulier (mensuel), sous un format commun, pour s’assurer que les éléments fondamentaux de chaque projet étaient suivis : les délais, les livrables, les coûts, les risques et les plans d’action associés. • Une refonte de la gouvernance, à la fois pour supprimer les comités inutiles, revoir la participation des acteurs, et privilégier les comités qui décloisonnent, sans oublier la participation pertinente des clients de la DSI à certains d’entre eux. • Une revue des processus clés de la DSI, en particulier la gestion des demandes (qualification et arbitrage), pour mieux orienter les budgets dans le sens de la stratégie de l‘entreprise. • Une communication externe plus axée sur les clients internes, dans leur langage métier, avec une mise en évidence des offres de la DSI : offre processus, applicative ou de service. Restent encore en chantier des sujets comme la gestion de versions du système d’information, ou le choix d’un outil central de gestion de projet. Néanmoins, cette DSI peut mesurer le chemin parcouru, et voir son avenir plus sereinement. n Hervé de Perthuis, Directeur Associé Hélène Tittelein, Manager Ils sont en charge de l’accompagnement des DSI dans le pilotage des grands projets de transformation. Acteur majeur du conseil en management et organisation, ORESYS est un cabinet indépendant de 250 consultants, basé à Paris, Lyon, Lille, Nantes et à Bruxelles, Lausanne. ORESYS aide ses clients à piloter leurs activités, améliorer leur performance et mettre en œuvre leurs projets de transformation. ORESYS intervient sur toutes les dimensions des programmes de transformation des entreprises : métiers, organisation, processus, Système d’Information, accompagnement du changement. Site web : www.oresys.eu 30 IT-expert n°91 - mai/juin 2011 Iaas, Paas & Saas Virtualisation Sécurité Green IT Stockage Le salon du Cloud Computing, de la Virtualisation et des Infrastructures Sécurisées 1ÈRE ÉDITION 18-19-20 OCTOBRE 2011 PARIS - PORTE DE VERSAILLES • Storage as a Service • Green IT • Portabilité d’applications • HPC • Cloudsourcing • Grid Software • Cloud-Delivered Testing • QoS, QoE • Open Cloud • Cloud et sécurité • Cloud Management • Cloud & Datacenter • Cloud Computing & PME • Cloud Management • Cloud & Datacenter • Cloud Computing & PME • Applications cloud • Cloud Computing et interopérabilité • Cloud Internetworking • Virtual Private Inter-Cloud • Java Enterprise Cloud Tenue conjointe avec les salons Un événement Partenaire officiel www.cloud-and-it-expo.com Stratégie d'intégration Master Data Management au SI avec Microsoft Master Data Services A 32 cquérir les informations brutes et éparses et mettre à disposition la donnée de référence à votre entreprise est un enjeu majeur du MDM. Diverses stratégies permettent d’y parvenir, et chacune affiche des atouts spécifiques. IT-expert n°91 - mai/juin 2011 Quoi de neuf Docteur ? Les démarches de gestion de données référentielles rencontrent de plus en plus de succès auprès des entreprises. Une des clés de voûte d’une solution MDM tient dans sa capacité à s’intégrer au SI pour pouvoir récupérer la donnée brute, la traiter pour en faire une donnée référentielle de qualité et la diffuser et l’exposer à l’entreprise. Microsoft a lancé sa solution MDM (Master Data Management) SQL Server Master Data Services en 2010. L’éditeur a opté pour une approche générique, par opposition aux solutions focalisées sur la donnée Client (dites Customer Data Integration) ou Produit (dites Product Information Management). Outre sa généricité, la solution Master Data Services met en avant des composants d’intégration qui placent cet outil en bonne position à l’heure ou le MDM s’oriente vers des plateformes multi domaines. Le MDM : à quoi bon ? Le Master Data Management (ou gestion des données référentielles) s’applique aux données de référence afin de garantir la cohérence entre les diverses architectures des systèmes et les fonctions métier de l’entreprise. Les données de références sont : • les données structurantes des processus métier ; • partagées, utilisées par de multiples processus et domaines métiers d’une entreprise et de ses partenaires ; • stables dans le temps, par opposition aux données opérationnelles ; • un socle pour construire les axes de consolidation des données décisionnelles. Le Master Data Management part du constat que maitriser la donnée relève d’un réel challenge, face aux problématiques suivantes : • Des visions différentes sur des concepts métiers partagées ; • De multiples gisements de données à maintenir ; • Des difficultés à déterminer la source de confiance d’une information ; • Des difficultés à échanger et synchroniser les informations; • Des données de qualité médiocre et non uniformes ; • Des processus de redressement inefficaces ; • Un impact fort sur l’exécution des processus opérationnels cœur de métier. Figure 1 : Fonctionnalités d’une solution de gestion de données de référence (Enjeux et méthodes de la gestion des données, Frank Régnier-précastaing, éd. Dunod) IT-expert n°91 - mai/juin 2011 33 Le point de vérité : une histoire d’architecture Appelés communément points d’acquisition et point de vérité, les différentes typologies d’architecture logique de mises en œuvre MDM sont fonction des points d’entrée de la donnée brute ainsi que de la localisation du référentiel de données. L’architecture de consolidation représentée ci-dessous met en œuvre plusieurs points d’acquisition qui alimentent le référentiel de données (le point de vérité) chargé de consolider les attributs de la donnée référentielle, issus de ces points d’acquisition pour la mettre à disposition des applications consommatrices, celles-ci étant indépendantes des points d’acquisition. Cette architecture est souvent utilisée dans le cas des projets de convergence de données ou de mise en place d’ERP ou encore dans le cas de mise en place de référentiel analytique permettant de fournir une donnée « propre » et consolidée au Système d’Information décisionnel d’une entreprise. Dans ce dernier cas, un effort de Data Quality Managment est souvent nécessaire pour rétablir et/ou maintenir la qualité de la donnée. Figure 2 : Architecture de consolidation L’architecture de coopération présentée ci-contre met en œuvre des points d’acquisition qui font partie intégrante de la solution référentielle dans la mesure où les processus référentiels (acquisition, nettoyage et validation de la donnée) sont partagés entre les points d’acquisition et le référentiel. Ces points d’acquisition sont également consommateurs de la donnée référentielle et sont par la même dépendants du référentiel. En effet, toute donnée saisie depuis l’application amont (ou point d’acquisition) sera soumise au référentiel pour validation avant qu’elle ne puisse être retournée à celle-ci. Cette architecture est souvent utilisée pour l’implémentation de solutions MDM de type CDI (Customer Data integration) couplée à une application de type CRM. 34 IT-expert n°91 - mai/juin 2011 Quoi de neuf Docteur ? Figure 3 : Architecture de coopération L’architecture de centralisation présentée ci-dessous fusionne les points d’acquisition et le point de vérité. La solution de gestion des données de référence est le support direct des processus référentiels. Les applications « aval » consomment les attributs de la donnée référentielle qui les intéressent. Cette architecture correspond au niveau le plus haut de la gouvernance de la donnée référentielle, dans la mesure où il n’y a plus d’intermédiaire applicatif entre le référentiel et les processus métiers, ceux-ci reposent directement sur le référentiel de données. Figure 4 : Architecture de centralisation IT-expert n°91 - mai/juin 2011 35 Dans chacune de ces architectures logiques, l’intégration du point de vérité au reste du SI (les applications « amont » et « aval, ainsi que les processus métiers) est la clef de voûte de la mise en place de solutions MDM. L’approche de Microsoft SQL Server La première version de la solution MDM de Microsoft a été livrée dans SQL Server 2008 R2. SQL Server se positionne comme la suite permettant de gérer la donnée du SI au sens large, depuis la donnée transactionnelle avec le module Database Engine jusqu’à la donnée référentielle avec ce nouveau module Master Data Services ; en passant par la donnée décisionnelle avec les modules Intégration Services, Analysis Services et Reporting Services. Cette intégration à la suite SQL Server apporte d’ailleurs de nombreux avantages pour l’interopérabilité du référentiel avec le SI car ce dernier peut aisément tirer profit du SGBD SQL ou des modules décisionnels tels qu’Integration Services. Quant aux fonctionnalités de Master Data Service, elles couvrent l’ensemble des fonctions attendues pour une solution de MDM. Le graphique ci-dessous présente les grandes familles de fonctionnalités de Master Data Services : Figure 5 : Fonctionnalités de Master Data Services (source : Microsoft) Les familles « Master Data Hub » et « Master Data Platform » proposent les fonctionnalités « cœur » de la solution. C’est à travers celles-ci que l’on définit et maintient le modèle de données. Elles fournissent tous les composants permettant de mettre en œuvre le point de vérité. « Stewardship Portal » et « Stewardship Process » fournissent les interfaces permettant d’accéder aux fonctionnalités de conception et d’administration décrites précédemment. Elles fournissent également les composants d’implémentation et d’exécution des processus d’enrichissement, de validation de la donnée basée sur les Business Rules et les notifications. L’intendant de la donnée, garant du référentiel, utilise ce portail pour créer, alimenter, enrichir et valider son modèle sans aucune ligne de code. 36 IT-expert n°91 - mai/juin 2011 Quoi de neuf Docteur ? Figure 6 : Capture d’écran du menu principal du Steewardship Portal Sans rentrer plus en détail dans toutes les fonctionnalités de cet outil, il serait intéressant de faire un rapide focus sur deux d'entre elles. . Le méta modèle MDS, un atout indéniable Le modèle de données générique permet, dans un premier temps, de créer tout type de modèle de donnée à l’aide des éléments que sont les entités, les attributs et les hiérarchies. La solution n’offre pas un modèle de données prêt à l’emploi pour la donnée Client ou Produit avec son corolaire d’adaptation nécessaire pour coller à chaque besoin. Cependant, elle propose un méta-modèle permettant de construire son modèle de donnée à l’image de ce qu’est la structure de cette donnée dans le SI. Cette flexibilité est particulièrement adaptée dans le cas de la mise en place de référentiels pour lesquels les structures peuvent différer des standards de l’industrie. Enfin, un seul et unique méta-modèle avec les mêmes règles permet de représenter l’ensemble des données référentielles de son SI. Voici un exemple de la structuration d’un modèle Produit tel qu’il peut être conçu dans le Stewardship Portal. Figure 7 : Capture d’écran de la représentation d’un modèle Produit dans le Stewardship Portal IT-expert n°91 - mai/juin 2011 37 . Les API WCF Les API sont mises à disposition par l’outil. On peut les classer en 2 catégories, celles-ci étant toutes exposées sous forme de Service Web WCF : • La première catégorie d’API propose des services permettant d’exécuter toutes les opérations d’administration disponibles depuis le Stewardship Portal tels que la validation de données en entrée, l’application des business Rules sur celles-ci, leur import ou leur versionning. Dans une architecture de coopération, les applications « amont » pourraient directement interagir avec ces services pour valider leurs données à distance avant même que celles-ci puissent être intégrées au référentiel. • La seconde catégorie de règle concerne le méta modèle et le modèle lui-même. Le Stewardship Portal permettant de créer de manière graphique un modèle et d’y insérer des instances que l’on appelle des membres. Il est également possible de réaliser ces opérations de manière programmée via les API. Il devient alors plus aisé de façader le référentiel de données à un portail métier de type SharePoint plus convivial pour des utilisateurs métiers. Ces API d’interfaçage exposent en réalité le méta modèle et non le modèle. Considérant un référentiel client, la méthode permettant de lire l’ensemble des attributs du client, dont l’ID est 001, est codé de sorte que le nom du modèle (ici client), le nom et la valeur de l’ID (ici 001) et la liste des attributs à récupérer sont passés en Input. De ce fait, la modification de ce modèle pour ajouter un nouvel attribut n’implique pas la régénération des services d’accès à ce modèle. Ce qui supprime tous les impacts éventuels sur les applications consommatrices. Les mécanismes d’intégration de Master Data Services au SI Le graphique ci-dessous présente les différentes stratégies d’intégration de Master Data Services au reste du SI. Outre les services WCF cités précédemment, Master Data Services tire pleinement profit de son moteur qu’est SQL Server pour proposer des solutions d’interfaçage assez simple à mettre en œuvre. Figure 8 : intégration de Master Data Services au reste du SI L’acquisition des données brutes Master Data Services met en place une table SQL dite de « Staging » comme point d’entrée de la donnée brute. Cette table dénormalisée ne faisant pas partie du modèle cœur de la donnée référentielle, les données insérées sont, dans un premier temps, uniquement visibles par l’intendant de la donnée. Ce dernier est notifié par mail lorsque des données sont insérées dans cette table. Il y accède alors via le module « Gestion de l’intégration » du Stewardship Portal pour pouvoir lancer des opérations de « Data 38 IT-expert n°91 - mai/juin 2011 Quoi de neuf Docteur ? Quality ». Il peut alors lancer un workflow d’enrichissement sur celle-ci afin de garantir sa complétude, exécuter des Business Rules de contrôle des attributs la constituant afin d’assurer son exactitude. Il peut aussi lancer des programmes de dédoublonnage pour garantir son unicité. Après ces étapes, l’intendant de la donnée peut alors la basculer dans le cœur du modèle référentiel. Scénario d’acquisition au fil de l’eau BizTalk Server est la solution de médiation Microsoft avec laquelle l’on peut implémenter une plateforme EAI ou ESB. Cet outil propose pléthore de connecteurs pour s’interfacer aux applications du SI, qu’elles soient progicialisées ou spécifiques. De ce fait, BizTalk Server constitue une bonne solution pour l’intégration de la donnée brute au fil de l’eau depuis les applications « amont » vers la table de Staging Master Data Services. Figure 9 : Acquisition de la donnée brute au fil de l’eau avec Microsoft BizTalk Server Techniquement, il s’agit de construire des demi-flux entrants en provenance des applications « amont ». Ces demi-flux publieront un message pivot représentant la donnée brute à destination d’un demi-flux sortant qui s’interface avec la table de Staging Master Data Services, via l’utilisation du connecteur WCF SQL. Ainsi, cette solution permet d’acquérir la donnée brute au fil de l’eau en tirant profit du couplage lâche offert par BizTalk Server dans la mesure où les applications « amont » et le référentiel Master Data Services ne sont pas interfacés en point à point. Scénario d’acquisition masse Dans le cas d’architecture de consolidation implémentant un référentiel analytique ou encore lors de l’initialisation d’un référentiel avec des données existantes dans le SI, il est souvent nécessaire d’opérer une acquisition en masse des données. SQL Server Integration Services, l’ETL (Extract, Transform, Load) Microsoft, est une bonne option pour intégrer les gros volumes de données tout en profitant des algorithmes de Fuzzy Lookup qu’il propose. Ceux-ci permettent de faire du dédoublonnage de données avant l’insertion dans la table de Staging. IT-expert n°91 - mai/juin 2011 39 Figure 10 : Acquisition de la donnée en masse avec SQL Server Integration Services À travers ces deux scénarii d’acquisition de la donnée brute, illustrés à l’aide de la plateforme ESB BizTalk Server et de l’ETL SSIS, on constate donc que la table de Staging offerte par Master Data Services offre une porte d’entrée très facile à exploiter pour interfacer les applications « amont ». Tout autre plateforme de médiation ou outil ETL sachant insérer des données dans la table SQL de Staging pourrait être utilisé. La diffusion et l’exposition de la donnée référentielle au SI Une fois validée et intégrée au cœur du modèle référentiel, la donnée de référence peut être mise à disposition des utilisateurs, des applications et des processus métiers de l’entreprise. Deux typologies de mise à disposition de la donnée référentielle peuvent être mises en œuvre, lesquelles sont fonction de la nature du récepteur et de l’utilisation qu’il va faire de cette donnée : • La diffusion de la donnée référentielle. Pour illustrer ce mode de mise à disposition de la donnée, considérons une application métier verticale. Elle implémente des fonctions en utilisant des données référentielles qui doivent être à jour. Plutôt que d’aller interroger le référentiel de données pour chacune des transactions et risquer des problèmes de performance, une bonne pratique d’architecture consiste à diffuser et maintenir un cache de cette donnée référentielle dans cette application. La 1re diffusion consisterait en une initialisation de ce cache avec l’ensemble du périmètre : on parle alors de flux en « mode Full ». Les diffusions suivantes consisteraient en la mise à disposition des créations, modifications ou suppressions des données de ce référentiel : on parle alors de flux en « mode Delta ». • L’exposition de la donnée référentielle. Pour illustrer ce mode de mise à disposition, considérons un processus métier d’entreprise transverse qui a besoin de consommer la donnée référentielle lors de son exécution. Ce processus ne pouvant pas forcément maintenir un cache de donnée en son sein, une bonne pratique d’architecture consiste à exposer le référentiel sous forme de Web Service. Master Data Services propose deux composants pour diffuser la donnée référentielle : • La « Subscription View » permet de créer une vue SQL sur tout ou partie d’un objet référentiel à partir du Stewardship Portal. L’intendant de la donnée peut configurer les entités, les attributs et groupes d’attributs ou encore les hiérarchies qu’il souhaite voir présentes dans cette vue, cette dernière étant automatiquement mise à jour suite aux évolutions sur les données du référentiel. Prenons l’exemple d’un référentiel client constitué de multiples facettes. Les applications abonnées à ce dernier ne souhaitent pas forcément utiliser toutes les facettes de ce client, mais uniquement récupérer les données qui les concernent, comme les données bancaires pour la facturation ou encore les coordonnées pour les communications promotionnelles. Dans ce cas, il est aisé de créer une « Subscription View » pour chacune de ces facettes afin de segmenter la donnée mise à la disposition des applications. • La fonction « Enable Change Tracking » permet de tracer et de publier dans le Service Broker de SQL Server ou déclencher une Business Rule sur tout évènement se produisant sur les attributs d’un objet référentiel. Cette fonctionnalité permet d’implémenter de la diffusion évènementielle d’objet référentiel. 40 IT-expert n°91 - mai/juin 2011 Quoi de neuf Docteur ? Scénario de diffusion de la donnée référentielle au fil de l’eau Les deux méthodes de diffusion offertes par Master Data Services facilitent l’interfaçage du référentiel avec le reste du SI via un tiers de médiation. De même que pour l’acquisition de donnée brute, il est possible d’implémenter une solution de diffusion en masse avec SQL Server Integration Services en utilisant la « Subscription View ». Cette solution est à privilégier pour l’initialisation des applications avec un cache du référentiel de données souhaité ou pour alimenter les applications décisionnelles. Pour la diffusion au fil de l’eau, une plateforme de médiation comme Microsoft BizTalk Server constitue la meilleure approche. Le graphique ci-dessous décrit la stratégie d’utilisation des fonctionnalités « Subscription View » et « Enable Change Tracking » pour diffuser les données référentielles ayant évolué. Figure 11 : Diffusion de la donnée au fil de l’eau avec BizTalk Server Tout d’abord, la « Subscription View » maintient une vue SQL du périmètre de l’objet référentiel configuré dans le Stewardship Portal. Considérons un référentiel client contenant 1000 lignes, la vue SQL Server en contiendra autant. Pour mettre en œuvre un flux de diffusion au fil de l’eau en mode « delta », il est nécessaire d’identifier à chaque instant, parmi ces 1 000 lignes, celles qui ont été créées, modifiées ou supprimées depuis la précédente exécution du flux et ne consommer que celles-ci. Pour ce faire, il est possible de positionner un trigger SQL sur cette vue dont l’objectif sera d’insérer dans une table tampon, dite table d’interface, uniquement les lignes qui ont subi une évolution (création, modification, suppression) durant un intervalle donné. BizTalk Server, via le connecteur WCF SQL, scrute à intervalle régulier cette table d’interface pour sélectionner et marquer comme lue les lignes qui y auront été insérées. Ne reste plus qu’à implémenter dans BizTalk Server un demi-flux entrant construisant et publiant un message pivot représentant la donnée référentielle vers autant de demi-flux sortants qu’il y a d’applications souhaitant souscrire à cette donnée. Il est également possible de tirer profit de la fonction « Change Tracking View » afin de mettre en œuvre la diffusion au fil de l’eau avec BizTalk Server. L’Adapter WCF SQL fournit par la plateforme permet de scruter une queue du Service Broker SQL Server pour consommer les données qui y sont insérées. Exposition du référentiel L’exposition du référentiel par l’implémentation d’une architecture SOA (Service Oriented Architecture) est facilitée par les API WCF fournies par Master Data Services. Ces API fournissent nativement les méthodes CRUD (Create, Read, Update, Delete) sur le méta modèle que tous les modèles de données implémentent. Il est tout de même conseillé de construire un Wrapper sur ces méthodes CRUD afin d’encapsuler la complexité du métamodèle mais aussi de fournir le niveau de granularité adéquat pour les Services Web en résultant. IT-expert n°91 - mai/juin 2011 41 Enfin des données de référence ! La gestion de la donnée référentielle est devenue un enjeu crucial dans les entreprises. Le Master Data Management a profité des avancées technologiques au sein des Systèmes d’information pour apporter des réponses à cet enjeu. Le caractère transverse des données référentielles impose aux solutions MDM de devoir s’interfacer de manière efficiente avec la plupart des applications du SI. Chez Microsoft, les Master Data Services couplés à BizTalk Server et Integration Services mettent en œuvre les différents scénarios d’interfaçage au SI indispensable à l’acquisition de la donnée brute, la diffusion et l’exposition de la donnée référentielle. n Radoine Douhou, Consultant Senior - Architecte Microsoft Logica Business Consulting est l’entité Conseil du groupe Logica, entreprise du service en business et technologie qui réunit 39 000 collaborateurs. Elle propose conseil en management, intégration de technologies et externalisation à ses clients du monde entier, dont les plus grandes entreprises en Europe. Logica crée de la valeur pour ses clients en intégrant avec succès les hommes, les enjeux business et les technologies. Elle s’engage dans des collaborations à long terme et exploite ses savoirs pour répondre de façon innovante aux besoins de ses clients Site web : www.logica.fr/conseil Sans oublier des ressources pour SQL Server Master Data Services : • Site web officiel de la solution : http://msdn.microsoft.com/fr-fr/library/ee633763.aspx • Livre blanc sur le MDM selon Microsoft : http://bit.ly/eYWySR • Web Cast Tech Days 2011 « Les technologies d’intégration MDM et SOA »: http://www.microsoft.com/showcase/fr/FR/details/a6bb8c78-a9b1-413c-ab2a-4bfe3a28a425 • MDM, Enjeux et méthodes de la gestion des données. Auteurs : Franck Regnier-Précastaing, Michel Gabassi, Jacques Finet.Éditions Dunod 42 IT-expert n°91 - mai/juin 2011 Livres Performance des architectures IT : comprendre, résoudre et anticiper Destiné aux DSI, responsables des études et de l'exploitation ; chefs de projets et autres architectes, cet ouvrage a été rédigé par quatre spécialistes de terrain au fait des problématiques quotidiennes des entreprises. Les auteurs ont choisi d’aborder le système d’information sous l’angle d’infrastructures, d’architectures ou des outils associés. Guidé par le souci de la performance des applications, ils apportent les recommandations et les bonnes pratiques permettant de mesurer et d’améliorer l’efficacité du SI. Après une explication des principaux concepts de la performance, le livre démontre le rôle essentiel de l’architecture. La troisième partie est consacrée aux infrastructures matérielles (réseaux, stockage…) et logicielles (applications, bases de données…), et la dernière expose les bonnes pratiques. Le lecteur appréciera le côté pratique et pédagogique de l’ouvrage qui propose des démarches classées par thèmes avec les techniques de programmation, les tests de performance, la gestion de la production et les pratiques de gestion de projet. Effet incontournable du cloud computing, cette seconde édition bénéficie de mises à jour sur la continuité de service, les datacenters et la gestion de la production. Performance des architectures IT : comprendre, résoudre et anticiper 2ème édition Pascal Grojean, Médéric Morel, Simon-Pierre Nolin et Guillaume Plouin Éditeur : Dunod 304 pages - environ 36 € (format numérique 30 € env.) Concevoir, animer et réussir un projet Ce nouveau livre de la collection « 100 questions pour comprendre et agir » multiplie les tableaux et les matrices d'évaluation pour apporter des réponses concrètes et ciblées aux questions des chefs de projets, directeurs de projets et autres responsables informatiques. Clairement présenté comme « la boîte à outils du chef de projet », ou « la trousse de premiers secours », l’ouvrage se veut pratique et pédagogique en apportant une réelle valeur ajoutée. C’est pourquoi, en plus du sommaire, il peut être abordé en fonction du degré de maturité du lecteur sur ce rôle de chef de projet. Les questions basiques posent les bases : Comment lancer une séance de travail ? Comment établir un cahier des charges ? Comment évaluer les risques ? et sont enrichies des plus complexes : Comment construire un diagramme causeseffets ? Comment formaliser les implications de chaque situation ? Comment éliminer les urgences ? Comment identifier les dysfonctionnements ? Enfin, les plus expérimentés (qui découvriront malgré tout des choses dans les deux premiers groupes) apprécieront les questions expertes : Comment cartographier les compétences du projet ? Comment optimiser la planification ? Quelle est la stratégie d'entrée en communication ? etc. Concevoir, animer et réussir un projet Tatiana Bouzdine Chameeva, Alain Labruffe et Emmanuel Carré Éditeur : Afnor 296 pages - environ 29 € IT-expert n°91 - mai/juin 2011 43
Documents pareils
L`approche SOA
réaliser efficacement et de façon abordable, des projets complexes d'intégration, ainsi que de
réduire les coûts organisationnels. Dans cette optique, BizTalk Server permet d'obtenir des
cycles plu...