Les bénéfices d`industrialisation d`un projet SOA Enjeux et clés de la

Transcription

Les bénéfices d`industrialisation d`un projet SOA Enjeux et clés de la
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Les bénéfices d’industrialisation
d’un projet SOA
Enjeux et clés de la migration
(première partie)
Pilotage d’une DSI :
pour un Project Management Office engagé
Bimestriel - mai/juin 2011
Stratégie d'intégration Master Data Management
au SI avec Microsoft Master Data Services
n°91
édito
Que faites-vous pour ne pas scléroser votre SI ?
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Comment ne pas imaginer une évolution de l’informatique vers une infrastructure sous-traitée à la
manière de l’énergie électrique ? Dans l’absolu,
l’entreprise a-t-elle réellement besoin d’acquérir
et de maintenir du matériel informatique ?
On a longtemps reproché (et c’est parfois encore
une réalité) à certains managers de penser que leur
rôle ne tenait pas dans la rétention de l’information. De même, les DSI
n’ont-ils pas tendance à imaginer que maîtrise de l’information rime avec
possession du matériel et création d’applications spécifiques ?
Certes, des problèmes sociaux sont inévitables. Pourtant, la disette des
compétences sur le marché n’obligera-t-elle pas bientôt à sous-traiter
des pans entiers de son SI ?
Quoi qu’il en soit, une décorrélation des diverses couches applicatives
et matérielles est souhaitable. Autant pour simplifier la maintenance et
réduire les coûts (dans une démarche de type Itil ou d’automatisation) que
pour se préparer à une éventuelle externalisation, de type cloud ou non.
D’ailleurs, des contrats obligeant des prestataires à fournir une qualité
de service mesurable ne représentent-ils pas une solution intéressante ?
D’autant que la mutualisation leur donnerait un avantage de taille pour
recruter les meilleurs talents, forcément plus rentables que pour une
entreprise, surtout de taille moyenne.
José Diz
Rédacteur en Chef
Editeur
Press & Communication France
Une filiale du groupe CAST
3, rue Marcel Allégot
92190 Meudon - FRANCE
Tél. : 01 46 90 21 21
Fax. : 01 46 90 21 20
http://www.it-expertise.com
Email : [email protected]
Rédacteur en chef
José Diz
Email : [email protected]
Directeur de publication
Aurélie Magniez
Email : [email protected]
Abonnements/Publicité
Email : [email protected]
Conception Graphique
Nicolas Herlem
[email protected]/
Parution
IT-expert - (ISSN 1961-9855) est un journal
édité 6 fois par an, par P&C France, sarl
de presse au capital de 60 976,61 €.
Avertissement
Tous droits réservés. Toute reproduction
intégrale ou partielle des pages publiées
dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf
dans les cas prévus par les articles 40 et
41 de la loi du 11 mars 1957. © 1996 P&C
France. Toutes les marques citées sont des
marques déposées.
Les vues et opinions présentées dans cette
publication sont exprimées par les auteurs
à titre personnel et sont sous leur entière
et unique responsabilité. Toute opinion,
conseil, autre renseignement ou contenu
exprimés n’engagent pas la responsabilité
de Press & Communication.
Abonnements
01 46 90 21 21
Vous pouvez vous abonner gratuitement
sur http://www.it-expertise.com/
2
IT-expert n°91 - mai/juin 2011
IT-expert n°91 - mai/juin 2011
Sommaire
4
Dossier
Les bénéfices d’industrialisation d’un projet SOA
À travers l’exemple du logiciel Microsoft BizTalk Server 2010, l’auteur relate l’évolution des
technologies vers le SOA (ESB, workflow, cloud computing…). Cycles, industrialisation,
tests… tout est passé en revue avec un angle pratique et technique, code inclus !
14
Technique
Enjeux et clés de la migration (première partie)
Plus qu’une pénible étape, la migration doit être considérée comme une évolution
pleine d’opportunités. Désimbrication, ingénierie de la coexistence, définition des
clés de réussite : le dossier propose une approche avisée pour réussir les étapes clés
de ce projet à part entière.
20
Actualités Internationales
25
Comment ça marche ?
Les informations marquantes d’éditeurs, de marchés, d’organisme
de standardisation, de débats en cours et de tendances
Pilotage d’une DSI : pour un Project Management Office engagé
Les défis de la DSI pour piloter la transformation sont multiples : gérer ou changer
de prestataires d’infogérance et de TMA, intégrer les équipes MOA, assumer la
production tout en concrétisant les demandes… Pour relever tous ces défis, l’auteur
propose d’étendre le PMO (Project Management Office) du suivi des plannings à un
rôle stratégique de pilotage de la DSI.
32
Quoi de neuf docteur ?
Stratégie d'intégration Master Data Management au SI
avec Microsoft Master Data Services
Disposer d’une source de données de référence unique et fiable est un enjeu majeur.
Après l’explication des concepts et des différentes architectures, le dossier les illustre
à travers un exemple avec la suite Microsoft SQL Server 2008 R2 et BizTalk Server.
43
Livres
Performance des architectures IT : comprendre, résoudre et anticiper - 2ème édition
de Pascal Grojean, Médéric Morel, Simon-Pierre Nolin et Guillaume Plouin et
Concevoir, animer et réussir un projet de Tatiana Bouzdine Chameeva, Alain Labruffe
et Emmanuel Carré.
IT-expert n°91 - mai/juin 2011
3
Les bénéfices
d’industrialisation
d’un projet SOA
ou BizTalk Server 2010 par l’exemple
D
epuis plusieurs années, le concept d’Architecture orientée services (SOA) est arrivé à maturité dans les
entreprises. Plus qu’un nouveau vocabulaire sur des idées préexistantes, la stratégie SOA est désormais au
centre des grands projets d’intégration et de rationalisation des services informatiques. Selon la définition
qu’adopte l’entreprise, la SOA établit un modèle architectural dont le but est d’améliorer l’efficacité, l’agilité
et la productivité d’un système d’information, en plaçant les services comme éléments principaux à travers
lesquels la logique des solutions applicatives est représentée pour l’atteinte des objectifs métiers. Au cœur des solutions SOA
se trouvent, d’une part, la notion d’orchestration – orchestration des services, à l’aide d’une plateforme ESB ; et orchestration
des processus métiers, à l’aide d’un moteur d’exécution – et, d’autre part, la notion d’échange de messages et d’interconnexion
des systèmes applicatifs, à l’aide de connecteurs. Toutes ces notions sont couvertes, en ce qui concerne les solutions Microsoft,
par le serveur de médiation Microsoft BizTalk Server 2010. Cette plateforme serveur est l’une des briques proposées par
Microsoft pour la mise en œuvre de solutions SOA.
4
IT-expert n°91 - mai/juin 2011
Dossier
Évolution de la plateforme applicative Microsoft
Depuis quelques années, les solutions SOA doivent s’adapter à de nouvelles contraintes, pour apporter
de meilleures réponses aux utilisateurs, tout en s’appuyant sur un nombre croissant de services
applicatifs disparates, à l’intérieur comme à l’extérieur de l’entreprise. Ces solutions doivent être
« hautement connectées », tant avec les partenaires commerciaux, les clients, les fournisseurs que les
employés « mobiles » de l’entreprise. Dans le même temps, les projets de mise en œuvre sont soumis
aux contraintes de réduction des coûts, obligeant à accroître la réactivité et la productivité dans la
mise en œuvre des solutions. La plateforme applicative Microsoft a donc évolué pour tenir compte de
ces nouvelles contraintes.
Une première évolution, apportée par BizTalk Server 2009, concerne l’introduction d’un bus de
services d’entreprise (ESB) à la plateforme d’échanges. Les fonctionnalités de routage dynamique,
de transformation dynamique et de découverte des points de terminaisons (endpoints) permettent
de simplifier les problématiques d’intégration, tout en favorisant la réutilisation des services et en
garantissant la maintenance en souplesse des solutions d’échanges.
Seconde évolution intégrée à la plateforme serveur via l’extension Windows Server AppFabric, le support
pour les services à exécution continue (long running) tire parti d’une meilleure gestion des ressources
pour garantir l’exécution correcte sur le long terme (recycling). Cette fonctionnalité permet la mise en
œuvre de workflows longs, persistants et capables de répondre aux impératifs de montée en charge
sur un ensemble de serveurs par l’utilisation d’un cache distribué.
Une troisième évolution majeure, située au cœur de la stratégie Microsoft, concerne le virage vers
le Cloud Computing – c’est-à-dire la capacité à procurer de la puissance de calcul et du stockage
massif à l’échelle d’internet – via son offre de Platform as a Service (PaaS) Windows Azure. Cette
offre apporte des réponses en termes de réduction des coûts et de limitation des risques dans la mise
en place de solutions distribuées, tout en procurant de l’agilité. Cette stratégie séduit de nombreux
décideurs, qui peuvent s’appuyer sur une expertise tierce pour la construction et l’exploitation de
vastes centres de données.
Bien plus que meilleure productivité
Les solutions SOA qui reposent sur Microsoft BizTalk Server sont, par nature, hétérogènes et distribuées.
Elles nécessitent donc, sans doute plus encore que tout autre projet de développement classique,
de se doter d’une infrastructure applicative et d’outils solides pour mener à bien leur mise en œuvre.
Sans outillage approprié, de nombreuses opérations manuelles doivent être réalisées et répétées sur
un ensemble de serveurs ou de plateformes logicielles différents (arrêt d’un serveur IIS, redémarrage
d’un processus BizTalk, etc.) De plus, ces manipulations doivent être effectuées selon un ordre précis,
qui conditionne la mise en condition opérationnelle réussie d’une solution applicative.
L’industrialisation d’un projet de développement porte donc sur l’élimination de ces opérations en se
fondant sur l’automatisation de la plus grande partie possible des étapes liées à la mise en œuvre d’une
solution logicielle ; de la construction des éléments exécutables à la mise en condition opérationnelle
d’un environnement complet. Les bénéfices de l’industrialisation d’un projet SOA vont bien au-delà
de la seule amélioration de la productivité.
En s’appuyant sur une démarche systématique et un outillage approprié, l’automatisation de la mise en
œuvre de plateformes applicatives permet de répondre avec une grande réactivité aux défaillances et
aux pannes, tout en garantissant un haut niveau de service (respect des engagements de services). De
même, l’automatisation des tests unitaires et des tests d’intégration permet d’apporter des corrections
rapides à la solution en fonctionnement, tout en garantissant l’identification immédiate de régressions
ou d’impacts éventuels.
Deux aspects s’avèrent essentiels à l’industrialisation d’un projet SOA : l’industrialisation des tâches
liées au développement applicatif lors de la phase de mise au point et l’exploitation/maintenance de
la solution en phase de fonctionnement nominal.
IT-expert n°91 - mai/juin 2011
5
Scénario et inventaire
Cet article s’articule autour du cas d’une entreprise de vente en ligne qui souhaite interconnecter
l’ensemble de son SI à l’aide de solutions Microsoft. La mise en place d’une architecture SOA consistera
à interconnecter un ensemble de briques différentes et hétérogènes, et mettre en œuvre un ensemble
de processus qu’il faudra « orchestrer ».
La solution devra répondre aux impératifs d’évolution – lors du remplacement d’un partenaire applicatif
par un autre, par exemple – et d’ajustements des règles métiers en fonction de l’activité.
Une entreprise de vente en ligne a besoin de :
• Dispenser l’ensemble des produits dont elle dispose au travers d’une vitrine Internet.
• Gérer les différents processus de réservation de produits, validation, paiement, etc.
• Gérer son stock de produits.
Pour cela, les éléments suivants sont au cœur de son système d’informations :
• Une application de commerce en ligne accessible à tout client potentiel.
• Un système CRM qui centralise les clients et prospects et permet d’exécuter les animations
commerciales.
• Un système ERP qui centralise les articles assure la gestion du stock, la facturation, etc.
• Un moteur d’exécution des processus, pour l’acquisition d’un nouveau client et la gestion des offres
promotionnelles.
Figure 1 – Un exemple de solution SOA
Ces différents éléments peuvent être à la fois à l’intérieur et à l’extérieur du SI.
À l’extérieur du SI, le site est hébergé sur la plateforme Microsoft Windows Azure qui permet d’assurer
une disponibilité tout au long de l’année, y compris pendant les périodes de forte affluence (e.g. les
soldes, fêtes de fin d’années, etc.).
À l’intérieur du SI, l’exécution des processus est assurée par Windows Server AppFabric, afin de profiter
d’une interface d’administration simplifiée pour les services WCF et les workflows, et d’une capacité
à assurer les monter en charge via un cache évolué.
6
IT-expert n°91 - mai/juin 2011
Dossier
La plateforme Microsoft BizTalk Server 2010 est utilisée pour relier les différents systèmes et orchestre
les principaux processus. Enfin, la connectivité entre le SI et les partenaires est assurée par Windows
Azure AppFabric Service Bus qui prend en charge, de manière sécurisée, les communications à
destination des tiers.
Industrialisation du développement logiciel
Vers des cycles plus courts et itératifs
Dans le domaine du développement logiciel, l’automatisation des étapes liées à la transformation d’un
programme – écrit sous forme de code source – vers un fichier exécutable a toujours été possible, à
l’aide de scripts ou de fichiers de descriptions. Cependant, l’industrialisation du développement logiciel
va bien plus loin. En effet, les solutions logicielles sont de plus en plus complexes et distribuées. Ce qui
signifie que l’automatisation doit porter non seulement sur l’étape de « compilation », mais aussi sur un
grand nombre d’étapes supplémentaires, comme le conditionnement pour installation ou le déploiement.
De plus, le processus de développement est, par nécessité, itératif. En effet, il n’est plus possible de mettre
en œuvre des solutions complexes et hétérogènes sans s’appuyer sur une étape importance de gestion
de la qualité – tests unitaires, recette, etc. Au fur et à mesure que la complexité des systèmes augmente,
l’industrialisation apporte des bénéfices en termes de productivité et d’agilité. L’automatisation permet de
réduire la durée d’exécution et de mettre en œuvre des cycles de développement plus fréquents et itératifs.
MSBuild pour coordonner une solution BizTalk Server
MsBuild est la plateforme de build – ou d’intégration continue – du framework .Net, utilisée pour la
production des fichiers exécutables.
À l’aide de directives figurant dans des fichiers XML, le concepteur et le développeur décrivent l’ensemble
des éléments du projet et les transformations qui leur sont associées. Par exemple, un fichier source
pourra être compilé ; un assembly .Net pourra être copié dans le GAC, etc. Chaque directive peut
être associée à une ou plusieurs autres selon une relation de « dépendance », qui permet de décrire
l’intégralité du projet sous forme de hiérarchie ordonnée.
L’utilisation de ces fichiers peut être comparée à une check-list pour le déroulement de l’ensemble des
étapes nécessaire à la production d’une solution à partir des seuls fichiers sources. La complexité et
l’hétérogénéité des solutions, qui couvrent l’ensemble des briques applicatives mentionnées, obligent
les équipes à se doter d’un tel mécanisme d’automatisation. Sans cela, il serait impossible de garantir
le respect des nomenclatures et des normes (arborescence, etc.) en vigueur sur le projet.
Figure 2 – Fichier de configuration MsBuild
IT-expert n°91 - mai/juin 2011
7
Parmi les multiples étapes à franchir pour un développement complet, on recense :
• Déploiement des services WCF sur IIS,
• Alimentation de référentiels et/ou configurations dans SQL Server,
• Déploiement dans SharePoint de formulaires de validation et de restitution des étapes des processus,
• Déploiement des itinéraires ESB Toolkit dans SQL Server,
• Déploiement des assemblies BizTalk dans la base de configuration BizTalk et dans le GAC,
• Déploiement des assemblies .Net dans le GAC (potentiellement sur plusieurs machines),
• Déploiement des packages dans Windows Azure,
• Etc.
Les bénéfices apportés par la mise en place d’une solution de développement industrialisée sont
importants. Ils portent, notamment sur :
• Une mise en place d’environnements de développements rapide, l’ensemble des tâches est
automatisée.
• Une montée en compétence rapide des nouvelles ressources du projet et un accès immédiat à
l’environnement.
Le test avec BizUnit en trois étapes
L’adoption d’une stratégie de test unitaire est fondamentale dans le cadre de la mise en place d’une
intégration continue. Un environnement de développement doit être utilisé afin de dérouler l’ensemble
des tests unitaires (les tests de charges étant quant à eux réservés à une plate-forme de Bench ISO
Production).
De nombreux outils peuvent être utilisés pour effectuer des tests unitaires. BizUnit est un outil très
répandu dans l’environnement de développement BizTalk. Ce framework permet de mettre en place des
tests automatisés. Ces derniers sont décrits sous forme de documents XML, facilement modifiables
en fonction des environnements à tester. Un test est composé de trois « Stage » :
• Setup : mise en place de la plateforme pour l’exécution du test,
• Exécution : exécution des actions et validation, cette étape est exécutée si l’étape de setup est
validée,
• Cleanup : retour de la plateforme à son état initial, cette étape est toujours exécutée.
Chaque étape est complétée par des « TestStep », permettant de décrire les étapes que l’on veut
dérouler dans le cas de test. Des assemblies et classes supplémentaires peuvent être créées par le
développeur afin de satisfaire son test.
Cependant, on remarque que la mise en place d’un test pour un nouveau développeur n’est pas aisée,
il doit en effet se familiariser avec la syntaxe et la lecture d’un cas de test sous forme XML n’est pas
automatique. Des composants designers basés sur cet outil existent, mais il n’évolue pas avec le
produit et leur utilisation est parfois fastidieuse pour un utilisateur non développeur.
8
IT-expert n°91 - mai/juin 2011
Dossier
Figure 3 - Exemple de cas de test BizUnit
WF Test Case Designer : le workflow en plus
Pour améliorer encore la productivité, un nouvel outil a été développé en s’inspirant de BizUnit mais
sans aucune dépendance vis-à-vis de ce dernier. WF Test Case Designer reprend les mêmes principes
en profitant de Workflow Foundation 4.0 afin de proposer une nouvelle dimension utilisateur. Alors que
BizUnit était destiné aux développeurs avec l’utilisation de Visual Studio pour la réalisation de projet de
test, WF Test Case Designer ouvre la solution aux utilisateurs de recette pour décrire leur cas de test
via une interface conviviale. La lecture du cas de test peut s’effectuer sans connaissance particulière
et la présence de Visual Studio pour écrire le test n’est plus obligatoire.
Figure 4 – Conception d’un cas de test WF Test Case Designer
IT-expert n°91 - mai/juin 2011
9
Le test étant un Workflow, il peut être hébergé dans tout moteur de Workflow. La mise en place d’une
plateforme d’exécution de test permet une automatisation des tests et donne la possibilité de créer
des workitems, bug, rapport en fonction du résultat du workflow.
(Plus d’informations sur http://wftestdesign.codeplex.com)
Industrialisation de l’Exploitation et de la Production
Une fois développées, les solutions mises en œuvre autour de BizTalk Server doivent être déployées,
parfois de manière étagée, sur des plateformes de développement, de recette, de préproduction puis
de production. Chaque plateforme constitue un environnement complet, souvent composé de plusieurs
serveurs physiques qui doivent donc être mis à jour de façon coordonnée. Les équipes en charge de
l’exploitation ont saisi tout l’intérêt d’automatiser le plus possible les opérations liées au déploiement.
L’industrialisation de ces étapes du « transport inter-environnements » apporte de nombreux avantages :
• La réduction du nombre d’opérations – et la probabilité d’erreurs – permet de limiter le périmètre des
compétences requises.
• La centralisation de la livraison permet de faciliter la gestion de configuration et le suivi des versions.
• La centralisation du paramétrage et l’automatisation du déploiement apportent une capacité à revenir
à tout moment à une version antérieure de l’application.
Cependant, l’automatisation du déploiement nécessite des outils différents de ceux mentionnés lors
de la phase de mise au point du développement logiciel.
L’outillage retenu doit permettre de répondre à un double impératif, à la fois au moment de la mise en
production initiale de la solution et pendant toute la durée de l’exploitation. D’une part, il doit assurer
le « transport » au sens strict (la capacité à déployer la solution d’un environnement à un autre) ; d’autre
part, il doit permettre la mise en œuvre d’un nouvel environnement (ajout d’un nouveau cluster, reprise
après défaillance technique, etc.).
Industrialiser les développements BizTalk avec PowerShell
Depuis longtemps, Microsoft travaille sur une refonte complète de ses outils de scripting. Avec Windows
Server 2008, une nouvelle invite de commandes est fournie en standard. PowerShell est à la fois une
invite de commandes interactives et un langage de scripting dont la conception est née d’un besoin
de simplifier les tâches dévolues à l’administration de systèmes applicatifs de plus en plus complexes
et distribués. En effet, chaque plateforme qui doit être administrée de manière automatique vient
traditionnellement avec une interface de programmation et une ligne de commandes spécifiques.
Figure 5 – Diversité des outils pour l’administration
10
IT-expert n°91 - mai/juin 2011
Dossier
PowerShell s’appuie sur un ensemble de « fournisseurs », extensions logicielles qui interviennent en
façade d’une technologie ou d’une plateforme serveur et dont le rôle est d’exposer ces particularités de
manière homogène, afin d’unifier les tâches d’administration sur l’ensemble des plateformes serveurs
(Windows Server, SQL Server, Internet Informations Services, etc.). De plus, en lieu et place de la
manipulation de texte, utilisée traditionnellement, les commandes PowerShell consomment et produisent
des objets .Net. Ainsi, une commande peut être chaînée à la suivante sans effort supplémentaire, car
ce sont des objets - avec leurs propriétés et leurs méthodes - qui transitent dans le pipeline.
Enfin, PowerShell supporte nativement le concept de « remoting », qui apporte des capacités de
communication RPC aux objets .NET. Cette fonctionnalité est idéale pour l’administration de solutions
distribuées.
Incidemment, les dernières versions des plateformes serveur Microsoft exposent toutes une interface de
programmation qui repose sur le framework .NET. C’est pourquoi PowerShell est un outil particulièrement
adapté pour les tâches d’administration de ces plateformes, et c’est pourquoi Microsoft fournit désormais
systématiquement une interface PowerShell avec chacune de ses plateformes.
Provider PowerShell pour BizTalk Server
Cependant, BizTalk Server 2009 et 2010 n’incluent pas nativement d’interface de programmation via
PowerShell, ce qui semble être une curieuse omission. C’est pourquoi nous avons conçu, développé et
mis à disposition notre propre fournisseur PowerShell pour BizTalk Server sur un site de développement
collaboratif (http://psbiztalk.codeplex.com).
Figure 6 - Fournisseur PowerShell pour BizTalk Server
Notre fournisseur PowerShell pour BizTalk Server permet de combler l’écart qui existe vis-à-vis des
autres plateformes serveur. Ainsi, les administrateurs et les exploitants ont à leur disposition un outil
souple, accessible et puissant pour réaliser des tâches d’administration de leurs solutions.
À titre d’exemple, la commande ci-après – qui peut figurer dans un script – permet d’arrêter d’un seul
coup toutes les applications BizTalk Server. Cette opération peut-être utile, par exemple, pour des
raisons de maintenance.
IT-expert n°91 - mai/juin 2011
11
Figure 7 - Arrêter toutes les applications BizTalk avec PowerShell
La syntaxe des commandes PowerShell est assez intuitive, car elle s’aligne sur les concepts propres à
chacune des plateformes Microsoft pour lesquelles elles ont été conçues. Dès lors, la mise en œuvre
d’une bibliothèque de scripts d’administration de la solution est facilitée, même si la solution elle-même
fait appel à des technologies différentes. Et ce, même si les éléments qui doivent être administrés sont
hébergés sur des plateformes distribuées.
Incontournable industrialisation
Les logiciels et plateformes serveur Microsoft sont bien intégrés, car ils reposent sur le framework
.Net et proposent tous une interface d’administration par PowerShell. Pour autant, les solutions SOA
nécessitent souvent d’intégrer des briques hétérogènes. Avec l’évolution de la plateforme applicative
Microsoft, on constate que le périmètre des solutions SOA, adoptées par de plus en plus de grandes
entreprises, ne cesse de s’élargir, pour comprendre les applications composites – hébergées en partie
dans le cloud – et pour intégrer des échanges avec de plus en plus de partenaires applicatifs distribués.
L’industrialisation incarne donc l’un des moyens indispensables pour maîtriser la complexité des projets
de mise en œuvre des solutions SOA. Une industrialisation réussie s’appuie sur un outillage complet
de la chaîne d’automatisation des traitements. n
Maxime Labelle,
MVP Biztalk Server.
Architecte
Microsoft SOA
Jérémie Devillard,
MCTS Biztalk Server.
Consultant Microsoft SOA
Logica Business Consulting est l’entité Conseil du groupe Logica, entreprise du service en business et technologie qui réunit 39 000
collaborateurs. Elle propose conseil en management, intégration de technologies et externalisation à ses clients du monde entier,
dont les plus grandes entreprises en Europe. Logica crée de la valeur pour ses clients en intégrant avec succès les hommes, les
enjeux business et les technologies. Elle s’engage dans des collaborations à long terme et exploite ses savoirs pour répondre de
façon innovante aux besoins de ses clients .
Site web : www.logica.fr/conseil
12
IT-expert n°91 - mai/juin 2011
Après la virtualisation, parlons Cloud Privé.
Découvrez comment Windows Server
va changer les perspectives.
La virtualisation des serveurs fait l’objet de toutes les promesses.
Celles d’une IT plus efficace, au service de l’entreprise, petite ou grande.
La virtualisation, nous y sommes. Mais au-delà ?
Au-delà, il y a le Cloud Privé.
Une solution pour gérer votre infrastructure comme un centre de services permettant de fournir les applications
à la demande et répondre ainsi plus efficacement aux évolutions de l’entreprise et du marché.
Windows Server Hyper-V et System Center vous permettent de contrôler votre activité de bout en bout grâce
à des services de gestion intégrés - tout en vous laissant libre de faire appel à la puissance du Cloud Public.
Car l’idée d’un Cloud Privé tient fondamentalement en un mot : le contrôle.
Votre Cloud Privé vous appartient.
Vous souhaitez utiliser différents hyperviseurs ou systèmes d’exploitation ? C’est une décision qui vous revient car la technologie et les solutions des fournisseurs que vous utilisez doivent rester au service de vos besoins et
non l’inverse.
L’informatique n’est plus seulement une question de hardware, de software ou de maintenance. Il s’agit
désormais d’imaginer de nouvelles sources d’efficacité pour contribuer à la croissance de votre entreprise.
Aussi, moins vous consacrez de temps à résoudre des problèmes qui n’ont plus lieu d’être, plus vous en
consacrez à trouver de nouvelles solutions.
En somme, plus de puissance informatique, c’est simplement plus de puissance stratégique.
C’est ça la puissance du Cloud.
Microsoft.fr/cloud/cloudprive
Enjeux et clés de la migration
(première partie)
L
es projets de système d’information ne sont plus, à présent, des projets « pionniers », ils viennent en général se substituer
à un système existant, ou interagir avec le reste du patrimoine SI. Au-delà des aspects techniques et par les changements
induits, ils ont aussi un impact sur les utilisateurs, les clients et autres parties prenantes.
14
IT-expert n°91 - mai/juin 2011
Technique
Dès lors, la migration se déroule à la mise en place du projet,
comme étape obligée, parfois longue et coûteuse, souvent
risquée et source d’incidents ou d’échec pour le projet lui-même.
Cette question est peu traitée dans la littérature particulièrement
absente sur ce sujet, bien que les retours d’expérience soient
souvent exemplaires des errements ou des succès.
Ces deux complexités et ces deux certitudes se confrontent
lors de la migration. Entre l’existant et la cible, le potentiel des
cheminements est immense, et les pièges multiples. Seuls
certains de ces chemins minimisent les risques d’échec ou
de dérapage. Seuls certains aboutissent sans encombre, ni
déception.
Vu l’ampleur du propos et des développements nécessaires,
deux articles successifs traiteront le sujet :
• l’un dédié au rappel des enjeux et à l’identification des clés
de succès ;
• l’autre posant les principes et techniques pour réaliser une
« ingénierie » de migration optimale.
La migration à la confluence des enjeux
L’approche ainsi présentée est totalement dédiée à la
problématique de la migration et ne relève d’aucun autre
courant de pensée, mis à part les préceptes de l’urbanisme
« à la française » qui préconisent, dans un cadre plus global, la
déformation continue et sans rupture du patrimoine SI.
Car chaque discipline répond à des enjeux bien caractérisés :
la qualité des spécifications, l’urbanisme d’insertion de la
cible, les performances de l’architecture technique, l’agilité
des développements, l’appropriation par les utilisateurs… et
naturellement chaque discipline considère la migration comme
étant, de son point de vue, un sujet de second ordre.
L’exercice de toutes les vérités
Pourtant les réponses à chacun de ces enjeux seront visibles
dès la migration. Et surtout, leur cohérence sera soumise à rude
épreuve. Ainsi, les concours de circonstances prétendument
malheureux et pourtant prévisibles seront au rendez-vous pour
révéler clairement les conflits d’objectif et de priorité. Occasion
de toutes les maladresses, la migration met en exergue les
incompréhensions entre les différentes disciplines et acteurs
du projet.
Tout projet de système d’information doit en pratique organiser
le passage d’une situation « existante » à une « cible ». Même
si cette cible n’est pas totalement définie a priori, et si des
degrés de liberté sont laissés pour l’adapter progressivement,
on ne peut se laisser guider par l’opportunisme tout au long du
cheminement vers la cible. La migration ne doit pas laisser de
place à l’improvisation.
En effet, les projets complexes sont parsemés de choix explicites,
ou sournoisement implicites, souvent –hélas- sans retour.
Remettre en cause un de ces choix entraine généralement des
répercussions incommensurables : surcoûts, dérapage des
délais, impact d’image, voire impasse technique inavouable. Ceci
renforce donc la nécessité des spécifications et de l’ingénierie
des exigences.
Cependant, au-delà des théories sur ces exigences, des
méthodes de modélisation, des techniques de développement
et d’intégration, la migration reste l’exercice de toutes les
vérités. Car le succès de la migration ne réside pas seulement
dans l’élégance du modèle cible, l’agilité du cheminement,
la prévention de la conduite du changement, l’efficacité des
tests, le professionnalisme de la gestion de projet, la stratégie
de bascule des données, la clairvoyance de la gouvernance…
Elle procède de tout cela et il y a dans toutes ces perfections
autant de sources potentielles de dysfonctionnement ou de
blocage sans que l’une prédomine dans tous les cas de figure.
La migration réunit, en quelques scènes, la dramaturgie de la
complexité :
• l’existant, issu d’années de pratiques, d’interprétation des
contraintes, masque un terreau de compromis, parfois utiles ;
• la cible est une belle envolée, saturée de bonnes intentions
et de codes parfois inutiles.
La problématique de la migration est celle d’un écosystème
vivant, qui évolue et se confronte aux erreurs des docteurs es
systèmes d’informations, aux rêves des maîtres d’œuvre comme
aux exigences des maîtres d’ouvrage.
Trop souvent les maîtres d’ouvrage, peu enclins à saisir les
multiples dimensions du futur système, et se reposant en
particulier sur la maîtrise d’œuvre pour le volet technique et
son cadencement, ne parviennent pas à imposer les priorités
et finalités du projet, qui ne sont pas techniques. La migration
fonctionne alors à rebours (la charrue tirant les bœufs), les
impératifs techniques imposant leurs fausses prérogatives.
Attentes
utilisateurs
Migration
données
Exigences
Absolues
Big-Bang
Existant
Intégration
sur-complexe
Effet domino
Cible
Cible
Dégradé différé
IT-expert n°91 - mai/juin 2011
15
Une problématique transformée en potentiel
Dans le cadre des projets, la place faite à la migration est
paradoxale. D’une part, elle incarne une étape majeure pour le
projet, qui aborde les premières difficultés, apporte les premiers
résultats, et engage des choix irréversibles, tant pour les aspects
fonctionnels, techniques, ou d’appropriation, voire d’image pour
les clients. D’autre part, elle est bien souvent peu étudiée, sousestimée, sans solide anticipation pour examiner les risques et
les minimiser, prévoir les parades ou maximiser les avantages.
Pourtant, si on se focalise sur la seule problématique de la migration, quelle richesse de possibles, quels leviers apparaissent !
Au-delà des enjeux traités par chaque discipline de la maîtrise
d’ouvrage ou de la maîtrise d’œuvre, il s’agit en effet de trouver,
pour une trajectoire qui sera finalement unique et jouée dans
un temps réduit, les meilleurs compromis. En effet, tout n’est
réalisable immédiatement, mais les apports tangibles au plus tôt
sont porteurs de réussite, d’équilibre économique et de meilleur
échelonnement des risques. Car dans tout projet se nichent de
nombreux risques, dont l’intensité est fluctuante.
En somme il s’agit d’optimiser cette phase et de mettre le futur
système sur de bons rails, en examinant tous les aspects, y
compris du point de vue des utilisateurs, et des diverses parties
prenantes :
• En réduisant les multiples aléas inhérents aux choix sur lesquels
se base le projet :
- choix conditionnant la suite du projet (architecture
d’ensemble, complexité des modèles, image, rupture
pour les utilisateurs…) pour lesquels des chemins de
non-retour sont franchis, et que la migration peut valider
en temps utile ;
- choix d’infrastructure du projet (référentiels, progiciel)
pour lesquels des risques inhérents sont pris (risque
fournisseur, effet domino, obsolescence, erreur de pari
prospectif), et que la migration peut poser ou remettre
en cause au plus près de leur opportunité, car l’avenir
est incertain et les paris anticipés inutiles.
• En améliorant le retour sur investissement par :
- un apport de valeur au plus tôt pour les aspects les plus
déterminants,
- une simplification pour éviter les interactions sources
d’incidents et d’imprévus, et mise sous contrôle des
phases transitoires,
16
IT-expert n°91 - mai/juin 2011
- une visibilité prévenant les déconvenues et rejets,
et limitant l’effet tunnel pour l’ensemble des parties
prenantes.
• En adoptant une tactique et une dynamique de combat, et
un tempo adapté aux temps de cycle incontournables :
- par exemple, il peut être urgent de répondre, même par
un « bricolage » à certaines attentes, du fait des enjeux
business, des impératifs réglementaires, des contraintes
sociales ;
- ou alors ce sont des paris technologiques qu’il faut
rapidement valider, avant de s’engager sur une voie sans
retour, et parce qu’ils sont incontournables et structurants ;
- ou, au contraire, laisser le plus longtemps ouverts ces
paris pour ne figer un choix qui n’a de conséquences
qu’en fin de période transitoire, quand la « bascule » sera
complète. On aura eu la prudence d’ailleurs de différer
au maximum un tel choix pour laisser murir le marché
de l’offre.
Ainsi, la problématique d’une migration, complexe et aux
multiples aspects économiques, sociaux et techniques, mérite
considération et les lettres de noblesse. De fait, à l’occasion
de la migration, apparaissent des leviers souvent négligés pas
chaque discipline : Il s’agit de transformer pas à pas une vision
complexe en réalité opérationnelle, utile et praticable, de revisiter
les finalités pour maîtriser les aléas et imprévus qui surgissent.
Après ces quelques considérations de « bon sens », une méthode
pragmatique de migration s’impose.
Ces considérations sont de plusieurs ordres :
• trouver les « clés », majeures pour la tactique de migration ;
• prévoir une cible « migratoire », cruciale pour traiter les régimes
transitoires, souvent absents des études de cibles. Cette
problématique se décline en 2 thèmes :
- La désimbrication qui autorise des cycles de vie des
composants du SI différentiés,
- L’ingénierie de la coexistence au sein du SI, avec une
« chirurgie des flux » adaptée.
• Enfin, la mise en musique de la transition de l’existant vers la
cible doit être formalisée, écrite un peu comme un scénario,
une mise en scène. Les différentes étapes, et sous-étapes,
de la transformation impulsée par le projet sont à prévoir,
organiser, piloter, communiquer.
Dans ce premier article, les 2 premiers thèmes seront abordés.
Technique
Déterminer les clés
Pour ordonner la bataille de la migration, il convient en premier
lieu d’identifier les « clés » de la réussite ou de l’échec de
l’histoire qui va se jouer.
Une clé est caractérisée par la conjonction d’aléas et de
certitudes :
• aléas propres à la clé, et donc risques induits ;
• certitudes de conséquences sur le futur système, ou sur le
projet lui-même.
En effet, on raisonne ici au niveau de telle ou telle composante du
système, le système étant pris au sens large, système technique
bien sûr, mais aussi utilisateurs ou autres parties prenantes,
voire outils ou acteurs du projet lui-même.
Si donc une composante du système est affectée d’aléas, et que
ces incertitudes peuvent avoir des conséquences par ailleurs
(effet domino, image négative, délais d’attente, surcomplexité,
avenant contractuel…) la situation sera fortement préoccupante.
Cette composante sera « clé » pour la migration, car pouvant la
perturber, voire favoriser l’échec.
ne sera plus focalisée sur la cohérence, la complétude de la
cible et le fonctionnement harmonieux du futur système dans
toutes ses dimensions, mais qui devra mettre en relief toutes les
sources d’aléas qui ne manqueront pas de perturber la tranquille
mise en œuvre du système.
Cette recherche des clés et des parades relève à la fois de la
maîtrise d’ouvrage, pour les aspects non techniques (aléas
sur la conduite du changement, sur l’image, sur la qualité des
données, sur le déploiement), et de la maîtrise d’œuvre pour
les composantes techniques.
Pour autant, cet exercice n’est pas vain pour concevoir la cible
elle-même. En effet, face à un problème identique, de multiples
solutions cibles peuvent être imaginées. Certaines d’entre
elles, du pur point de vue du résultat projeté, sont totalement
identiques. Et, sur le papier, en quelque sorte confondables
comme de vraies jumelles. En revanche, entre ces solutions
jumelles, l’une sera « migratoire » et l’autre impliquera par exemple
le drame du « big bang ».
En réalité, il existe toujours plusieurs clés, qu’il faut correctement
identifier, par exemple :
• composante d’architecture technique innovante, mal maîtrisée ;
• ensemble de données existantes, dont on ignore la qualité,
nécessitant au quotidien dans le système actuel, de lourds
travaux de mise à jour. Il est courant que ce dispositif soit
reconduit et inscrit dans la cible sans autre forme de procès :
surcoût, surcomplexité et rejet par les utilisateurs sont des
risques induits classiques. Un audit de la qualité des données,
un audit du modèle de données sont d'utiles préventions pour
assainir ce sujet lourd de conséquences ;
• besoins des utilisateurs pris au pied de la lettre, enfermés
dans des spécifications trop détaillées et rigides par rapport
à la réalité de l’offre technologique, et plombant l’évolutivité
du système, alors qu’un test en situation serait révélateur et
peu couteux ;
• appel au marché, sur des segments en évolution rapide,
impliquant un choix structurant pour le système, ou pour les
utilisateurs.
Pour chaque clé, il faudra choisir la conduite et les parades
adaptées. Il sera dès lors judicieux, une fois les clés repérées,
de limiter soit leurs incertitudes, soit leurs conséquences :
prototypage, proof of concept, échantillonnage, utilisateurs
pilotes, audit des données…
Une bonne tactique consiste à ordonner la migration en
positionnant :
• au plus tôt ce qui est à tester et conditionne la suite ;
• ce qui apporte de la valeur, basé sur des solutions simples
(les fameux « quick-win ») ;
• au plus tard, ce qui dépend du marché et risque d’évoluer.
Concevoir la migration revient donc à revisiter la cible avec une
optique tactique et pragmatique. Cela implique une vision qui
IT-expert n°91 - mai/juin 2011
17
La cible migratoire
Les techniques de désimbrication
Il existe assez naturellement des cibles non « migratoires », car
difficiles à faire évoluer. Ceci peut être dû à de multiples facteurs :
existence d’un SI central très complexe où toute évolution est
couteuse par ses impacts en développement, conduite du
changement…, imbrication autour d’un ERP lui-même complexe
et souvent basé sur une technologie en voie d’obsolescence
et héritant des contraintes du passé, processus durcis par la
réglementation, force des habitudes…
Le modèle des données est-il non-redondant ? A-t-on utilisé
au mieux la modélisation pour atteindre une généricité, sans
pour autant créer une surcomplexité. Pourquoi ne pas séparer
les champs sémantiques, en ne mettant en cohérence que le
minimum ? Gérer ce minimum en dehors du cœur fonctionnel ?
L’extraire de l’ERP ? Auditer la qualité des données ? Vérifier
leur utilité ? Pris l’avis des utilisateurs ? Estimer des alternatives
déclinant tous les jeux de subsidiarité ?
Identifier
clés et parades
On relève cependant un facteur commun à toutes ces rigidités :
la trop forte imbrication de la cible prévue.
Désimbriquer devient alors le maître mot. Pour concevoir une
cible dont l’architecture permette les déformations qui facilitent
la migration, on peut appliquer diverses approches :
• Recourir à une architecture de services, avec en particulier
l’objectif de mixer des applications existantes et de nouveaux
composants. On peut ainsi préserver une partie de l’existant,
ou différer sa réécriture au moment le plus opportun, éviter
les chocs inutiles et prématurés.
• Articuler la cible autour d’un « pivot », sorte de référentiel de
données réduit à sa plus simple expression, qui permet de
gérer la bascule entre deux régimes applicatifs. D’ailleurs la
gestion des données de référence est clé de voute pour une
cible migratoire.
• Exclure du cœur de la cible les fonctions qui sont maintenant
disponibles sur le marché, et sont traitées par des outils
(moteurs de règles, moteurs de recherche, outils de Business
Intelligence, outils de workflow, messagerie, collaboratif, GED,
portail, etc.) matures et performants. Ceci allège d’autant la
cible et la contraint à des interfaces et des appels de services
clairs. En outre, certains de ces logiciels sont source de « quick
win », et créent des circuits courts pour impliquer les utilisateurs
d’entrée de jeu, évitant la paranoïa de l’hypermodélisation.
Mettre
en scènes
Désimbriquer
Opérer
la coexistence
Auditer
les données
Le décor est posé
Le thème de la migration est des plus riches et cet article ne
considère qu’une moitié du sujet… Certes le décor est posé,
mais il reste à approfondir deux sujets :
• L’ingénierie de la coexistence, qui permet la vie du SI et sa
transformation en douceur pendant la dangereuse phase de
migration.
• La mise en scène du scénario de migration, afin de maîtriser
ce processus complexe et d’apporter une belle fin à cette
histoire.
Ces sujets seront traités dans un prochain article : ingénierie de
migration, coexistence et mise en scène. n
Toutes ces approches sont nécessaires et complémentaires
pour lutter contre la facilité de la cible intégrée et son big bang
fatal. Et, il ne suffit pas de décréter qu’il y va d’un développement
agile : à l’architecture de donner l’agilité et non aux composants
qu’elle assemble.
Bien au-delà de la migration, la désimbrication permet d’anticiper
sur les cycles de vie des composants. Certains sont matures
et il est inutile de vouloir les recréer, les réinventer, souvent en
moins bien, en développant une solution « maison ». D’autres
composants restent plus expérimentaux et méritent une
approche prudente. Dans tous les cas, la vitesse du marché
est à évaluer, ainsi que les alternatives qui limitent la captivité
par rapport à l’éditeur, à ses virages stratégiques, aux fusionsacquisitions. L’évolutivité et la maîtrise des risques passent par
ces évaluations.
Dans cette ingénierie de la désimbrication, l’audit des données
s’avère crucial.
18
IT-expert n°91 - mai/juin 2011
René Mandel,
Fondateur
Acteur majeur du conseil en management et organisation, ORESYS est un cabinet
indépendant de 250 consultants, basé à Paris, Lyon, Lille, Nantes et à Bruxelles,
Lausanne. ORESYS aide ses clients à piloter leurs activités, améliorer leur
performance et mettre en œuvre leurs projets de transformation. ORESYS intervient
sur toutes les dimensions des programmes de transformation des entreprises :
métiers, organisation, processus, Système d’Information, accompagnement du
changement.
Site web : www.oresys.eu
IDC, filiale du leader mondial du conseil, et des études dans les technologies de l’information.
Comment gagner en agilité face aux nouveaux impératifs métiers ?
En ces temps d’incertitudes, et après avoir résisté à la crise, le décisionnel reste au cœur des
préoccupations des organisations françaises.
Agilité, visibilité, réactivité, mobilité, instantanéité : tous ces attributs dont se pare le décisionnel
sont autant de réponses à l’impératif de gagner en agilité et en faculté d’adaptation dans un monde
imprévisible.
IDC France
vous donne rendez-vous
jeudi 9 juin 2011 (9h – 15h30) au Centre d’affaire Etoile Saint Honoré, Paris 8ème
pour participer à la conférence
« IDC Décisionnel et
Data Management 2011 »
Au programme :
•
Vision et AnAlyse iDC : évolution des besoins et des usages de solutions
d’informatique décisionnelle 2011 – 2014, en France et en Europe
• le DéCisionnel De nouVelle générAtion : gagner en intelligence
grâce à une meilleure prise en compte du contexte des informations
• Des ChAntiers De plus en plus Critiques Autour Des Données
• RetouR d’expéRience de pRojets décisionnels : spécificités et
facteurs de succès
Avec le témoignage de Marie-claude poelman, dsi, nature & découvertes
Au travers des analyses de tendances, d’interventions d’experts et de témoignages
utilisateurs, vous pourrez faire un point complet, identifier les nouveaux enjeux
auxquels vous devez faire face et les solutions qui s’offrent à vous.
programme détaillé et inscription gratuite :
http://www.idc.com/france/BI2011
Code invitation : ITX
Contact : Valérie Rolland
[email protected]
tel : 01.56.26.26.85
Cette conférence gratuite est uniquement réservée aux entreprises utilisatrices.
Conférence organisée par
avec le soutien de
Actualités
internationales
La fin de la « taxe Google » ?
Après avoir une première fois repoussé la taxe de 1% sur la publicité en ligne de six mois fin
2010, Eric Besson, ministre de l'Economie numérique, avait annoncé son aménagement. Cette
« taxe Google » visant les achats de publicité en ligne réalisés par les géants du Web avait été
critiquée (y compris par le gouvernement), car elle impactait finalement surtout fortement les
PME françaises investissant sur Internet.
Son entrée en vigueur semble être remise en question par Eric Besson sur Canal+ fin mai qui
a expliqué ne pas souhaiter que l’application de ce texte ait lieu en juillet prochain. En outre,
le ministre a annoncé une réunion à l'automne sur le financement des infrastructures visant à
assurer l'avenir d'Internet. Par ailleurs, la députée UMP d'Eure-et-Loir Laure de La Raudière
aurait déposé un amendement visant à supprimer les lignes concernant cette taxe du projet
de loi de finances, son examen aura lieu le 6 juin. n
Gallimard, Flammarion et Albin Michel attaquent Google
Littérature
Avec Google Livres, le géant des moteurs de recherche souhaite numériser le patrimoine littéraire
mondial pour en favoriser l’accès au plus grand nombre. Mais les éditeurs de ce même monde
n’entendent pas se laisser flouer.
En effet, Google estime qu’une grande partie des ouvrages numérisés est épuisée, tandis que les
éditeurs dénoncent la démarche purement commerciale du géant de Mountain View. Et il est vrai que
les visites sur ce service génèrent de juteuses recettes publicitaires.
Les trois éditeurs réclament la coquette somme de 9,8 millions d'euros de dommages et intérêts pour
la numérisation sans autorisation de près de 10 000 livres (9797).
En revanche, Hachette Livre a signé un accord avec Google en novembre dernier fixant les
conditions de numérisation des œuvres en langue française épuisées dont il détient les droits.
La justice américaine a rejeté l’accord que Google avait contracté avec l’AAP (Association of
American Publishers) et l’Authors Guild pour exploiter les œuvres numérisées inscrites au
registre américain des droits d'auteurs et émanant de pays anglo-saxons (Royaume-Uni,
Canada et Australie). En outre, Google a déjà été condamnée en 2009 en première instance,
puis assigné par La Martinière, la Société des gens de lettres (SGDL), le Syndicat national
de l'édition (SNE), et Gallimard en 2010.
Et si Google Livres devenait réellement gratuit et sans publicité ? Les éditeurs attaqueraient
certainement alors pour manque à gagner... Après la musique et les films, le livre se voit à
son tour bousculé par Internet. Pour le meilleur ou pour le pire ? n
20
IT-expert n°91 - mai/juin 2011
Actualités internationales
Skype valait donc 8,5 milliards de dollars ?
Microsoft n’a pas hésité à signer un chèque de 8,5 milliards de dollars pour s’emparer de Skype, malgré
ses 7 millions de dollars de pertes en 2010 (contre 418 en 2009). Steve Ballmer, dirigeant de Microsoft,
a même souligné que cette acquisition est la plus coûteuse jamais réalisée par le géant de Redmond.
Certes, Skype compterait environ 170 millions d’abonnés
actifs à son service de messagerie instantanée texte-audiovidéo et de téléphonie sur Internet, dont seulement 8 millions
payants (des chiffres avancés par des analystes et non par
Skype…). En outre, l’entreprise a réalisé un chiffre d’affaires
de de 860 millions de dollars contre 719 millions den 2009. Ce
prix excessif s’explique par le fait qu’eBay aurait fait monter
les enchères, et que Skype avait annoncé son intention
d’entrer en bourse cette année.
Steve Ballmer s’est contenté de préciser que Microsoft
souhaitait essentiellement gérer « les données, la voix et la
vidéo sur un seul et même écran » pour la téléphonie mobile,
les ordinateurs, les tablettes ou les téléviseurs. Il semblerait
aussi que l’entreprise espère renforcer sa stratégie sur la
téléphonie mobile et les réseaux sociaux.
Rappel : Microsoft dispose déjà de ses services en ligne dont Windows Live Messenger (ex MSN), et
de la version professionnelle Lync (ex Communication Manager).
Le lion sort de sa réserve
Bref, les observateurs se posent logiquement de multiples questions sur cet énorme investissement
surcoté, et sur la stratégie de Microsoft. Il n’en fallait pas plus pour que Bill Gates (lui-même !) sorte
de sa réserve. Surtout après que l’information ait circulé indiquant que des membres du comité de
direction n’avaient pas soutenu ce rachat, certes discutable à ce prix. Le cofondateur de l’entreprise
a donc expliqué sur la BBC avoir « fermement soutenu cet accord lors au conseil d'administration »
dont il reste un membre actif. Et il confirme que 7 des membres n’avaient pas soutenu l’opération.
Pour lui, la vidéoconférence est un investissement sur l’avenir, et réunir les équipes de Skype et de
Microsoft pourrait s’avérer payant.
Toute polémique sur des investissements inconsidérés risque d’entrainer très vite des sanctions
boursières difficiles à tempérer. Malgré son éloignement des affaires, Bill Gates vielle toujours au grain… n
La fin du mouchard iPhone
L’iPhone (4 et 3 GS), l’iPad (1 et 2) conservent dans une base de données
locale les informations de géolocalisation permettant –éventuellement- de
reconstituer tous les mouvements de leur possesseur. Suite à la polémique
grandissante autour de cette « atteinte à la vie privée », Apple a apporté
une solution avec la mise à jour 4.3.3 de son système d’exploitation iOS.
Jusqu’alors, l’iPhone et autres conservaient des traces des
déplacements en utilisant les emplacements des émetteurs GSM.
Cela servait certainement à améliorer les performances des applications
utilisant la géolocalisation. Des logiciels et applications web utilisant
cette possibilité dans un but plus discutable commençant à apparaître,
Apple a mis les bouchées doubles pour y remédier, expliquant qu’il s’agissait
d’un malentendu avec les développeurs Apple. n
IT-expert n°91 - mai/juin 2011
21
e-commerce.fr : 28 millions d’acheteurs
Réalisé par Médiamétrie et la Fevad (Fédération du e-commerce et de la vente à distance), le baromètre
du e-commerce au premier trimestre 2011 montre une croissance de 11 % du nombre de cyberacheteurs
français en un an. Soit 3 millions de Français en plus pour un total de 27,9 millions de cyberacheteurs,
soit 72,5 % des internautes dans l’Hexagone.
Et l’e-commerce n’est plus le domaine des classes aisées et des technophiles. En effet, Médiamétrie
indique que les internautes de plus de 50 ans et les CSP moins sont de plus en plus nombreux, et
que deux internautes sur trois (et pas uniquement des cyberacheteurs) affirment faire confiance à la
vente en ligne.
Parmi les 15 sites marchands les plus visités, eBay.fr caracole en tête avec 10,4 millions de visiteurs
uniques par mois. Juste derrière, Amazon.fr affiche 9,8 millions de visiteurs uniques, suivi de Cdiscount
avec 8,6 millions et PriceMinister avec 8,4 millions. De belles performances, même si toutes ces visites
ne donnent pas forcément lieu à des achats. n
Brands (1)
Visiteurs uniques moyens
par mois
Couverture moyenne (en %
de la population internaute)
Visiteurs uniques moyens
par jour
1
eBay *
10 444 000
25,4%
1 595 000
2
Amazon *
9 899 000
24,0%
948 000
3
Cdiscount *
8 671 000
21,0%
818 000
4
PriceMinister *
8 469 000
20,6%
803 000
5
Fnac *
7 778 000
18,9%
673 000
6
Groupon
7 494 000
18,2%
771 000
7
Voyages-Sncf.com *
7 211 000
17,5%
546 000
8
La Redoute *
6 995 000
17,0%
577 000
9
Vente-privee.com *
6 079 000
14,8%
1 311 000
10
Pixmania *
6 069 000
14,7%
459 000
11
Carrefour *
5 849 000
14,2%
418 000
12
3 Suisses *
5 372 000
13,0%
399 000
13
Rue du Commerce *
4 986 000
12,1%
358 000
14
Brandalley.com *
4 735 000
11,5%
446 000
15
Kiabi.com *
4 101 000
9,9%
279 000
* Les sites adhérents à la Fevad sont signalés par un astérisque
Source : Médiamétrie//NetRatings - Catégories créées spécialement pour la Fevad - France - Tous lieux de connexion
Moyenne mensuelle des mois de janvier, février, mars 2011 - Applications Internet exclues - Copyright Médiamétrie//NetRatings - Tous droits réservés
Un iPhone qui sait lire et écrire…
Speech-to-Text et Text-to-Speech. Ces deux technologies consistent à retranscrire des sons en texte
et réciproquement à l’image de ce que réalisent des produits comme Dragon Naturally speaking. On
trouve également ce type de fonctions dans certaines versions de Windows 7, par exemple.
Le brevet déposé par Apple viserait précisément à convertir des appels téléphoniques vocaux en texte
à l’initiative de l’appelant. Puis, l’interlocuteur pourrait aussi répondre par un texte que l’iPhone lirait
à l’utilisateur.
Le brevet Apple concernerait une conversion matérielle assurée directement par l’iPhone au niveau
matériel. À suivre… n
22
IT-expert n°91 - mai/juin 2011
CRI
Actualités internationales
Attribution des licences mobiles 4G : c’est parti !
L’Arcep (autorité de régulation des communications électroniques et des
postes) et le gouvernement ont fixé le début de la procédure d’attribution des
licences 4G pour fin mai-début juin. Et les licences seront délivrées entre l’automne
2011 et début 2012. Toutefois, le dépôt des dossiers de candidature ne débuterait
qu’en septembre 2011. Quatre ou cinq opérateurs pourraient être autorisés à déployer la
4G sur leur propre réseau.
L’Arcep a par ailleurs précisé les conditions d’utilisation des bandes de fréquences 800 MHz
(récupérées de la télévision analogique) et 2,6 GHz (jusqu’alors réservées à l’armée). La Commission
Consultative des Communications Electroniques (CCCE) doit publier sa décision d’ici fin mai,
avant que le gouvernement puisse publier les appels à candidatures.
L’autorité rappelle les trois principaux critères pour l’attribution des licences 4G : « aménagement
numérique du territoire », « concurrence effective et pérenne sur le marché mobile » et « valorisation
du patrimoine immatériel de l’État ».
Afin de limiter la fracture numérique, les titulaires seront soumis à des obligations de couverture
4G : 99,6 % de la population métropolitaine (à terme) mais aussi au niveau départemental.
Le régulateur souligne que le dispositif vise aussi à inciter les candidats opérateurs à ouvrir leurs
réseaux aux opérateurs virtuels (MVNO).
Considérées à juste titre comme « patrimoine immatériel de l’État », ces fréquences seront valorisées
en conséquence. L’exploitation des licences 4G fera donc l’objet d’enchères combinatoires à un tour,
avec un prix de réserve de 2,5 milliards d’euros (comme l’a mentionné Éric Besson, ministre délégué
à l’économie, dans un entretien à La Tribune).
Petits joueurs s’abstenir ! D’autant qu’il faudra ajouter à ce montant le coût de construction du réseau. n
OSS CRIM
IME SCENE DO NOT CR
CR
S
OS
CR
T
NO
DO
E
EN
S CRIME SC
IME SCENE DO NOT CROS
Mono est mort : Vive Xamarin !
Après avoir racheté Novell en novembre dernier, Attachmate avait
tout simplement licencié tous les employés liés au projet Mono,
version open source de la plate-forme Microsoft .Net, que l’éditeur
de Windows considérait avec bienveillance. Pourtant, la distribution
Suse Linux de Novell créait une passerelle très intéressante entre
cet environnement et les applicatifs Windows ou la plate-forme
ASP.Net.
L’histoire aurait pu finir ainsi. Mais c’était oublier un peu vite la volonté de fer de Miguel de Icaza,
responsable du projet Mono. Ce dernier vient d’annoncer la naissance de la société Xamarin, visant
à maintenir en vie le projet open source Mono et à contribuer fortement à Moonlight (Silverlight en
mode open source).
Dans quelques mois, la société proposera d’ailleurs des versions commerciales pour iOS et Android,
car MonoTouch et Mono for Android appartiennent toujours à Attachmate. n
IT-expert n°91 - mai/juin 2011
23
Ouverture du premier Free Center
Les abonnés (ou ex-abonnés) reprochent souvent à Free son manque
de contact et l’absence de présence physique. Qu’à cela ne tienne, le
trublion de l’Internet triple-play hexagonal se lance dans l’aventure en
ouvrant une première boutique en plein centre de Rouen. Enfin, une
relation directe avec le client ! On peut raisonnablement penser que les
ambitions de l’entreprise dans la téléphonie mobile jouent forcément
en ce sens.
Ce Free Center se veut « un lieu de découverte des offres de Free,
essentiellement de la Freebox Revolution et des services qui tournent
autour… ». Des conseillers accompagneront les clients pour leur expliquer
les offres et finaliser leur souscription en ligne.
Présenté comme un lieu expérimental, ce Free Center vise à tester les réactions du public avant un
éventuel élargissement sur l’Hexagone. Ces frais supplémentaires conséquents permettront-ils toujours
à Free de maintenir une politique de prix agressifs ? Et ces Free Centers amélioreront-ils vraiment la
relation client ? n
Les radars à nouveau invisibles, même sur smartphone ?
Afin d’améliorer la sécurité routière, le gouvernement a finalement décidé de modifier
les dispositions en place, et de supprimer la
signalisation des radars. Cette interdiction
porte non seulement sur les GPS et équipements électroniques dédiés, mais aussi sur
les applications pour téléphones mobiles. En
effet, les autorités ont estimé que ces avertisseurs incitaient plutôt à ne pas respecter les
limitations en dehors de ces « zones repérées ».
Bien entendu, Coyote, Inforad et Wikango
-les trois principaux fabricants français
concernés- ont protesté lors d’une conférence
de presse, arguant que « Les chauffeurs de
taxis, chauffeurs routiers, motards, artisans
ou particuliers » pâtiraient de cette décision,
perdant au passage un « permis de conduire
souvent synonyme de permis de travail ».
Au passage, l’application réelle de cette
décision risque de poser quelques problèmes.
Un GPS non mis à jour pourra éventuellement
être détecté. Encore faudrait-il que tous les
agents concernés soient formés en ce sens.
Mais qu’en sera-t-il des smartphones ? D’une part, la manœuvre s’avérerait délicate ; d’autre part, un
agent de la force publique peut-il vraiment fouiller un téléphone personnel sans autre forme de procès ?
Cela mérite plus que réflexion ! Il faut pourtant bien lutter contre l’insécurité. n
24
IT-expert n°91 - mai/juin 2011
Comment ça marche ?
Pilotage d’une DSI :
pour un Project Management Office engagé
IT-expert n°91 - mai/juin 2011
25
De plus en plus sollicitées, les Directions des Systèmes d’Information font face à des défis importants
et contradictoires, du type :
• se montrer force de proposition vis-à-vis de la stratégie métier de l’entreprise, tout en maintenant
un patrimoine applicatif important, difficile à maîtriser et à faire évoluer ;
• s’engager sur des délais et des coûts, mais sur des sujets nouveaux avec des équipes qui n’ont pas
forcément le sens du management et de la responsabilisation ;
• faire preuve d’une réactivité importante vis-à-vis de leurs clients, alors que leurs processus sont parfois
complexes et font intervenir de nombreux acteurs et aussi bien internes qu’externes à leur organisation ;
• Etc.
Pour que la DSI soit plus crédible, à la fois vis-à-vis de ses clients et donneurs d’ordre internes, ainsi
que de ses équipes et fournisseurs, une cellule dédiée de Project Management Office (PMO) peut
fortement contribuer à maîtriser ces défis.
Historiquement, le PMO (Project Management Office) a souvent été cantonné à organiser le suivi des
temps passés, ou tenir à jour des plannings sur certains projets. Cependant, il peut jouer un rôle plus
stratégique pour le pilotage de la DSI et contribuer à sa transformation.
La mise en oeuvre de ces principes auprès d’une DSI d’une centaine de personnes, filiale d’un groupe
international, servira d'exemple dans cet article.
Trois défis majeurs pour que la DSI reprenne la main
En 2010, cette DSI a dû faire face à 3 grands défis simultanés :
1.Changer de prestataires d’infogérance et de TMA pour des raisons économiques, mais aussi pour
se réapproprier la connaissance de son SI, trop longtemps laissé entre les mains d’un seul prestataire
amenant à une perte de contrôle progressive par la DSI. Il lui fallait aussi sortir d’un cadre contractuel
trop figé qui empêchait l’évolution du système d’information, et déresponsabilisait trop les managers
de la DSI. Après plus de 10 ans d’infogérance avec le prestataire précédent, on imagine bien la
difficulté de la tâche.
2.Intégrer les équipes MOA (maîtrise d’ouvrage) au sein de la DSI. Auparavant dispersées dans les
directions métiers, elles doublaient certaines fonctions (connaissance des applications), créant un
climat de suspicion et de frustration, donc anticollaboratif et peu propice à la maîtrise du SI et à son
évolution. Ce rapprochement allant de pair avec une internalisation au sein de la DSI de la gestion
des processus métier, pour assurer la cohérence avec le système d’information.
3.Revoir toute la chaîne de fabrication et de mise en production des projets et demandes de
maintenance, en particulier avec la mise en place d’une procédure de recette intégrée indépendante,
afin de garantir la qualité de ce qui est mis en œuvre. Ceci imposant donc le cadencement des
versions du système d’information, en évitant les mises en production au fil de l’eau telles que vécues
auparavant.
On le voit donc, un véritable programme de transformation de la DSI, difficile à mettre en œuvre sur
une année.
La mise en place d’un PMO
Pour piloter cette transformation, et mettre en place une structure de gouvernance pérenne, cette
société a décidé de mettre en place une entité PMO. Il s’agissait en particulier de résoudre des difficultés
illustrées dans le tableau ci-après :
26
IT-expert n°91 - mai/juin 2011
Le cloisonnement
Les difficultés de communication
Les dérives à répétition
Objectifs multiples et flous
Traitement en urgence
des problèmes
Tendance naturelle de toutes les organisations, aussi bien au sein de la DSI, que
la DSI vis-à-vis des directions fonctionnelles.
Un des rôles du PMO a consisté à casser le plus possible les barrières inutiles, les
comportements de chapelle. Par exemple en organisant des comités transverses,
en s’assurant que l’information circule, que toutes les bonnes personnes sont
impliquées dans les décisions…
Le positionnement du PMO en transverse à la DSI facilite ce rôle.
Cette difficulté, très souvent rencontrée, entre informaticiens et fonctionnels
comme entre un prestataire et son client… est liée à l’utilisation de jargons (métier
ou technique), et au fait qu’on n’ose pas toujours demander des explications
quand on n’a pas compris. Les problèmes sont escamotés…
Le PMO sera aussi vigilant sur ce point, en faisant reformuler, en s’assurant que
tout le monde est en phase, que les points sont bien compris de tous et que
chaque sujet est pris en charge par un acteur.
Toute DSI redoute le décalage de ses projets informatiques, entraînant des coûts
supplémentaires, une insatisfaction des utilisateurs finaux et une perte de sa
crédibilité.
On présente souvent comme une fatalité que les projets dérivent, et donc que
les budgets explosent. Les excuses sont nombreuses, depuis les nouveautés
technologiques, les changements de périmètre, l’impact des autres projets…
On est ici au cœur de la mission du PMO, qui devra briser ce cercle vicieux, en
s’assurant que les estimations initiales sont réalistes, que les risques sont anticipés,
que les changements sont maîtrisés.
On touche ici au mode de management au sein de la DSI, pour les personnels
internes et les externes.
Il est fréquent que les services supports ne soient pas particulièrement motivés
sur la réussite des projets. Et l’on constate souvent que les objectifs ne sont pas
alignés.
Le PMO là encore pourra s’assurer de la cohérence de ces objectifs, de leur
compréhension par tous les acteurs, sans se substituer au management bien
sûr. Exercice délicat.
Comités pléthoriques
Peu de traces du passé,
documentation inaccessible…
Cette difficulté apparaît souvent sur les projets, et rares sont les organisations
qui savent anticiper les difficultés pour un traitement plus serein. Dans la plupart
des cas, le management ne s’implique que lorsqu’il se retrouve au pied du mur,
et qu’il faut tout résoudre en mode « panique ».
Là aussi le PMO joue son rôle d’anticipation et alerte les décideurs au bon moment
des difficultés, tout en proposant des plans d’action prédéfinis.
Dans une organisation qui n’est pas sûre de sa gouvernance, un biais est d’organiser
des réunions avec trop de monde. Cela évite de provoquer des susceptibilités, en
plaçant la réunion comme un enjeu de pouvoir. L’inefficacité est au rendez-vous,
et les décisions finissent par être prises ailleurs.
Le PMO doit s’assurer que l’objectif de chaque réunion est clair : information,
créativité, décision… Que les réunions sont préparées, le nombre de participants
adapté, que des actions ou des décisions en sortent.
La DSI doit gérer des patrimoines applicatifs sur de nombreuses années. Le maintien
de la connaissance et le recours aux documents pertinents sont indispensables,
d’autant que les acteurs ou les prestataires évoluent.
Le PMO peut proposer d’organiser cette information, pour en faciliter sa maintenance
et son accès. Il pourra ainsi mettre en place un espace documentaire partagé pour
les projets, avec une organisation et un processus qui permettent d’archiver les
documents correctement, facilitant le travail collaboratif entre les acteurs.
Cette liste n’est évidemment pas limitative.
IT-expert n°91 - mai/juin 2011
27
Après avoir pris conscience des difficultés, un dispositif mis en œuvre pour les résoudre s’impose.
Dans le cas considéré, deux approches ont été simultanément mises en place :
• la production de résultats concrets rapidement, sur les principales difficultés rencontrées, pour assoir
la crédibilité de l’équipe et pour qu’elle fasse ses preuves ;
• la proposition d’un dispositif pérenne de PMO et de gouvernance.
Produire des résultats rapidement
L’une des principales difficultés ressenties tenait dans le manque de vision globale face à l’arrivée
simultanée de plusieurs grands projets. Ces derniers présentaient des interactions entre eux, mal
identifiées, tout comme leur impact sur les services support (recette, mise en production).
Chaque projet était correctement planifié, mais sans tenir compte du reste du monde.
Le PMO a travaillé à mettre en exergue ces contraintes, de façon claire. Même si ce travail a abouti à
rallonger de 6 mois les délais des projets, cette décision a pu être prise de manière objective et partagée
entre maîtrise d’ouvrage et maîtrise d’œuvre.
Un premier résultat a donc été de produire la feuille de route du portefeuille des projets, tenant compte
de leurs interactions entre eux, c'est-à-dire avec un planning réaliste.
2010-T3
juil-10
DOMAINE
PROGRAMME
PROJET
STATUT
Projet 1
Déploiement pilote
Projet 2
Developpement
en cours
Projet 3
Recette
Projet 4
Conception
en cours
Projet 5
Etude engagée
Projet 6
Conception
en cours
Projet 7
Non engagé
Projet 8
Non engagé
Projet 9
Etude engagée
Projet 10
Non engagé
Projet 11
Non engagé
Projet 12
Non engagé
Projet 13
Déploiement pilote
Projet 14
Recette
Projet 15
Recette
Programme 1
Domaine 1
Programme 2
28
IT-expert n°91 - mai/juin 2011
Projet 16
Recette
Projet 17
Developpement
en cours
Projet 18
Developpement
en cours
Projet 19
Non engagé
01
08
15
août-10
23
01
08
15
sept-10
23
01
08
15
23
2010-T4
oct-10
01
08
15
2011-T1
nov-10
23
01
08
15
déc-10
23
01
08
15
janv-11
23
01
08
15
2011-T2
févr-11
23
01
08
15
mars-11
23
01
08
15
avr-11
23
01
08
15
mai-11
23
01
08
15
juin-11
23
01
08
15
IT-expert n°91 - mai/juin 2011
23
29
Toujours dans cette approche initiale, l’équipe a pu mettre en place des premiers comités de coordination
pour s’assurer que les chefs de projets communiquaient entre eux, mais aussi avec les services supports.
Le décloisonnement a très rapidement permis une meilleure communication.
Mettre en place un dispositif pérenne
La confiance étant établie, à la fois avec le management et les opérationnels, un dispositif durable a
pu progressivement se mettre en place :
• Un reporting régulier (mensuel), sous un format commun, pour s’assurer que les éléments fondamentaux
de chaque projet étaient suivis : les délais, les livrables, les coûts, les risques et les plans d’action
associés.
• Une refonte de la gouvernance, à la fois pour supprimer les comités inutiles, revoir la participation
des acteurs, et privilégier les comités qui décloisonnent, sans oublier la participation pertinente des
clients de la DSI à certains d’entre eux.
• Une revue des processus clés de la DSI, en particulier la gestion des demandes (qualification et
arbitrage), pour mieux orienter les budgets dans le sens de la stratégie de l‘entreprise.
• Une communication externe plus axée sur les clients internes, dans leur langage métier, avec une
mise en évidence des offres de la DSI : offre processus, applicative ou de service.
Restent encore en chantier des sujets comme la gestion de versions du système d’information, ou le
choix d’un outil central de gestion de projet. Néanmoins, cette DSI peut mesurer le chemin parcouru,
et voir son avenir plus sereinement. n
Hervé de Perthuis,
Directeur Associé
Hélène Tittelein,
Manager
Ils sont en charge de l’accompagnement des DSI dans le pilotage des grands projets de transformation.
Acteur majeur du conseil en management et organisation, ORESYS est un cabinet indépendant de 250 consultants, basé à Paris, Lyon,
Lille, Nantes et à Bruxelles, Lausanne. ORESYS aide ses clients à piloter leurs activités, améliorer leur performance et mettre en œuvre
leurs projets de transformation. ORESYS intervient sur toutes les dimensions des programmes de transformation des entreprises :
métiers, organisation, processus, Système d’Information, accompagnement du changement.
Site web : www.oresys.eu
30
IT-expert n°91 - mai/juin 2011
Iaas, Paas & Saas
Virtualisation
Sécurité
Green IT
Stockage
Le salon du Cloud Computing, de la Virtualisation
et des Infrastructures Sécurisées
1ÈRE ÉDITION
18-19-20 OCTOBRE
2011
PARIS - PORTE DE VERSAILLES
• Storage as a Service • Green IT • Portabilité d’applications • HPC •
Cloudsourcing • Grid Software • Cloud-Delivered Testing • QoS, QoE • Open
Cloud • Cloud et sécurité • Cloud Management • Cloud & Datacenter •
Cloud Computing & PME • Cloud Management • Cloud & Datacenter • Cloud
Computing & PME • Applications cloud • Cloud Computing et interopérabilité
• Cloud Internetworking • Virtual Private Inter-Cloud • Java Enterprise Cloud
Tenue conjointe avec les salons
Un événement
Partenaire officiel
www.cloud-and-it-expo.com
Stratégie d'intégration Master Data
Management au SI avec Microsoft
Master Data Services
A
32
cquérir les informations brutes et éparses et mettre à disposition la donnée de référence à votre entreprise
est un enjeu majeur du MDM. Diverses stratégies permettent d’y parvenir, et chacune affiche des atouts
spécifiques.
IT-expert n°91 - mai/juin 2011
Quoi de neuf Docteur ?
Les démarches de gestion de données référentielles rencontrent de plus en plus de succès auprès
des entreprises. Une des clés de voûte d’une solution MDM tient dans sa capacité à s’intégrer au SI
pour pouvoir récupérer la donnée brute, la traiter pour en faire une donnée référentielle de qualité et la
diffuser et l’exposer à l’entreprise.
Microsoft a lancé sa solution MDM (Master Data Management) SQL Server Master Data Services en
2010. L’éditeur a opté pour une approche générique, par opposition aux solutions focalisées sur la
donnée Client (dites Customer Data Integration) ou Produit (dites Product Information Management).
Outre sa généricité, la solution Master Data Services met en avant des composants d’intégration qui
placent cet outil en bonne position à l’heure ou le MDM s’oriente vers des plateformes multi domaines.
Le MDM : à quoi bon ?
Le Master Data Management (ou gestion des données référentielles) s’applique aux données de
référence afin de garantir la cohérence entre les diverses architectures des systèmes et les fonctions
métier de l’entreprise. Les données de références sont :
• les données structurantes des processus métier ;
• partagées, utilisées par de multiples processus et domaines métiers d’une entreprise et de ses
partenaires ;
• stables dans le temps, par opposition aux données opérationnelles ;
• un socle pour construire les axes de consolidation des données décisionnelles.
Le Master Data Management part du constat que maitriser la donnée relève d’un réel challenge, face
aux problématiques suivantes :
• Des visions différentes sur des concepts métiers partagées ;
• De multiples gisements de données à maintenir ;
• Des difficultés à déterminer la source de confiance d’une information ;
• Des difficultés à échanger et synchroniser les informations;
• Des données de qualité médiocre et non uniformes ;
• Des processus de redressement inefficaces ;
• Un impact fort sur l’exécution des processus opérationnels cœur de métier.
Figure 1 : Fonctionnalités d’une solution de gestion de données de référence
(Enjeux et méthodes de la gestion des données, Frank Régnier-précastaing, éd. Dunod)
IT-expert n°91 - mai/juin 2011
33
Le point de vérité : une histoire d’architecture
Appelés communément points d’acquisition et point de vérité, les différentes typologies d’architecture
logique de mises en œuvre MDM sont fonction des points d’entrée de la donnée brute ainsi que de la
localisation du référentiel de données.
L’architecture de consolidation représentée ci-dessous met en œuvre plusieurs points d’acquisition
qui alimentent le référentiel de données (le point de vérité) chargé de consolider les attributs de la
donnée référentielle, issus de ces points d’acquisition pour la mettre à disposition des applications
consommatrices, celles-ci étant indépendantes des points d’acquisition.
Cette architecture est souvent utilisée dans le cas des projets de convergence de données ou de mise
en place d’ERP ou encore dans le cas de mise en place de référentiel analytique permettant de fournir
une donnée « propre » et consolidée au Système d’Information décisionnel d’une entreprise. Dans ce
dernier cas, un effort de Data Quality Managment est souvent nécessaire pour rétablir et/ou maintenir
la qualité de la donnée.
Figure 2 : Architecture de consolidation
L’architecture de coopération présentée ci-contre met en œuvre des points d’acquisition qui font
partie intégrante de la solution référentielle dans la mesure où les processus référentiels (acquisition,
nettoyage et validation de la donnée) sont partagés entre les points d’acquisition et le référentiel. Ces
points d’acquisition sont également consommateurs de la donnée référentielle et sont par la même
dépendants du référentiel. En effet, toute donnée saisie depuis l’application amont (ou point d’acquisition)
sera soumise au référentiel pour validation avant qu’elle ne puisse être retournée à celle-ci.
Cette architecture est souvent utilisée pour l’implémentation de solutions MDM de type CDI (Customer
Data integration) couplée à une application de type CRM.
34
IT-expert n°91 - mai/juin 2011
Quoi de neuf Docteur ?
Figure 3 : Architecture de coopération
L’architecture de centralisation présentée ci-dessous fusionne les points d’acquisition et le point de
vérité. La solution de gestion des données de référence est le support direct des processus référentiels.
Les applications « aval » consomment les attributs de la donnée référentielle qui les intéressent. Cette
architecture correspond au niveau le plus haut de la gouvernance de la donnée référentielle, dans la
mesure où il n’y a plus d’intermédiaire applicatif entre le référentiel et les processus métiers, ceux-ci
reposent directement sur le référentiel de données.
Figure 4 : Architecture de centralisation
IT-expert n°91 - mai/juin 2011
35
Dans chacune de ces architectures logiques, l’intégration du point de vérité au reste du SI (les
applications « amont » et « aval, ainsi que les processus métiers) est la clef de voûte de la mise en place
de solutions MDM.
L’approche de Microsoft SQL Server
La première version de la solution MDM de Microsoft a été livrée dans SQL Server 2008 R2. SQL Server
se positionne comme la suite permettant de gérer la donnée du SI au sens large, depuis la donnée
transactionnelle avec le module Database Engine jusqu’à la donnée référentielle avec ce nouveau
module Master Data Services ; en passant par la donnée décisionnelle avec les modules Intégration
Services, Analysis Services et Reporting Services. Cette intégration à la suite SQL Server apporte
d’ailleurs de nombreux avantages pour l’interopérabilité du référentiel avec le SI car ce dernier peut
aisément tirer profit du SGBD SQL ou des modules décisionnels tels qu’Integration Services. Quant
aux fonctionnalités de Master Data Service, elles couvrent l’ensemble des fonctions attendues pour
une solution de MDM.
Le graphique ci-dessous présente les grandes familles de fonctionnalités de Master Data Services :
Figure 5 : Fonctionnalités de Master Data Services (source : Microsoft)
Les familles « Master Data Hub » et « Master Data Platform » proposent les fonctionnalités « cœur » de la
solution. C’est à travers celles-ci que l’on définit et maintient le modèle de données. Elles fournissent
tous les composants permettant de mettre en œuvre le point de vérité.
« Stewardship Portal » et « Stewardship Process » fournissent les interfaces permettant d’accéder aux
fonctionnalités de conception et d’administration décrites précédemment. Elles fournissent également
les composants d’implémentation et d’exécution des processus d’enrichissement, de validation de la
donnée basée sur les Business Rules et les notifications. L’intendant de la donnée, garant du référentiel,
utilise ce portail pour créer, alimenter, enrichir et valider son modèle sans aucune ligne de code.
36
IT-expert n°91 - mai/juin 2011
Quoi de neuf Docteur ?
Figure 6 : Capture d’écran du menu principal du Steewardship Portal
Sans rentrer plus en détail dans toutes les fonctionnalités de cet outil, il serait intéressant de faire un
rapide focus sur deux d'entre elles.
. Le méta modèle MDS, un atout indéniable
Le modèle de données générique permet, dans un premier temps, de créer tout type de modèle de
donnée à l’aide des éléments que sont les entités, les attributs et les hiérarchies. La solution n’offre pas
un modèle de données prêt à l’emploi pour la donnée Client ou Produit avec son corolaire d’adaptation
nécessaire pour coller à chaque besoin. Cependant, elle propose un méta-modèle permettant de
construire son modèle de donnée à l’image de ce qu’est la structure de cette donnée dans le SI. Cette
flexibilité est particulièrement adaptée dans le cas de la mise en place de référentiels pour lesquels les
structures peuvent différer des standards de l’industrie. Enfin, un seul et unique méta-modèle avec les
mêmes règles permet de représenter l’ensemble des données référentielles de son SI.
Voici un exemple de la structuration d’un modèle Produit tel qu’il peut être conçu dans le Stewardship
Portal.
Figure 7 : Capture d’écran de la représentation d’un modèle Produit dans le Stewardship Portal
IT-expert n°91 - mai/juin 2011
37
. Les API WCF
Les API sont mises à disposition par l’outil. On peut les classer en 2 catégories, celles-ci étant toutes
exposées sous forme de Service Web WCF :
• La première catégorie d’API propose des services permettant d’exécuter toutes les opérations
d’administration disponibles depuis le Stewardship Portal tels que la validation de données en entrée,
l’application des business Rules sur celles-ci, leur import ou leur versionning. Dans une architecture
de coopération, les applications « amont » pourraient directement interagir avec ces services pour
valider leurs données à distance avant même que celles-ci puissent être intégrées au référentiel.
• La seconde catégorie de règle concerne le méta modèle et le modèle lui-même. Le Stewardship
Portal permettant de créer de manière graphique un modèle et d’y insérer des instances que l’on
appelle des membres. Il est également possible de réaliser ces opérations de manière programmée
via les API. Il devient alors plus aisé de façader le référentiel de données à un portail métier de type
SharePoint plus convivial pour des utilisateurs métiers. Ces API d’interfaçage exposent en réalité
le méta modèle et non le modèle. Considérant un référentiel client, la méthode permettant de lire
l’ensemble des attributs du client, dont l’ID est 001, est codé de sorte que le nom du modèle (ici
client), le nom et la valeur de l’ID (ici 001) et la liste des attributs à récupérer sont passés en Input. De
ce fait, la modification de ce modèle pour ajouter un nouvel attribut n’implique pas la régénération
des services d’accès à ce modèle. Ce qui supprime tous les impacts éventuels sur les applications
consommatrices.
Les mécanismes d’intégration de Master Data Services au SI
Le graphique ci-dessous présente les différentes stratégies d’intégration de Master Data Services au
reste du SI. Outre les services WCF cités précédemment, Master Data Services tire pleinement profit
de son moteur qu’est SQL Server pour proposer des solutions d’interfaçage assez simple à mettre
en œuvre.
Figure 8 : intégration de Master Data Services au reste du SI
L’acquisition des données brutes
Master Data Services met en place une table SQL dite de « Staging » comme point d’entrée de la donnée
brute. Cette table dénormalisée ne faisant pas partie du modèle cœur de la donnée référentielle, les
données insérées sont, dans un premier temps, uniquement visibles par l’intendant de la donnée. Ce
dernier est notifié par mail lorsque des données sont insérées dans cette table. Il y accède alors via le
module « Gestion de l’intégration » du Stewardship Portal pour pouvoir lancer des opérations de « Data
38
IT-expert n°91 - mai/juin 2011
Quoi de neuf Docteur ?
Quality ». Il peut alors lancer un workflow d’enrichissement sur celle-ci afin de garantir sa complétude,
exécuter des Business Rules de contrôle des attributs la constituant afin d’assurer son exactitude. Il
peut aussi lancer des programmes de dédoublonnage pour garantir son unicité. Après ces étapes,
l’intendant de la donnée peut alors la basculer dans le cœur du modèle référentiel.
Scénario d’acquisition au fil de l’eau
BizTalk Server est la solution de médiation Microsoft avec laquelle l’on peut implémenter une plateforme
EAI ou ESB. Cet outil propose pléthore de connecteurs pour s’interfacer aux applications du SI,
qu’elles soient progicialisées ou spécifiques. De ce fait, BizTalk Server constitue une bonne solution
pour l’intégration de la donnée brute au fil de l’eau depuis les applications « amont » vers la table de
Staging Master Data Services.
Figure 9 : Acquisition de la donnée brute au fil de l’eau avec Microsoft BizTalk Server
Techniquement, il s’agit de construire des demi-flux entrants en provenance des applications « amont ».
Ces demi-flux publieront un message pivot représentant la donnée brute à destination d’un demi-flux
sortant qui s’interface avec la table de Staging Master Data Services, via l’utilisation du connecteur
WCF SQL. Ainsi, cette solution permet d’acquérir la donnée brute au fil de l’eau en tirant profit du
couplage lâche offert par BizTalk Server dans la mesure où les applications « amont » et le référentiel
Master Data Services ne sont pas interfacés en point à point.
Scénario d’acquisition masse
Dans le cas d’architecture de consolidation implémentant un référentiel analytique ou encore lors de
l’initialisation d’un référentiel avec des données existantes dans le SI, il est souvent nécessaire d’opérer
une acquisition en masse des données.
SQL Server Integration Services, l’ETL (Extract, Transform, Load) Microsoft, est une bonne option pour
intégrer les gros volumes de données tout en profitant des algorithmes de Fuzzy Lookup qu’il propose.
Ceux-ci permettent de faire du dédoublonnage de données avant l’insertion dans la table de Staging.
IT-expert n°91 - mai/juin 2011
39
Figure 10 : Acquisition de la donnée en masse avec SQL Server Integration Services
À travers ces deux scénarii d’acquisition de la donnée brute, illustrés à l’aide de la plateforme ESB
BizTalk Server et de l’ETL SSIS, on constate donc que la table de Staging offerte par Master Data
Services offre une porte d’entrée très facile à exploiter pour interfacer les applications « amont ». Tout
autre plateforme de médiation ou outil ETL sachant insérer des données dans la table SQL de Staging
pourrait être utilisé.
La diffusion et l’exposition de la donnée référentielle au SI
Une fois validée et intégrée au cœur du modèle référentiel, la donnée de référence peut être mise à
disposition des utilisateurs, des applications et des processus métiers de l’entreprise. Deux typologies
de mise à disposition de la donnée référentielle peuvent être mises en œuvre, lesquelles sont fonction
de la nature du récepteur et de l’utilisation qu’il va faire de cette donnée :
• La diffusion de la donnée référentielle. Pour illustrer ce mode de mise à disposition de la donnée,
considérons une application métier verticale. Elle implémente des fonctions en utilisant des données
référentielles qui doivent être à jour. Plutôt que d’aller interroger le référentiel de données pour chacune
des transactions et risquer des problèmes de performance, une bonne pratique d’architecture
consiste à diffuser et maintenir un cache de cette donnée référentielle dans cette application. La
1re diffusion consisterait en une initialisation de ce cache avec l’ensemble du périmètre : on parle
alors de flux en « mode Full ». Les diffusions suivantes consisteraient en la mise à disposition des
créations, modifications ou suppressions des données de ce référentiel : on parle alors de flux en
« mode Delta ».
• L’exposition de la donnée référentielle. Pour illustrer ce mode de mise à disposition, considérons
un processus métier d’entreprise transverse qui a besoin de consommer la donnée référentielle lors
de son exécution. Ce processus ne pouvant pas forcément maintenir un cache de donnée en son
sein, une bonne pratique d’architecture consiste à exposer le référentiel sous forme de Web Service.
Master Data Services propose deux composants pour diffuser la donnée référentielle :
• La « Subscription View » permet de créer une vue SQL sur tout ou partie d’un objet référentiel à partir
du Stewardship Portal. L’intendant de la donnée peut configurer les entités, les attributs et groupes
d’attributs ou encore les hiérarchies qu’il souhaite voir présentes dans cette vue, cette dernière étant
automatiquement mise à jour suite aux évolutions sur les données du référentiel. Prenons l’exemple d’un
référentiel client constitué de multiples facettes. Les applications abonnées à ce dernier ne souhaitent
pas forcément utiliser toutes les facettes de ce client, mais uniquement récupérer les données qui
les concernent, comme les données bancaires pour la facturation ou encore les coordonnées pour
les communications promotionnelles. Dans ce cas, il est aisé de créer une « Subscription View » pour
chacune de ces facettes afin de segmenter la donnée mise à la disposition des applications.
• La fonction « Enable Change Tracking » permet de tracer et de publier dans le Service Broker de
SQL Server ou déclencher une Business Rule sur tout évènement se produisant sur les attributs d’un
objet référentiel. Cette fonctionnalité permet d’implémenter de la diffusion évènementielle d’objet
référentiel.
40
IT-expert n°91 - mai/juin 2011
Quoi de neuf Docteur ?
Scénario de diffusion de la donnée référentielle au fil de l’eau
Les deux méthodes de diffusion offertes par Master Data Services facilitent l’interfaçage du référentiel
avec le reste du SI via un tiers de médiation.
De même que pour l’acquisition de donnée brute, il est possible d’implémenter une solution de diffusion
en masse avec SQL Server Integration Services en utilisant la « Subscription View ». Cette solution est
à privilégier pour l’initialisation des applications avec un cache du référentiel de données souhaité ou
pour alimenter les applications décisionnelles.
Pour la diffusion au fil de l’eau, une plateforme de médiation comme Microsoft BizTalk Server constitue
la meilleure approche. Le graphique ci-dessous décrit la stratégie d’utilisation des fonctionnalités
« Subscription View » et « Enable Change Tracking » pour diffuser les données référentielles ayant évolué.
Figure 11 : Diffusion de la donnée au fil de l’eau avec BizTalk Server
Tout d’abord, la « Subscription View » maintient une vue SQL du périmètre de l’objet référentiel configuré
dans le Stewardship Portal. Considérons un référentiel client contenant 1000 lignes, la vue SQL Server
en contiendra autant. Pour mettre en œuvre un flux de diffusion au fil de l’eau en mode « delta », il est
nécessaire d’identifier à chaque instant, parmi ces 1 000 lignes, celles qui ont été créées, modifiées
ou supprimées depuis la précédente exécution du flux et ne consommer que celles-ci. Pour ce faire,
il est possible de positionner un trigger SQL sur cette vue dont l’objectif sera d’insérer dans une table
tampon, dite table d’interface, uniquement les lignes qui ont subi une évolution (création, modification,
suppression) durant un intervalle donné.
BizTalk Server, via le connecteur WCF SQL, scrute à intervalle régulier cette table d’interface pour
sélectionner et marquer comme lue les lignes qui y auront été insérées. Ne reste plus qu’à implémenter
dans BizTalk Server un demi-flux entrant construisant et publiant un message pivot représentant la
donnée référentielle vers autant de demi-flux sortants qu’il y a d’applications souhaitant souscrire à
cette donnée.
Il est également possible de tirer profit de la fonction « Change Tracking View » afin de mettre en œuvre
la diffusion au fil de l’eau avec BizTalk Server. L’Adapter WCF SQL fournit par la plateforme permet de
scruter une queue du Service Broker SQL Server pour consommer les données qui y sont insérées.
Exposition du référentiel
L’exposition du référentiel par l’implémentation d’une architecture SOA (Service Oriented Architecture)
est facilitée par les API WCF fournies par Master Data Services. Ces API fournissent nativement les
méthodes CRUD (Create, Read, Update, Delete) sur le méta modèle que tous les modèles de données
implémentent. Il est tout de même conseillé de construire un Wrapper sur ces méthodes CRUD afin
d’encapsuler la complexité du métamodèle mais aussi de fournir le niveau de granularité adéquat pour
les Services Web en résultant.
IT-expert n°91 - mai/juin 2011
41
Enfin des données de référence !
La gestion de la donnée référentielle est devenue un enjeu crucial dans les entreprises. Le Master Data
Management a profité des avancées technologiques au sein des Systèmes d’information pour apporter
des réponses à cet enjeu. Le caractère transverse des données référentielles impose aux solutions
MDM de devoir s’interfacer de manière efficiente avec la plupart des applications du SI.
Chez Microsoft, les Master Data Services couplés à BizTalk Server et Integration Services mettent en
œuvre les différents scénarios d’interfaçage au SI indispensable à l’acquisition de la donnée brute, la
diffusion et l’exposition de la donnée référentielle. n
Radoine Douhou,
Consultant Senior - Architecte Microsoft
Logica Business Consulting est l’entité Conseil du groupe Logica, entreprise du service en business et technologie qui réunit 39 000
collaborateurs. Elle propose conseil en management, intégration de technologies et externalisation à ses clients du monde entier,
dont les plus grandes entreprises en Europe. Logica crée de la valeur pour ses clients en intégrant avec succès les hommes, les
enjeux business et les technologies. Elle s’engage dans des collaborations à long terme et exploite ses savoirs pour répondre de
façon innovante aux besoins de ses clients
Site web : www.logica.fr/conseil
Sans oublier des ressources pour SQL Server Master Data Services :
• Site web officiel de la solution :
http://msdn.microsoft.com/fr-fr/library/ee633763.aspx
• Livre blanc sur le MDM selon Microsoft : http://bit.ly/eYWySR
• Web Cast Tech Days 2011 « Les technologies d’intégration MDM et SOA »:
http://www.microsoft.com/showcase/fr/FR/details/a6bb8c78-a9b1-413c-ab2a-4bfe3a28a425
• MDM, Enjeux et méthodes de la gestion des données.
Auteurs : Franck Regnier-Précastaing, Michel Gabassi, Jacques Finet.Éditions Dunod
42
IT-expert n°91 - mai/juin 2011
Livres
Performance des architectures IT :
comprendre, résoudre et anticiper
Destiné aux DSI, responsables des études et de l'exploitation ; chefs de projets
et autres architectes, cet ouvrage a été rédigé par quatre spécialistes de terrain
au fait des problématiques quotidiennes des entreprises. Les auteurs ont choisi
d’aborder le système d’information sous l’angle d’infrastructures, d’architectures
ou des outils associés. Guidé par le souci de la performance des applications, ils
apportent les recommandations et les bonnes pratiques permettant de mesurer
et d’améliorer l’efficacité du SI.
Après une explication des principaux concepts de la performance, le livre
démontre le rôle essentiel de l’architecture. La troisième partie est consacrée
aux infrastructures matérielles (réseaux, stockage…) et logicielles (applications,
bases de données…), et la dernière expose les bonnes pratiques.
Le lecteur appréciera le côté pratique et pédagogique de l’ouvrage qui propose des
démarches classées par thèmes avec les techniques de programmation, les tests
de performance, la gestion de la production et les pratiques de gestion de projet.
Effet incontournable du cloud computing, cette seconde édition bénéficie de mises
à jour sur la continuité de service, les datacenters et la gestion de la production.
Performance des architectures IT : comprendre, résoudre et anticiper
2ème édition
Pascal Grojean, Médéric Morel, Simon-Pierre Nolin et Guillaume Plouin
Éditeur : Dunod
304 pages - environ 36 € (format numérique 30 € env.)
Concevoir, animer et réussir un projet
Ce nouveau livre de la collection « 100 questions pour comprendre et agir »
multiplie les tableaux et les matrices d'évaluation pour apporter des réponses
concrètes et ciblées aux questions des chefs de projets, directeurs de projets et
autres responsables informatiques.
Clairement présenté comme « la boîte à outils du chef de projet », ou « la trousse
de premiers secours », l’ouvrage se veut pratique et pédagogique en apportant
une réelle valeur ajoutée. C’est pourquoi, en plus du sommaire, il peut être abordé
en fonction du degré de maturité du lecteur sur ce rôle de chef de projet. Les
questions basiques posent les bases : Comment lancer une séance de travail ?
Comment établir un cahier des charges ? Comment évaluer les risques ? et sont
enrichies des plus complexes : Comment construire un diagramme causeseffets ? Comment formaliser les implications de chaque situation ? Comment
éliminer les urgences ? Comment identifier les dysfonctionnements ? Enfin,
les plus expérimentés (qui découvriront malgré tout des choses dans les deux
premiers groupes) apprécieront les questions expertes : Comment cartographier
les compétences du projet ? Comment optimiser la planification ? Quelle est la
stratégie d'entrée en communication ? etc.
Concevoir, animer et réussir un projet
Tatiana Bouzdine Chameeva, Alain Labruffe et Emmanuel Carré
Éditeur : Afnor
296 pages - environ 29 €
IT-expert n°91 - mai/juin 2011
43