Comment réussir avec ITIL - IT

Transcription

Comment réussir avec ITIL - IT
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Une entreprise peut-elle survivre
sans qualité de données globale ?
PAGE 6
Comment réussir avec ITIL ?
PAGE 16
ALM et agilité au cœur
des processus métiers
PAGE 28
Bimestriel - mars/avril 2010
Anatomie de trois ESB
Open Source :
n°84
PAGE 34
Le respect des licences libres :
les juridictions veillent PAGE 46
ZOOM OUTSOURCING
L’avis des Directions Informatiques
Ministère des Finances
Direction Générale des Impôts
Nadine Chauvière
Sous-Directrice des SI de la DGI
« Les solutions d’Application Intelligence
CAST nous aident à obtenir une meilleure
visibilité de notre parc applicatif au travers
de tableaux de bord composés d’indicateurs
techniques objectifs afin de faciliter le
dialogue avec les équipes et avec nos
maîtrises d’ouvrage. »
Groupe SFR Cegetel
Eric Eteve
Directeur Informatique
Centre Ingénierie Mobilité
« La solution CAST de gestion de la soustraitance est un élément clé dans le système
de pilotage mis en place par SFR-Cegetel
sur ses TMA. Nous avons constaté une
attention plus particulière apportée par les
SSII à la qualité des livrables et à la fiabilité
des chiffrages depuis qu’ils savent que nous
pouvons facilement les auditer. »
Framatome - Groupe AREVA
Michel Fondeviole
DSI de Framatome-ANP
« CAST fournit des critères objectifs
d’appréciation dans le dialogue parfois
difficile avec le sous-traitant ainsi que des
indicateurs nécessaires au suivi de l’évolution
des applications et constitue au sein de
Framatome un outil de progrès partagé. »
En savoir plus
Demandez le Livre Blanc rédigé par le
Gartner Group et CAST sur ce thème :
« Information Series on Application
Management » :
www.castsoftware.com/outsourcing
Découvrez l’expérience de plusieurs
sociétés utilisatrices de solutions
d’Application Intelligence :
www.castsoftware.com/customers
www.castsoftware.com
La maîtrise des applications
et des prestataires dans
une opération d’outsourcing
De la valeur ajoutée de l’Application
Intelligence pour piloter efficacement
un parc applicatif sous-traité
Dans l’externalisation des applications
métier, c’est surtout la volonté d’accroître
l’efficacité opérationnelle de l’informatique
qui est motrice : pouvoir fournir plus
rapidement un service à valeur ajoutée
aux utilisateurs et aux clients dans un
contexte en perpétuelle évolution.
C’est là que le bât blesse : l’externalisation
des applications métier occasionne un
risque de perte rapide de savoir-faire
technologique et par conséquent critique.
Vigilance et suivi sont de mise pour garder
le contrôle de la qualité de service et
éviter les dépendances par nature
dangereuses.
L’externalisation réussie d’applications
métier est donc le fruit d’une vision
anticipatrice partagée avec le prestataire.
Sont ainsi apparues des solutions dites
d’Application Intelligence, basées sur
Publi-Reportage
La valeur ajoutée de ce type de
solutions d’Application Intelligence est
visible à chaque étape d’une opération
d’outsourcing, comme décrit ci-après.
trat
con
de
Fin
Appe
ls d
'off
res
Cycle de vie
d'une opération
d'Outsourcing
Co
ntr
ôle
des
coûts
i de
Suiv
connaissance
s
sfert de
Tran
Comme dans n’importe quelle opération
d’outsourcing, le contrat liant le
fournisseur est capital, en particulier les
SLAs. Néanmoins, les applications métier
étant par nature soumises à de fréquents
changements en cours de contrat, les
seuls SLAs se révèlent vite insuffisants
pour garantir la qualité de service et éviter
les dérives de coûts.
une technologie avancée d’analyse de
code source.
En fournissant des indicateurs techniques
aux donneurs d’ordre, ces solutions
permettent de piloter un parc applicatif
sous-traité en temps réel, tant en terme de
qualité, que de maintenabilité et de coût.
Résultat : le donneur d’ordre conserve la
maîtrise intellectuelle de ses applications
métier et le contrôle de la relation avec
son sous-traitant.
technique
Recette
L
es entreprises, devenues plus
mûres vis-à-vis de l’outsourcing,
sont désormais capables d’opérer
des externalisations plus stratégiques. On
l’a récemment observé dans l’automobile
avec Renault ou dans la grande distribution
avec Carrefour.
jet
pro
Audit de l’existant et préparation des
appels d’offres
• Déterminer les caractéristiques
techniques du portefeuille applicatif
existant avant de le sous-traiter
• Disposer d’informations de référence
pour évaluer les propositions des soustraitants
• Obtenir une image à l’instant t des
applications pour permettre un suivi
dans le temps
Transfert vers le prestataire
• Réduire la phase d’acquisition de la
connaissance pour entreprendre plus
vite des tâches productives
• Diminuer le coût lié à la production
d’une documentation exploitable et
maintenable par le prestataire
Contrôle de la qualité et des coûts en
cours de projet
• Suivre l’évolution de la maintenabilité et
de la qualité pour éviter toute dérive
• Etre capable de valider la quantité et
la qualité du travail facturé
• Etre en mesure de challenger le
sous-traitant lors des négociations
d’avenants
• Industrialiser les recettes techniques
Renouvellement de contrat, transfert ou
ré-internalisation
• Déterminer et qualifier les écarts entre
la prestation prévue et les livrables
recettés
• Disposer des informations techniques
caractéristiques du portefeuille
applicatif en fin de prestation
Le leader mondial de ce type de solutions
est d’ailleurs un éditeur français, CAST.
Reconnu par les analystes informatiques
comme précurseur du marché, CAST
compte plus 500 comptes utilisateurs de
sa plate-forme d’Application Intelligence
dans le monde.
édito
La vague Cloud ou le n’importe-quoi-tenant
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Voilà donc le Cloud porté aux nues !
Après avoir été raillées, les Salesforce, Amazon,
Google et autres peuvent sourire. Et comment ! Tout
devient Cloud, même et surtout ce qui ne l’est pas !
Chez l’un le « Cloud privé » (aberration sémantique)
a remplacé le datacenter, ou l’application hébergée
sans rien changer, si ce n’est l’étiquette… Chez
cet autre, le marketing, désolé de ne pas répondre
au critère multitenant, invente le Cloud « mega-tenant », tout comme on
pourrait évoquer un lac sans eau et sans profondeur…
Bref : la nébuleuse prend des formes plus que fantaisiste : sans Cloud
point de salut ! Pourtant, le datacenter, l’infogérance, l’hébergement… et
même les applications traditionnelles (on-premise) restent des solutions
pertinentes. Et cette situation risque de perdurer pendant quelques
longues années.
Le peuple aime détruire ses idoles. Les systèmes ouverts devaient
anéantir les mainframes, qui se sont modernisés à marche forcée. Le
Web 2.0 incarnerait le futur des applications alors que la virtualisation…
Bref, les technologies les plus porteuses seraient sensées prendre la
place de solutions en place. Pourtant dans un monde hétérogène, les
informaticiens savent qu’aujourd’hui mieux vaut miser sur une cohabitation
bien orchestrer que sur des ruptures. L’exemple des services Web n’est-il
pas là pour en témoigner ?
José Diz
Rédacteur en Chef
Editeur
Press & Communication France
Une filiale du groupe CAST
3, rue Marcel Allégot
92190 Meudon - FRANCE
Tél. : 01 46 90 21 21
Fax. : 01 46 90 21 20
http://www.it-expertise.com
Email : [email protected]
Rédacteur en chef
José Diz
Email : [email protected]
Directeur de publication
Aurélie Magniez
Email : [email protected]
Abonnements/Publicité
Email : [email protected]
Conception Graphique
Nicolas Herlem
Email : [email protected]
Parution
IT-expert - (ISSN 1961-9855) est un journal
édité 6 fois par an, par P&C France, sarl
de presse au capital de 60 976,61 e.
Avertissement
Tous droits réservés. Toute reproduction
intégrale ou partielle des pages publiées
dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf
dans les cas prévus par les articles 40 et
41 de la loi du 11 mars 1957. © 1996 P&C
France. Toutes les marques citées sont des
marques déposées.
Les vues et opinions présentées dans cette
publication sont exprimées par les auteurs
à titre personnel et sont sous leur entière
et unique responsabilité. Toute opinion,
conseil, autre renseignement ou contenu
exprimés n’engagent pas la responsabilité
de Press & Communication.
Abonnements
01 46 90 21 21
Vous pouvez vous abonner gratuitement
sur http://www.it-expertise.com/
4
IT-expert n°84 - mars/avril 2010
IT-expert n°84 - mars/avril 2010
Sommaire
6
Dossier
Une entreprise peut-elle survivre sans qualité de données globale ?
La multiplication des risques et des réglementations oblige à se poser la question de la
qualité de données. Directeur technique chez Informatica, Bruno Labidoire expose une
démarche complète permettant d’implémenter une telle politique. Dense et utile.
16
Technique
Comment réussir avec ITIL ?
ITIL par-ci, ITIL par-là… De quoi parle-t-on ? Sur un ton pédagogique et avec des
explications détaillées, ce dossier montre ce qu’est ITIL et ce qu’il n’est pas, pourquoi
il peut amener à des impasses, mais aussi comment il peut apporter beaucoup à
l’entreprise. A lire sans modération.
22
Actualités Internationales
28
Quoi de neuf docteur ?
Les informations marquantes d’éditeurs, de marchés, d’organisme
de standardisation, de débats en cours et de tendances.
ALM et agilité au cœur des processus métiers
Ce dossier apporte un éclairage de l’évolution de la gestion du cycle de vie des
applications (ALM pour Application Lifecycle Management) : des tâches séparant IT
et utilisateurs, aux IDE ajoutant tests et architecture, jusqu’au collaboratif qui posent
sur le même pont utilisateurs et IT.
34
Comment ça marche ?
Anatomie de trois ESB Open Source : JBoss ESB, serviceMix et OpenESB
Voyage au cœur du middleware, avec un exposé complet et sans concession sur
les ESB Open source, et leurs versions commerciales. Schémas, explications… un
panorama très détaillé.
45
Livres
Conduite de projets informatiques par Brice-Arnaud Guérin et Le management de
la performance par les processus par Dominique Thiault.
46
Rubrique à brac
Le respect des licences libres : les juridictions veillent
Un avocat spécialisé fait un point sur des décisions juridiques liées au logiciel libre,
qui ne dédouane pas les prestataires de leurs responsabilités. Ce spécialiste revient
sur des idées reçues : distinguer commercial et open source, vide juridique, etc. Très
instructif.
IT-expert n°84 - mars/avril 2010
5
Une entreprise
peut-elle survivre
sans qualité
de données globale ?
Dans le climat économique actuel, disposer des données de bonne qualité est une condition de survie pour les
entreprises. Pourtant, dans tous les secteurs, nombre d’organisations considèrent encore le manque de qualité des
données comme un problème mineur qu’elles traitent au coup par coup, et souvent dans l’urgence. Pour compenser
les défauts de leurs données, ces organisations inventent des moyens de contournement simples ou complexes.
Résultat : elles fondent la plupart de leurs décisions sur des informations peu fiables et incohérentes. Si l’on ajoute à
cela la multiplication des obligations de conformité réglementaire, les données apparaissent plus que jamais comme
un actif majeur de l’entreprise et la question de la qualité de données ne peut tout simplement plus être écartée.
6
IT-expert n°84 - mars/avril 2010
Dossier
Le risque rôde à tous les étages
En effet, il y existe un lien direct entre la qualité des données de l’entreprise et ses performances. Des
données de bonne qualité permettent à l’entreprise de rester compétitive et de continuer à avancer
dans un contexte économique perturbé. Pour opérer au maximum de son efficacité, être en conformité
avec le nombre croissant de règlementations, mieux gérer le risque, l’entreprise a besoin de données
de bonne qualité. Et ce, pas uniquement dans un département, mais partout et à tous les niveaux de
l’organisation, à l’intérieur et à l’extérieur des firewalls. Dans un tel contexte, la mise en œuvre d’une
véritable politique de qualité des données s’avère être un élément déterminant pour l’entreprise. La
direction générale et ses directions métiers pourront ainsi disposer d’une vision unifiée et exploitable
des informations, afin de prendre les bonnes décisions au moment opportun.
Les dangers de l’utilisation de données incorrectes
Dans le domaine des technologies de l’information, l’intégration et la réconciliation de données comptent
parmi les projets les plus inquiétants. En fait, il faut reformuler ce constat : ces projets deviennent vraiment
critiques lorsque l’intégration de données se passe mal. Parfois les données sont fausses dès le départ,
à cause d’erreurs faites par les utilisateurs dès la saisie, de façon accidentelle ou délibérée. Il arrive aussi
que les données soient bonnes au départ, mais qu’ensuite, déplacées d’une base de données ou d’un
système vers un autre, elles dérivent, qu’elles soient tronquées ou encore altérées. Les données peuvent
devenir obsolètes, ou encore faire l’objet de conflits internes, au sein d’une organisation – chacun se
cramponnant aux données le concernant, personne ne voulant partager, sans parler des risques de fraude
encourus lorsque l’on perd la visibilité sur ces données. De plus, le volume phénoménal de données que
l’entreprise produit chaque jour n’arrange rien. Les projets concernant les données peuvent mal tourner
de bien des façons.
Les dirigeants se méfient de leurs données
Une étude menée par PricewaterhouseCoopers (interviews réalisées auprès de dirigeants de grands
groupes internationaux pour le baromètre de gestion PricewaterhouseCoopers en 2008) révèle un
décalage important entre la compréhension claire de la valeur des données et l’utilisation réelle de celleci pour générer de la valeur. Plus de 70 % des cadres interrogés estiment que les données constituent
l’un des actifs les plus précieux, mais seuls 40 % d’entre eux estiment les utiliser efficacement. Cela
peut laisser penser qu’il existe un décalage entre la valeur perçue des données et la valeur obtenue
par l’utilisation de ces dernières. L’entreprise n’a pas confiance dans les données au moment de
leur utilisation. En comblant le fossé entre perception de la valeur et valeur réelle des données, les
entreprises peuvent générer davantage de valeur à partir des données et remplir leurs objectifs en
matière de gouvernance, de risque et de conformité.
Multiplication des risques et des réglementations
La complexité du marché et des enjeux actuels ajoute de nouveaux risques que les entreprises doivent
identifier. Par exemple, à lui seul, le gouvernement américain a introduit 114 000 nouvelles règles et
réglementations pour les entreprises depuis 1981. Cette croissance exponentielle du risque et des
réglementations a atteint un point de rupture qui nécessite la mise en place de rapports réglementaires
s’appuyant sur des données fiables, pertinentes et de qualité.
De l’urgence d’une harmonisation globale
Au cours de leur analyse de la gestion des risques et de la conformité, les cadres dirigeants sont confrontés
à des incohérences et à des silos organisationnels en termes d’informations et de processus. Cela est
dû à l’absence d’une stratégie de gestion des données et à un manque d’information dans l’entreprise.
Il en résulte une duplication des technologies, une fragmentation des règles et des normes de qualité,
ainsi qu’un manque de cohérence pour accéder et fournir les données aux décideurs responsables.
IT-expert n°84 - mars/avril 2010
7
Avez-vous les moyens de la non-qualité ?
Depuis de nombreuses années, les DSI reconnaissent l’importance de la qualité des données comme
un élément fondamental de leur stratégie de gestion de l’information. Toutefois, il leur est difficile de
mettre en place les procédures et les programmes adéquats. Une étude (Accenture CIO survey – 2007)
montre qu’à ce jour seulement 16 % des entreprises ont mis en place un programme de qualité des
données. Cette dernière représente pourtant un enjeu critique pour l’entreprise dans les trois étapes
du cycle de vie des informations : lors de la saisie, au cours de transformations et des agrégations et
pendant l’analyse et la présentation des résultats. Une qualité de données insuffisante coûte très cher
à l’entreprise. En outre, elle conduit à une altération de la relation client, à des ruptures dans la chaine
logistique, à des décisions métiers moins pertinentes, voire pénalisantes. Des données défectueuses
invalident aussi les efforts de l’entreprise en matière de conformité réglementaire. Autant de handicaps
lourds de conséquences !
Cap sur la gestion de la qualité des données globale
Pour exploiter au mieux son capital de données, l’entreprise doit lancer une initiative de « qualité
des données ». Stratégique pour l’entreprise, ce programme doit être permanent et ne pas rester
une mesure isolée dans le temps. La qualité des données concerne de nombreuses fonctions
métiers et informatiques au sein de toute l’organisation. Elle nécessite de définir des processus
formels de qualité des données appliqués par la direction, qui permettent d’agir sur l’ensemble
des projets : de la standardisation des données, au profilage, en passant par le nettoyage, jusqu’à
l’enrichissement. Il faut définir des règles de gestion des données de l’entreprise, édictées pour garantir
la complétude, la conformité, la cohérence, l’exactitude, la non-duplication et l’intégrité des données.
Bref : un programme de gouvernance des données. Pour garantir son efficacité, ce programme
doit inclure un comité, un ensemble de procédures et leur plan d’exécution. Autour des données, le
programme doit mettre en pratique les contrôles de qualité des données et diffuser les bonnes pratiques.
Il est articulé autour de deux approches :
• Une approche proactive incluant les bonnes pratiques à appliquer. Quand de nouvelles données
sont générées, de nouveaux projets affectant les données sont lancés ou des actions de qualité
sont effectuées.
• Une approche réactive incluant les actions de correction de non-qualité, les actions de mise en
conformité suite à des nouveaux règlements, les actions d’intégration suite à la mise en œuvre des
nouvelles architectures orientées-services (SOA).
Les cinq étapes d’implémentation
La mise en œuvre d’une initiative de qualité de données fait intervenir des personnes, des processus et
des technologies. En s’appuyant sur une plate-forme de qualité de données et sur une méthodologie
d’implémentation, les entreprises peuvent construire des solutions de qualité de données de bout en
bout conformes aux réglementations en vigueur, réduire les ruptures de chaîne d’approvisionnement et
améliorer la pertinence des décisions prises par les équipes métiers. En mettant en place dès le début
des processus de gestion de la qualité de données bien définis, les entreprises exploitent d’autant plus
efficacement la solution de qualité de données que les divers services chargés de l’implémentation et
du contrôle de cette qualité le font dans le cadre des règles et des procédures définis pour l’ensemble
de l’entreprise.
8
IT-expert n°84 - mars/avril 2010
Dossier
La figure ci-dessous présente les cinq étapes à considérer lors du lancement d’une initiative de gestion
de la qualité de données :
1. Identifier et mesurer
la qualité des données
5. Contrôler la qualité
des données par
rapports aux objectifs
Analyser
2. Définir des règles et
des objectifs de qualité
des données
3. Concevoir des
processus d'amélioration
de la qualité
Améliorer
Les entreprises ont besoin de produits et de pratiques optimisés pour soutenir un processus de qualité des données de bout en bout
Identification et mesure de la qualité des données - Première étape décisive, car la compréhension
du niveau initial de qualité des données constitue la base des règles et des processus que vous mettrez
en place. Le cadre des dimensions de la qualité de données est utilisé pour générer les paramètres
de mesure et les objectifs. Sans évaluation préalable, la capacité à mettre en œuvre une stratégie de
qualité de données efficace est sérieusement compromise. À plus long terme, l’évaluation permet
à l’entreprise de mesurer combien ces procédures à améliorer les informations et les résultats. Les
mesures et audits de qualité de données peuvent être appliqués à tous les domaines (données clients,
fournisseurs, produits, actifs, données financières, etc.), tant sur un champ particulier que sur la totalité
des bases utilisées dans l’entreprise et pour les échanges inter-entreprises.
Définition des règles métiers et des objectifs de qualité des données - La mesure de la qualité
de données repose essentiellement sur des règles métiers et sur des normes de données internes ou
externes. La phase suivante consiste donc pour l’entreprise à spécifier des règles métiers basées sur
les normes et les données de référence préalablement arrêtées. Le cadre des dimensions de la qualité
de données est utilisé pour générer les mesures et les objectifs des critères de réussite.
Conception de processus d’amélioration de la qualité - cette phase concerne la configuration
des processus de nettoyage et d’amélioration des données (c’est-à-dire les processus d’analyse, de
nettoyage, de normalisation, de rapprochement, de déduplication et de contrôle). Les plans d’amélioration
de la qualité de données sont le plus souvent créés par les équipes métiers, dans la mesure où ce sont
elles qui connaissent et comprennent le mieux ces informations.
Implémentation des processus d’amélioration de la qualité - Une fois les règles métiers de qualité de
données configurées, elles sont généralement déployées dans le cadre d’une stratégie d’intégration de
données plus large. Ces règles de qualité peuvent être activées au moment où les données entrent dans
une application ou lorsqu’elles sont déplacées entre des applications. Le déploiement et l’optimisation
des processus incombent aux équipes informatiques.
IT-expert n°84 - mars/avril 2010
9
Surveillance de la qualité des données par rapport aux objectifs - S’inscrivant dans le long terme,
cette phase implique la production et la diffusion de tableaux de bord et de rapports de tendances.
Les rapports permettent souvent aux utilisateurs d’explorer en détail les enregistrements de qualité
insuffisante. Chaque gestionnaire de données doit périodiquement examiner les enregistrements de
qualité insuffisante et lancer les actions correctives appropriées, celles-ci pouvant être manuelles
ou automatisées. La présence conjointe d’outils de reporting et de traitement des exceptions est
indispensable dans une solution globale destinée à supporter des programmes de conformité et de
gouvernance de données.
Exhaustivité
Quelles sont les données manquantes
ou inutilisables ?
Conformité
Quelles sont les données enregistrées sous
un format non standard ?
Cohérence
Quelles sont les valeurs de données qui
donnent des informations conflictuelles ?
Exactitude
Quelles sont les données incorrectes ou
obsolètes ?
Duplication
Quels sont les enregistrements ou les
attributs de données qui se répètent ?
Intégrité
Quelles sont les données manquantes
ou non référencées ?
Cadre de la dimension de la qualité des données
Vers une gouvernance des données
Dans l’initiative de qualité des données, l’entreprise définit son modèle de gouvernance, c’est-à-dire
son modèle de pilotage formalisé des personnes, processus et techniques pour faciliter la capacité à
s’appuyer sur les données comme un atout majeur de l’entreprise.
Implication de la direction générale et des directions opérationnelles
Pour lancer cette démarche, deux garanties de succès doivent être réunies : le sponsoring de la
direction générale, et l’implication de tous les acteurs. Il faut, pour convaincre la direction générale,
prendre le temps de mesurer l’impact de la non-qualité et surtout démontrer que la qualité est source
de compétitivité pour l’entreprise. Reste ensuite à faire preuve de pédagogie auprès des directions
opérationnelles. Le directeur général ou le directeur des opérations, propriétaire des données, ne
s’implique pas au quotidien dans la qualité des données. Cependant, il doit s’assurer que l’initiative
est lancée, et créer un comité de « qualité des données ».
10
IT-expert n°84 - mars/avril 2010
Dossier
Le comité de « qualité des données »
Le modèle de gouvernance doit comprendre une structure organisationnelle chargée de l’amélioration de
la qualité des données dans l’entreprise. Le comité de « qualité des données » est sous la responsabilité
d’un sponsor, généralement nommé par un membre de la direction générale qui gère l’initiative. Le
sponsor doit avoir une influence sur l’ensemble des directions métiers, et ce comité a la responsabilité
de la qualité des données de toute l’entreprise. Il définit objectifs et priorités, et s’assure que tous les
projets incorporent la gestion de la qualité des données dans leurs processus de saisie, de transformation
ou de restitution. Il s’assure également de la disponibilité des financements nécessaires à l’initiative. Il
se réunit régulièrement pour assurer le suivi sur la qualité, faire le point sur les actions d’amélioration,
et décider des nouvelles priorités.
Sponsor
Qualité
des Données
Steward
Données
Ventes
Steward
Données
Marketing
Analyste
Qualité
des Données
Opérations
Qualité
des Données
Comité Qualité des Données
Ce comité est constitué d’experts issus des principales directions de l’entreprise, les data stewards. Ils
sont responsables de la définition et de la surveillance des mesures et des indicateurs de qualité des
données de leur domaine, et coordonnent les plans d’action d’amélioration des indicateurs. L’analyste
Qualité des Données est un professionnel de la DSI. Il met en application les règles métiers définies
par les stewards dans les outils de profiling et de nettoyage.
Le socle technologique le plus adapté
Après avoir convaincu la direction générale et les directions métiers de l’importance de la qualité des
données et mis en place la structure organisationnelle pour supporter l’initiative, il est temps d’évaluer
les solutions technologiques. Le choix de la plate-forme s’effectuera selon plusieurs critères comme
la puissance des fonctionnalités de profiling, de nettoyage, de rapprochement et de contrôle de la
qualité de données. Une plate-forme complète, ouverte, unifiée et économique, permettra d’accéder,
de découvrir, de nettoyer et d’intégrer des données de tous types. En outre, elle saura distribuer, dans
l’ensemble de l’organisation, des données fiables et pertinentes, partout et à tout moment. Étendre la
qualité de données au-delà d’un seul département, et à l’ensemble de l’entreprise, améliorera l’efficacité
opérationnelle ainsi que les performances de toute l’organisation.
Synchroniser les équipes métiers et informatiques
Malgré des investissements croissants dans les technologies de l’information, un nombre significatif
de projets informatiques n’apportent pas la valeur ajoutée attendue faute de fournir aux utilisateurs
les données les plus pertinentes.
IT-expert n°84 - mars/avril 2010
11
Jusqu’ici, trois problèmes compromettaient souvent la valeur des départements informatiques et
faisaient obstacle à la mise en œuvre d’initiatives pourtant critiques pour l’entreprise :
• des utilisateurs métiers dépendants des équipes informatiques pour obtenir les informations pertinentes
nécessaires à leur travail ;
• des utilisateurs métiers jugeant que les données qu’on leur fournit ne sont pas dignes de confiance
pour ce qu’ils souhaitent en faire ;
• des utilisateurs métiers n’ayant pas accès aux données en temps voulu et sous la forme appropriée.
Un grand zeste de SOA et de référentiel
Or, certaines solutions facilitent l’alignement entre les équipes métiers et informatiques en procurant
aux utilisateurs métiers les moyens de s’impliquer directement dans le processus de développement
informatique. Des plates-formes d’intégration et de qualité des données avancées aident les entreprises
à dépasser ces trois défis grâce à la collaboration entre l’informatique et les métiers, à la prise en
compte continue de la qualité de données et à des services de données basés sur une architecture
orientée-services (SOA).
Par exemple, certaines solutions du marché proposent des outils basés sur un navigateur pour les
analystes pour gérer la qualité des données à partir de l’interface familière d’un navigateur Web. Les
analystes peuvent ainsi directement spécifier leurs besoins métiers. La production automatique des
détails d’implémentation en générant automatiquement les règles et consignes d’implémentation
à partir des spécifications métiers permettent ensuite d’éviter les écarts résultant d’une mauvaise
traduction technique des besoins métiers. En implémentant un référentiel de métadonnées commun
sur lequel on s’appuie pour toutes les spécifications et objets, les analystes métiers et les développeurs
informatiques peuvent plus facilement communiquer et partager leurs travaux.
Des règles pour prendre les bonnes mesures
Il est désormais possible de spécifier des règles de qualité pour pratiquement toutes les données clients,
produits, actifs et données financières. Une fois définies, ces règles peuvent être réutilisées autant
que nécessaire, ce qui garantit la cohérence des informations entre les différentes applications. Des
outils unifiés à base de rôles des différentes parties prenantes attribuent à chacun la prise en charge
de la qualité des données qu’il connaît le mieux. Les tableaux de bord de qualité de données, les
outils simples destinés aux analystes et les outils de productivité mis à disposition des développeurs
permettent aux utilisateurs et analystes métiers, aux gestionnaires de données et aux développeurs
d’être directement impliqués dans la mesure et l’amélioration de la qualité de données. Une gouvernance
à base de règles réduit considérablement les coûts d’administration de systèmes en permettant une
gestion centralisée de toutes les règles de données.
Une collaboration en bonne intelligence
Au lieu de relever exclusivement de la compétence des départements informatiques, la qualité de
données peut ainsi être gérée conjointement avec les départements métiers. Les entreprises privilégieront
des solutions de qualité de données bénéficiant d’un socle technologique et d’une méthodologie qui
permettent aux équipes IT et métiers de travailler efficacement ensemble, de gérer les processus de
qualité de données dans toute l’entreprise et, ainsi, de garantir aux utilisateurs que toutes les données
sont complètes, cohérentes, exactes et actualisées, où qu’elles se trouvent dans l’entreprise.
Enjeu d’un centre de compétences en intégration de données
Sans la technologie appropriée, le coût prohibitif de la production de données pertinentes et fiables peut
avoir une incidence notable sur la capacité d’une organisation à atteindre ses objectifs. En adoptant une
approche de centre de compétences en intégration, les entreprises peuvent réduire davantage leurs
coûts d’acquisition, d’intégration et de nettoyage des données. Ce dernier (faisant parfois référence
au centre d’excellence en intégration) est un service partagé d’une entreprise, qui permet de réaliser
une intégration méthodique de données parmi les applications et les systèmes.
12
IT-expert n°84 - mars/avril 2010
Dossier
Un centre de compétences en intégration optimise les ressources rares, en combinant dans un même
groupe l’intégration de données, les compétences en qualité de données, les ressources et les processus.
Cela contribue à réduire les délais de livraison, ainsi que les coûts de maintenance et de développement,
tout en améliorant le retour sur investissement par la réutilisation de sources, d’interfaces d’applications
et de règles métiers codifiées. Les centres de compétences en intégration aident également à réduire
le nombre d’opérations redondantes au cours de l’intégration de données et du contrôle de la qualité
des données, en s’appuyant sur les réussites passées, plutôt que de recommencer intégralement à
chaque nouveau projet.
GfK : 1 700 fichiers sur 80 pays traités chaque mois
Nº 1 mondial du suivi et de l’analyse des biens techniques et
technologiques, GfK Retail and Technology s’appuie sur les
informations de milliers de points de vente de détaillants, de
revendeurs et de distributeurs répartis dans plus de 80 pays,
pour proposer des études de marché et un suivi des ventes de
biens durables et culturels. L’exactitude des données est une
priorité. Intégrant seulement 50 fichiers par mois il y a presque
dix ans, GfK Retail and Technology France en traite aujourd’hui
1 700. Avec l’augmentation des données complexes, l’analyse
de la cohérence d’un fichier et de son contenu deviennent
un challenge. En déployant une solution d’intégration et de
qualité des données, cette société peut consulter, nettoyer,
intégrer et distribuer rapidement des données fiables à la
fois en interne (dans les bases de données et applications de
l’entreprise utilisées par environ 3 000 employés) et vers les
systèmes des clients. Des données de tous fichiers, documents
ou messages (quels que soient leur format, leur complexité et
leurs tailles) peuvent êtres extraits, puis transformés dans un
format exploitable. Le tout, en réduisant les délais d’agrégation
de l’ensemble des données de façon spectaculaire.
Les bénéfices sont multiples avec le lancement accéléré de
nouveaux services d’étude de marché, l’augmentation du chiffre
d’affaires, l’accélération des délais d’agrégation de données
(+ 400 %), la réduction de 75 % des ressources de développement,
la réduction de 80 % du nombre d’erreurs et l’amélioration
continue de la qualité des données globale. L’automatisation de
la résolution d’incidents a réduit considérablement les erreurs
devenues rares. Les gains de productivité sont considérables.
Grâce à la simplicité de l’environnement fourni par la plate-forme
d’intégration et de qualité de données et ses fonctions de profiling
de données, les délais d’intégration ont en moyenne été divisés
par deux chaque année. Ce qui prenait auparavant 8 heures
est désormais réalisé en seulement 20 minutes. La plate-forme
d’intégration et de qualité des données permet de traiter des
données particulièrement difficiles à catégoriser et à comparer.
En consolidant plus rapidement un volume croissant de sources
de données plus complexes, GfK Retail and Technology France
est ainsi en mesure d’accélérer le lancement de nouveaux
services et donc d’accroître ses revenus.
Printemps
Afin de mieux contrôler sa chaîne d’approvisionnement, sa
relation avec les fournisseurs et la gestion de ses magasins,
le groupe Printemps a choisi de standardiser son ERP. De
nombreuses solutions propriétaires et hétérogènes coexistaient
ce qui entraînait des difficultés pour le pilotage de ses activités.
Les magasins rencontraient également des difficultés pour
assurer la bonne intégrité des données entre les différents
systèmes. Une simple erreur de codes-barres EAN, par exemple,
a un impact direct sur la reconnaissance des produits en entrepôt
et donc sur les délais de réapprovisionnement et la qualité des
services pour ses clients. La chaîne de grands magasins a donc
choisi de profiter d’un projet de migration de données pour
améliorer la qualité des données relatives à ses 3,5 millions de
références. La migration s’effectuera de son ERP « maison »
Sésames vers l’ERP de SAP d’une manière progressive afin de
nettoyer systématiquement les données qui seront injectées
dans SAP.
Dès le début du projet de migration, une solution améliorant la
qualité des données est implémentée. L’une des fonctionnalités
a suscité un vif intérêt : un module facilitant l’implication des
équipes métiers. Première phase : la reprise des données pour
la migration SAP. Seconde phase : le maintien d’une cellule de
qualité des données, afin de pérenniser l’effort pour maintenir
une qualité de haut niveau. Un jeu d’indicateurs très concrets
progressivement enrichis a été défini d’emblée, afin d’évaluer
la performance en termes de qualité des données.
En automatisant autant que possible la résolution d’incidents
avec des interfaces web de résolution générées en cas de
rejet de données pour non-conformité ou ambiguïté, le groupe
Printemps réduit les risques liés à ce type de projets. Effet
immédiat : l’accélération de la standardisation des processus.
Avec un ERP et une plate-forme d’intégration et de qualité
de données standards, Printemps pourra désormais mieux
contrôler sa chaîne d’approvisionnement et sera en mesure
d’assurer une meilleure traçabilité des produits commercialisés.
Au final, Printemps offre un meilleur service à ses clients, atout
fondamental dans le secteur de la distribution.
IT-expert n°84 - mars/avril 2010
13
Le problème de qualité des données peut devenir un atout
Le monde des affaires se caractérise par des changements continuels et par des tendances fortes telles
que la mondialisation, les fusions et acquisitions et l’externalisation des processus métiers. Alors que le
temps ne joue pas en faveur de l’entreprise, ces facteurs compliquent davantage la gestion des risques.
Certains aspects de la gestion des risques, tels que la détection des fraudes et les mesures contre
le blanchiment d’argent, ne tolèrent aucun retard dans l’extraction des données ni de s’appuyer sur
des données obsolètes. Pour y faire face, les personnes chargées de prendre de mesures immédiates
doivent pouvoir accéder et diffuser plus rapidement les données métiers critiques, afin de protéger les
employés et les actionnaires. Les entreprises peuvent disposer aujourd’hui de données fiables grâce
à l’omniprésence des services de qualité de données. Jusqu’ici, les initiatives de qualité de données
relevaient de la seule responsabilité des départements informatiques. Désormais, toutes les parties
prenantes ont les moyens de gérer la qualité des données en fonction de leurs propres besoins métiers.
Ainsi, en s’appuyant sur des avancées technologiques et des méthodologies éprouvées, les entreprises
peuvent gagner en efficacité opérationnelle et réduire les risques.
Une fois mise place, l’opération doit devenir un réflexe continu
L’amélioration de la qualité des données de l’entreprise passe par la mise en place d’une initiative continue
et globale. Cet article a évoqué les concepts de qualité des données ainsi que son importance dans les
entreprises. Une mauvaise qualité des données coûte cher et conduit à des ruptures dans les processus,
à des décisions métiers moins pertinentes et à une gestion médiocre de la relation client. De plus, elle
peut invalider les efforts de l’entreprise en matière de conformité réglementaire. Il est recommandé
de s’adosser à un grand projet stratégique dans l’entreprise pour lancer une initiative autour de la
qualité des données. Mais cette initiative peut également être menée de façon indépendante. L’idée de
démarche de pérennité est essentielle et caractéristique de l’approche qualité. Elle va à l’encontre d’une
opération unique et isolée qui ne permet de nettoyer et d’améliorer les données que ponctuellement.
Cela signifie que les objectifs, mesures et indicateurs associés doivent être portés par l’ensemble
des acteurs concernés département informatique et directions métiers, doublés d’une implication
forte de la hiérarchie. La qualité des données concerne tout autant les métiers que l’informatique. La
réussite passe désormais par une approche de qualité de données globale. Plus elle sera incorporée
aux habitudes et à la culture de l’entreprise, plus la démarche qualité progressera. Paradoxalement,
son succès résidera dans sa banalisation. n
Bruno Labidoire
Directeur Technique
Bruno Labidoire est Directeur Technique chez Informatica pour l’Europe du Sud. Avant de rejoindre Informatica en 2002, il occupait
auparavant le poste de Directeur Avant-Vente pour l’Europe du Sud de l’offre CRM de Clarify. Il était chargé d’une équipe avant-vente
répartie sur la France, l’Espagne, et l’Italie. Avant de rejoindre Clarify, Bruno Labidoire a occupé différentes responsabilités dans les
domaines des serveurs Multimédia, CRM, et centres d’appels et, entre autres, responsable de projets chez Cap Gemini Telecom. Bruno
Labidoire est diplômé de l’Ecole Commerciale de la Chambre de Commerce et d’industrie de Paris.
Informatica Corporation (NASDAQ : INFA) est le leader mondial des fournisseurs indépendants de logiciels d’intégration de données.
La plate-forme Informatica constitue une offre complète, unifiée et ouverte pour les organisations. En intégrant toutes leurs sources
de données (applications traditionnelles, sources tierces, locales, distantes ou issues du Cloud computing), celles-ci tirent davantage
de valeur de leurs informations et renforcent leurs avantages concurrentiels. Plus de 3 900 entreprises dans le monde s’appuient sur
les solutions Informatica pour réduire les coûts et les délais de réponse à leurs besoins d’intégration et de qualité de données, quelles
qu’en soient l’échelle et la complexité. Pour plus d’informations, veuillez consulter le site www.informatica.com/fr
14
IT-expert n°84 - mars/avril 2010
EXPOSITION - CONFÉRENCES - ATELIERS
Réduisez vos coûts télécoms,
gagnez en productivité et
bénéficiez de toutes les applications sur IP !
5e édition
Intranet 2.0 : découvrez toutes les solutions
de partage d’information et de collaboration.
5 et 6 mai 2010
CNIT - PARIS LA DEFENSE
En parallèle :
pour visiter et vous inscrire aux conférences :
www.groupesolutions.fr
Avec :
Comment réussir avec ITIL ?
On assiste depuis 10 ans à une montée en puissance d’ITIL. En 2004, moins de 30 % des DSI interrogées avaient
entendu parler d’ITIL, en 2007 la notoriété était de 87 % dans les DSI, et aujourd’hui toutes les DSI en ont entendu
parler, sans que cette notoriété ait toujours débouché sur des actions concrètes de mise en œuvre. De multiples
opinions se font entendre à propos d’ITIL, on entend parler d’échecs coûteux où des démarches ITIL se sont enlisées,
où des projets se sont avérés lourds, complexes, mal acceptés dans les DSI, et finalement inefficaces.
Cet article tentera de montrer comment des incompréhensions à propos de la véritable nature d’ITIL peuvent amener
à des utilisations inappropriées, des actions infructueuses, ressenties comme des échecs, quand elles contrarient la
qualité et la richesse d’ITIL par un usage inadéquat. Avant tout, il s’avère indispensable d’expliquer concrètement ce
qu’est ITIL, et surtout ce qu’ITIL n’est pas. Quelques recommandations seront détaillées pour favoriser des mises en
œuvre réussies.
16
IT-expert n°84 - mars/avril 2010
Technique
ITIL, kesako ?
Ce qu’est ITIL et ce qu’il n’est pas
ITIL signifie « Information Technology Infrastructure Library »,
il s’agit d’une « bibliothèque » des métiers de l’infrastructure
IT. Bibliothèque s’entend au sens de « conservation de la
documentation sur les métiers de l’Infrastructure ». Les objectifs
d’ITIL visent à documenter certaines des « meilleures pratiques »
en matière de gestion des services informatiques, afin de
constituer un standard de fait. ITIL concerne les activités liées
au support, à la production et à la maintenance. Il permet aux
DSI de contractualiser avec les métiers sur le « bon » service
(efficace, rentable, aligné sur les objectifs business…) et de le
réaliser. ITIL a pour ambition d’apporter une forte valeur ajoutée
à la DSI et à l’entreprise.
Au-delà d’une présentation de ce qu’est ITIL, il est également
important de préciser, en quelque sorte « en creux », ce qu’ITIL
n’a jamais prétendu être.
Historique et acteurs autour d’ITIL
En conséquence, ITIL ne traite pas les questions d’organisation
par l’angle des structures organisationnelles (services,
départements, organigrammes…). ITIL ne traite pas non plus
(jamais, nulle part dans la bibliothèque ITIL) la question de
trancher quel « acteur » doit être en charge de telles activités ou
opérations ou tâches. Comme toutes les approches processus,
ITIL est transverse aux organisations. Il ne faut pas s’attendre
à une aide d’ITIL sur la question de décider sur ces points. La
réponse à ces questions doit être prise en charge par l’entreprise
elle-même. En effet, les réponses ne tomberont pas toutes faites
de la lecture de cette bibliothèque ITIL des bonnes pratiques.
ITIL a été créé dans les années 80, en Grande-Bretagne,
par la Central Computer & Telecommunications Agency, une
agence du gouvernement britannique, avec pour objectif
de recenser les bonnes pratiques en matière de gestion des
infrastructures IT. Aujourd’hui, ITIL est devenu la propriété de
l’OGC (Office Government of Commerce). Dans les années 90,
ITIL s’est répandu et consolidé, principalement en GrandeBretagne, avec constitution du forum utilisateur ITSMF (IT
Service Management Forum), développements sous l’impulsion
de la mise en concurrence systématique des services internes
de l’administration britannique. En 2007, des mises à jour ont
amené la sortie de la V3 d’ITIL.
Les principaux acteurs sont :
l’OGC (Office Government of Commerce), l’Office public
britannique du Commerce, qui vise à travailler avec le secteur
public comme catalyseur pour améliorer l’efficacité dans la
livraison des programmes et des projets. ITIL® et IT Infrastructure
Library® sont des marques déposées de l’OGC.
ITSMF est un groupe d’utilisateurs, indépendant, et à but
non lucratif. ITSMF est le seul forum reconnu autour d’ITIL.
Il appartient et est animé par ses membres.
EXIN aux Pays-Bas, et ISEB (Information Systems Examination
Board) en Grande-Bretagne sont des contributeurs officiels, en
charge de travaux de certification ITIL, organismes accrédités
pour délivrer, après examen, les certifications.
Des acteurs privés (éditeurs, SSII, sociétés de conseil)
fournissent des logiciels, des services de conseil, et de
formation.
ITIL s’appuie sur les processus
ITIL traite les questions d’organisation par l’angle des processus.
Points communs aux approches processus, elles recherchent
traditionnellement à identifier les « clients » de chaque processus
(qui dit « client », dit qu’il a des objectifs, des attentes, des
besoins), ces approches raisonnent en processus et sousprocessus, activités et tâches (avec des vocabulaires variables
selon les différentes approches).
Un des intérêts majeurs du raisonnement par processus (plutôt
que par organisations) tient dans la possibilité d’aller au-delà
des problèmes liés à l’organisation en place, et de donner envie
aux opérationnels de travailler ensemble à la réussite d’un
processus pour lequel chacun trouvera une motivation à son
bon fonctionnement. En conséquence, dans le cours de toute
méthodologie de mise en place d’ITIL, il s’avère indispensable
de disposer des points d’appui, des structures et des espaces
nécessaires (comités pour validation des décisions…) pour
progresser sur le traitement de ces questions, dont ITIL fait le
choix (pertinent) que la réponse ne soit pas toute faite.
Un recueil des meilleures pratiques,
pas une norme
ITIL recense et décrit de façon détaillée la compilation des
meilleures pratiques, afin qu’elles soient réutilisables, pour
éviter de réinventer les éléments qui sont présents dans la
bibliothèque. A contrario, ITIL ne prétend pas normaliser des
fonctionnements, interdire de procéder d’une manière ou d’une
autre. ITIL ne fixe pas de fonctionnement figé, il se cantonne
au rôle de collection (bibliothèque) d’éléments. Ces éléments
découlent de l’expérience accumulée et reflètent des pratiques
collégialement jugées bonnes par des promoteurs d’ITIL. Et qu’il
est donc bon de partager pour ne pas les réinventer, surtout
lorsqu’ils sont éprouvés depuis des années dans de nombreux
organismes.
IT-expert n°84 - mars/avril 2010
17
ITIL n’est pas exhaustif, loin de là ! Dans des expériences réussies
de mise en place de principes ITIL on observe fréquemment des
actions qui vont au-delà de ce que la bibliothèque commune
propose. Cela ne retire aucun mérite à cette bibliothèque qui
n’a pas pour vocation d’imposer son contenu , mais d’éviter de
réinventer de multiples éléments qui y sont déjà présents.
Fournir des services en soulignant les relations
avec les clients
La bibliothèque ITIL est décomposée selon des processus. La
philosophie de la présentation consiste à toujours repartir des
notions de service au client, d’aligner les processus par rapport
aux résultats attendus, aux attentes, aux besoins et objectifs des
clients du processus. À titre d’illustration, dans chaque chapitre
ITIL on trouve des listes d’indicateurs clés de performance
(Key Performance Indicators KPI), dont la liste s’avère souvent
précieuse. Parmi la liste de KPI dans la bibliothèque, plusieurs
indicateurs sont déjà identifiés à l’intérieur de l’entreprise. Souvent,
ils sont déjà mesurés ou bien déjà identifiés comme importants à
calculer (par ex. pour une entreprise X le pourcentage d’incidents
résolus dans les temps contractuels), les voir dans la liste des
KPI ITIL conforte l’entreprise X sur la réalité de leur importance
pour de nombreuses entreprises de tous les pays. Pour d’autres
indicateurs, l’entreprise X n’avait pas imaginé les calculer : pour un
indicateur qui ne semble pas avoir d’intérêt (par ex. coût moyen
de traitement d’un Incident), l’entreprise X en trouve un autre
qui résulte d’un angle de vue particulier, auquel elle n’avait pas
pensé auparavant (par ex. pourcentage d’Incidents fermés par le
centre de services sans support extérieur), et dont la mesure va
lui permettre de mieux perfectionner son service rendu.
ITIL contribue à une démarche qualité
ITIL est en phase avec les démarches qualité, avec les
représentations processus telles qu’on les trouve dans Six Sigma
(par exemple, la bibliothèque ITIL reprend à son compte un schéma
très proche de celui du SIPOC de Six Sigma pour Supplier-InputProcessus-Output-Client). Comme ces démarches qualité en
général, ITIL contient également les processus d’amélioration
continue. À l’opposé d’autres démarches qualité et d’amélioration
continue, qui sont volontairement conçues pour être adaptables
dans de très nombreux cas de figure et qui héritent d’emblée, par
construction, d’un fort niveau d’abstraction. ITIL est centré sur
les services de l’infrastructure de l’IT, et la bibliothèque fourmille
d’exemples dont l’application concrète se révèle pragmatique
et immédiate.
Mieux communiquer avec un langage commun
ITIL apporte de nombreux éléments concrets dans sa bibliothèque
et les nomme, ce qui induit un vocabulaire cohérent pour tous
18
IT-expert n°84 - mars/avril 2010
dans l’entreprise. Et, pendant certaines phases de réflexion ou
durant au cours de la transformation, l’entreprise adoptera les
concepts induits par le vocabulaire, et parfois le vocabulaire
induit par ITIL. Ce vocabulaire commun est un facteur facilitant
l’intégration de contributeurs qui proviennent de différents
horizons. ITIL induit des concepts précis, pas toujours en
phase avec le vocabulaire employé au jour le jour dans une
entreprise. Par exemple, ITIL distingue clairement la notion
d’incident de la notion de problème. Dans certains cas, il faut faire
rejoindre les concepts d’ITIL et les concepts de l’entreprise. Les
concepts d’ITIL résultent d’une manière de voir les processus
de service, vision partagée de façon consensuelle par de
multiples organisations, et dans laquelle la vision du service
est fermement implantée. Les concepts employés dans une
entreprise proviennent souvent de processus résultant de
l’empilement au fil des années de modes de fonctionnement.
Cela peut aider à se poser plusieurs questions. Par exemple
aujourd’hui une entreprise A utilise 3 notions, celles de « dossiers
client », « dossiers back-office » et « dossiers correctifs ». Alors,
laquelle correspond réellement à la notion d’incident, ou à la
notion de problème ? Laquelle est à cheval entre les deux ?
Quelles modifications trouvera l’entreprise A pour clarifier
et fluidifier sa manière de prendre en charge les incidents et
problèmes ? Etc.
Pas une démarche uniforme,
ni une méthodologie toute faite
Il ne suffit pas de décréter que l’on va mettre en œuvre ITIL, pour
se doter d’une méthode ou une démarche. Avant de mettre en
œuvre ITIL dans une organisation, il lui faut définir proprement
quels objectifs concrets elle cherche à atteindre (cela peut être
de réparer un processus qui semble « cassé », d’améliorer tel
niveau de service, de mobiliser les équipes autour de la résolution
de difficultés liées à un processus, de gagner en efficacité sur
un sujet…). Ensuite, il convient de déterminer les meilleures
démarches à mettre en place (ampleur des moyens, délais…)
pour atteindre ces objectifs. Certains passages d’ITIL abordent
ces questions, mais on observe souvent que les opérationnels
survolent ces passages d’ITIL qui ne leur sont pas forcément
destinés, mais intéressent plutôt les décideurs. Malgré leur
pertinence, les lignes générales de ces chapitres ne sont pas
toujours applicables. Elles mélangent du bon sens (fixer des
objectifs, mettre en place les moyens de mesurer leur atteinte…)
des notions un peu abstraites (créer une vision...), et des éléments
qui résultent de l’effet collection ou bibliothèque (Business Case,
métriques, Balanced Score Card, techniques pour la conduite
du changement…). Bien qu’intéressants, ces éléments ne sont
pas toujours pertinents. Inutile donc de « dérouler un rouleau
compresseur ITIL ». Comment réussir l’implémentation d’ITIL ? En
prenant du temps et du recul pour décrire ses propres objectifs,
atteignables compte tenu de sa situation de départ, et d’en
déduire le meilleur chemin. Le facteur clé de succès pour un
décideur réside dans cette préparation.
Technique
Comment se présente ITIL ?
ITIL v2 était constitué de 8 ouvrages pour décrire les processus alignant les services fournis avec le
besoin du business. Depuis la v3 des modifications ont été apportées et concernent : la structure
générale, l’introduction de nouveaux outils pour aider à l’implémentation et à la mesure des gains,
et l’introduction de nouveaux outils au niveau stratégique pour aider à promouvoir ITIL auprès des
responsables métiers en terme d’apport à la chaîne de valeur.
Les 5 ouvrages « cœur » du noyau ITIL v3 sont : Stratégie des Services (Service Strategy), Conception
des Services (Service Design); Transition des Services (Service Transition); Exploitation des Services
(Service Operation); Amélioration Continue des Services (Continual Service Improvement). Ces cinq
manuels de référence présentant les constituants de base de l’ITSM, selon l’approche du cycle de vie
des services. Une documentation complémentaire propose des cas particuliers ou des exemples, des
produits à valeur ajoutée, tels que des modèles et des schémas de flux de production.
Objectif : inscrire ITIL V3 dans la dynamique d’amélioration continue et surtout énoncer des conseils
pertinents pour des cas bien particuliers. De plus, l’efficacité opérationnelle se trouve au cœur de
cette nouvelle version. Dans ce sens, ITIL v3 fournit nombre d’éléments avisés : des conseils pour
être en conformité avec les diverses normes et réglementations en vigueur, des directives par secteur
d’activité et rubrique, de nouvelles rubriques concernant les stratégies de gestion des services (services
partagés, cosourcing et externalisation), un système de connaissance très développé favorisant la
gestion proactive des services.
ITIL contient 23 processus (dont 3 sont en cours de description) dans ITIL V3 :
• Stratégie des services : Gestion de la demande, Gestion financière, Gestion du portefeuille des
services
• Conception des services : Gestion du catalogue, Gestion des niveaux de services, Gestion des
fournisseurs, Gestion de la disponibilité, Gestion de la continuité, Gestion de la capacité, Gestion
de la sécurité de l’information
• Transition des services : Gestion des actifs et des configurations , Gestion des changements, Gestion
des mises en production et des déploiements, Gestion de la connaissance, Gestion de l’évaluation
(non décrit) , Gestion des tests et validations (non décrit)
• Exploitation des services : Gestion des événements, Gestion des incidents, Gestion des problèmes,
Gestion de l’exécution des requêtes, Gestion des accès
• Amélioration continue des services : Gestion de l’amélioration continue des services, Gestion du
reporting.
Le sommaire type des données rassemblées à propos d’un processus, à l’intérieur de la bibliothèque
ITIL, rassemble les éléments suivants : Objectifs ; Périmètre ; Concepts de base ; Bénéfices/difficultés,
coûts ; Activités ; Rôle/responsabilités ; Métrologie, Indicateurs et tableaux de bord ; Outils ; Synthèse
et préconisations.
Les objectifs du processus permettent de cadrer le processus, le cadrage est précisé avec l’aide du
périmètre. Le paragraphe sur le périmètre fixe les limites du processus tels que vu par ITIL, et précise les
concepts, et fait la correspondance entre ITIL et la manière de s’y prendre au jour le jour dans telle ou telle
organisation. Les concepts de base permettent de clarifier des notions et du vocabulaire. Les Bénéfices /
Difficultés coûts servent à fournir une liste très opérationnelle d’axes de réflexion sur les enjeux objectifs
et résultats du processus tel qu’il a été cerné, et peuvent donner lieu à implantation concrète parmi les
indicateurs. Les activités permettent de suivre une décomposition logique (plutôt que normative ou
organisationnelle), telle que vue par la bibliothèque ITIL, des différentes activités à exercer à l’intérieur du
processus. Les rôles et responsabilités sont identifiés de manière générique, sans jamais qu’ITIL se mêle
de normaliser et de fixer à quel acteur au sein de l’entreprise devrait revenir telle ou telle responsabilité.
Le paragraphe sur la métrologie, les indicateurs et les tableaux de bord est rempli d’outils dans lesquels
l’entreprise peut piocher pour sa propre utilisation ; les outils sont un catalogue d’idées d’outils dont
l’implantation de certains peut se révéler astucieuse ; la synthèse et les préconisations permettent de
redonner plus de sens à la lecture des différents éléments épars du chapitre.
ITIL indique : les bénéfices et les problèmes possibles, le «comment faire en cible», mais pas le
«comment implémenter».
IT-expert n°84 - mars/avril 2010
19
Les éditeurs et le marché des outils ITIL
De nombreux outils progiciels sont présents sur le marché ITIL. Ces outils se sont bâtis pour apporter des solutions « d’informatisation »
de différents processus de l’entreprise, sur le domaine fonctionnel des services de la gestion des infrastructures : gestion du patrimoine
informatique et des inventaires, gestion des incidents et problèmes, gestion actions (interventions…) etc. Ces outils font état d’une
conformité avec ITIL. Celle-ci apporte une certaine garantie que des grands concepts issus du consensus sur la manière de voir et
la manière de faire sont pris en compte, et aussi une certaine garantie que les éléments présents dans la bibliothèque initialement
générée par ITIL sont présents.
En revanche, l’entreprise qui s’en remet au choix d’un outil informatique dit « ITIL » ne doit pas oublier que, comme dans tout projet,
même progiciel, l’adoption d’un outil même « ITIL compliant » ne résout pas à lui seul des questions d’organisation. L’entreprise doit
participer activement aux spécifications de paramétrage, qui l’obligent à répondre à des questions qu’il faut avoir clarifiées, et comme
pour tout projet informatique, l’outil est au service du processus et non le contraire. L’entreprise doit apporter sa participation à la recette
de l’outil paramétré, et vérifier que les données inventoriées sont accessibles, que les processus peuvent être suivis comme prévu
Les quick wins autour d’ITIL
ITIL permet des quick wins. Des exemples de gains rapides
sont nombreux, liés de façon très directe ou indirecte à ITIL.
Toutefois, ces gains rapides n’apparaissent souvent qu’après
une mise en place de quelques semaines dans une grande
organisation. En effet, l’organisation doit généralement amender
un outil informatique existant (validation de spécifications,
mise en production…) ou modifier ses processus opérationnels
(planifier, communiquer sur le changement…).
Parmi des gains rapides constatés sur le terrain :
• travailler sur l’attribution automatisée des incidents. Une
matrice d’assignation peut être mise au point, de façon plus
ou moins automatisée. Certaines entreprises ont poussé
très loin cette automatisation, au risque de répartir certains
incidents de façon erronée. Pour d’autres, la matrice a un
rôle d’appui, d’indicateur. Avancer dans cette voie est utile
dans le cas où l’analyse des processus révèle des difficultés
liées à l’étape d’assignation ;
• mettre en place une matrice de priorisation des incidents.
Cette matrice peut déterminer la priorité en combinant l’impact
attendu, l’urgence… ;
• simplifier et regrouper les processus de Gestion de Configuration et de Gestion des Mises en Production (GMEP) ;
• soulever systématiquement certaines questions avant
chaque mise en production, comme clarifier la nature de
l’indisponibilité, clarifier la procédure de retour arrière,
identifier les jalons dans le cours de la MEP pour décider
des retours-arrière... ;
• séparer plus nettement les modalités de gestion des incidents
et des problèmes (GI et GP) et octroyer du temps sur des
tâches de résolution des problèmes ;
• alléger toutes les gestions de demandes très régulières
(réinitialisation des mots de passe, changements
d’habilitations…) et le cas échéant les sortir des circuits de
gestion des incidents ;
• aviser systématiquement les équipes de la hotline de chacune
des mises en production à venir ;
• …
20
IT-expert n°84 - mars/avril 2010
D’autres quick wins ont été identifiés dans différentes situations
d’aide à la mise en œuvre d’ITIL. Ceux évoqués ci-dessus
ne résultent pas tous de la simple lecture et application des
informations qui se trouvent dans la bibliothèque ITIL. Et ne
sont pas forcément pertinents pour toutes les situations. Il
est important d’impliquer les opérationnels pour identifier ces
actions de modifications. Mettre en avant les quick wins ne doit
pas faire perdre de vue des actions de fond, mais dont la mise
en œuvre est également parfois la seule de nature à apporter
de profondes modifications indispensables.
Écueils fréquents
dans la mise en œuvre d’ITIL
La mise en place d’ITIL n’est pas toujours aisée. Contrairement aux
opinions parfois entendues, il ne suffit pas de s’en remettre à des
« experts ITIL » pour résoudre les problèmes de l’entreprise : ITIL
n’impose ni démarche claire, ni objectifs, ni phasage, ni instances
d’étude et de décision. Au mieux, il rappelle des recommandations,
comme cadrer, phaser, étudier… L’entreprise qui utilise ITIL ne
doit pas attendre qu’il prenne des décisions à sa place. Il lui
reste à être au clair sur les objectifs qu’elle attache à la mise en
œuvre d’ITIL, à identifier les structures qui vont devoir travailler
sur la mise en œuvre, et à prendre les décisions appropriées. ITIL
reste un instrument, propose des éléments pour éviter de tout
réinventer et fournit de la matière pour aider l’entreprise à résoudre
ses problèmes. Cependant, cette bibliothèque n’identifie pas les
problèmes, et ne les résout pas.
Conclusion
ITL présente de nombreux apports bénéfiques : il s’agit d’un
vivier de bonnes pratiques avec des concepts de bon sens, il
présente une organisation claire des processus de production
et des relations entre ces processus, il facilite le dialogue en
établissant un langage commun (interne DSI, métier, fournisseurs,
éditeurs d’outils pour la DSI), c’est une source d’améliorations
à la fois à court terme et à long terme.
Technique
ITIL présente aussi quelques limites, qui découlent pour partie de
la construction de l’approche : son contenu relativement dense
et détaillé est plutôt destiné aux opérationnels. Néanmoins,
un apprentissage est nécessaire pour « entrer » dans cette
documentation. Les préconisations ne sont pas toujours très
claires, et restent souvent à décliner par l’entreprise qui définira
ses priorités de mise en œuvre.
Il est utile de passer par des quick wins adaptés de manière
fine et pertinente à l’entreprise, « découverts » et adoptés par
les opérationnels eux-mêmes. Les quick wins peuvent découler
d’emprunts directs à la bibliothèque ITIL dans le texte, ou en
découler plus ou moins indirectement. Dans les deux cas,
l’entreprise tâchera de les relier à ITIL. La démarche mène au
succès lorsque les quick wins mis en œuvre sont associés à
ITIL, et lorsqu’on en attribue la paternité aux opérationnels de
la production. Cela favorise leur intérêt et leur appropriation du
contenu. Une manière aussi de convaincre les opérationnels du
bon usage et du caractère pragmatique, concret, et utilisable
d’ITIL. Par la suite, ils seront alors disposés à poursuivre sur
d’autres chantiers d’évolution ou d’autres procédures de
fonctionnement, dans le même état d’esprit…
Parmi les recommandations concrètes pour une méthode de
mise en place, il faut veiller à rester pragmatique, à procéder
par étapes, avec des objectifs d’amélioration bien définis et
bien délimités, à partir des problèmes réellement posés sur le
terrain et à résoudre. L’entreprise doit agir en priorité là où « ça
fait mal », là où il y aura des gains, pour assurer le succès par
l’adhésion des opérationnels. Enfin, mieux vaut déployer un
savoir-faire soutenu par un outil. Sans pour autant attendre que
l’outil soit seul porteur du savoir-faire de l’entreprise. Un projet
ITIL réussi est porté et mené par les opérationnels.
Pour éviter déconvenues et déceptions, mieux vaut éviter
d’utiliser ITIL comme une norme. Au contraire, les décisions
de management appartiennent aux opérateurs de l’entreprise,
elles ne seront pas dictées par une norme plaquée de l’extérieur.
Mieux vaut aussi éviter d’appliquer la totalité d’ITIL comme un
rouleau compresseur, et -au contraire- délimiter des objectifs
et un périmètre atteignables, et piocher dans la bibliothèque
ce qui est applicable et pertinent.
ITIL est un outil qui ne dicte pas les objectifs, ni les choix
d’organisation cible, et qui n’impose pas strictement la
démarche d’implémentation. Il nécessite de mobiliser les
acteurs nécessaires, internes ou externes, qui ont suffisamment
de connaissances sur ITIL pour savoir en exploiter sa matière
avec un bon état d’esprit pour réussir. n
Hugues Dieuzeide
Directeur Associé
Hugues DIEUZEIDE intervient notamment auprès de DSI pour aider à mettre en
œuvre des transformations. Il s’est appuyé à plusieurs reprises sur la bibliothèque
ITIL lors de ces opérations de transformation de processus de la DSI.
ORESYS est une société de conseil en organisation et en S.I., de 250 consultants,
à Paris, Lyon et Bruxelles, spécialisée dans les projets de transformation. ORESYS
aide ses clients à piloter leurs activités, améliorer leur performance et mettre en
œuvre leurs projets de transformation. ORESYS intervient sur toutes les dimensions :
métiers, organisation, processus, système d’information, accompagnement du
changement. ORESYS intervient de manière soutenue pour aider les DSI à transformer
leur organisation et leurs processus, ou à transformer l’entreprise.
Site web : www.oresys.eu
IT-expert n°84 - mars/avril 2010
21
Actualités
internationales
Google prépare une version entreprise de Chrome OS
À l’occasion de la dernière RSA Conference en mars 2010, Google a présenté
les fonctionnalités de sécurité implémentées dans Chrome OS et les netbooks
vendus avec l’OS. Et une version Entreprise de netbook Chrome OS serait
planifiée pour 2011, selon le site Networkworld.com. Les premiers netbooks
équipés du nouvel OS devraient arriver au second semestre 2010. Mais
Google envisagerait une version plus musclée en fonctions d’administration
pour les entreprises.
ment & Test Cloud - IBM Sma
IBM Smart Business Develop
rt Business Development
& Test
Au-delà de l’utilisation de technologies de type sandbox et de mise à jour
automatique, Google proposera Chrome OS sur des modèles dotés de puces
TPM (Trusted Platform Module), cryptographie pour chiffrer les clés secrètes, mais
aussi pour contrôler le comportement des applications sur le système. Bien que des
démonstrations aient été réalisées pour en révéler certaines failles, les puces TPM restent efficaces
et très complexes à attaquer. Par ailleurs, un « mode programmeur » serait accessible sur simple pression d’un bouton des
netbooks équipés de Chrome OS. Une facilité qui nécessiterait encore quelques mesures de sécurité complémentaires
de l’aveu même des spécialistes de Google.
22
Quoi qu’il en soit, l’intérêt semble évident pour ce futur et encore mystérieux OS. Cela suffira-t-il ?… n
IBM lance et relance des solutions de tests, soi-disant Cloud…
IBM ne veut pas se faire semer sur la route du Cloud. Mi-mars, Big Blue a donc présenté une série d’outils et de ressources
estampillés « cloud de test et de développement ». Destinées à ses partenaires et à ses clients, ces solutions en ligne
devraient aider à réduire les dépenses des entreprises consacrées aux tests et développements, qui représenteraient
une grande partie des ressources matérielles, utilisées à seulement 10-15 % de leurs capacités. Une réduction évaluée
à 50 % par IBM.
Cette offre « Smart Business Development & Test on the IBM Cloud », sensée compléter les datacenters des entreprises
et partenaires, aurait déjà séduit quelques clients comme Paypal, et de multiples partenaires. En outre, on retrouve des
extensions de type « Rational Software Delivery Services for Cloud Computing », un espace dédié « cloud computing » sur
IBM DevelopperWorks (8 millions de développeurs, informaticiens et étudiants), etc. L’offre présentée se décompose en
trois volets :
• « IBM Smart Business Development & Test Cloud » fonctionne comme un « cloud privé » derrière le pare-feu et repose
sur « Rational Software Delivery Services for Cloud Computing ». Bref, on cherche encore le Cloud…
• « IBM Smart Business Development & Test on the IBM Cloud » incarnerait une réelle offre, mode Cloud.
• « IBM CloudBurst », l’appliance préexistante regroupant matériel, logiciels et applications vient compléter le trio pour
donner l’impression dune suite « cohérente ».
Chaque offre peut effectivement présenter des intérêts spécifiques. Pourquoi absolument tenter de teinter en cloud ?
Bientôt, on ne dira plus surfer sur le Web, mais « vagabonder sur le cloud global ». Le marketing amène parfois à des
postures bien ridicules… n
IT-expert n°84 - mars/avril 2010
Actualités internationales
L’ex-dirigeant de Sun règle quelques comptes avec Apple et Microsoft
Après rachat par Oracle, le dirigeant de Sun – Jonathan Schwartz – a « logiquement » été remercié. Il profite donc de
son temps libre pour s’activer sur son blog personnel avec un post intitulé « Ce que je ne pouvais pas dire.» Il défend
Google indirectement visé par Apple dans son attaque contre le téléphone Nexus One d’HTC sous Google Android
(http://jonathanischwartz.wordpress.com/2010/03/09/good-artists-copy-great-artists-steal/ : « les bons artistes copient,
les grands artistes volent »).
Il dévoile au passage que Steve Jobs l’avait menacé de poursuites
judiciaires pour utilisation de brevets Apple dans une interface
graphique que développait Sun. Finalement, ce type d’argument a
été abandonné lorsque Jonathan Schwartz lui fait remarquer que son
produit ressemblait fort à un logiciel acquis par Sun lors du rachat
de la société Lighthouse Design. Et surtout, Jobs abandonne quand
Schwartz met en avant des brevets sur Unix détenus par Sun, et
menace d’attaquer Mac OS si Apple décide de poursuivre Sun !
Avec Scott Mc Neally (ex-dirigeant de Sun), il rencontre Bill Gates et
Steve Ballmer à propos d’Open Office. Toujours selon lui, Gates attaque
bille en tête : « Microsoft détient le marché des suites bureautiques, et
nos brevets sont partout dans OpenOffice. » Objectif : faire payer Sun
pour chaque téléchargement d’Open Office ! Intéressant… Répondant
au duo que .net reprenait bien des choses de Java, Microsoft devrait
alors reverser des royalties pour chaque copie de Windows…
Une lecture très enrichissante. n
123people rejoint le groupe Pages Jaunes
Selon le groupe français PagesJaunes, la recherche de
renseignements sur des individus représenterait « 30%
du volume total des recherches sur Internet. » D’où son
intérêt pour la société 123people. En effet, ce moteur
de recherche rassemble en une seule page toutes les
informations qu’il glane sur d’autres sites Web comme
Google, MySpace, YouTube, Wikipedia, pagesjaunes,
Facebook, Bing, LinkedIn, etc.
En rachetant 123people pour un montant non révélé, le
groupe PagesJaunes enrichit ses services pagesjaunes.
fr. Outre son annuaire, et l’application iPhone, 123people
rejoint un service de cartographie et de géolocalisation
(ex-Mappy) et un service de petites annonces.
Si pagesjaunes.fr n’a pas à rougir de sa fréquentation avec plus de 80 millions de visites par mois, il se muscle dans la
course à la page affichée. Les multiples sites (11 pays, dont la France et les États-Unis) totalisaient environ 43 millions de
visiteurs uniques début 2010. n
IT-expert n°84 - mars/avril 2010
23
Deux brevets coûtent près de 400 millions à Microsoft
Le 17 mars, un tribunal texan a confirmé la condamnation de Microsoft pour violation de
brevets en faveur de la société canadienne i4i, à laquelle l’éditeur d’Office devra verser
290 millions de dollars.
En mai 2009, cet éditeur spécialisé – qui portait plainte
contre Microsoft pour avoir utilisé son procédé d’encodage
XML dans Word 2003 et 2007– avait déjà emporté une victoire
avec une amende de 200 millions de dollars infligée à l’éditeur de
Redmond, avec suspension de la vente de Word au 10 janvier. Après
plusieurs recours, une suspension de la vente est annulée, et la fonction XML liée au litige est
retirée des logiciels Word aux États-Unis. Mais l’amende est portée à 290 millions en janvier
2010. Un appel fait suite à cette décision. Là encore, un tribunal vient confirmer la décision
d’infliger une amende de 290 millions de dollars.
Autre affaire judiciaire d’utilisation illégale de brevets, la société américaine VirnetX (spécialiste de la sécurisation des
communications IP) accuse Microsoft d’utiliser ses technologies de création et de gestion de VPN (Virtual Private Network,
ou réseau virtuel privé) dans Office Communications Server et dans Windows. Le 18 mars, une cour fédérale du Texas
condamnait le géant de Redmond à verser 105,8 millions de dollars de dommages et intérêts à VirnetX. Cependant,
Microsoft devrait interjeter appel de la décision.
Décidément, le Texas ne réussit pas à Microsoft ! n
Plus de 30 000 applications Android, majoritairement gratuites
Courant mars, Google pouvait se vanter de comptabiliser 30 000
applications pour sa plate-forme mobile Android, selon le site
MobileCrunch, qui précisait que 61 % de ces logiciels seraient
gratuits. Une belle prouesse pour ce système d’exploitation
âgé seulement de quelques mois ! Et les nouveaux outils de
conception d’applications 3D devraient stimuler encore ces
développements.
Si l’iPhone peut pavaner avec ses quelques 140 000 applications,
le désamour entre Apple et les développeurs pourrait bien
profiter à Google. La société à la pomme a tout de même une
fâcheuse tendance à cadenasser ses modèles économiques.
L’avènement d’Android est donc forcément une excellente
nouvelle, et une réponse tranquille à une arrogance de plus
en plus évidente.
En effet, Nokia tente bien, lui aussi, un retour. Cependant, le
fleuron européen des années 90 et 2000 saura-t-il redevenir
attractif avec son environnement Symbian ? En tout état de
cause, Symbian reste la plate-forme la plus installée des
trois…
Lors du Mobile World Congress il y a quelques semaines, Éric
Schmitt (dirigeant de Google) dévoilait que ses partenaires
écoulaient 60 000 terminaux Android par jour ! n
24
IT-expert n°84 - mars/avril 2010
Actualités internationales
Firefox 3.6 : 200 millions de téléchargements
et une grosse faille colmatée !
Deux mois après sa sortie le 21 janvier 2010, Firefox 3.6 dépassait les 208 000
téléchargements. En outre, il a fallu attendre ce délai pour qu’une faille de sécurité
soit corrigée.
Les résultats de Statcounter Global Stats créditent Firefox de 30,96 % de part de
marché contre 57.94 % pour Internet Explorer, des chiffres qui passent respectivement
à 39,25 % et 46,43 % en Europe (sur un échantillon de millions de sites Web, au 10 mars
2010). Toutefois, la France reste un peu plus en retrait avec 33,97 % pour Firefox et 55,84 % pour
Internet Explorer. Toutefois, si l’on examine les résultats en détail pour la France, on constate l’avance d’Internet Explorer
7 à 32,55 % contre devant IE 8 à 16,86 %, talonné par
Firefox 3.0 à 15,8 % et la version 3.5 à 13,56 %... mais
très loin devant Firefox 3.6 à 2.92 %.
La faille de sécurité critique concernant le support du
format WOFF a monopolisé l’attention de la fondation
Mozilla (Web Open Font Format) qui a très vite publié
une mise à jour. Certes, la possibilité de prise en main
à distance d’un ordinateur par un pirate n’est pas de
nature à favoriser l’adoption d’un navigateur…
Téléchargez donc la version 3.6.2 qui au passage apporte
d’autres petites corrections mineures ! n
Une distribution Linux signée « Corée du Nord »
La République populaire démocratique de Corée opte pour le Libre ! En effet,
ses dirigeants ont décidé de développer leur propre Linux. Des détails ont
été fournis par un jeune étudiant russe de l’université de Kim Il-Sung qui a
posté son article depuis l’ambassade de Russie. En 2009, Pyongyang a pris la
décision de concevoir ce système d’exploitation Linux baptisé Red Star. Deux
versions seraient disponibles : Red Star Classique et Server. Des distributions
qui incluent les logiciels traditionnels : Firefox rebaptisé Naenara, Open Office et
un gestionnaire d’e-mails. Peu gourmand, Red Star se contente d’un Pentium
III à 800 MHz, 256 Mo de mémoire vive et 3 Go d’espace disque.
En revanche, tandis que les distributions Linux sont généralement gratuites, Red Star OS est commercialisé pour environ
5 dollars, et seul le coréen est disponible pour l’installation. L’étudiant russe confie que les Coréens ont encore du travail
pour parvenir à concurrencer Windows (XP, Vista/7). Objectif déclaré par les autorités au départ du projet.
On peut légitimement se demander si les développeurs n’ont pas installé quelques backdoors ou autres espions dans l’OS
gouvernemental. C’est pourquoi Microsoft continue à enregistrer un succès sans équivalent ! n
IT-expert n°84 - mars/avril 2010
25
Un plafond bloquant pour les factures d’Internet mobile
Les trop nombreuses mauvaises surprises, et factures délirantes, provoquées par l’internet mobile ont apparemment
ému la Commission européenne. Cette dernière a émis une directive obligeant depuis le 1er mars 2010 les opérateurs de
téléphonie mobile à plafonner les factures mobiles dans le cadre du roaming, c’est-à-dire dans le cadre de la surfacturation
d’un abonné par un opérateur mobile étranger.
Un peu brutale, la mesure prévoit de couper l’accès internet mobile aux utilisateurs qui dépasseraient le seuil, après
avertissement (à 80 % du maximum). Le plafond par défaut sera fixé à 50 euros.
Certes, la mesure semble radicale. Toutefois, de
nombreux abonnés européens avaient porté
plainte après avoir reçu des factures de
plusieurs dizaines de milliers d’euros,
malgré des « forfaits illimités ».
De même, le volume de données
échangées est lui plafonné à 1 euro
le mégaoctet. Ces mesures restent dans
la logique de ce qui existe pour la téléphonie
vocale et les SMS dans l’espace européen.
Apparemment ces tarifs devraient encore
être revus à la baisse. On souhaiterait que
des accords au-delà de l’Europe permettent
d’utiliser plus franchement la téléphonie mobile
lors de déplacements ou de vacances. Encore
que… pour les vacances… n
Free table sur 5 millions d’abonnés en 2011
Le 23 mars, le groupe Iliad (maison mère de Free)
annonçait ses résultats 2009 : un chiffre d’affaires
de 1,995 milliard d’euros en hausse de 25 % (contre
+29,1 % l’an passé), et 389 000 nouveaux abonnés
pour un total de 4,456 millions fin 2009. Iliad se
montre optimiste et annonce un objectif de 5 millions
d’abonnés en haut débit en 2011 ! Côté mobilité,
l’opérateur utilisera sa licence pour lancer son offre en
2012, avec une couverture de 27 % de la population
en janvier 2012.
Plus surprenant, le trublion d’Internet, qui s’est fait
connaître sur la guerre des prix, a expliqué qu’il pourrait
bien faire passer son abonnement tout-compris
(Internet-téléphone-TV) de 30 à 35 euros par mois…
Le Co fondateur Xavier Niel a clairement montré du
doigt les coupables de cet état de fait : l’UFC/Que
Choisir « qui, au travers d’un travail délibéré, cherche
à faire monter les prix de ce marché… » et les pouvoirs
publics qui cumulent sans cesse les taxes sur les revenus des opérateurs. L’UFC dénonce en effet le non-respect de loi
Chatel par l’opérateur qui utilise un chemin détourné afin de facturer sa hotline à ses abonnés. Ne serait-ce pas plutôt pour
financer la nouvelle politique d’intervention de proximité par des techniciens proches de ses abonnés dans la journée ?
Dans ce cas, les abonnés ne seraient-ils pas prêts à payer pour ce confort à réelle valeur ajoutée ? n
26
IT-expert n°84 - mars/avril 2010
L’informatique décisionnelle dans un contexte de
reprise et d’incertitude
mercredi 2 juin 2010 (9h-15h), à Paris
CONFÉRENCE
“BUSINESS INTELLIGENCE”
Au programme :
▪ Vision IDC : évolution des besoins et des usages, enjeux et perspectives des solutions
d’informatique décisionnelle 2010 -2013, en France et en Europe.
▪ La BI accessible : 2009-2010, une période charnière entre maturité et
démocratisation
▪ L’analyse prédictive, pour une meilleure anticipation dans le monde de l’après crise
▪ Rationalisation des systèmes d’information décisionnels : jusqu’où dans les
entreprises ?
▪ Exploiter plus efficacement l’information d’entreprise pour dégager le
potentiel d’intelligence des données
▪ Les prochaines étapes ? Quelle BI à l’horizon 2013 ? BI et web 2.0, BI et
mobilité, BI et temps réel, BI et SBA
▪ Avec le grand témoignage de Eric HOBEIN, Business Intelligence Manager
chez EUROPAGES
Conférence organisée par
Cabinet leader de conseil
et d’études, dans les
technologies de l’information
INSCRIVEZ-VOUS GRATUITEMENT
>> SUR LE SITE : http://www.idc.fr/bi10
code invitation « ITX »
>> OU CONTACTEZ EDITH TRICHEUX
tel. : 01.56.26.26.91
[email protected]
ALM et agilité au cœur
des processus métiers
10 années ! C’est ce qu’il aura fallu pour faire entrer dans le vocabulaire commun de l’informatique l’acronyme ALM
pour Application Lifecycle Management, ou gestion du cycle de vie des applications. Les années 1999 et 2000 ayant
consommé une bonne partie des ressources et moyens informatiques pour pallier les éventuels « bugs de l’an 2000 »,
c’est à partir de 2000/2001 que le monde du développement logiciel a pris en compte de nombreux chantiers sensés
innover ou améliorer les techniques de développement traditionnelles. Et ce, à une échelle industrielle.
28
IT-expert n°84 - mars/avril 2010
Quoi de neuf Docteur ?
Stratégies métier et IT :
de l’importance d’être différent
L’un des premiers objectifs de la stratégie métier de l’entreprise
vise à créer puis valoriser un avantage compétitif sur le
marché : l’entreprise cherche à être différente. D’autre part,
toutes les stratégies métiers embarquent virtuellement une
composante IT qui s’appuie généralement sur des applications et
développements spécifiques. On comprend donc aisément que
disposer d’une informatique supportant les visées stratégiques
s’avère primordial pour toute entreprise désirant innover. Elle
cherche alors à se doter d’une informatique stratégique, à
même de comprendre les enjeux métiers, mais aussi capable
d’anticiper les tendances à venir du marché.
2000-2010 : vers l’ALM collaboratif
Le monde informatique vit donc depuis à un rythme soutenu,
ponctué d’avancées technologiques, aussi bien du côté
infrastructures que du côté solutions de développement :
2002 marque la percée des méthodologies de développement,
2004 impose les principes de gouvernance du S.I. En 2005, les
principes de l’ALM sont plus largement acceptés par le marché.
À la fin de cette même année, un changement durable s’installe
dans les entreprises : le métier s’approprie l’IT, propulsant sur le
devant de la scène des métiers moins connus jusqu’alors tels
que celui d’architecte. Même si les avancées technologiques
continuent (la virtualisation par exemple), le point le plus marquant
des années 2008 et 2009 aura été le grand changement de l’IT,
sa modification en profondeur pour se mettre enfin au service
des métiers de l’entreprise.
2010 marque l’entrée de l’IT dans une phase collaborative, dans
des entreprises maitrisant de mieux en mieux leurs processus
métiers et pour lesquelles les logiciels pilotent de plus en plus le
« business ». Pressions métiers et pressions technologiques : le
Système d’information est mis à rude épreuve et impose donc à
l’industrie du développement logiciel de constantes mutations
et améliorations.
IT stratégique et avantage compétitif
La fenêtre de différenciation durant laquelle l’entreprise dispose
d’un avantage compétitif est courte et très en amont du cycle de
vie de ses produits ou services. D’où la nécessité de disposer
d’une informatique stratégique, à même d’accompagner et
même d’anticiper les innovations que va proposer l’entreprise.
Développer rapidement et efficacement des logiciels ou services
répondants à ces besoins et s’assurer qu’ils seront aisément
gérables et modifiables, voilà les principaux challenges du
développement des applications. Toujours cette même quête
de l’agilité…
De la stratégie métier à l’ALM
La stratégie métier impose d’être différent de ses concurrents.
Cela se traduit par des investissements IT stratégiques, et souvent
par des développements spécifiques. Et c’est précisément ici
que l’ALM entre en jeu. Disposer d’une vraie filière ALM est
essentiel pour créer de la valeur stratégique.
Collaboration métier & IT : l’ALM au cœur des processus
L’ALM est-il pour autant un processus métier fondamental
de l’entreprise ? Quelles connexions existe-t-il entre ALM et
stratégie métier ?
Les différentes plateformes applicatives du marché et leurs offres
respectives en outils de développement s’étoffent désormais
de concepts ou principes assez clairement définis, visant à
couvrir des thèmes tels que : productivité, qualité, collaboration,
intégration, coûts, flexibilité… Cette liste non exhaustive prouve
combien la notion d’ALM se positionne à un niveau élevé dans
les fondamentaux de l’entreprise, et combien la frontière dépasse
largement les seuls critères de développement des applications.
Tout projet informatique (ou autre) nait d’une idée… sensée
répondre à un besoin. Le cycle de vie des applications couvre
toute la période durant laquelle une entreprise ou organisation
IT-expert n°84 - mars/avril 2010
29
engage des moyens et des ressources, que ces moyens soient
financiers ou humains, de cette idée de départ jusqu’à la fin de
vie de l’application associée.
En fait, l’ALM est elle-même un processus métier critique de
l’entreprise, un de ceux qui supporte les nombreux autres
processus métiers. Toute organisation développant des logiciels
devrait considérer l’ALM comme un processus métier aussi
important que ses autres processus métiers critiques. En effet,
être meilleur dans son processus de création logiciel procure
forcément un avantage compétitif.
Le succès de vos projets de développement
Les 3 piliers de l’ALM
On distingue trois grands piliers dans l’ALM:
• la « Gouvernance » qui couvre l’ensemble de la période ;
• le « SDLC ou software Development LifeCycle » (cycle de vie
du développement de logiciel), qui commence en général
un peu après la période précédente, et se répète au cours
du temps, lors des mises à jour (nouvelle version, correctifs,
etc.) ;
• et l’« exploitation », qui débute en général avant la fin du cycle
SDLC, avec le déploiement, et qui couvre toute la période
de vie de l’application dans le S.I.
La partie SDLC est la mieux identifiée à ce jour : elle regroupe
toutes les phases qui ponctuent le développement du logiciel
(gestion de projet, gestion des tests et plan de test, modélisation,
gestion des exigences, intégration continue, etc.). Son objectif
consistant à optimiser le processus de bout en bout (on parle
souvent d’industrialisation du développement). Par ailleurs,
l’évolution des outils de développement a aussi subi de
profondes mutations. L’industrie est passée des compilateurs
et éditeurs des années 70/80, aux IDE (Integrated Development
Environment) des années 80/90, pour arriver aux plateformes
de développement en équipes contemporaines.
30
IT-expert n°84 - mars/avril 2010
La mise en place d’une démarche ALM au sein des équipes
doit se faire de façon pragmatique et mesurée. Pragmatique,
car la démarche en elle-même implique trois composantes
essentielles :
1. L’humain (les équipes) sur lequel repose la gestion du projet
au quotidien, mais auquel il faut aussi poser des contraintes
de productivité. Les objectifs à travers le pilotage et la
transparence des projets, sont simples : favoriser l’excellence,
responsabiliser, mesurer et améliorer la qualité.
2. Un ensemble de technologies, auxquelles on demandera
d’être performantes, outillées, interopérables, sécurisées
et administrables. L’objectif de qualité logicielle sera atteint
en utilisant des outils productifs, très intégrés, mais aussi
extensible et possédant une courbe d’apprentissage
réduite.
3. Des processus, souvent assimilés aux méthodologies de
développement, impliquant la mise en place de guides, de
procédures de gestion des risques et des exigences. Les
objectifs ici sont la mise en place d’un accompagnement
méthodologique, personnalisable et non intrusif, et ce, dans
un souci de collaboration.
Ces trois composantes sont intimement liées et « condamnées » à
vivre et à évoluer ensemble. Rien ne sert de « faire de la méthode »
pour la méthode si cette dernière n’est pas aisément acceptée
par les équipes, et si elle n’est pas facilement « injectable » dans
l’environnement de développement.
L’histoire des outils et environnements de développement est
encore une fois riche d’enseignement sur l’évolution de ce
triptyque « humains-technologies-méthodes ». Elle se découpe en
trois grandes étapes placées sous le signe de la convergence :
Quoi de neuf Docteur ?
1ère étape (années 90) : convergence des développeurs qui
utilisent un éditeur de code source et un compilateur adapté
à leur langage de développement. L’objectif consiste alors à
briser les murs séparant les développeurs pour les embarquer
tous sur un même pont. La convergence se fera à travers des
outils tels que les référentiels de code source, les moteurs de
builds ou les premiers outils de tests unitaires (des outils orientés
« tâche » pour l’essentiel).
Années 90 : des outils orientés « tâche »
2ème étape (années 2000) : convergence des équipes projets,
incluant toutes les personnes techniques travaillant sur un même
projet (chef de projet, architectes, administrateur de bases de
données, etc.). Cette fois, l’objectif vise à réunir sur le pont
l’ensemble de ces personnes en favorisant la transparence et la
communication entre les membres de l’équipe. La convergence
se fait à cette époque au travers d’IDE ou Environnement de
Développement Intégré, regroupant tous les outils utiles aux
profils techniques dans une même solution.
Ces serveurs permettent à chacun des acteurs du projet de se
connecter avec leurs outils familiers. En retour, ils permettent
de centraliser et consolider tous les éléments et évènements
qui rythment la vie du projet. Alors, il devient plus simple et
rapide d’utiliser ces données pour piloter les projets en temps
réel, tout en analysant et en anticipant grâce aux indicateurs
clés d’avancement.
L’agilité au cœur des projets
Années 2000 : l’essor des IDE
3ème étape (2010), que nous sommes en train de vivre et qui
illustre bien les principes fondamentaux de l’ALM : l’ensemble
des équipes impliquées dans un projet embarque sur un
même pont, les équipes techniques, mais aussi métiers. Qualité
et agilité sont au cœur des processus de développement,
la convergence s’effectuant via des environnements de
développement collaboratifs (sorte de HUB) associés à des
serveurs de développements.
2010 : l’ALM collaboratif
Un des points clés de l’agilité réside dans l’idée d’amélioration
continue, qui s’applique à tout type de projet, et à toute démarche
itérative. Dans le processus agile, généralement découpé en
étape de courte durée, la première action à entreprendre à la
fin d’un cycle (que l’on appelle « sprint ») consiste à dresser un
état sur le déroulement du sprint qui vient de se terminer et
d’analyser simplement et rapidement l’ensemble, afin d’améliorer
le fonctionnement de l’équipe, des outils et de l’organisation
pour la prochaine étape.
L’agilité a pour vocation l’amélioration continue et l’efficacité, en
passant par de petites étapes successives, de façon pragmatique
et adaptée aux équipes et ressources en place. Ce dernier point
est très important : il ne sert à rien de chercher à atteindre un
niveau d’agilité sur une grille de mesure quelconque, ou par
rapport à un niveau de maturité global. En revanche, Il est
pertinent, une fois identifiée votre situation vis-à-vis de l’agilité,
de déterminer quels leviers activer, et quelles solutions mettre
en place pour progresser et -in fine- franchir une étape. Si cela
se traduit par une progression sur un niveau de maturité, tant
mieux, mais là n’est pas l’essentiel.
IT-expert n°84 - mars/avril 2010
31
L’agilité incarne en fait une nouvelle approche du développement,
basée sur un modèle itératif, en constante évolution, mais
aussi sur une approche empirique au niveau processus,
communication et documentation. Ce qui est bien éloigné de
l’approche classique, inspirée par les processus industriels en
cascade, avec des exigences figées dès le début du projet,
avec une planification inscrite dans le marbre et des étapes
prédéfinies… pour, au final, ne pas être suivie ni respectée…
À l’opposé, les équipes agiles font un peu de tout, tout le temps,
évitant ainsi « l’effet tunnel » :
Les méthodes agiles bousculent de nombreuses pratiques
établies :
• Figer les bonnes pratiques est dangereux : mieux vaut adapter
ces pratiques en fonction des objectifs de la prochaine
itération, de la composition de l’équipe, des contraintes de
l’environnement.
• Définir et mettre en place un processus prévisible et planifié :
tentant, mais au final risqué. Il est préférable de se concentrer
sur les tâches à réaliser. On évite ainsi la perte de vue
globale.
La solution : mettre en place une équipe autoorganisée, qui définit
elle-même ses pratiques pour chaque itération. Les critères
de succès s’en trouvent radicalement modifiés. En effet, les
changements, inévitables dans la vie d’un projet, doivent être
considérés comme naturels. Les équipes de petite taille n’ont
pas de leader et surtout pas de relation hiérarchique affichée :
on cherchera à désigner des « facilitateurs » ou « supporteurs »
plutôt que des experts ou des autorités.
Cette approche permet de découvrir le ou les résultats du projet
de façon permanente, et elle autorise donc une très grande
souplesse en termes de réaction et de correction. La mise en
place d’un processus de livraisons itératives (en lieu et place
des livraisons incrémentales) permet de réagir de façon plus
souple, d’anticiper les modifications à apporter, sans pour autant
tout remettre en cause.
Attention toutefois à ne pas confondre agilité et « bazar organisé » !
Cette simplicité apparente, cette absence de hiérarchie stricte,
impose une rigueur quotidienne de tous les acteurs. De même,
la documentation et la gestion des exigences doivent être
extrêmement bien définies et suivies.
La démarche, souple, n’en reste pas moins rigoureuse. Il existe
sur le marché de nombreuses offres disponibles, à l’exemple
de Visual Studio 2010 et Team Foundation Server de Microsoft,
ainsi que des compétences rompues à ce type de mise en œuvre
chez de nombreux partenaires. n
François Merand
Platform & ALM Advisor
Division Plateforme
et Ecosystème
Décider le plus tard possible
32
IT-expert n°84 - mars/avril 2010
Web 2.0 et outils collaboratifs : quels bénéfices pour vos salariés et vos clients ?
IDC, filiale française du leader mondial des études dans le domaine des nouvelles technologies de
l’information et des communications vous invite
mardi 18 mai 2010 (9h-15h30), à Paris, à la conférence
“ L’ E N T R E P R I S E C O L L A B O R A T I V E ”
Conférence organisée par
Au programme :
▪ Vision IDC : état de l’art du marché, enjeux et perspectives 2013 des solutions de communication et de
collaboration
▪ Les réseaux sociaux d’entreprise : place à l’intelligence et la créativité collective
▪ L’entreprise 2.0 et ses clients :
- De nouveaux véhicules de communication et de commerce se développent. Comment accompagner ce
développement et en tirer parti ?
▪ Les apports technologiques pour soutenir l’essor de l’entreprise 2.0 :
- Le Cloud Computing pour optimiser la communication et la collaboration au sein des équipes et à
l’extérieur
- Quelles solutions de gestion des contenus web 2.0 ?
▪ Discours de clôture : les nouveaux et futurs usages de l’Internet en entreprise. Rupture
Internet et monde virtuel
Serge SOUDOPLATOFF, fondateur et président d’Almatropie, association vouée à la promotion des usages
d’Internet
▪ De nombreux retours d’expérience en matière d’usage du web 2.0 :
RATP, Suez environnement-Lyonnaise des Eaux, l’APEC, 2xmoinscher
Pour découvrir les mutations en cours, en comprendre les enjeux, usages et opportunités,
INSCRIVEZ-VOUS GRATUITEMENT
>> SUR LE SITE : http://www.idc.fr/entreprise20
code invitation « ITX »
>> OU CONTACTEZ EDITH TRICHEUX
tel. : 01.56.26.26.91
[email protected]
Anatomie de trois
ESB Open Source
JBoss ESB, serviceMix et OpenESB
Historiquement, les outils d’intégrations (EAI) ont été les premiers
permettant de créer un « bus » d’entreprise, ou – du moins – de créer
un passage obligé d’interconnexion entre différents systèmes.
34
IT-expert n°84 - mars/avril 2010
Comment ça marche ?
Se libérer des chaînes du tout propriétaire
Les avantages de cette architecture sont assez évidents : découplage des applications entre elles,
création de formats pivots dans l’entreprise… En outre, changer une application impacte uniquement
la modification des connecteurs EAI.
Application B
Application B
Application C
Application A
Application C
Application A
Application E
EAI :
Processus
métier
Application D
Application E
Application D
Intégration d’un EAI
Une question se pose alors : quelles sont les principales différences entre les ESB (Enterprise Service
Bus) et les EAI ?
• Les EAI ont en interne une approche qui oblige le passage par un point centralisé. L’intégration point
à point se retrouve entièrement dans l’EAI lui-même. Au contraire, les ESB ont une architecture dite
distribuée : le bus est implémenté dans différents systèmes et sur différentes machines.
• Les EAI n’utilisent pas ou peu de standards ouverts. Chaque EAI fait une implémentation propriétaire
de la gestion des messages. Ce qui limite les possibilités d’évolutions et pénalise la flexibilité dans
des systèmes hétérogènes. Au contraire, les ESB sont conçus à partir de standards tels que la
gestion des messages en java (JMS), XML, JCA (Architecture de composant standard J2EE), etc.
Cette approche de standards ouverts (open-standard) est une réponse de l’industrie du logiciel à une
double contrainte :
• celle des clients n’appréciant pas la sensation d’enfermement dans une solution propriétaire, et qui
refusait de l’adopter.
• celle du monde du logiciel libre qui a poussé vers ce type d’approche pour des raisons philosophiques,
liées à au choix des standards ouverts favorisant l’interopérabilité.
L’open source fait jaillir l’ESB
Pour permettre d’optimiser et de mettre en commun les meilleures pratiques (Design Pattern), des
initiatives ont été prises autour de modèles : les EIP ou Enterprise Integation Pattern (1). Le projet Apache
Camel est l’un des premiers projets open source à avoir intégré des composants standards (2).
En réaction à l’évolution du marché et à l’émergence d’offres basées sur des solutions open source,
tous les acteurs historiques de l’intégration disposent désormais de leurs offres « ESB ».
L’étude de trois solutions open source destinées aux entreprises (avec des offres de service et de
support) permet de comprendre les fonctions-clés d’un ESB. Cet article va donc détailler :
• la solution OpenESB (JCAPS 6) de Sun/Oracle,
• la solution Service Mix (Fuse ESB) de Progress Software,
• la solution JBoss ESB de JBoss/Redhat.
1) http://www.eaipatterns.com 2) http://camel.apache.org/
IT-expert n°84 - mars/avril 2010
35
Au cœur d’un ESB
Découplage des applications
Entreprise Service Bus
Application
Hot-line
CRM
Fichier
configuration
XML
Comptabilité
Registry
(LDAP)
Base
de données
Les applications du système d’informations ne doivent pas avoir connaissance les unes des autres.
De ce fait, lorsqu’une application appelle un service métier du type « passer une commande », cela
passe par l’ESB qui dirige l’appel vers la bonne application.
Conversion de protocole
Entreprise Service Bus
Application
Adapteur
jms
Adepteur
fichier
Legacy
Application
Toutes les applications ne disposent pas d’une technologie qui leur permet aisément d’utiliser tous les
types de protocole de communication. Par ailleurs, le programmeur peut souhaiter utiliser le service
métier tel qu’il existe. Justement, l’ESB fournit une liste riche en protocoles supportés : webservice,
FTP, fichier, Soap, JMS, EDI, HL7, Edifact, Swift, etc.
Transformation du message
Entreprise Service Bus
Application
Legacy
Application
Transformation Message
36
IT-expert n°84 - mars/avril 2010
Comment ça marche ?
Chaque application possède son format de données. Pour interconnecter plusieurs applications,
l’ESB effectue des transformations de format de message. L’une des bonnes pratiques consiste à
développer un format pivot à travers toute l’entreprise et à créer des transformations pour chaque
application vers et depuis ce format pivot. Ceci évite de transporter un format propriétaire à travers
tout le système d’information.
Routage des messages
Entreprise Service Bus
Comptabilité
Grand Compte
Application
Internet
Routage basé
sur du contenu
Comptabilité
Standard
Suivant le contenu d’un message, le système destinataire peut changer. C’est pourquoi l’ESB propose
des composants de routage basé uniquement sur le contenu du message ou suite à l’appel d’une
application tierce pour identifier le destinataire. Ceci permet de faire évoluer le système d’information
(suivant le rythme des fusions/acquisitions des entreprises, par exemple) sans impacter toutes les
interfaces des différentes applications.
Enrichissement des messages
Commande client
Commande client
Avec le détail
sur le client
Entreprise Service Bus
Marketing direct
Enrichissement Message
Application
Commande
Lecture d’information sur le client
CRM
Dans de nombreux SI, l’information autour d’une même donnée est souvent présente dans plusieurs
applications. Sur un appel de service, l’ESB peut puiser des informations dans divers systèmes afin
d’enrichir la donnée dont l’application cible à besoin.
Ainsi (voir plus loin), dans OpenESB, associer un MDM (Master Data Management) permet de faciliter
le rapprochement des données en provenance de plusieurs systèmes.
IT-expert n°84 - mars/avril 2010
37
Ouverture en toute sécurité
Lorsque le système d’information est connecté à des systèmes externes, des authentifications/
cryptages de données sont nécessaires ainsi que de la transmission d’identification (type SSO). Les
ESB permettent nativement d’intégrer tous ces mécanismes dans toutes les étapes d’un flux.
Surveillance et supervision
Pour combler cette fonctionnalité, qui incarne une de leurs faiblesses, les ESB open source offrent
tous les outils nécessaires pour se connecter à des solutions externes.
Sun éclaire le chemin avec OpenESB
Version open source de l’ESB de Sun, OpenESB 2.2 utilise un serveur glassfish 2.2 et la technologie
Netbeans 6.7.1.Il succède au produit ICAN 5, acquis par Sun lors du rachat de la société SeeBeyond.
Du fait du rachat de Sun par Oracle, OpenESB se trouve de facto concurrencé par l’offre SOA-ESB de
ce dernier. Par ailleurs, Oracle travaille également à la convergence de ses outils internes et de ceux
de la suite SOA de BEA, après son rachat.
OpenESB est composé de plusieurs briques:
• un ESB tel que nous l’avons décrit précédemment,
• un outil d’orchestration de service (BPEL),
• un outil d’IEP (Intelligent Event Processing), qui permet d’agréger, d’ordonnancer… des messages
dans le temps,
• un outil de MDM, qui est un outil couramment utilisé dans les suites logicielles décisionnelles. Il est
ici utilisé pour gérer des données de référence autour de l’interconnexion de briques du système
d’information,
• un outil d’administration (dit console ESB) qui n’est présent que si OpenESB est déployé sur le
serveur d’application Glassfish (car il est un composant d’extension de la console d’administration
Glassfish).
Portail
BAM
Business Dashboards
Open ESB
Administration
Console ESB
MDM
IEP
Complex Event Processing
Business Process Management
Orchestration BPEL
Entreprise Service bus
Mediation - Adapters - Routing - Transformation
Message Server - Application Server
Directory Server - SSO
38
IT-expert n°84 - mars/avril 2010
Comment ça marche ?
Un IDE central pour déployer simplement
Au cœur de la solution : le NMR (Normalized Message Router), bénéficie de l’approche JBI (Java Business
Integration) avec sa notion de composant pour les outils d’intégration. La spécification standardisée
JBI est implémentée par plusieurs ESB dont serviceMix et openESB.
Service Engine
Components register
the service they provide
Transformation
(XSLT)
WSDL
J2EE Platform
WSDL
Normalized Message Router
WSDL
WS-I Basic
SOAP
WSDL
WSDL
AS2
JMS
JBI
Core
Services
System Management
Orchestration
(BPEL)
WSDL
Protocole Bindings
J2EE Platform
Comme l’indique le schéma, ce bus permet d’interconnecter tous les composants JBI, qu’ils soient
fournisseurs ou consommateurs de messages. Une description type WSDL (Web Service Description
Language) est utilisée pour décrire l’interface du composant JBI.
Une des particularités de l’offre autour d’openESB tient dans la richesse des outils de développement
et de supervision.
Côté développement, les principaux composants graphiques n’ont rien à envier aux outils propriétaires.
De plus, tout se déploie depuis l’IDE vers un serveur d’application J2EE : local pour tous les serveurs, et
sur un serveur à distance s’il s’agit de Glassfish ESB (qui est un serveur Glassfish standard contenant
tous les composants d’exécution ESB).
• l’éditeur BPEL très riche permet de définir graphiquement les étapes ainsi que les mappings
d’affectation simple
• un éditeur de transformation XSLT (non graphique).
• un éditeur IEP (graphique)
• un éditeur d’application composite CASA
Un ESB très abouti…
La solution GlassfishESB (OpenESB déployé sur un serveur d’application Glassfish) est la plus
aboutie dans le monde open-source, autant pour sa robustesse et sa fiabilité que pour ses fonctions
d’administration.
OpenESB profite de toutes les fonctionnalités d’entreprise de glassfish :
• performance : n serveur J2EE très performant et peu gourmand en mémoire ;
• fiabilité et robustesse : en mode haute-disponibilité (HA), Glassfish gère lui-même les réplications
de sessions et parmi celles-ci, il gère nativement la reprise sur incident (sur un cluster) ;
• en administration, la console dite « gwt-console » est étendue par des composants de l’ESB pour
ajouter des capacités d’administration et de supervision spécifiques aux composants déployés. Par
exemple, en mode console, le BPEL a le même mode de visualisation que sous Netbeans. Il permet
ainsi facilement de faire communiquer les équipes de production avec les équipes de développement
sur les mêmes visuels.
IT-expert n°84 - mars/avril 2010
39
… plutôt pour les projets complexes
OpenESB met en avant une approche à base de service d’orchestration BPEL. Tous les exemples sont
basés dessus et la communication faite par Sun/Oracle porte principalement sur cette approche. Certes,
cette approche se justifie pour des processus d’orchestration complexes qui peuvent éventuellement
déboucher sur des interactions humaines. Toutefois, pour des flux plus simples avec des patterns
standards, il n’existe pas dans l’offre de solution concurrente à Apache Camel. On trouve bien un
composant JBI Camel avec son éditeur sous Netbeans, mais il n’est pas graphique et il faut coder en
fichier XML les flux réalisés avec Apache Camel.
Le futur d’OpenESB s’appelle Fuji. Celui-ci reposera sur des composants OSGI - Open Services Gateway
Initiatives (comme la version 3 de Glassfish) et sur Maven pour la partie développement. Il sera possible
de créer et de déployer des composants Fuji à partir de commandes Maven. Cela permettra d’utiliser
d’autres outils de développement que Netbeans.
De nombreux composants de qualité inégale
OpenESB est un bon ESB, basé sur une architecture solide (JBI-NMR, Glassfish, gwt-console) et sur
un environnement de développement convivial (Netbeans) pour quelques composants standards
(BPEL, IEP). Malheureusement, les nombreux composants n’affichent pas tous le même niveau de
qualité et de fonctionnalité. Les deux principaux qui distinguent cette solution sont le composant de
transformation XSLT et le composant Apache Camel.
Malheureusement, Sun n’a jamais été très à l’aise avec les communautés open-source et peu apte à
réellement les animer. De nombreux composants existent, mais la communauté n’est pas très active
en dehors des salariés de Sun.
ServiceMix : l’ESB qui fuse avec Progress
Projet open source de la fondation Apache, ServiceMix bénéficie de plusieurs sponsors dont l’un des
principaux est la société Progress Software. Cette société propose un packaging (support) autour des
projets ESB de la fondation Apache :
• Fuse ESB pour serviceMix ;
• Fuse Message Broker pour ActiveMQ, le serveur JMS ;
• Fuse Sevices Framework pour Apache CXF (webservice et SOAP) ;
• Fuse Mediation Router pour Apache Camel.
Un complément Progress appréciable
Les principaux contributeurs (développeurs) de ces projets open source sont salariés de Progress
Software. Dans la version supportée, Progress Software a ajouté deux autres produits :
• le plug-in Eclipse Fuse Integration Designer pour définir graphiquement définir des flux pour Apache
Camel
• et Fuse HQ qui permet d’ajouter des fonctions de supervision et d’administration au serveur Hyperic
HQ Enterprise.
40
IT-expert n°84 - mars/avril 2010
Comment ça marche ?
Encore plus loin vers les standards
Une démarche a été initiée afin d’étendre les normes OSGI (Open Services Gateway Initiatives), qui
viennent de l’industrie, au monde des serveurs J2EE. L’implémentation de référence de ces normes
est le serveur DMserver édité par la société SpringSource (il est à noter que cette dernière salarie
également une grande partie des contributeurs au projet Apache Tomcat). DMserver vient d’être cédé
à la fondation Eclipse sous le nom « Virgo ». Le projet Apache Karaf est une autre implémentation de
ces normes OSGI pour J2EE.
Dans sa version 4, ServiceMix repose sur l’approche composant OSGI. Il se déploie donc sur un serveur
OSGI type Apache Karaf.
Votre
composant JBI
ServiceMix
Components
JBI
Compatibility layer
CXF
NMR
Camel
NMR
NMR
web
ActiveMQ
Apache Felix Karaf
Dans cette illustration, chaque élément de la configuration est un composant OSGI et l’ordre d’empilement
représente leur interdépendance.
Ainsi, vous développez un flux basé :
• sur Camel dans une version donnée ;
• des interfaces HTTP vers différentes applications (dans une version donnée à chaque fois) ;
• des protocoles (JBI) selon leur version…
Simplifier le développement et les migrations
Un des grands avantages de cette approche à base de composants OSGI tient dans la capacité à
déployer deux versions d’un même composant dans un même serveur. Il n’est ainsi plus nécessaire
de réaliser des migrations massives ou de lancer une instance de serveurs d’application pour chaque
version de composants.
De plus, l’approche de Fuse ESB diffère radicalement de celle retenue pour OpenESB. En effet, les
outils de développement sont basés sur Apache Camel, donc sur les patterns d’intégration d’entreprise.
Approche opportune puisque la plupart des flux d’intégration ne nécessitent pas de processus
d’orchestration comme BPEL, moins performant, car ils mettent en œuvre des mécanismes techniques
complexes comme la persistance. Il est toujours possible d’intégrer un moteur d’exécution BPEL de
la fondation Apache comme Apache ode.
L’outillage de développement est basé sur l’offre autour d’Eclipse (pour la partie BPEL, Webservice,
etc.) et sur l’offre Fuse Intégration Designer. Cette panoplie correspond bien à l’outillage de tout
développeur java/J2EE.
IT-expert n°84 - mars/avril 2010
41
Un succès d’estime, mais « peut mieux faire » !
L’offre autour des outils de la fondation Apache est très active et est de plus en plus plébiscitée par les
entreprises, autant pour sa pertinence technique et fonctionnelle que pour ses performances :
• les choix techniques autour des composants OSGI et JBI ;
• les choix d’outillage de développement basé sur une approche EIP et non tout sur le BPEL ;
• performance : Progress Software affiche quelques références très impressionnantes auprès
d’entreprises qui gèrent plus de 20 000 transactions métiers par seconde avec la suite Fuse.
Le seul manque de cette offre est l’absence totale d’un moteur IEP/CEP. De son côté, la fondation
Eclipse développe un projet nommé swordfish (don de la société Sopera) qui se base sur serviceMix.
Ce projet vise à proposer améliorer et à simplifier les possibilités de déploiement, de supervision, etc.
Un projet malheureusement peu actif à ce jour…
JBoss ESB : encore du travail, mais…
Pour se pencher sur l’offre JBoss autour de JBoss ESB 4.7, il convient d’y ajouter JBoss JBPM 4 et
JBoss SOA (portefeuille JBoss/Redhat).
Riche en événements…
JBoss ESB permet de réaliser toutes les transformations décrites pour les deux précédents ESB :
transformation de protocole et de message, sécurité…
L’approche de JBoss ESB est assez proche de celle d’Apache Camel. Il s’agit d’une suite d’actions
qui sont déclenchées suite à la réception d’un événement. La richesse des événements fournis en
standard est satisfaisante, et il est très simple de l’étendre. De plus, avec JBoss JBPM, il est possible
de déployer une l’orchestration de service ainsi que la gestion des corbeilles utilisateurs.
42
IT-expert n°84 - mars/avril 2010
Comment ça marche ?
En couplant JBoss ESB et JBoss JBPM, il est possible d’orchestrer des processus métiers complexes.
JBoss JBPM gère la logique métier tandis que JBoss ESB fournit toute la pile technique pour se
connecter facilement en entrée ou en sortie aux applications externes.
Hormis l’éditeur JBPM très pratique, le développement s’effectue via fichier de paramétrage, et il
n’existe pas de designer graphique. Ce qui ne favorise pas la prise en main.
… mais pauvre en interface
Une des lacunes importantes JBoss ESB est son manque d’intégration avec
JBoss Rules. Actuellement, l’intégration se fait uniquement sur l’appel du
moteur de règles pour réaliser des choix. Or, JBoss Rules dispose de trois
autres composantes qui pourraient être exploitées :
• Le moteur full BPMN2 avec son designer graphique sous Eclipse. Et il
s’agit de la seule offre open source (ou presque) sur ce sujet. Ceci permet
d’avoir des processus métiers très complexes avec des interactions
nombreuses, et dans un langage de description métier (BPMN2 fait partie
de la normalisation de l’OMG qui normalise également UML). De plus,
exécuté dans le moteur de règles, un processus peut-être interrompu
à tout moment. Cela permet une gestion élégante des exceptions
métiers.
• Un moteur IEP/CEP qui permet de mélanger des règles métiers d’une
manière temporelle. Cette fonctionnalité IEP/CEP est aussi présente
dans openESB. L’utilisation de JBoss Rules permet d’obtenir les mêmes
fonctionnalités, mais plus évoluées, car elles bénéficient de la richesse
d’un moteur de règles.
• Un outil de gouvernance et de référentiel des règles : Guvnor. Il permet de
stocker l’ensemble des artefacts (règles, IEP/CEP et processus BPMN2)
et ceci d’une manière versionnée. Il serait alors également possible de
stocker les autres artefacts de JBoss ESB et JBoss JBPM pour disposer
d’un réel référentiel d’entreprise.
Dans l’état actuel, JBoss ESB est une offre classique qui ne se distingue pas. Une bonne solution dont
l’approche trop classique ne favorise pas l’adoption. En revanche, l’ajout à cette offre de JBoss Rules
permet de concevoir une offre unique sur le marché.
IT-expert n°84 - mars/avril 2010
43
Autant de projets, autant d’aventures
Dans le monde du logiciel libre d’entreprise, il existe deux grands types de projets :
• Ceux entièrement pilotés par la ou les sociétés à l’origine du projet, comme OpenESB, le framework
Spring, Maven, etc.
• Ceux pilotés par la communauté et dont la ou les sociétés proposent des offres de support à disposition
quelques « core » développeurs et d’un « project leader ». Ceux qui payent le support sont traités
en priorité, et le reste doit être développé par des personnes externes, soit comme contributeur
(avec des droits d’écritures sur le code source) soit sous la forme de patch (modification) qu’un
contributeur doit appliquer au code source. Même si l’impulsion reste du domaine des « project
leader », la vitesse d’implémentation dépend alors en grande partie de la communauté. Or, les
ressources des entreprises ne suffisent généralement pas.
OpenESB fait partie de la première catégorie et ServiceMix/JBoss ESB de la seconde. C’est pourquoi
OpenESB bénéficie d’une belle plate-forme qui se rapproche d’une offre commerciale classique avec
la maturité attendue d’un tel outil. Les deux autres sont à l’image de leurs communautés et de leur
niveau de maturité sur le sujet de l’ESB. ServiceMix comme JBoss ESB sont très utilisés dans leurs
versions communautaires, mais beaucoup moins dans leurs versions supportées, en France. Ces
projets attendent des contributions pour grandir.
Une variété de choix selon ses attentes
Il convient de choisir l’outil le plus adapté à son approche du SI, à sa démarche et aux outils attendus :
• Les outils restent des outils. Les fonctionnalités sont plus importantes. Il importe de privilégier une
solution qui saura évoluer dans le temps. OpenESB se trouve dans cette catégorie : bons choix
technologiques, et fonctionnalités très correctes.
• Les outils doivent répondre aux besoins sur des sujets extrêmes comme la volumétrie, l’évolution
permanente des flux (ce qui va imposer de déployer plusieurs versions d’un même flux), etc. En un
mot, l’approche par composant comme OSGI est la solution à la modularité nécessaire. ServiceMix
avec tous les autres composants de la fondation Apache correspond alors parfaitement. Bien que
plus complexe à mettre en œuvre, la solution apporte la flexibilité indispensable.
• Pour une grande modularité dans les flux sans nécessité de l’approche par composant et peu
d’intérêt pour les standards, JBoss ESB incarne une bonne solution.
Quel avenir pour ces 3 solutions ?
• L’ESB de la fondation Apache a un avenir clairement tracé vers des pratiques fidèles à l’avenir de
l’informatique.
• OpenESB suit les pas de ServiceMix. D’ailleurs, les mêmes choix de spécifications ont été effectués les
deux outils : JBI, OSGI et NMR ne sont que quelques exemples. OpenESB va rencontrer le problème
de stratégie qu’Oracle voudra adopter sur cet ESB. Il est probable qu’Oracle maintiendra une équipe
« core » developpeur. Une communauté sera à créer pour permettre à cet outil d’évoluer.
• L’ESB de JBoss/Redhat accuse certainement le plus de retard sur l’implémentation de ces
spécifications. Cela va même plus loin, car JBoss ne souhaite pas passer par les standards JBI
et NMR (OSGI sera implémenté dans la version 6 du serveur d’application JBoss). En revanche,
JBoss profite de la forte culture de ses communautés et possède quelques outils autour de son
ESB qui peuvent lui permettre d’innover vers des fonctions dont les autres solutions open source ne
disposent pas, comme le référentiel d’entreprise (avec Guvnor de JBoss Rules). Cela passera tout
de même par le respect de standard d’implémentation comme JBI et NMR pour faciliter l’écriture
de composant portable d’un ESB à l’autre. n
Nicolas Héron
Architecte J2EE, SOA et moteur de règle au sein du groupe Adéo, contributeur au projet drools
44
IT-expert n°84 - mars/avril 2010
Livres
Conduite de projets informatiques
Développement, analyse et pilotage
Un livre de plus sur la conduite de projet ? Oui et non ! En effet, très pratique, cet ouvrage se veut plutôt
un manuel d’accompagnement complet et opérationnel. Les auteurs restent précis et concrets et nous
épargnent leurs opinions et réflexions, trop souvent exposées sans aucun intérêt pour le lecteur dans
ce type de manuel.
Destiné aux informaticiens et chefs de projets, le livre présente de façon utile toutes les étapes d’un
projet en laissant chacun effectuer ses choix en connaissance de cause. Le lecteur appréciera l’approche
pragmatique et la description des outils conçus pour la conduite des projets. Assez logique lorsque l’on
sait que Brice-Arnaud Guérin est responsable des développements logiciels chez LexisNexis.
Schémas, tableaux détaillés, cas expliqué… le ton didactique est renforcé par la présentation de méthodes
de chiffrage, de planification, de gestion des risques, d’organisation fonctionnelle, etc. Les multiples outils
proposés peuvent être enrichis par des exemples à télécharger sur le site de l’éditeur. D’ailleurs, l’ouvrage
est disponible au format électronique sur le site d’ENI.
Conduite de projets informatiques
Brice-Arnaud Guérin
Éditeur : ENI collection dataPro
298 pages - environ 43 E ou 36 E en version numérique
Le management de la performance par les processus
En période de crise, réductions budgétaires et augmentation de la productivité ramènent la performance sur
le devant de la scène. Après l’avènement de l’ERP, des services Web et de l’approche SOA, la sensibilisation
autour de l’amélioration des processus devient une préoccupation majeure. Et justement, cet ouvrage
apporte sa pierre à l’édifice. Ce guide pratique du pilotage de processus s’adresse à tous les acteurs de
l’entreprise et de son environnement, autour de trois thèmes : le pilotage des processus, leur gouvernance
et la mise en place d’une démarche processus.
Le sous-titre donne le ton : « du BPM à la pratique du pilotage de processus ». S’appuyant sur des exemples
concrets, de nombreuses illustrations, des fiches pratiques et des recommandations de mise en œuvre, le
livre évite de tomber dans le piège de l’intellectualisation qui rend souvent le propos inintelligible et peu
opérationnel. L’auteur propose aussi des méthodes, des règles, des modèles et des supports pratiques
facilement réutilisables et adaptables.
Le management de la performance par les processus
Dominique Thiault
Éditeur : Lavoisier
298 pages - environ 59 E
IT-expert n°84 - mars/avril 2010
45
Le respect des licences libres :
les juridictions veillent
Les logiciels libres constituent un mouvement structurant de l’industrie informatique et, bien qu’étant
massivement utilisés, ils restent encore parfois mal connus, spécialement du point de vue juridique.
De plus, leur mode de production, qui mêle de manière composite des communautés bénévoles et des
entreprises, est parfois mal compris.
46
IT-expert n°84 - mars/avril 2010
Rubrique à brac
Distinguer commercial et propriétaire
Parmi les exemples les plus célèbres, on cite souvent le navigateur
web Firefox de la Fondation Mozilla, la suite bureautique
OpenOffice.org de l’entreprise commerciale Sun (maintenant
Oracle), et bien sûr le système d’exploitation GNU/Linux soutenu
à la fois par une large communauté bénévole et par les plus
grandes entreprises du monde informatique.
La particularité de tous ces logiciels est de préserver les libertés
des utilisateurs. Ces derniers bénéficient de quatre libertés
fondamentales, formalisées par la Free Software Foundation
fondée en 1985 par Richard Stallman. Ils doivent pouvoir
exécuter, étudier, redistribuer et améliorer le programme sous
licence libre. Or, le seul moyen informatique de garantir ces
libertés revient à assurer l’accès au code source du programme
et pas seulement à son binaire, comme le font les éditeurs de
logiciels propriétaires.
Il est fondamental de comprendre que les logiciels libres
s’opposent conceptuellement aux logiciels propriétaires, qui
restreignent les libertés de l’utilisateur, et non pas aux logiciels
commerciaux. D’ailleurs, de nombreux logiciels libres sont – de
fait – des logiciels commerciaux.
L’open-source encadré par des licences
Il existe deux catégories principales de licences libres ou open
source.
D’une part, les licences « permissives » telles que les licences
BSD ou X11 (aussi appelée MIT) qui n’imposent pas ou peu
d’obligations aux utilisateurs. Les logiciels qu’elles régissent
peuvent notamment être incorporés dans des logiciels
propriétaires.
D’autre part, les licences fondées sur la notion de « copyleft »
exigent que toute redistribution du logiciel concerné soit faite
sous la même licence ou une licence compatible, à l’exclusion
de toute licence propriétaire. La plus célèbre des licences libres
est la licence GNU/GPL de la Free Software Foundation, qui
régit par exemple le système GNU/Linux.
Cette notion de copyleft est centrale car c’est cette construction
juridique qui permet de garantir la pérennité des quatre libertés
précitées que l’auteur initial a souhaité accorder à l’ensemble
des utilisateurs.
Ainsi, un logiciel régi par une licence copyleft ne peut pas devenir
propriétaire. Il se crée alors un cercle vertueux de partage du code
source informatique : si une personne profite du travail de tiers, la
contrepartie est que son travail sera ensuite utilisable par tous.
Outre l’accès au code source et au maintien de ce dernier sous
une licence libre, il faut, pour respecter pleinement les termes de la
licence, fournir une copie du texte complet et respecter les notices
de copyright des auteurs précédents. Ces obligations s’appliquent
immédiatement dès la distribution du logiciel, et envers tout tiers,
quel que soit son statut juridique ou économique (entreprise,
particulier, client payant, utilisateur à titre gratuit, etc.).
Les juridictions, gardiennes de ces libertés
Dans un arrêt en date du 16 septembre 2009, la Cour d’Appel
de Paris a justement fait respecter ces exigences de la licence
GNU/GPL. Ce litige opposait la société EDU 4 à l’Association
nationale pour la Formation Professionnelle des Adultes
(AFPA).
Sans rentrer dans chaque détail de cette affaire, rappelons
simplement que le 13 novembre 2000, la société EDU 4 était
déclarée attributaire du marché correspondant à l’appel d’offre
de l’AFPA portant sur le déploiement « d’espaces ouverts de
formation » (EOF) à travers la France, intégrant un matériel
informatique multimédia, un réseau informatique associé, des
logiciels de communication, de télétutorat et de pilotage ainsi
que les ressources de produits pédagogiques. Au cours de
l’exécution de ce marché, diverses difficultés se sont révélées
et l’AFPA, qui s’estimait trompée, a sollicité la résolution du
marché.
Aucun accord amiable n’ayant pu être trouvé entre les parties,
l’AFPA a introduit une instance devant le Tribunal de Grande
Instance de Bobigny afin de faire résilier le contrat aux torts de
la société EDU 4. Bien que le Tribunal n’ait pas fait droit aux
demandes de l’AFPA et n’ait pas prononcé la résiliation du
marché, il n’a pas accordé à la société EDU 4 l’intégralité des
dommages-intérêts sollicités et cette dernière a, en conséquence,
interjeté appel du jugement.
Contre toute attente, la Cour d’Appel de Paris a infirmé le
jugement dans son intégralité et prononcé la résolution du
marché aux torts de la société EDU 4.
L’AFPA sollicitait la résolution du marché au motif que le produit
livré par la société EDU 4 ne faisait pas mention de la présence
du logiciel libre VNC, publié sous licence GNU/GPLv2, lequel
avait été modifié, que les mentions relatives aux droits des
auteurs de VNC avaient été supprimées pour être remplacées
par celles d’EDU 4, que le texte de la licence GNU/GPLv2 avait
également été supprimé, et que le mécanisme de protection de
VNC avait été modifié en introduisant un mot de passe connu
uniquement de EDU 4 et non modifiable.
La société EDU 4 contestait les allégations de l’AFPA, notamment
au motif que les corrections nécessaires devaient être réalisées
dans la version définitive de la solution devant être livrée.
La Cour a prononcé la résolution du marché au motif que la
société EDU 4 avait manqué à ses obligations contractuelles en
livrant un produit « d’une part qui présentait pour les utilisateurs
des EOF des risques d’atteinte à la vie privée, et d’autre part qui
ne satisfaisait pas aux termes de la licence GNU GPL puisque
la société EDU 4 avait fait disparaître les copyrights d’origine
de VNC sur les propriétés de deux fichiers en les remplaçant
par les siens et avait supprimé le texte de la licence. » La Cour a
également relevé que le code source n’était pas fourni, ce qui
constitue une autre violation de la licence.
IT-expert n°84 - mars/avril 2010
47
Pas de vide juridique français
sur les licences open source
D’une part, et contrairement à ce que l’on a pu lire sous la plume
de certains juristes, les juridictions françaises peuvent et
doivent faire sanctionner toute violation des licences libres
dont elles sont saisies. D’ailleurs, à aucun moment la société
EDU 4 n’a contesté devoir respecter les termes de la licence
GNU/GPLv2.
D’autre part, il est clair à la lecture de l’arrêt que la Cour d’Appel
a, à juste titre, appliqué les obligations de la licence GNU/GPLv2
comme elle l’aurait fait avec n’importe quelle licence, que celle-ci
soit « libre », « open source », ou « propriétaire ». Ceci démontre,
si nécessaire, que les licences libres s’intègrent parfaitement
dans le droit positif français.
Enfin, cet arrêt est encore plus original, car la violation de la licence
GNU/GPLv2 a été constatée par la Cour d’Appel à la demande
de l’AFPA, qui n’a jamais contribué à ce logiciel, aucun auteur
du logiciel VNC ne s’étant constitué partie lors de l’instance. En
d’autres termes, si les auteurs de logiciels libres peuvent exiger que
toute personne respecte la licence sous laquelle ils ont publié leur
logiciel, les utilisateurs de logiciels libres peuvent également
exiger le respect de ces licences par ceux qui diffusent des
logiciels libres. Les utilisateurs de logiciels libres constituent des
« tiers bénéficiaires » qui doivent être informés de leur utilisation de
logiciels libres et doivent pouvoir exercer les quatre libertés.
En effet, la Cour d’Appel relève comme violation de la licence GNU/
GPLv2 le remplacement des mentions de droits d’auteurs ainsi
que la suppression du texte de la licence. En l’absence de ces
informations, il est impossible (sauf avec une expertise technique)
d’avoir conscience que l’on utilise des logiciels libres.
Il est vrai que l’AFPA était un client de développements informatiques de la société EDU 4 et non un simple « utilisateur ».
Cependant, cette distinction n’est pas pertinente en l’espèce.
D’une part, juridiquement, la licence ne distingue pas selon la
qualité de l’utilisateur du logiciel, les obligations du distributeur
s’appliquent en tout état de cause, et à l’extrême, même en
l’absence totale d’utilisateurs. D’autre part, les licences libres
garantissent que les libertés accordées par l’auteur originel du
logiciel perdurent avec chaque redistribution, au bénéfice de
l’ensemble de la communauté des utilisateurs. Il est important
de conserver à l’esprit que l’auteur d’un logiciel libre peut
également devenir un membre de la communauté d’utilisateurs,
et que toute violation d’une licence libre le préjudicie également
pour cette raison.
Il convient de rappeler que conformément à l’article 4 de la
GNU/GPLv2, toute distribution violant la licence entraînera
automatiquement la résiliation de cette dernière. Ainsi, toute
personne ne respectant pas les obligations de la licence devra
stopper immédiatement toute utilisation du logiciel concerné,
mais les tiers utilisant ce logiciel conformément à sa licence
pourront librement continuer de le faire. Dans le cas contraire,
elle pourra être sanctionnée judiciairement.
48
IT-expert n°84 - mars/avril 2010
Quelques précautions à prendre
pour les entreprises
Toute entreprise est, ou sera à court terme, confrontée à des
problématiques liées à l’utilisation de logiciels libres, tant ces
derniers sont devenus inévitables dans le paysage informatique.
C’est pourquoi une attention particulière doit être portée à une
bonne compréhension des licences libres, qui bien que tout à
fait accessibles, contiennent quelques particularités juridiques
qu’il faut prendre le temps d’appréhender.
Compte tenu de l’architecture actuelle des services informatiques, et notamment du recours massif à la sous-traitance,
parfois sur plusieurs niveaux, il est nécessaire d’anticiper les
problèmes éventuels en négociant des contrats adaptés.
À titre d’exemple, il conviendra d’obtenir des garanties quant à
la présence de logiciels libres dans la solution commandée et
d’exiger du sous-traitant que lui-même respecte les obligations
de ces licences, notamment en fournissant le code et la licence
associée. En outre, il conviendra de comprendre comment les
différentes briques logicielles utilisées interagissent entre elles
et faire valider juridiquement leur compatibilité.
Ces quelques précautions sont indispensables tant elles
permettent au client de faire respecter ses propres droits garantis
par les licences libres tout en lui donnant les moyens de ne pas,
lui-même, un jour porter atteinte aux droits des auteurs. n
Olivier Hugot
avocat
HUGOTAVOCATS est un cabinet d’affaires réactif dédié aux sociétés et aux personnes
des secteurs de la communication, des médias, de l’art et des nouvelles technologies.
Il conseille notamment des entreprises et des auteurs dans le cadre du respect
des licences libres. www.hugot.fr