Activités de test externalisées : 5 conseils pour - IT
Transcription
Activités de test externalisées : 5 conseils pour - IT
IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE Activités de test externalisées : 5 conseils pour augmenter les chances de succès Une dette technique ruineuse pour la DSI Bimestriel - janvier/février 2012 Ingénierie des Performances : une approche orientée performance pour sécuriser la disponibilité des applications en production n°95 édito 2012 : une année clé pour votre entreprise ? IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE Réseaux sociaux, e-mails, audio-vidéo… l’explosion des volumes de données et des échanges en ligne repoussent chaque jour les limites nécessaires en infrastructure. Pour tenter d’anticiper les besoins, éditeurs et constructeurs se démènent et innovent à grands pas : virtualisations, cloud, stockage, administration d’infrastructure… De multiples innovations ont pris leur essor en 2011, et secoué considérablement la gestion d’infrastructure, ainsi que les modes de ventes des logiciels et du matériel. Fort heureusement, ces évolutions concrétisent généralement les démarches déjà imaginées pour améliorer la qualité et l’efficacité des services informatiques (Itil , par exemple). Certes, toutes les entreprises n’ont pas atteint le même stade de maturité informatique. Et, la résistance au changement est proportionnelle au degré élevé de remise en cause des pratiques traditionnelles. En outre, le SI existant -souvent pesant et rigide- ne favorise pas l’évolutivité. Quoi qu’il en soit, les entreprises qui montent dans le train de l’innovation (même si elles nécessitent du temps pour implémenter les choses) profiteront d’un avantage évident, avec le plus souvent un retour sur investissement appréciable. En 2012, votre entreprise restera-t-elle sur le quai ? José Diz Rédacteur en Chef Editeur Press & Communication France Une filiale du groupe CAST 3, rue Marcel Allégot 92190 Meudon - FRANCE Tél. : 01 46 90 21 21 Fax. : 01 46 90 21 20 http://www.it-expertise.com Email : [email protected] Rédacteur en chef José Diz Email : [email protected] Directeur de publication Aurélie Magniez Email : [email protected] Conception Graphique Nicolas Herlem Email : [email protected] Parution IT-expert - (ISSN 1961-9855) est un journal édité 6 fois par an, par P&C France, sarl de presse au capital de 60 976,61 €. Avertissement Tous droits réservés. Toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 P&C France. Toutes les marques citées sont des marques déposées. Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. Toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de Press & Communication. Abonnements 01 46 90 21 21 Dossiers en accès libre : http://www.it-expertise.com/ 2 IT-expert n°95 - janvier/février 2012 IT-expert n°95 - janvier/février 2012 Sommaire 4 Dossier Activités de test externalisées : 5 conseils pour augmenter les chances de succès Après avoir défini les enjeux de l’externalisation des tests (en off-shore, near-shore ou sur site), l’auteur détaille les tâches et activités de tests et distille ses 5 conseils pour en déterminer le(s) périmètre(s) et mettre en place une méthode de suivi et de collaboration, avec des outils adaptés. Des conseils de terrain éprouvés et très utiles. 14 Technique Une dette technique ruineuse pour la DSI Combien coûte la correction de code d’une application en production ? Selon les choix technologiques, la note s’avère plus ou moins salée. Démonstration à l’aide de l’enquête annuelle menée par l‘éditeur CAST qui analyse la qualité structurelle de 745 applications issues de 160 sociétés. 24 Actualités Internationales 30 Comment ça marche ? Les informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances Ingénierie des Performances : une approche orientée performance pour sécuriser la disponibilité des applications en production Performance et disponibilité des applications sont des objectifs prioritaires pour les DSI. Cependant, ces questions sont généralement soulevées au moment du déploiement. Or, elles devraient être planifiées dès l’origine du projet. Explications et approche méthodologique par des spécialistes d’Atos. 37 Livres La sécurité dans le cloud – Techniques pour une informatique en nuage sécurisée de Vic (J.R.) Winkler et Urbanisation, SOA et BPM - Le point de vue du DSI (4e édition) de Yves Caseau. IT-expert n°95 - janvier/février 2012 3 ACTIVITÉS DE TEST EXTERNALISÉES : 5 CONSEILS POUR AUGMENTER LES CHANCES DE SUCCÈS L e sujet de la « sous-traitance d’activités de test » est présent dans tous les projets de développement informatique, ou presque. Cependant, ce thème est généralement abordé via la question de l’Off-shore ou du Near-shore. Certes, la localisation géographique des activités de test revêt une importance à ne pas négliger, vu les spécificités qu’elle peut introduire. Toutefois, il peut être aussi très utile de penser à mettre en place des outils ou méthodes simples et efficaces pour augmenter les chances de succès de la sous-traitance dans le domaine du test logiciel. 4 IT-expert n°95 - janvier/février 2012 Dossier Qu’entend-on par « externalisation des tests » ? Dans le cadre d’un projet informatique, le chef de projet sollicite régulièrement des compétences de personnes n’appartenant pas à son équipe de projet. Ces « personnes n’appartenant pas à l’équipe du projet » peuvent appartenir à la même société ou bien à des sociétés externes, travaillant comme sous-traitants de la société porteuse du projet. Elles peuvent appartenir à une entité spécialisée dans un domaine précis ou au contraire être des ressources indépendantes mises à la disposition des projets. Enfin, ces personnes peuvent être localisées dans le même pays que le chef de projet ou dans un pays plus ou moins éloigné. Dans cet article, le mot « externalisé » désignera ce qui n’est pas fait pas des personnes intégrées à l’équipe du projet. Ceci est valable pour une grande partie des activités liées au développement logiciel, y compris pour les principales activités de test qui peuvent se décliner sur différents niveaux de test. Pour rappel, le syllabus niveau fondation de l’ISTQB (International Software Testing Qualifications Board) propose 5 ensembles d’activités : • Planifier et contrôler • Analyser et concevoir • Implémenter et exécuter • Évaluer les critères de sortie et informer • Activités de clôture des tests Ces activités peuvent se décliner sur 4 niveaux de test : • Composants • Intégration • Système • Acceptation Sur les gros projets, il est en général judicieux de mettre en place, à un niveau global, une activité de Planification et Contrôle. Planifier Composant 1 Planifier Intégration Contrôler Contrôler Analyser et concevoir Implémenter et exécuter Système Évaluer et informer Clôturer Acceptation Clôturer IT-expert n°95 - janvier/février 2012 5 Il convient ensuite de déterminer si tout peut être sous-traité. Théoriquement, oui. Dans la pratique, certaines tendances se dégagent : • les activités de test liées au niveau composant sont souvent portées par l’entité en charge des développements correspondants, et se déroulent avant, pendant et après le développement pur et dur. En d’autres termes, si le développement d’un composant est sous-traité, alors les activités de test associées ont de fortes chances de l’être aussi ; • les activités de test liées aux niveaux Intégration et Système sont sous-traitées environ une fois sur deux ; • les activités de test liées au niveau Acceptation ne sont en général pas sous-traitées, compte tenu des compétences métiers nécessaires, ainsi que de l’utilisation de données confidentielles et d’environnements techniques complexes et coûteux. Pour les projets suivant une démarche « agile », la situation est différente. Néanmoins, c’est un autre sujet ! Dans cet article, la notion de « sous-traitance d’activités de test » désignera essentiellement les activités appliquées au niveau composant lorsque le développement est sous-traité et les activités mises en œuvre aux niveaux Intégration et système. Un grand projet de transformation dans une grande multinationale Une grande société, présente dans différents pays, fait évoluer son Système d’Information (SI) dans le cadre d’un vaste projet de transformation. Le SI est constitué d’un ensemble d’applications couvrant différents domaines techniques ou métiers. Ce projet va donner lieu à l’introduction de nouvelles applications et à la modification ou suppression de certaines autres applications, selon les exigences définies par la société porteuse du projet global. Différents sous-traitants se partagent le développement des applications, un sous-traitant étant en charge de plusieurs applications. Un sous-traitant, différent des précédents, est chargé de l’ensemble des tests d’intégration. Enfin, la société porteuse du projet global est aussi chargée des tests d’acceptation. Domaine métier 1 Application 2 Application 17 Application 14 Application 12 Application 8 Plateformes et Réseaux Application 3 Application 13 Application 1 Application 9 Domaine métier 2 Application 16 Application 7 Application 15 Application 10 Sous-traitant 1 6 IT-expert n°95 - janvier/février 2012 Sous-traitant 2 Application 11 Application 6 Application 5 Application 4 Société … et un troisième sous-traitant en charge des tests d’intégration ! Dossier Conseil n°1 : Mesurer les compétences de chaque sous-traitant et en tirer les conséquences Ceci doit être fait au niveau de l’entreprise, mais aussi -et surtout- au niveau des personnes impliquées dans le projet, et ce de manière constructive et factuelle. Une restitution doit être partagée avec le sous-traitant et déboucher, si nécessaire, sur un plan d’amélioration suivi de près. Il est en général utile d’avoir dans sa boîte à outils des connaissances sur : • CMMI (Capability Maturity Model + Integration), • TMMI (Test Maturity Model Integration), • ISTQB/CFTL (International Software Testing Qualifications Board/Comité Français des Tests Logiciels) pour différentes normes et standards référencés : IEEE 829, IEEE 1044, ISO 9126… Cependant, avant de sortir l’artillerie lourde, il est prudent de vérifier que le sous-traitant maîtrise les bases incontournables du test logiciel. Pour cela, un simple questionnaire peut suffire à déceler de vraies lacunes. Par exemple, un sous-traitant qui, à la question « Quel outil utilisez-vous pour gérer les défauts ? » répond (comme cela m’est arrivé récemment) « Nous utilisons l’e-mail et le téléphone » aura à priori un niveau très faible en test logiciel. Il conviendra alors de définir un plan d’amélioration pour le sous-traitant et de le suivre pour assurer la mise en place de pratiques incontournables, comme celles indiquées dans l’exemple ci-dessous. Description Bénéfice attendu Affecter un Test Manager à temps plein pour les activités de test du Sous-Traitant 1 Meilleure gestion et efficacité de ses activités de test Apporter la preuve de la couverture du code et des exigences par les tests (mesure et matrice de traçabilité) Disposer de preuves et garanties sur le nombre de tests exécutés et leur couverture Revoir les cas de test unitaires du niveau composant Augmenter l’efficacité des tests de ce niveau et leur documentation Mettre en place un Outil de Gestion des Tests pour les tests 2 à 2 Aller plus vite, faire mieux et avoir une bonne visibilité sur ces tests Mettre en place un Outil de Gestion des Anomalies partagé avec les différents sous-traitants Mieux gérer les anomalies, avoir de la visibilité sur l’avancement de la gestion des défauts … … Attention : il n’est pas acceptable d’entendre un sous-traitant en charge du développement d’un certain nombre de composants dire « Je suis responsable des développements, vous serez livrés, mais je n’ai aucune preuve à vous donner sur les tests que je réalise »… Si cela se produit, la séquence de questions suivante doit permettre d’aider le sous-traitant à rapidement retrouver le bon sens qu’il avait perdu : • « Allez-vous me livrer un composant sans l’avoir testé ? » • « Avez-vous réfléchi à la façon de le tester ? » • « Avez-vous documenté votre stratégie de test ? » • « Allez-vous exécuter des tests ? » • « Où ces tests sont-ils décrits ? » • « Quels sont les résultats de ces tests ? » Bien sûr, toute réponse doit s’accompagner d’un document faisant office de preuve ! IT-expert n°95 - janvier/février 2012 7 Conseil n°2 : identifier et définir le plus haut niveau de test Quand une partie des activités de développement et de test est externalisée, il devient plus difficile d’avoir une vision globale sur l’ensemble des activités de test d’un projet. Pourtant, cet aspect est indispensable pour gérer correctement le projet de test et coordonner les activités qui se déroulent aux différents niveaux. La notion de « plan de test maître » (« Master Test Plan ») telle qu’introduite par la norme IEEE 829-2008 prend alors tout son sens. Ce plan de test maître permettra non seulement de définir et contrôler une planification globale de l’activité de test sur l’ensemble du projet, mais aussi d’identifier les différents niveaux de test et les plans de test associés. Pour un composant dont le développement est sous-traité, il conviendra alors de demander au soustraitant, s’il est également en charge des tests. Un Plan de Test de niveau Intégration pourra aussi être exigé auprès d’un sous-traitant en charge de l’intégration. Externaliser une activité de test ne signifie pas « perdre contrôle et visibilité » sur celle-ci. Bien au contraire ! Dans l’exemple ci-dessous, un « Master Test Plan » a permis de définir une stratégie globale de test pour un projet complexe d’évolution d’un SI, faisant appel à de nombreux sous-traitants. Par exemple, chaque composant développé a donné lieu à la rédaction d’un Plan de Test référencé par le Plan de Test maître. CCCCCCCi Description à haut niveau et pilotage Description détaillée pour chaque niveau FIP S1D0 Master Test Plan Test Manager global DDSI BIT R2B Plan de Test OSS BIT R2B Plan de Test BSS DPS Niveau Composant AAAAAAA BIT R2B Plan de Test Statique BAS2010 Network and Platform Plan de Test d’Intégration OSP Niveau Statique DPS Niveau Intégration BIT R2B IT and IT with Network MMM & Platforms Plan de Test d’Intégration FIP S1D0 Plan de Test UAT 8 IT-expert n°95 - janvier/février 2012 Internal Niveau Acceptation Conseil n°3 : Généraliser les revues qui sont un outil d’une rentabilité exceptionnelle ! Qu'est-ce qu’une revue ? C’est tout simplement une « évaluation d’un état d’un produit ou projet pour déceler des déviations par rapport aux résultats planifiés et recommander des améliorations » [IEEE 1028] Qu’est-ce qui peut être revu ? Tout ou presque ! Cependant, lorsque des activités de développement et de test sont externalisés, les revues présentent un intérêt particulier pour 3 produits qui sont rarement revus : • les plans de test • les tests • les bordereaux de livraison Même si lorsqu’un sous-traitant est en charge des tests unitaires du composant qu’il développe, revoir le Plan de Test associé permettra d’avoir des garanties sur la façon avec laquelle ce composant sera testé. L’exemple suivant montre le résultat d’une revue effectuée sur 5 plans de test réalisés par un sous-traitant sur la base d’un même modèle (template). Chaque ligne correspond à un plan de test et chaque colonne à un chapitre du plan de test. Cette revue a mis en évidence une grande faiblesse concernant le test chez le sous-traitant et a donné immédiatement lieu à un plan d’action d’amélioration. 13. CRITÈRES DE PASSAGE OU ÉCHEC 12. RISQUES ET CONTINGENCES 11. LIVRABLES 10. CRITÈRES D’ARRÊT ET DE REPRISE DES TESTS 9.3 EXÉCUTION DES TESTS 9.2 CONCEPTION DES TESTS 9.1 RÔLES ET RESPONSABILITÉS 8. BESOINS EN RESSOURCES ET FORMATIONS 7. BESOINS EN ENVIRONNEMENTS 6.11 RESPECT DE LA QUALITÉ 6.10 UTILISATION DES OUTILS DE TEST 6.9 GESTION DES ANOMALIES 6.8 GESTION DE CONFIGURATION 6.7 SUIVI ET CONTRÔLE DE L’AVANCEMENT DES TESTS 6.6 AUTOMATISATION DES TESTS 6.5 PRIORISATION DE L’EXÉCUTION DES TESTS 6.4 TECHNIQUES DE TEST 6.3 NIVEAUX DE TEST 6.2 EFFORT DE TEST 6.1 CRITICITÉ DES CARACTÈRISTIQUES À TESTER 5 CARACTÈRISTIQUES À NE PAS TESTER 4 CARACTÈRISTIQUES À TESTER 3 ÉLÉMENTS À TESTER 2.2 JALONS DU PROJET DE TEST 2.1 JALONS DU PROJET GLOBAL 1.2 RÉFÉRENCES Revue des Plans de Test Unitaires (chapitre par chapitre) 1.1 INTRODUCTION Qualité des différentes sections des Plans de Test : n Bonne n Moyenne n Faible Documents FIM_R2B_Plan Pruebas 2a2_ ACTIVACION_v1.0.doc FIM_R2B_Plan Pruebas 2a2_EAI Fijo_v1.0.doc FIM_R2B_Plan Pruebas 2a2_ FENIX_v1.0.doc FIM_R2B_Plan Pruebas 2a2_ SIAM_v1.0.doc FIM_R2B_Plan Pruebas 2a2_ TIBC05_v1.0.doc Les tests eux-mêmes peuvent aussi être revus. Bien entendu, il conviendra de vérifier que chaque test est associé à une caractéristique à tester (ou exigence), que le format est correct, mais aussi que le test est pertinent. La revue des tests doit être effectuée par des personnes disposant des compétences techniques ou fonctionnelles adéquates. Enfin, la revue des bordereaux de livraison peut également apporter beaucoup. En effet, ce document s’avère primordial pour assurer le démarrage de l’intégration dans de bonnes conditions. Un composant livré avec un bordereau de livraison incomplet, sans procédure d’installation -par exemple, posera des problèmes à l’intégration. L’idéal serait même d’organiser des revues anticipées des bordereaux de livraison. Rien n’empêche d’exiger d’un sous-traitant qu’il fournisse une première version de chaque bordereau de livraison une semaine avant la date de livraison finale. Cela permet aux personnes en charge de l’intégration de les revoir, de vérifier leur qualité et de demander les corrections nécessaires, sans retarder la livraison ! IT-expert n°95 - janvier/février 2012 9 Conseil n°4 : L’analyse de code outillée : un outil à utiliser absolument, mais avec maîtrise ! L’analyse statique de code, à la différence des revues de code classiques faites par des développeurs, est en général réalisée avec un outil de test spécifique. Le principe est simple : le code développé est analysé, sans être exécuté, afin d’évaluer sa qualité selon différents critères, bonnes pratiques ou règles de codage. Lorsque les développements sont sous-traités, l’utilisation de ce type d’outil est précieuse, car elle peut aider le sous-traitant à respecter les règles de développement et les exigences sur la qualité formulées par l’entreprise cliente. L’outil peut aussi permettre de vérifier la qualité d’un code livré avant de l’accepter. Toutefois, cet outil doit être bien maîtrisé, car différentes difficultés - nous en verrons deux ci-après peuvent se présenter. Heureusement, à chaque difficulté correspond en général une solution ! Première difficulté : si l’utilisation d’un tel outil, avec des critères d’acceptation de livraison, n’a pas été contractualisée avec le sous-traitant, il risque de refuser de modifier son code. L’idéal consiste bien sûr à avoir défini les règles du jeu dès le départ et à permettre au sous-traitant d’analyser son code au fur et à mesure du développement. Mais si cela n’a pas été fait, rien n’empêche d’analyser le code livré. Il faudra alors considérer 2 types de violations de règles de codage : • des règles basiques, incontestables, qui correspondent à l’état de l’art en matière de développement et qu’il n’est pas possible de contourner, au risque de mettre en péril le système dans lequel le code sera intégré. Sur ces règles, il est légitime de se montrer intransigeant et d’exiger les modifications nécessaires de la part du sous-traitant, sans supplément de coût. • des règles propres à l’entreprise et à ses objectifs spécifiques en termes de qualité de code. Si ces règles n’ont pas été précisées à l’avance, il sera sans doute nécessaire d’établir un avenant et d’accorder des jours supplémentaires au sous-traitant pour les appliquer. Deuxième difficulté : le sous-traitant est chargé de faire évoluer un code existant pour ajouter, supprimer ou modifier des fonctionnalités. Il faudra bien sûr veiller à faire la distinction entre le code d’origine et le nouveau code, mais cela ne suffit pas. En effet, faire évoluer un code qui ne respecte pas des règles de codage contraint souvent à rester dans le non-respect des règles. Par exemple, faire évoluer une fonction, ayant un nombre trop important de lignes de code ou un nombre insuffisant de commentaires ne permettra pas de respecter les règles relatives à la taille d’une fonction et aux commentaires attendus. Dans ce cas il est conseillé de coopérer intelligemment avec le sous-traitant, d’une part, pour fixer des objectifs réalistes sur une partie de ses développements ; d’autre part, pour envisager la réécriture d’une partie du code. Bien sûr, cela a un prix, comme tous les aspects contribuant à l’amélioration de la qualité ! Un outil comme CAST attribue une note globale sur la qualité du code analysé, mais également plusieurs vues aussi détaillées que souhaité, pour voir précisément quelles règles ne sont pas respectées et à quel endroit ! 10 IT-expert n°95 - janvier/février 2012 Dossier Note globale Un exemple de vue détaillée IT-expert n°95 - janvier/février 2012 11 Conseil n°5 : Construire une relation de confiance avec le sous-traitant Cela va de soi, mais il est important de le rappeler : le moyen le plus efficace de travailler avec des sous-traitants, dans le domaine du test, mais aussi pour l’ensemble des activités du développement logiciel, est de bâtir une relation de confiance intelligente. Des relations figées sur un contrat défini au début du projet avec des délais, des coûts et des critères d’acceptation inflexibles, auront peu de chance de se transformer en succès mutuel. S’il est essentiel de contrôler l’activité de test des sous-traitants, il est tout aussi primordial de leur préciser des attentes et de les aider à les respecter. Être ferme mais coopérant ! Cela peut, et doit même, se traduire par des échanges réguliers qui prendront la forme de réunions de suivi entre tous les acteurs, mais aussi de visites dans les locaux du sous-traitant. Établir un contact et dialoguer de temps en temps avec les équipes du sous-traitant pourront montrer aux personnes impliquées, manager ou « petites mains », qu’ils travaillent pour un client qui a un visage et qui compte sur la qualité de leur travail. Lorsque plusieurs sous-traitants sont impliqués dans un grand projet, il est également très utile de les rassembler pour arbitrer les choix et gérer au mieux les difficultés et conflits éventuels entre sous-traitants. Au-delà des points de vigilance classiques mis en œuvre lorsque certaines activités de test sont externalisées, il existe des moyens simples et efficaces à appliquer pour augmenter les chances de succès de l’externalisation. n Eric Riou du Cosquer, Trésorier du CFTL (Comité Français des Tests Logiciels) Secrétaire de l’ISTQB, Test Manager Senior chez France Télécom Diplômé de l’Ecole d’Ingénieurs de Brest (Informatique Industrielle), Eric Riou du Cosquer a commencé sa carrière en 2000, en qualité de Chef de Projet au sein des sociétés CSC PeatMarwick, puis Softeam de 2000 à 2003, avant de rejoindre la division R&D de France Télécom. Depuis 2007, Eric exerce en qualité de Consultant et Formateur sur l’ensemble du groupe France Télécom, en France et à l’étranger. Il participe également à l’amélioration continue des processus et pratiques de test et est amené à conduire des audits internes ou externes pour différentes divisions de France Télécom. Depuis 2002, il a dispensé plusieurs conférences et formations dans le domaine des tests de logiciels. En tant qu’expert, Eric Riou du Cosquer est également membre du groupe de travail international pour la définition du Syllabus Avancé de l’ISTQB, Responsable de la création de la version française et fût Président du Club utilisateurs de Mercury France, de 2008 à 2011. Site web : www.cftl.fr Email : [email protected] 12 IT-expert n°95 - janvier/février 2012 IDC, filiale du leader mondial du conseil, et des études dans les technologies de l’information. Dans un contexte de budgets sous tension et de récession rampante, les entreprises françaises ne cessent de relever leur niveau d’exigence vis-à-vis de la DSI. IDC vous donne rendez-vous mercredi 14 mars 2012 (9h – 15h00), à Paris, pour participer à la conférence « Gouvernance IT : la DSI exemplaire» http://www.idc.com/france/GouvIT2012 Cette conférence se focalisera, à l’aide de partages d’expériences récentes, sur les axes de progrès suivants : • Quelles approches et indicateurs pour rendre compte de la bonne gestion de la DSI et valoriser sa contribution à la performance et à l’innovation de l’entreprise ? • Comment construire des contrats de services toujours plus en phase avec les attentes des métiers ? • Comment opérer des transformations majeures comme la virtualisation des environnements critiques sans remettre en cause les acquis en termes de disponibilité, de fiabilité et de sécurité ? • Comment gagner en visibilité, en contrôle et en transparence sur les portefeuilles de projets ? • Comment prioriser et obtenir les arbitrages nécessaires ? • Comment dégager des marges de manœuvre et du temps disponible pour l’innovation métier ? Le cabinet IDC vous propose d’aborder en trois temps l’ensemble des réalités que couvre cette thématique: • Vision IDC – gouvernance IT : concilier rationalisation et innovation : quelles approches ? Quelles solutions ? • La DSI exemplaire en période de tension • La DSI partenaire des métiers pour innover Avec le témoignage de Jean-Philippe LABILLE, Relations métiers, Gouvernance du Schéma Directeur des SI, Sous-Direction des Systèmes d’Information au Ministère de la culture Programme détaillé et inscription gratuite : http://www.idc.com/france/GouvIT2012 Code invitation : ITX Contact : Valérie Rolland [email protected] tel : 01.56.26.26.85 Cette conférence gratuite est uniquement réservée aux entreprises utilisatrices. Conférence organisée par Une dette technique ruineuse pour la DSI U ne large part des 70 % du budget IT consacrés à la maintenance concerne la correction du code d’applications en production. Souvent plusieurs centaines de milliers d’euros. L’enquête annuelle de CAST compare la qualité applicative des technologies et langages de 745 applications. 14 IT-expert n°95 - janvier/février 2012 Technique La notion de dette technique fait référence au coût nécessaire à l’entreprise qui doit remédier aux défauts cachés de ses applications en production. Du moins, à ceux qui représentent un risque ou une menace pour l’application concernée, et donc un impact négatif pour les activités de l’entreprise dont elle contribue au fonctionnement. Cette dette technique s’avère d’autant plus dommageable qu’elle est rarement budgétée, ou qu’elle dépasse généralement les réserves financières estimées par les entreprises les plus prudentes. En 2010, de grandes affaires liées à une dette technique ont défrayé la chronique informatique : Toyota, Sony ou encore RIM, le constructeur du BlackBerry qui a plongé ses utilisateurs dans la nuit numérique pendant de longues heures… Autant d’exemples qui illustrent la réalité du phénomène. Dans son étude annuelle CRASH Report (pour CAST Report on Application Software Health), l‘éditeur CAST (leader mondial de l’analyse et de la mesure des applications) explique le rôle majeur de la qualité et se propose de poser une « base objective et empirique pour discuter de la qualité structurelle des applications, c'est-à-dire dans quelle mesure les applications souffrent des défauts qui jalonnent leur code ». « Les problèmes que nous avons remontés auraient dû être traités avant la mise en production. C’est comparable au fait d’ignorer les termites qui détruisent la charpente de votre maison » explique le Dr Bill Curtis, directeur scientifique, vice-président du centre de recherche de CAST et directeur du consortium pour la qualité logicielle (CISQ). Un trou de plusieurs milliards de dollars Première mondiale, l’étude s’appuie sur l’analyse automatisée de la qualité structurelle de 745 applications issues de 160 sociétés dans 10 secteurs d’activité. Pour un total de 365 millions de lignes de code ! Une analyse visant à évaluer ces applications selon 5 facteurs : la sécurité, la performance, la robustesse, la « transférabilité » et l’évolutivité (capacité à être modifié). Objectif : mettre en relief les problèmes générant les plus gros risques pour les directions fonctionnelles (ou métier). L’estimation prudente des auteurs de l’étude ramène la dette technique à 3,61 dollars par ligne de code. 24 % des 745 applications concernées comptent moins de 50 000 lignes de code, 33 % entre 50 000 et 200 000 lignes de code, 31 % en contiennent de 201 000 à 1000 000, et 12 % affichent plus d’un million de lignes de code ! Les applications Java-EE représentent 46 % de cet échantillon, tandis que .NET, ABAP (Advanced Business Application Programming, langage de SAP) COBOL, et Oracle Forms sont représentés à hauteur de 7 % à 11 %. Cobol reste le plus sûr et .Net le moins IT-expert n°95 - janvier/février 2012 15 Certes, toutes les applications ne sont pas critiques. Néanmoins, elles contribuent généralement toutes à des processus dont plusieurs aspects sont stratégiques pour l’entreprise. C’est pourquoi le volet sécurité se révèle primordial. Les applications Cobol tant décriées – voire moquées, restent cependant les plus sécurisées, et de loin. Un résultat rassurant, car nombre d’applications majeures et fortement transactionnelles sont écrites dans ce langage, dont les experts se font de plus en plus rares. Et l’étude précise justement que les applications financières et des assureurs sont les mieux notées sur l’aspect sécurité. Un constat logique, puisque la plupart de ces programmes est exécutée dans des environnements mainframe, plus fermés et hautement sécurisés. Les auteurs précisent que ces applications, souvent les plus anciennes, bénéficient pleinement d’un historique en sécurité qui les a aussi rendus plus fiables. Les applications développées en .Net ou Visual Basic enregistrent les plus faibles scores. Longtemps réservés à des applications moins stratégiques, ces technologies (et surtout .Net) gèrent aujourd’hui des applications critiques. Espérons que les responsables de ces projets se montreront plus vigilants sur tous ces aspects. Une tendance qui doit certainement se dégager aujourd’hui face aux obligations de conformité réglementaire, et qui explique certainement qu’une partie de ces applications obtiennent un score plus élevé. Autre constat intéressant, si l’on examine la sécurité des applications par secteur d’activité, les services financiers et la grande distribution arrivent en tête, tandis que le consulting informatique arrive bon dernier ! L’étude explique cela par le fait que les prestataires informatiques, hébergeur ou outsourcers, ont hérité d’applications dont d’autres entreprises leur ont confié la maintenance et l’évolution. Or, ces dernières ont souvent été développées sans réelle stratégie et de sécurité et à une époque où les bonnes pratiques en la matière restaient encore confidentielles. Bref : ils ont accepté de prendre en charge la patate chaude… 16 IT-expert n°95 - janvier/février 2012 Technique Java EE à la traîne derrière .Net, C++ et Cobol Pour analyser la performance évoquée ici, les ingénieurs de CAST n’ont pas réalisé des mesures sur les applications en production, mais recherché les violations ou manquements en termes d’architecture applicative ou de bonnes pratiques d’écriture de code. Autant d’aspects qui impactent forcément les performances lors de l’exécution (appels ou boucles « lourdes » vers des bases de données, par exemple). Sur le plan des performances, des langages structurés et exigeants comme C++ ou .Net obtiennent logiquement les meilleurs résultats. Et malgré des applications souvent anciennes, le langage Cobol se classe très honorablement. Applications critiques obligent… On a très longtemps reproché à Java d’être lent et moins efficace. Au grand dam des développeurs qui y trouvent une simplicité de programmation, et qui obtiennent donc souvent une meilleure productivité. Autant d’aspects qui ont contribué à son succès. Toutefois, le langage Java a fortement évolué et peut aujourd’hui obtenir d’excellentes performances. Les résultats de l’étude montrent pourtant que les applications Java-EE se révèlent bien peu performantes comparées aux autres technologies. Et pour cause ! Comme l’expliquent les auteurs, les programmeurs choisissent souvent la facilité et recourent à de nombreux frameworks facilitant un développement rapide et moins complexe. Certes, la complexité est marquée par ces frameworks (type Hibernate ou Struts), mais au prix d’un effondrement des performances d’autant plus flagrant lorsque le nombre d’utilisateurs ou de transactions explose. L’orientation objet et la modularité favorisent la qualité Le CRASH Report vient contredire l’idée reçue selon laquelle la qualité applicative se dégrade lorsque l’application devient plus imposante. En effet, le Total Quality Index (intégrant les 5 caractéristiques citées plus haut) n’est pas significativement impacté selon la taille des applications. En revanche, un zoom sur les applications Cobol a révélé une influence clairement négative de la taille des applications Cobol sur leur qualité. Une explication historique peut expliquer ce résultat. Le langage Cobol est né à une époque durant laquelle on se préoccupait peu de la modularité dans le développement. Résultat : des applications avec très peu de composants, imposants et complexes. IT-expert n°95 - janvier/février 2012 17 Les nouveaux langages orientés objet ont intégré cette modularité, permettant d’ajuster la complexité des applications appelées à croître. Alors que la majorité des applications du panel dans les divers langages comptent moins de 20 % d’objets complexes (et moins de 5 % pour .Net et Java EE), les programmes Cobol en regroupent de 40 % à 80 % ! Autre phénomène découlant de cette modularité : les objets des applications « modernes » comptent entre 50 et 100 lignes de code, contre généralement plus de 600 lignes pour un composant Cobol. De gros composants Cobol d‘autant plus complexes qu’une grande partie de la logique est interne à chacun, et que le couplage fort entre les fonctions ne favorise pas l’évolutivité. Pour des applications plus souples. Avec quelle méthode ? La maintenabilité d’une application a été évaluée selon la « transférabilité » et l’évolutivité (capacité à être modifiée). Sur la transférabilité, on constate une forte différence sectorielle entre les applications gouvernementales (États unis et Union européenne) et celles des autres secteurs économiques. Les auteurs soulignent que cette spécificité prouve, comme l’affirmait l’enquête Gartner 2011 IT Staffing & Spending, que le secteur public dépense plus en maintenance que les autres secteurs, avec un taux de 73 % ! Une spécificité qui proviendrait du mode de fonctionnement contractuel des organisations publiques dont les applications sont maintenues et développées successivement par différentes prestataires. Autre cause probable : les pratiques de gouvernance peu évoluées sur ces aspects dans ce secteur. Le fait de sous-traiter n’empêche pas une gouvernance plus stricte. 18 IT-expert n°95 - janvier/février 2012 Technique Certes, les pratiques évoluent favorablement. Néanmoins, lorsque l’on concentre les résultats sur les programmes hors Cobol, les « applications publiques » affichent 3 à 10 fois plus d’objets complexes que celles des autres secteurs. Sur le critère de l’évolutivité (ou capacité à être modifiée) d’une application, le podium est occupé par Abap, Cobol et Java-EE. Un résultat assez logique : plus le langage est tenu dans un carcan, plus la lecture et l'évolutivité de l'application sont facilitées. En revanche, des langages plus permissifs laissent une latitude plus grande aux développeurs et autorisent donc plus de fantaisie structurelle. Par conséquent le langage le C récolte très logiquement la cuillère en bois… Le développement bénéficie aujourd’hui pleinement de méthodes de développement plus ou moins sophistiquées. S’il est certain que ces approches profitent à la qualité structurelle des applications, il convient de le vérifier. L’étude a donc évalué le poids de ces approches selon les 5 caractéristiques pour 204 des applications du panel, fournies avec leur méthode. IT-expert n°95 - janvier/février 2012 19 Quatre catégories d’approches ont été recensées : les méthodes Agile (63 applications), Waterfall (54), Agile/Waterfall (40) et personnalisées (47). Sans appel : les méthodes personnalisées donnent les moins bons résultats sur le Total Quality Index. En revanche, l’approche personnalisée (ou maison) se révèle plus intéressante sur la transférabilité et sur l’évolutivité. Des résultats qui donnent à réfléchir à l’heure des méthodes agiles. En effet, bien que meilleures sur la robustesse, les performances et la sécurité, elles se révèlent parfois moins intéressantes en maintenabilité. Une qualité pénalisée par les mises à jour Souvent, une modification mineure peut générer des conséquences inouïes, et surtout non planifiées), sur une application d’entreprise. D’où l’art délicat du développement et de sa gouvernance… C'est pourquoi le CRASH Report a analysé ses cinq critères à l’aulne du nombre de mises à jour par an. Pour y parvenir, les spécialistes se sont appuyés sur les 309 applications du panel fournies avec leurs mises à jour. Trois catégories ont pu être identifiées selon la fréquence des mises à jour par an : 140 d’entre elles ont subi une à trois mises à jour par an, 114 en ont vécu quatre à six, et 59 ont accusé plus de 6 mises à jour. Sans surprise ; le score de qualité totale est impacté négativement proportionnellement au nombre de mises à jour par an sur trois des critères considérés : la robustesse, la sécurité et l’évolutivité. 20 IT-expert n°95 - janvier/février 2012 Un éclairage vital des coûts et des risques Le CRASH Report définit la dette technique (Technical Debt) comme « l’effort nécessaire pour réparer les problèmes restant dans le code après mise en production de l’application ». Cette notion émergente est encore peu outillée, et CAST propose son référentiel « Appmarq benchmarking repository » permettant de la calculer à travers de multiples technologies applicatives. Une action salutaire tandis que plus de 70 % des budgets informatiques sont consacrés à la maintenance applicative au détriment de l’innovation, pourtant de plus en plus stratégique et différenciatrice. Estimée à la ligne de code, cette dette technique (sur les applications du panel) atteint 3,61 dollars en moyenne, soit un coût de 361 000 dollars pour une application de 100 000 lignes de code. Un coût généralement non évalué individuellement et qui génère pourtant à lui seul une bonne partie des gigantesques coûts de maintenance… Technical Debt by Quality Characteristics for the Complete Appmarq Sample 70 % de la dette technique concerne des défauts et manquements qui impactent directement les coûts informatiques : la transférabilité et l’évolutivité. Cependant, il ne faudrait surtout pas négliger les 30 % d’erreurs restant qui concernent directement le risque métier : robustesse, performance et sécurité. Ne développe-t-on pas des applications justement pour les utilisateurs métier ? Le tableau des caractéristiques de la dette technique rapportées à chaque langage est très instructif. La robustesse, la performance et la sécurité accordent des scores moindres aux langages C, C++, COBOL, et Oracle ERP. En revanche, Abap, Oracle Forms et Visual basic obtiennent proportionnellement de meilleurs résultats pour la robustesse. Chacun pourra en tirer ses propres conclusions, et imaginer ce qui résulterait de ses propres applications… IT-expert n°95 - janvier/février 2012 21 Java-EE en ligne de mire Victime de son succès, ou plutôt de ses frameworks (simplificateurs, mais rarement optimisés), Java-EE est la technologie qui enregistre la dette technique la plus importante sur toutes les applications analysées. Avec 5,62 dollars de dette technique par ligne de code en moyenne, Java-EE devance Oracle Forms et Visual Basic dans le palmarès des dettes les plus fortes. Les meilleurs élèves restent dans l’ordre Abap et Cobol. L’ouverture et la flexibilité seraient-elles vraiment payantes sur la durée ? À voir. Bien entendu, en modulant quelques paramètres, les résultats pourraient certainement évoluer un peu. Néanmoins, la tendance resterait certainement la même. Mais une chose est sûre : cette dette technique pourrait coûter plusieurs A ou A+ aux directions informatiques. n José Diz, Rédacteur en chef d’IT-expert 22 IT-expert n°95 - janvier/février 2012 Le 8 février prochain à Paris, IDC vous convie à la conférence phare « Sécurité IT ». IDC, filiale du leader mondial du conseil, et des études dans les technologies de l’information. Comment défendre des budgets sécurité IT de plus en plus banalisés? SECURITE IT NOUVEAUX USAGES, QUELLES POLITIQUES? Mercredi 8 février 2012 (9h - 15h30), à Paris http://www.idc.com/france/secuit2012 Mêlant retours d’expériences et exposés sur les nouvelles tendances, la conférence IDC Sécurité IT passera en revue les nouveaux et sérieux arguments pour garantir la survie des budgets sécurité IT de plus en plus banalisés. Comment faire face à la nécessité de dépenser moins en sécurisant autant, voire plus ? Au programme : • Vision IDC : entre risques et conformité, quelles sont les raisons d’investir en sécurité? • La conformité et au-delà : la direction comprend-elle ce que fait son RRSI ? • L’organisation de la sécurité et la gestion des identités dans le Cloud public • Cloud, outils de collaboration, univers mobiles et réseaux sociaux : quelle stratégie adopter ? • Quels sont les enjeux de la gestion de l’information dans l’univers de demain ? Avec les témoignages de Mahmoud DENFER, Group Information Security Officer,Vallourec Pascal BASSET, responsable conformité et sécurité des SI, PMU Lazaro PEJSACHOWICZ, Vice-Président du CLUSIF et RSSI de la Caisse Nationale d’Assurance Maladie Michel JUVIN, Group Information Security Officer, Lafarge Programme détaillé et inscription gratuite : http://www.idc.com/france/secuit2012 Code invitation : ITX Contact : Valérie Rolland [email protected] tel : 01.56.26.26.85 Cette conférence gratuite est uniquement réservée aux entreprises utilisatrices. Conférence organisée par Actualités internationales Megaupload fermé par le FBI : 7 inculpations Après avoir ordonné la fermeture du site de téléchargement Megaupload, les autorités américaines ont fait procéder à l’arrestation de 7 personnes (dont 4 en Nouvelle-Zélande) des sociétés Megaupload et Vestor Limited pour : conspiration de racket, conspiration de violation de copyright et conspiration de blanchiment d’argent. Chaque accusé risque jusqu’à 50 ans de prison. La France a été la première nation à réagir, via un communiqué du Président de la République : « la lutte contre les sites de téléchargement direct ou de streaming illégaux, qui fondent leur modèle commercial sur le piratage des œuvres, constitue une impérieuse nécessité pour la préservation de la diversité culturelle et le renouvellement de la création. C'est le financement des industries culturelles dans leur ensemble qui est mis en cause par ce type d'opérateurs ». L’avocat de Megaupload a expliqué que le site n’a pas enfreint la loi et se prépare à recruter des avocats renommés pour se défendre. Et si Emmanuel Gadaix, représentant français du site, affirme : « Il est important de faire une distinction entre Megaupload, prestataire de services, et quelques sites illégaux qui proposent des téléchargements de contenus en utilisant nos ressources. Nous ne sommes pas un site pirate. » Les centaines de millions d’internautes téléchargeant gratuitement du contenu sur le site savent de quoi il en retourne… Tout comme les fournisseurs d’accès Internet qui faisaient des campagnes sur le téléchargement… légal… Et si c’était tout simplement le monde qui évoluait, tout comme avec l’apparition des cassettes audio et vidéo ? n IBM va-t-elle fermer le site de Sophia-Antipolis ? Mi-janvier les syndicats d’IBM de La Gaude et Sophia Antipolis ont appelé le personnel à la grève pour protester contre la fusion des deux entités. L’an dernier IBM souhaitait faire déménager le personnel de La Gaude vers Sophia. Cette année, il s’agirait de transférer les 90 personnes de Sophia vers Le Gaude afin de fermer le premier. L’intersyndicale a précisé que « le personnel Gaudois est déjà confiné à l'excès dans environ 10 000 m2 et que les réunions de CE ont confirmé que pas un seul mètre carré supplémentaire ne sera ouvert pour accueillir les collaborateurs d'IBM Sophia ». Des syndicats qui soulignent que la direction d’IBM refuse toute mesure financière pour compenser les dépenses supplémentaires de transport journaliser des salariés. L’intersyndicale a réclamé l’intervention conjointe de Marc Daunis, vice-président de la Casa (Communauté d'agglomérations de Sophia Antipolis) et sénateur-maire de Valbonne et de Jean Leonetti, député et ministre chargé des affaires européennes afin qu'IBM revienne sur sa décision. Ce type de démarche avait déjà amené à IBM à renoncer à son projet en 2010. n 24 IT-expert n°95 - janvier/février 2012 Actualités internationales Free redéfinit l’illimité mobile à 20 euros Le quatrième opérateur de téléphonie mobile fait une arrivée remarquée sur le marché français. Devant un parterre de plusieurs centaines de journalistes, Xavier Niel (principal dirigeant et actionnaire d'Iliad, société mère de Free et de Free Mobile) a fait son show, provocant et efficace. Toujours friand de polémique et de publicité à bon compte, Xavier Niel a donc bien vendu son produit et tapé sur une concurrence (il est vrai jusque-là très tranquille) : « Ils me font bien marrer les opérateurs, ils nous prennent pour des pigeons. Leurs contrats sont remplis d'embrouilles, d’offres illisibles… ». Les offres de Free sont donc sans engagement. Mais les engagements de l’opérateur sur la qualité du service (et la remise en état du réseau) et sur les délais d’intervention sont minimes, voire inexistants, y compris en terme de pénalités. De nouvelles références tarifaires Le plus spectaculaire : le forfait illimité à 19,99 euros par mois avec les appels vocaux illimités (utilisation « convenable » – fair use – non précisé) en France, vers les DOM et sur 40 destinations à l'étranger ; l'Internet mobile fixé à 3 Go/mois (bande passante réduite au-delà, mais avec VoIP et P2P autorisés). Enfin, les SMS, MMS et le WiFi sont illimités. Free ramène ce forfait illimité à 15,99 euros par mois pour les abonnés à son offre Internet. Des abonnés qui peuvent bénéficier d’un forfait à zéro euro incluant une heure d’appel et 60 SMS en France. Pour les non-abonnés, ce forfait passe à 2 euros par mois. Enfin, les dépassements seront facturés 0,05 centime la minute de voix (contre 0,15 chez les concurrents) et 0,05 centime le SMS supplémentaire (contre 0,10 centime). Les voyageurs apprécieront le un tarif d'itinérance de 0,5 à 0,7 centime la minute. À 19.99 euros (ou 15,99), pas de téléphone inclus. Toutefois, Free propose des crédits sans frais (12, 24 ou 36 mois) pour l'iPhone 4S , le Samsung Galaxy Y, le Samsung Galaxy ACE, le Samsung Galaxy S II, le Blackberry Curve 9300, le Huawei U8350, le ZTE F160 et le ZTE Blade S. Des téléphones pour la plupart à plus de 500, voire 700 euros… L’opérateur ne dispose actuellement que de 6 boutiques : Rouen, Troyes, Angers, Laval, Le Havre et Nancy. Or, le support téléphonique payant de Free ne brille pas par son efficacité… La concurrence agacée tente de faire bonne figure Les opérateurs ont lancé depuis peu des offres exclusivement sur Internet. Free Mobile souligne être 2,5 fois moins cher que Sosh d'Orange, 4 fois moins cher que B&You de Bouygues et 4,3 fois moins cher que Red de SFR. Et l’« abonnement social » de 10 euros des autres opérateurs parait bien dérisoire. Les concurrents ont commencé par affirmer leur peu d’inquiétude. Puis, Bouygues a reconnu perdre des dizaines de milliers de clients. Enfin, chacun a revu les forfaits précités à la baisse avec plus ou moins de volonté affichée. Free a donc réussi son pari, et bénéficié d’une campagne de communication qui lui a fait économiser des millions d’euros de publicité. Autant à ne pas répercuter sur le prix des forfaits… n IT-expert n°95 - janvier/février 2012 25 Les tablettes explosent en 2011 mais restent un complément Le cabinet d’études DisplaySearch estime que 72,7 millions de tablettes ont été livrées par les constructeurs au cours de l’année 2011. Les auteurs placent la tablette sur le marché des équipements mobiles comprenant les différents types de PC portables, soit 285,4 millions d'unités, un segment en hausse de 31 % en 2011. La tablette s’octroie ainsi 25 % de ce marché, avec une croissance de 256 %. Si le nombre des PC portables (et notebook) s’élève à 187,5 millions (en hausse de 12 %), les netbooks ne souffrent pas de la concurrence des tablettes en augmentation de 20 % à 25,2 millions d’unités. Intel a fait un gros battage autour des ultrabooks qui devaient exploser sur les deux ou trois ans à venir. Selon DisplaySearch , les ultrabooks ne devraient pas atteindre 50 millions d’unités vendues avant 2014, et resteraient éloignés des 50 % de parts de marché au moins jusqu’en 2017. Et ce, essentiellement en raison des prix élevés. Par ailleurs, une étude de GFK évalue les ventes de tablettes tactiles en France à 1,45 million d’unités en 2011, dont 450 000 en décembre. Le parc français des tablettes est estimé à environ deux millions d’unités, pour un prix moyen d’achat de 420 euros. n Office gratuit sur iPad en mode cloud Avant même que Microsoft ne lance Office sur iPad, OnLive Desktop lance une application iPad gratuite permettant d’utiliser les versions originales de Word, Excel et PowerPoint dans le cloud. Après installation, l’utilisateur crée un compte OnLive. Il se connecte alors et se retrouve en environnement Windows 7 avec les trois applications Office, et un espace de 2 Go. Si les applications fonctionnent bien, il faut néanmoins disposer d’une bonne bande passante pour travailler sereinement. Moins de 1,5 Mbits/s s’abstenir. En outre, pas de solution proposée en mode déconnecté. Une version Pro à 10 dollars par mois offrira un accès prioritaire aux serveurs (utile en cas de surcharge par les utilisateurs gratuits), 50 Go de stockage, la possibilité d’installer d’autres programmes et un mode collaboratif. Outre l’iPad, OnLive Desktop sera bientôt disponible pour les tablettes Android, l’iPhone, les PC et les Mac. n 26 IT-expert n°95 - janvier/février 2012 Actualités internationales Rebondissement français dans le duel juridique HP/Oracle sur l’Itanium Le 22 mars 2011, Oracle annonçait qu’elle ne supporterait plus les processeurs Itanium d’Intel pour ses développements, estimant cette architecture en fin de vie. Toute l’affaire est fortement sous-tendue par la grande rivalité des serveurs Oracle/Sun et HP. Annonçant 140 000 clients communs avec Oracle, HP portait plainte contre Oracle mi-juin 2011, estimant qu’il s’agissait « d'une tentative illégale de forcer les clients utilisant les plateformes Itanium d'HP à passer sous Oracle ». En outre, HP arguait du fait qu’Oracle est contractuellement tenu de maintenir ses développements sur Itanium. En France, Oracle est sous le coup d’une enquête de l’Autorité de la concurrence, et HP demande des mesures conservatoires à l’encontre de son concurrent. Le 12 janvier, l’Autorité de la concurrence a rejeté cette demande, estimant que les conditions d'octroi de telles mesures n‘étaient pas réunies : « atteinte grave et immédiate à l'économie générale, au secteur, à l'intérêt des consommateurs, ni à l'entreprise plaignante ». Toutefois, l’Autorité affirme que « l'instruction de l'affaire doit se poursuivre au fond » pour déterminer si Oracle a ou non déployé « une stratégie généralisée d'éviction » sur le marché haut de gamme des serveurs d’entreprise, constituant « un abus de position dominante ». Une bataille qui doit réjouir IBM… n Cloud français : Atos fait les yeux doux à Andromède Une infrastructure Cloud 100 % française pour les administrations et grandes entreprises Hexagonales éviterait de dépendre d’entreprises américaines et d’héberger des données sensible sur un territoire dont le gouvernement s’arroge le droit de pouvoir tout inspecter. C’est aussi l’un des objectifs des investissements d’avenir bénéficiant d’un financement de l’État, et le fruit d’un partenariat public-privé conclu avec plusieurs entreprises. Créé durant l’été 2011, le projet Andromède (fille de Céphée et Cassiopée, sauver des griffes du monstre par Persée) regroupait Orange, Thales et Dassault Systèmes. En décembre 2011, Dassault Systèmes abandonne l’aventure, suite à un désaccord sur la gouvernance du consortium, la durée de la clause de non concurrence, ou encore les tarifs pratiqués par Orange. Plusieurs SSII sont pressenties pour remplacer le partant, parmi lesquelles Atos Origin et Cap Gemini. Ce dernier ne semble pas intéressé, tandis qu’Atos fait part aux Échos de son intérêt dès le 23 décembre, via Gilles Grapinet, son directeur général adjoint. Mi-janvier, Thierry Breton, PDG d’Atos confirme cet intérêt sur BFM Business : « Nous sommes prêts évidemment à en discuter avec l'État. C'est notre rôle. Si on nous le demande, on l'assumera ». Une belle occasion pour Atos de se positionner auprès de grands comptes et d’administrations avec une offre assurant confidentialité et souveraineté des données. Mais est-ce réellement un argument sensé ? À voir. n IT-expert n°95 - janvier/février 2012 27 Amazon illumine les bases NoSQL avec DynamoDB En quelques clics, le nouveau service cloud DynamoDB d’Amazon Web Services (AWS) permet au client de créer, dimensionner et maintenir des tables de base de données NoSQL. Le tout réalisé sur la plateforme AWS qui assure à l’utilisateur de bonnes performances avec mesure de celles-ci. Stockées sur des disques SSD, les données profitent aussi d’une réplication synchrone sur plusieurs datacenters AWS. Les systèmes de gestion de données NoSQL permettent de gérer les données non structurées en très gros volume. D’où l’importance des performances. Un service cloud peut s’avérer très intéressant pour une utilisation momentanée, ou encore pour lancer une grosse opération sur quelques heures ou quelques jours. Et Amazon confirme l’intérêt de cette tendance, comme pour Big Table (analyse de données en volume). En effet, l’éditeur associe logiquement sa nouvelle offre à Amazon S3 (stockage cloud), mais aussi cette offre à son service cloud Amazon EMR (Elastic MapReduce, ou Big Data). Expert aussi en marketing et en tarification, Amazon annonce que DynamoDB est vendu 1 dollar le gigaoctet par mois. Séduisant avec un stockage SSD ! n RHEV 3.0, la plateforme de virtualisation griffée RedHat Dans la guerre de la virtualisation, Red Hat sort sa nouvelle arme : Red Hat Enterprise Virtualization 3.0 (RHEV 3.0). Présentée comme une alternative ouverte et abordable aux logiciels VMware, RHEV 3.0 s’appuie sur le modèle open source, sous l’égide d’un éditeur bénéficiant d’une « indéniable rentabilité financière ». Suite au rachat de Qumranet en septembre 2008, Red Hat a intégré sa technologie KVM à RHEV un an plus tard. Basée sur Red Hat Enterprise Linux 6.2, cette nouvelle version profite de plus de 1000 évolutions en performances, en montée en charge, mais aussi sur l’offre Desktop de virtualisation des postes de travail (ou VDI). La console de supervision a été réécrite en Java/JBoss et fonctionne désormais aussi sous RHEL, en plus de Windows. Des modules d’administration Web et en ligne de commande complètent le dispositif, de même qu’une API RESTful (architecture applicative pour systèmes distribués). Enfin, une nouvelle marketplace RHEV (http://marketplace.redhat.com/rhev/) permet d’afficher et de dynamiser les offres de l’écosystème autour de cette plateforme de virtualisation. n Oracle colmate 78 failles dans ses produits Entre le 17 et le 19 janvier 2012, Oracle a publié un ensemble de patchs corrigeant 78 vulnérabilités dans une grande variété de ses logiciels. Ce CPU (Critical Patch Update) concerne aussi bien les bases de données que le middleware ou les applications maison. Oracle reconnait que certaines de ses failles sont exploitables à distance sans authentification. 27 de ces correctifs viennent colmater des brèches de la base de données MySQL, très utilisée par les entreprises à travers le monde. 2 patchs corrigent des failles de Oracle Database, tandis que 11 d’entre eux concernent Fusion Middleware. La suite ERP E-Business profitera de six correctifs, de même que, Peoplesoft, contre 8 pour JD Edwards. Les produits Sun ne sont pas oubliés, avec 17 patchs pour GlassFish Enterprise Server ou le système d'exploitation Solaris. Mais rien pour Java, dont la dernière mouture date seulement de décembre dernier. Les entreprises sont fortement invitées à réaliser ces mises à jour. n Plus d’information ici : http://www.oracle.com/technetwork/topics/security/cpujan2012-366304.html 28 IT-expert n°95 - janvier/février 2012 Actualités internationales Une appliance Big Data Hadoopée par Oracle Disponible depuis quelques semaines, l'appliance Big Data d'Oracle associe la plate-forme serveur de Sun, le framework Hadoop Cloudera, une nouvelle base de données NoSQL et le langage d'analyse statistique R. On aurait pu penser qu’Oracle développerait sa propre pile Hadoop. Cependant, le time-to-market s’avère primordial pour prendre pied dans un nouveau marché. En outre, Cloudera est déjà présent dans de nombreuses grandes entreprises. Conçue pour travailler de concert avec Database 11g et les serveurs Exadata maison, l’appliance Big Data recourt à Exalytics, pour les traitements d'analyse décisionnelle. Les nouveaux Big Data Connectors permettent de puiser les données de l’entreprise. Objectif : déployer rapidement des environnements d’analyse Hadoop (Big Data) intégrant logiciel, matériel et intégration tout-en-un. La partie logicielle est orchestrée par Cloudera Manager, en combinaison avec les ressources matérielles. L’appliance repose sur un ensemble de 18 serveurs Oracle Sun en rack sous Linux totalisant jusqu’à 216 coeurs CPU, 864 Go de mémoire, un stockage maximal de 648 To, une connexion Infiniband à 40 Gb/s entre noeuds et une liaison externe en Ethernet 10 Gb/s. D’autres constructeurs ont déjà annoncé la disponibilité d’une appliance Big Data, comme Dell et NetApp avec la pile Hadoop de Cloudera, tandis qu’EMC a adapté sa solution Greenplum en intégrant la pile Hadoop de MapR. Il faut tout de même aligner environ 450 000 dollars pour commencer, hors connecteurs. n IBM se paie Green Hat, spécialiste des tests applicatifs Green Hat édite une plateforme virtuelle de tests, spécialisée dans les environnements SOA (Service Oriented Architecture) et le déploiement d’applications cloud. Avec cette solution, les développeurs testent leurs applications sans avoir à configurer physiquement des environnements de tests. Économie en temps et en argent à la clé, sans oublier une meilleure productivité, de qualité. Les produits et équipes de Green Hat seront intégrés à la division Rational d'IBM, proposant déjà des logiciels de tests. Green Hat apportera ses connaissances des environnements Netweaver de SAP, Fusion Middleware d'Oracle ou encore des services Rest ou les nombreuses API qui s’appuient sur ces architectures. Créée en 1996, Green Hat occupe aujourd’hui une place intéressante sur le marché auprès d’entreprises comme T-Mobile, BP ou de nombreuses banques britanniques. n IT-expert n°95 - janvier/février 2012 29 Ingénierie des Performances une approche orientée performance pour sécuriser la disponibilité des applications en production 30 IT-expert n°95 - janvier/février 2012 Comment ça marche ? L’alignement des systèmes d’information aux enjeux métiers implique la disponibilité permanente des applications et des processus métiers en production. Et ce, pour tous les utilisateurs métiers en leur fournissant les performances nécessaires à la réalisation de leurs activités respectives. La disponibilité des applications et des processus est d’autant plus critique face à des systèmes d’information devenus de plus en plus complexes, à la fois en termes d’architecture applicative et d’hétérogénéité des technologies déployées. À titre d’exemple, une application n-tiers comprend de nombreux éléments d’infrastructure et soussystèmes communiquant entre eux via le réseau. C’est pourquoi les performances du système global sont intrinsèquement liées aux niveaux de performances de chacun de ces sous-systèmes, voire de chacune de leurs couches. L’optimisation des performances correspond en général à la détection et à la résolution d’anomalies applicatives ou d’insuffisances de certaines ressources en termes de capacité de traitement. Ces anomalies ou insuffisances sont généralement détectées lors des tests de montée en charge, mais elles doivent aussi être éliminées dès les phases de spécification, grâce notamment à des techniques de modélisation. Les insuffisances sont relatives à l’implémentation du système et peuvent survenir pour diverses raisons comme : • Des choix d’architecture techniques ou applicatives mal adaptés • Un mauvais dimensionnement de l’espace réservé aux données • Un code mal optimisé • Une base de données non optimisée • Une configuration matérielle sous-évaluée • Un réseau sous-dimensionné • Un système d’exploitation (OS) mal configuré Les problématiques des performances des systèmes d’information doivent être adressées tout au long du cycle de vie d’une application ou d’un système par des méthodes et pratiques spécifiques : • Ingénierie des performances. Elle permet de modéliser le comportement d’une application dès les phases de spécification afin de résoudre au plus tôt les problématiques de performance et d’en diminuer drastiquement les impacts (notamment en coût et en délai). • Réalisation des Tests de Performance et de Montée en Charge. Elle permet de réaliser sur des environnements représentatifs une simulation du comportement des applications ou des systèmes en termes de performance ou de tenue des charges. • Le suivi des performances en production. Notamment du comportement des processus métiers critiques, ainsi que de l’évolution du comportement de chacun des composants du système concerné. Les entreprises sont de plus en plus sensibilisées à la réalisation des tests de performance, et intègrent cette activité dans leurs phases projets. L’ingénierie des performances et le suivi des performances restent quant à elles des activités encore très peu intégrées -voire marginales, au détriment de la qualité applicative. Cet article présente l’activité d’ingénierie des performances – méthode permettant de mettre en œuvre l’Approche « Acceptance Driven Development Methodology » (A2DM). Retour sur la problématique des performances Dans la plupart des projets de mise en œuvre d’applications ou de systèmes, les impacts de performance liés à la charge du système sont étudiés en fin de cycle de développement (en aval). Ainsi, dans le meilleur des cas, la performance des composants est testée lors de leur livraison ; et, dans le pire des cas, à la fin du projet. Dans ces deux situations, il est souvent trop tard. Et les corrections aux problèmes de performance sont complexes à gérer, car elles peuvent entraîner un grand nombre de modifications du code, voire d’architecture. IT-expert n°95 - janvier/février 2012 31 Afin de répondre aux objectifs attendus, notamment en termes de maîtrise budgétaire et des délais, il est essentiel d’intégrer la sensibilité face aux problèmes de performance dès le démarrage des projets. Ce positionnement permet de partager les objectifs à atteindre par tous les acteurs incluant les équipes techniques (architectes, experts, développeurs et intégrateurs), mais aussi par les équipes métier, ainsi que par le management. L’ingénierie des performances incarne une démarche pragmatique qui a pour but de fournir la qualité de service requise par le client à un moindre coût, sans pour autant chercher à atteindre les limites du système. Elle assure d’atteindre le degré de performance requis en jouant sur les leviers de gain les plus efficaces, tout en évitant de tomber dans l’optimisation à outrance. En effet, l’ingénierie des performances est constituée d’un ensemble de tâches devant se dérouler à des points précis du cycle de développement du logiciel. Objectifs de l’ingénierie des performances L’objectif de la mise en œuvre de la méthode d’ingénierie des performances, reposant sur les méthodes SPE (Software Performance Engineering), consiste à contrôler que les performances des composants de l’application ou du système cible répondent bien aux enjeux, dans les conditions de volumétrie attendues. Généralement, il s’agit : • d’identifier le niveau de performance de l’application (temps de traitements, consommation de ressources système, etc.), • d’optimiser le système ou l’application par itération, • de mettre au point des méthodes et outils permettant au projet de s'assurer que ses développements respectent les objectifs de performance cibles, et notamment de définir un contrat de service pour les transactions sensibles et types, • de vérifier la stabilité de l’application, • de définir les conditions optimales d'utilisation de l’application, permettant ainsi de définir les réglages a priori de toutes les briques logicielles, matérielles et réseau, • et de fournir les éléments nécessaires au dimensionnement des plates-formes qui pourraient être nécessaires dans le cadre d’une évolution des métriques clients. Cette vérification est réalisée par une première phase de modélisation alimentée par l’approche technique des traitements, une définition des développements à prioriser, puis par comparaison des temps d’exécution des composants du système cible relevés sur le banc de qualification des performances (avec des valeurs de référence obtenues à partir de Service Étalon). Une démarche forcément globale Les caractéristiques spécifiques de l’architecture sur laquelle repose le système cible justifient qu’une attention particulière soit portée aux performances d’exécution de l’ensemble des composants. La mise en œuvre de l’ingénierie des performances permet de qualifier l’application en termes de performance de consommation de ressources et de robustesse. Elle contribue à assurer en particulier le bon fonctionnement du système en fonction de l’influence de paramètres tels que : le nombre d’utilisateurs, la volumétrie des données, le paramétrage, les contraintes de temps CPU, la charge réseau, etc. 32 IT-expert n°95 - janvier/février 2012 Comment ça marche ? Afin d’optimiser l’exploitabilité de la solution et de s’assurer de la parfaite prise en compte de toutes les exigences du contexte du système cible, la démarche doit être fondée sur des métriques permanentes qui permettent de suivre tout au long du projet les problématiques de performance. Modélisation SPE Abaques Étalonnage Métrique permanente Spécifications Intégration Recette (Usine) Validation (Recette client) Pilote Production Développements Architecture technique robuste, souple et évolutive Processus de métrique permanente Ces métriques sont assorties d’un processus d’ingénierie des performances qui repose sur cinq grandes phases : • La prise en compte des contraintes de performance dès le démarrage du projet à travers une modélisation orientée performance de l’architecture applicative globale du système cible. Il convient tout d’abord de définir la stratégie de performance et le niveau de performance attendu, ainsi que la modélisation des services associés aux processus métiers. Ensuite, il s’agit de modéliser l’architecture applicative des services choisis (diagrammes de séquence) et orientée performances (graphes d’exécution). Une phase de résolution des modèles de performance et d’analyse des résultats au regard des performances est effectuée pour statuer sur l’état de l’architecture (acceptation, évolution, etc.), afin de définir les métriques à surveiller et la classification des composants en fonction de leur impact et de leur criticité sur les performances du système. • Un étalonnage représentatif du système cible afin de valider les choix d’architecture en avance de phase et de détecter les goulets d’étranglement. Dès que le projet est suffisamment avancé, il faut procéder au développement en priorité des services représentatifs ou de leurs prototypes, à la définition d’une base de référence de mesures pour ces services et effectuer une itération sur le modèle de performance à partir des mesures étalon. • L’extrapolation des contraintes de performance au système cible complet en définissant le niveau de performance attendu par chacun des services, classifier les composants de chacun des services en fonction de leur typologie de performance et la distribution des objectifs de performance sur chacun des composants en fonction de sa typologie. • La qualification de chacun des composants du système cible au regard des contraintes de performance qui lui sont associées. La réalisation des tests de qualification des services représentatifs du composant, et la comparaison avec les objectifs de performance donnant lieu à une acceptation ou rejet du composant, et l’évaluation des améliorations possibles. • Des tests d’optimisation pour converger par paliers vers les performances globales cibles notamment lors des phases d’intégration et de recette usine dans la mesure où des conditions proches des plates-formes cibles sont disponibles. La réalisation des tests de performance, de charge et de surcharge des services représentatifs, l’évolution par palier jusqu’au fonctionnement nominal demandé, puis la prise en compte des périodes de pointe et pics de données. La comparaison avec les objectifs de performance donnant lieu à une acceptation ou rejet du service, et à l’évaluation des améliorations possibles. IT-expert n°95 - janvier/février 2012 33 Les tests de charge et de performance s’appliquent sur une plateforme opérationnelle ou sur un environnement représentatif. Ces tests sont effectués en simulant des utilisateurs qui exécutent des transactions supportées par le système à tester. Phase de modélisation Initialisation du processus Modélisation orientée performance Non conformité Résolution du modèle de performance Itération Classification des composants Phase d’étalonnage Étalonnage de l’application Non conformité Problème d’architecture Phase d’extrapolation Extrapolation du procesus Rédaction du dossier d’analyse des performances Livraison d’un composant externe Fabrication d’un composant Non conformité Problème de développement ou de spécification Phase de qualification Qualification technique Phase d’optimisation Optimisation Validation de la recette technique Processus d’ingénierie des performances 34 IT-expert n°95 - janvier/février 2012 Non conformité Problème de développement ou de spécification Garantie de qualité et de réduction des coûts La mise en œuvre de l’ingénierie des performances est essentielle à une démarche d’architecture orientée performance. Elle permet d’apprécier les performances d’un système par la simulation comportementale lors des différentes phases du projet. Cette approche proactive favorise l’utilisation de bonnes pratiques de performance, l’identification et la résolution au plus tôt des problèmes liés à la performance, le calibrage au plus juste des tests de performance et de montée en charge nécessaires à la validation du système. Les bénéfices de l’ingénierie des performances se traduisent en termes de garantie de la qualité, de la disponibilité, du respect des délais et de la réduction des coûts. n Nasime El Fartass, TAM Performance Solution Manager Mohamed Bedouani, TAM Offering Manager Atos, acteur international des services informatiques avec un chiffre d’affaires annuel de 8,6 milliards d’euros et 74 000 collaborateurs dans 42 pays, fournit à ses clients du monde entier des services transactionnels de haute technologie, des solutions de conseil et de services technologiques, d’intégration de systèmes et d’infogérance. Grâce à son expertise technologique et sa connaissance industrielle, il sert ses clients dans les secteurs suivants : Industrie, Distribution & Services ; Public, Santé & Transport ; Services Financiers ; Télécoms, Médias & Technologie ; Energie & Services Publics. Atos délivre les technologies qui accélèrent le développement de ses clients et les aide à réaliser leur vision de l’entreprise du futur. Atos est le partenaire informatique mondial des Jeux Olympiques. Le Groupe est coté sur le marché Eurolist de Paris et exerce ses activités sous les noms d’Atos, Atos Consulting and Technology Services, Atos Worldline et Atos Worldgrid. Site web : http://fr.atos.net IT-expert n°95 - janvier/février 2012 35 Cloud Computing World expo Solutions DataCenter Management Livres La sécurité dans le cloud Cloud par-ci, cloud par-là… Lors de l’arrivée du concept, les grands acteurs installés ont essentiellement critiqué ces architectures, qualifiées de non sécurisées, jusqu’à… ce qu’ils proposent eux-mêmes leurs solutions. Cependant, la problématique surexposée de la sécurité n’a pas disparu pour autant. D’où l’intérêt de ce livre qui ne se limite pas aux uniques aspects liés à la sécurité. Après une large introduction très didactique consacrée au cloud sous toutes ses formes (deux chapitres et 54 pages), l’auteur aborde les risques et aspects juridiques et les responsabilités de chacun face à ces environnements. Puis les principes de sécurités font l’objet d’une centaine de pages : architecture, données sensibles, chiffrement, politiques et bonnes pratiques, stockage, client captif du cloud… Le livre se penche sur le cloud interne ou privé, également abordé sous l’angle de la sécurité. Sans oublier le choix d’un fournisseur de cloud : garanties, risques et critères de sécurité. Enfin, les RSSI apprécieront les 20 pages consacrées au framework d’évaluation de la sécurité de l’information en mode cloud, avec check-lists et métriques. Un livre illustré de schémas simples mais complets, avec une démarche et un ton pédagogiques et concrets. La sécurité dans le cloud Techniques pour une informatique en nuage sécurisée Vic (J.R.) Winkler Éditeur : Pearson 336 Pages - environ 37 € Urbanisation, SOA et BPM - Le point de vue du DSI DSI de Bouygues Telecom de 2001 à 2006, puis directeur général adjoint de la même entreprise, Yves Caseau est bien placé pour aborder la question de l’urbanisation du point de vue du DSI. Toujours rédigée pour les DSI, managers et chefs de projets, mais aussi aux développeurs et concepteurs, cette quatrième édition reprend bien évidemment l’ensemble du propos sur les principes de l’urbanisation et du BPM (Business Process Management). Complet, l’ouvrage aborde tous les aspects de ces projets (stratégiques, organisationnels, matériels ou logiciels) sur trois parties. La première présente la démarche d'urbanisation et ses enjeux à partir des objectifs opérationnels d’un DSI. La seconde analyse et répond aux six contraintes fondamentales : coût, agilité, exploitation, conduite du changement, gestion des données distribuées et flexibilité du déploiement. Dans la troisième partie, l’auteur expose sa vision sur les évolutions à venir des systèmes d'information. Bien plus qu’une republication, cette nouvelle édition a été enrichie et améliorée. Ainsi, l’auteur a intégré les problématiques liées au cloud computing et à l’évaluation de la complexité, enjeux majeurs du système d’information contemporain. Urbanisation, SOA et BPM - Le point de vue du DSI (4e édition) Yves Caseau Éditeur : Dunod 304 pages - environ 35 € IT-expert n°95 - janvier/février 2012 37 21 & 22 MARS 2012 - CNIT - PARIS - LA DÉFENSE LE RENDEZ-VOUS DE LA GESTION DE L’INFORMATION ET DU DOCUMENT NUMÉRIQUE EN ENTREPRISE z, partagez, sécurisez archivez, diffuse z, se ni ga or z, ée cr , ez ch er ch re z, Dématérialise NOUVEAU TEMPS FORTS DOCUMATION en tenue conjointe avec > Un espace Innovation > Les E-Doc Awards > Le Village SharePoint Project et Office 365 > Le Pavillon de la FNTC > Le Pavillon Communication Technique 180 EXPOSANTS ET DES CONFÉRENCES D’EXPERT CIBLÉES Archivage • Communication technique • Content Intelligence • Dématérialisation • ECM • Edition, formation • Editique • Etudes et conseils • GED • Gestion de bibliothèques /catalogues • Gestion des contenus multimédias • Gestion des processus • Green IT • Management de projet • Moteur de recherche d’entreprise • Patrimoines immatériels • Publication, Diffusion • Open source • SAAS, Cloud Computing • Social Medias • Solutions mobiles • Solutions de partage • Technologies de la connaissance Avec le soutien de Commandez votre badge gratuit sur www.documation.fr Code marketing : PUBITE
Documents pareils
Pourquoi et comment déployer une Gouvernance des contenus
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE