Quelle protection pour votre entreprise ?
Transcription
Quelle protection pour votre entreprise ?
magazine tactile pour informatique agile N° 4 09/2013 Comparatif Quel serveur choisir pour votre PME ? Dossier Mutualisez vos services Cloud SaaS Bilan 10 ans de Trusted Computing Appliances de sécurité Quelle protection pour votre entreprise ? DATA Analyse : 10 ans de Trusted Computing Stockage sommaire Les chiffres du mois tests Comparatif : des serveurs pour gérer votre entreprise Dragon NaturallySpeaking 12 Premium Mobile Acronis True Image 2014 Premium Toshiba Excite Write A4 Technologies Easy 120 Acer B296CL Buffalo AirStation Extreme AC 1750 Dell OptiPlex 3011 en co u v ert u re Appliances de sécurité Des boîtiers tout intégrés pour protéger votre entreprise T EC H N O Hadoop Accélérer l’analyse prédictive du Big Data avec la mise en cache Flash BenQ MX661 P RO J E T Solutions Lorsque Windows ne démarre plus Excel : rendre un tableau intelligent avec des tests Partagez, protégez et sécurisez un classeur Excel Contrôler un PC à distance temps libre Raspberry Pi : le phénomène jolidrive Centralisez l'ensemble de vos applications et services web préférés Chroniques Thierry Derouet Jean-Baptiste Su magazine tactile pour informatique agile éditorial Un PC à 20,63 € Comment un PC de la taille d’une carte de crédit et proposé à partir de 20,63 euros sans les taxes (admirez la précision) a-t-il pu en une petite année devenir un phénomène planétaire ? Pour moi le Raspberry Pi c’est le ZX Sinclair de mon adolescence. D’ailleurs, devinez chez qui la machine est installée chez moi ? Bah chez mon ado geek de 15 ans. Car mine de rien, ce nouvel assemblage britannique a pour lui de réveiller en nous la passion de l’informatique. Et de nous permettre de nous rappeler ce qui a fait le succès du micro : sa capacité à se laisser bricoler et à inventer les usages qui vont avec. Et dans ce numéro de PC Expert, même si notre vocation est résolument professionnelle, nous n’avons pas résisté à vous donner l’eau à la bouche en vous racontant tout ce que nous pouvions faire avec ce « Pi » qui n’est pas si éloigné dans sa conception de l’Apple premier du nom. Vous êtes notre obsession. Ce numéro de rentrée n’est pas marqué que par la passion. La raison l’anime avec par exemple un dossier de Une consacré aux « appliances » de sécurité, un secteur en plein boom. Mais aussi avec notre comparatif consacré aux serveurs pour PME. Car nous n’oublions pas qui sont nos lecteurs. Même à l’heure du « Cloud », l’informatique raisonnée conserve des formes très conventionnelles où applications et données sont conservées bien au chaud (mais ventilées quand même ;-) dans nos bureaux. Mais je n’en dirais pas plus. C’est à vous de découvrir ce qui fait toute la richesse et l’originalité de notre offre de lecture. Bonne rentrée. le magazine L’application iPad de l’agence Gamma-Rapho © Keystone, Michel Huet, Isabelle Maçon, Jean-Claude Francolon, Norbert Wu / Gamma-Rapho chronique La femme est l’avenir du PC L es constructeurs de PC ont-ils marché sur la tête ? Cette question, nous sommes nombreux à nous l’être posée. Et ce à l’occasion l’an passé de la sortie de Windows 8 tellement nous étions confrontés à une déferlante hétéroclite. Comme si le monde était toujours comme avant l’ère de « l’après PC ». Et les constructeurs de continuer à sur-segmenter leur offre. Une offre illisible. Une offre à pleurer. Manquait ce petit supplément d’âme ? Du bon sens ? Dépité, j’en suis arrivé à m’offrir un iMac. Car voilà, entre l’iMac et moi il y a eu une émotion, des poils sur les bras qui se sont hérissés. Comment un simple iMac pouvait-il réussir à m’enchanter tandis que j’avais cette pléthorique offre de PC devant moi ? Comment un produit si onéreux pouvait-il d’un coup d’un seul me contenter moi qui suis en général assez rationnel et assez distant avec les produits Apple ? Quand on est associé à des bureaucrates qui eux, margent… L’ex- plication est pourtant simple. De l’âme et du bon sens il en manquait. Car nos constructeurs avaient juste oublié qu’ils avaient des clients. Mais pas qu’eux. Voici un an que Steven Sinofsky, aujourd’hui parti de chez Microsoft, a – si je puis me permettre – « foiré son coup ». Sinofsky Thierry Derouet 20 ans de presse et 10 ans d’Internet n’ont pas blasé notre chroniqueur, persuadé que la révolution des usages n’a fait que commencer. chronique avait pourtant réussi à impressionner aussi bien en sublimant Office et en faisant sortir son employeur du « chaos Vista » avec Windows 7. ... et quand ce n’est visiblement pas une grande révélation Donc L’écosystème PC avait été ébranlé par un Microsoft plus soucieux de maintenir des marges très confortables que de ré-enchanter son écosystème. pour faire simple on va dire que l’écosystème PC avait été ébranlé par un Microsoft plus soucieux de maintenir des marges très confortables (25 % en moyenne c’est juste mieux que Google et mieux qu’Apple sur ce dernier trimestre) que de ré-enchanter son écosystème. J’exagère ? Réellement ? Pourquoi alors l’un des anciens responsables français de Microsoft encore aux commandes l’an passé a-t-il suggéré – lors de l’annonce du départ de Steve Ballmer (qu’il apprécie réellement) – qu’il (je cite en traduisant) « sera intéressant de voir comment le nouveau Microsoft pourra combattre sa bureaucratie interne, laquelle ignore souvent ses clients ». Cruel commentaire n’est-il pas ? Un esprit de reconquête Les constructeurs de PC ne sont pourtant pas stupides. Du moins pas tous. Et j’avoue être séduit par la démarche de deux d’entre eux : Lenovo avec ses produits « ThinkPad » qui mériteraient une meilleure exposition et HP avec l’état d’esprit qui y règne de nouveau. Les autres ? Chez Acer, ils sont « à la peine ». Dell, tant que les grandes orientations stratégiques n’auront pas été prises (qui va demain contrôler financièrement Dell ?), continuera de proposer des produits où charmer le client a été oublié (j’ai plusieurs exemples en tête à leur disposition). Mais cela s’explique. C’est – comme le dit un proverbe chinois – toujours « par la tête que le poisson pourrit »… à méditer. Trois femmes, deux entreprises, un même destin Le cas HP doit faire école (j’aurais aussi pu prendre celui de Yahoo!). Car depuis l’arrivée de Meg Whitman, HP pense de nouveau à rendre « lisible et cohérente » son offre de produits et services. Tout n’est pas encore parfait. 14 modèles de PC portables – rien que pour les professionnels – c’est beaucoup trop. Et on m’a rapporté que la dame validait elle-même tous les produits de sa firme. Avec pour effet de simplifier ses gammes, et surtout de donner une image cohérente de sa marque aussi bien du point de vue des valeurs que de marqueurs visibles comme le design. Et vous savez comment ils s’y prennent chez HP ? Juste en regardant – enfin – qui étaient mondialement leurs clients (et non en se contentant d’une vision par trop texane). Bonne nouvelle, Meg est en ce moment aidée par deux autres femmes chez Microsoft : Julie Larson-Green et Tami Reller. Car depuis que Julie et Tami ont remplacé Steven, Microsoft a modifié ici et là Windows 8 en remettant au cœur de leurs décisions leurs clients. Et vous savez à quoi je le vois ? C’est très simple, les hommes recommencent à s’intéresser à leurs produits. Dell Latitude 10 10 ans après l’initiative « Trustworthy Computing » lancée par Bill Gates, le sujet de la « confiance » en l’informatique n’a jamais été autant au cœur de l’actualité, notamment avec les révélations autour de PRISM. L’occasion de faire un point sur le rôle du Trustworthy Computing Group, ses réalisations et ses défis… data 10 Ans deDell Trustworthy Latitude 10 Computing Les entités clés du TWC On trouve dans le giron du Microsoft Trustworthy Computing Group, tout un ensemble d’entités complémentaires et plus ou moins indépendantes, dont les principales sont : – Le TWC Team à l’origine notamment du SDL et des bonnes pratiques ; – Le MSRC (Microsoft Security Response Team) en charge de fournir des réponses et parades “N aux attaques et découvertes de vulnérabilités mais aussi de la diffusion des fameux correctifs du 2e mardi du mois (ainsi que des correctifs émis en urgence) ; – Le MMPC (Microsoft Malware Protection Center) analyse les menaces émergentes et les tendances ; – La DCU (Digital Crimes Unit), une équipe (de juristes, psychologues et ingénieurs) ous avons rendu nos logiciels et services toujours plus attractifs pour les utilisateurs en ajoutant des fonctionnalités et en rendant notre plateforme richement extensible. En la matière, nous avons fait un super boulot. Mais toutes ces fonctionnalités sont sans attrait si les clients n’ont pas confiance en nos logiciels. À partir de maintenant, chaque fois que nous aurons à choisir entre ajouter une fonctionnalité ou résoudre un risque de sécurité, nous devrons choisir la sécurité »… Cette déclaration est extraite d'un email envoyé par Bill Gates à tous les employés de Microsoft le 15 janvier 2002. Un email qui allait bouleverser profondément le fonctionnement de l'entreprise, mais aussi profondément influencer nombre d'acteurs du monde informatique et de l'Internet. Un email qui jetait les chargée de rendre le monde plus sûr en luttant par exemple contre les botnets ou les technologies qui facilitent l’exploitation sexuelle des enfants. On lui doit notamment la technologie Photo DNA utilisée par les polices internationales pour traquer les photos pédopornographiques. La DCU travaille en étroite collaboration avec les forces de l’ordre, les universités et les ONG. bases de la création du Trustworthy Computing Group (TWC) au sein du géant de Redmond, une division transversale aux autres dont le rôle n'a cessé de s'amplifier. Depuis, Microsoft n'a jamais dérogé à cette règle d'or. Pour Bernard Ourghanlian, Directeur Technique et Sécurité de Microsoft France, « ça n’a pas été facile, mais si on se retourne sur les accomplissements du TWC après cette première décennie, on constate que beaucoup de progrès techniques ont été réalisés. Mais on constate surtout qu’il y a eu une vraie prise de conscience par l’entreprise que ce sujet (la sécurité) était très important. Ce changement de culture d’entreprise est sans doute la grande réussite de l’initiative TWC. » Un mémo visionnaire Le mémo de Bill Gates était la conséquence d’une année noire pour Microsoft data 10 Ans deDell Trustworthy Latitude 10 Computing SD3 et la programmation sécurisée L’email de Bill Gates a conduit Microsoft a redirigé une partie considérable de son énergie et de ses ressources vers l’amélioration de la sécurité intrinsèque des productions de l’éditeur. Pour cela, il a adopté une approche désignée par l’acronyme SD3 signifiant « Sécurisé par design, sécurisé par défaut, sécurisé au déploiement ». « Sécurisé par défaut » implique que les produits ont moins d’options actives par défaut afin de réduire la surface d’attaque. « Sécurisé au déploiement » a conduit notamment à l’introduction de mécanismes de mises à jour automatique. « Sécurisé par design » vise à réduire les vulnérabilités dans le code et a conduit à la création et l’adoption systématique du SDL (Security Development Lifecyle). Le SDL implique de construire des modèles d’attaque dès la phase de conception, puis d’architecturer, de construire et de tester les fonctions et les produits pour s’assurer de leur résistance aux menaces possibles identifiées lors de la conception. SDL comporte ainsi un ensemble de guides, d’outils et de méthodes pour un développement plus sécurisé des programmes. Depuis 2004, SDL est obligatoire pour tout produit estampillé Microsoft et aucun produit Microsoft n’est entré en phase de développement en dehors des guidelines du SDL. Cependant il aura fallu attendre et pour le monde. Les attaques terroristes sur les tours du World Trade Center rappelaient à tous l’importance d’assurer l’intégrité et la sécurité des infrastructures. Code Red avait infecté 300 000 serveurs Web hébergés sous IIS (le serveur Web de Windows Server). Nimda mis 22 minutes à devenir le ver le plus répandu sur Internet. À cette époque, le MSRC, le service dédié à la mise en œuvre de réponse face aux attaques et découvertes de failles, était directement dépendant… du service marketing ! Ces événements ont servi d'électrochoc et considérablement anéanti la confiance que les entreprises et les utilisateurs plaçaient en Microsoft. data 2007 et l’arrivée d’Office 2007 et Windows Vista pour voir les deux produits phares de Microsoft sortir dans des versions implémentant intégralement les processus SDL. Rendu public en 2004, le kit SDL a connu une évolution majeure en 2009 avec la publication d’une version simplifiée adaptée aux développements agiles. Très fréquemment actualisé, SDL est aujourd’hui adopté par nombre d’acteurs du marché. Récemment, MidAmerican Energy témoignait que 350 jours après avoir implémenté Microsoft SDL, cette unité du groupe Berkshire Hataway était la seule pour laquelle le cabinet d’audit de sécurité recruté n’avait trouvé aucune vulnérabilité. 10 ans de Trustworthy Computing Et tout le thème de cet email, bien au-delà de la sécurité, repose d’ailleurs intégralement sur cette idée de confiance : « L'informatique tient déjà une place importante dans de nombreuses vies. Dans les dix ans à venir, elle fera partie intégrante de presque tout ce que nous ferons. Microsoft et l'industrie informatique ne réussiront dans ce monde numérique que si CIOs et consommateurs sont convaincus que Microsoft a créé une plate-forme pour une informatique de confiance… » écrivait ainsi Bill Gates. Et de poursuive : « L’informatique de confiance (Trustworthy Computing) est une informatique aussi disponible, fiable et sûr que peuvent l’être les services de téléphonie fixe, d'eau et d’électricité. » Dans son mémo, Bill Gates décrit qu’une informatique de confiance doit impérativement reposer sur quatre piliers : la sécurité (non seulement données et services doivent être protégées mais les modèles de sécurité doivent aussi être simples à mettre en œuvre pour les développeurs), la disponibilité (les pannes systèmes et logicielles doivent disparaître par le biais de redondance, de récupérations automatiques et d’autogestion des systèmes), le respect de la vie privée (les utilisateurs doivent toujours rester en contrôle de leurs données personnelles et de l’usage qui en est fait) et les pratiques commerciales (transparence et fairplay). C’est cette mise en avant simultanée de ces 4 piliers qui font du mémo de Bill Gates un texte souvent perçu comme visionnaire. Dans les mois qui ont suivi la publication du mémo, toute l’entreprise Microsoft s’est mise à l’arrêt : tous les développements ont été stoppés, tous les développeurs envoyés en formation « sécurité » et tous ont dû reprendre ensuite leurs codes pour mettre en pratique les consignes établies et les ébauches de modèles de dévelop- pement sécurisé mis en chantier par les spécialistes de la sécurité embauchés par Microsoft. Dans le même temps, de nouvelles équipes allaient se forger autour des quatre piliers édictés par Bill Gates pour former ce que l’on appelle aujourd’hui le « Trustworthy Computing Group ». Des débuts difficiles Durant ses trois premières années d’existence, le TWC a surtout été perçu comme une opération marketing, une stratégie d’écran de fumée pour masquer les effets désastreux d’années de développements inconsidérés. En un sens, l’email de Bill Gates poursuivait, effectivement, en partie cet objectif – il n’aurait pas été rendu public sinon. Mais au-delà de l’aspect « marketing », il a engendré un profond changement de culture au cœur même des équipes de développement et de gestion de projets. Soudain, leurs « idéaux » communs sont devenus Sécurité, Vie Privée, Fiabilité. Avec le recul, l’effort s’est révélé réel et concret. D’une manière générale, toute initiative qui perdure plus d’une décennie est nécessairement plus qu’un jouet marketing. Comme souvent chez Microsoft, elle traduisait une vision à long terme basée sur la persévérance. Les observateurs peu informés de ces sujets ont souvent imaginé que la simple écriture du mémo allait bouleverser des années de laxisme et rendre tous les systèmes et logiciels Microsoft sécurisés du jour au lendemain. Les vagues de virus qui ont suivi (et notamment les tristement célèbres Slammer et Blaster) n’ont, dès lors, générer que raillerie. Dans les deux ans qui ont suivi le mémo les articles se sont multipliés sur les lents progrès réalisés par Microsoft, l’accent de ces articles étant généralement plus orientés sur « la lenteur » que sur « les progrès » eux-mêmes. data 10 ans de Trustworthy Computing Pourtant, le « Push Sécurité » ordonné par Bill Gates entraînant la suspension des développements et la formation de tous les développeurs, mena directement à l’époque à la création du Windows XP SP2/SP3 diffusé gratuitement (alors que le projet original était une évolution payante de l’OS). Elle conduisit aussi à la débâcle Longhorn et, en partie, au retard et à l’échec de Vista (les sécurités accrues engendrant de fortes incompatibilités). Les victoires du TWC Le TWC a été le moteur et l’architecte de nouvelles méthodes de développement et de nouvelles fonctions de sécurité au cœur des produits Microsoft. Son influence a donné naissance à toute une panoplie de technologies de défense (DEP, ASLR, UAC, BitLocker, SecureBoot, Win- dows Defender, etc.) et toute une collection d’outils de sécurité (MSE, EMET, MSRT, BinScope Binary Analyzer, Attack Surface Analyzer, etc.). Le TWC a surtout été le moteur de nouvelles pratiques en matière de développement et de conception des produits introduisant notamment l’idée que tous les produits Microsoft devraient désormais suivre les philosophies « SD3 » (Secure by Design, Secure by Default, Secure in Deployment) et « PbD » (Privacy by Design). Une volonté qui a notamment conduit à la publication en 2004 du premier kit SDL (Security Development Lifecycle), un ensemble de méthodes, outils et ressources, destinés à aider les développeurs dans l’écriture d’un code plus sécurisé. Aujourd’hui, le TWC peut enfin mesurer l’impact de tous ses efforts. Windows Vista (qui fût le premier Windows développé à l’aide du SDL) data 10 ans de Trustworthy Computing affichait 45 % moins de vulnérabilités découvertes que XP un an après leur lancement. SQL Server 2005 (première version de SQL Server en SDL) affichait 91 % moins de vulnérabilité que SQL Server 2012. Le projet Peach de Dan Kaminsky révélait qu’Office 2003 contenait 126 vulnérabilités exploitables, contre seulement 7 pour Office 2010 soit une baisse de 94 % des vulnérabilités entre Office 2003 (pré SDL) et Office 2010 (post SDL). Le nombre de vulnérabilités découvertes dans les produits Microsoft n’a cessé de diminuer depuis 2004 et a atteint son plus bas niveau en 2012, alors que le reste de l’industrie a plutôt vu le nombre de vulnérabilités augmenter. En 2011, 39 vulnérabilités ont été découvertes dans Internet Explorer contre 89 sur Firefox et 278 sur Chrome. En 2012, 41 vulnérabilités ont été découvertes sur Internet Explorer, 159 sur Firefox, 125 sur Chrome. Autre exemple, une simple interrogation sur la base de connaissance de Secunia, montre qu’en 2013 seulement 10 alertes ont été publiées pour Internet Explorer, contre 15 pour Firefox et 16 pour Google Chrome Dans un tout autre domaine, le TWC et ses divisions comme la DCU (Digital Crimes Unit) ont conduit, dans le cadre du projet MARS (Microsoft Active Response for Security) à la fermeture de 7 réseaux de Botnets (Waledac, Rustock, Kelihos, Zeus, Nitol, Bamital, Citadel). Dernière illustration, les études sur les machines infectées montrent des taux d’infection toujours plus faibles à chaque nouvelle génération de Windows (0,2 ordinateur infecté pour 1 000 scannés par MSRT sur Windows 8 64 bits). Des efforts vains ? Plus de dix ans après sa publication, l’email de Bill Gates reste d’une incroyable actualité. S’il ne fait guère de doute que Microsoft a réussi à restaurer une certaine crédibilité quant à sa volonté et sa capacité à produire des produits sécurisés, les thématiques de « l’informatique de confiance » et de « la confiance en l’informatique » restent toujours un vaste chantier en construction. Notamment parce que quatre révolutions sont venues bouleverser les acquis et remettre la vision originelle de Bill Gates au cœur des débats. 1/ La prise de contrôle des états Dans les années qui ont suivi la publication du mémo de Bill Gates, le rôle d’Internet dans les échanges et les communications n’a cessé de se renforcer. Les états ont pris conscience qu’ils avaient la nécessité de réguler l’internet d’une manière ou d’une autre. Hors des débats sur la Net Neutralité, force aujourd’hui est de reconnaître que, dans tous les pays, il existe des législations qui vont en ce sens. C’est vrai aux USA, comme en Europe ou en France. La nouvelle Loi d’orientation militaire française, actuellement en discussion à l’assemblée, prévoit des évolutions réglementaires fortes dont il est difficile de mesurer les impacts. Tous les acteurs qui assurent la continuité du service public devront ainsi signaler leurs incidents de sécurité, placer des sondes opérées sur le territoire français pour détecter les fuites d’information et accepter de subir des audits de l’ANSSI à tout moment. Elle prévoit aussi l’usage de la force aussi bien virtuelle que physique pour riposter contre des cyberattaques. La récente affaire Snowden et la divulgation de PRISM mettent à mal l’idée même du « Trustworthy Computing ». Bernard Ourghan- data 10 ans de Trustworthy Computing lian le reconnaît bien volontiers : « De manière objective, on se rend compte qu’il y a eu une perte de confiance. Mais les moyens d’action de Microsoft en la matière sont assez limités. » Il est clair que Steve Ballmer ou Bill Gates auront beau jurer sur l’honneur protéger les informations qui sont confiées à Microsoft via ses logiciels et services en ligne, personne ne les croira. Pour Bernard Ourghanlian, « il est nécessaire qu’il y ait une prise de conscience au niveau des États et des gouvernements. Il y a une position d’équilibre à trouver pour faire en sorte qu’un certain nombre de pratiques aux frontières de la Loi soient abandonnées et que des entreprises comme Microsoft ou Google soient autorisées à communiquer davantage sur les demandes et pratiques de la NSA et autres organismes officiels. À partir du moment où il n’y a aucune transparence, il paraît difficile de pouvoir rétablir la confiance. » D’autant que l’absence de transparence conduit aussi à toutes sortes de fantasmes paranoïaques. Mais les états ne sont pas prêts aujourd’hui, et ne seront pas davantage prêts demain à une totale transparence. S’il ne peut y avoir de transparence sur les contenus précis, il peut cependant y en avoir sur le nombre d’informations transférées, sur le type d’informations qui ont été transférées et sur les moyens techniques et légaux qui ont été mis en œuvre pour les obtenir. C’est exactement le sens des demandes formulées par Microsoft, Google, Facebook et autres acteurs du marché mis en cause dans les déclarations de Snowden. 2/ Le Cloud « La confiance joue un rôle encore plus grand à partir du moment où on confie ses données à un tiers, » rappelle Bernard Ourghanlian, « avec le Cloud, on a assisté à un rééquilibrage assez significatif des priorités du TWC. » Si la sécurité a beaucoup focalisé l’attention du TWC lors de ses premières années d’existence, les concepts de « vie privée » et de « fiabilité » se sont rapidement retrouvés d’importance égale. « Avec le Cloud, le respect de la vie privée prend une toute autre dimension. C’est aussi vrai de la fiabilité des systèmes où la très haute disponibilité devient une nécessité absolue. » Le Cloud est sans aucun doute la révolution la plus importante qui donne au TWC (et à l’email de Bill Gates) une dimension fondamentale. À l’échelle du Cloud, les problèmes et leurs impacts sur la sécurité, la disponibilité et la vie privée sont multipliés. 3/ La généralisation du Big Data Le respect de la vie privée est encore au centre d’une autre révolution : celle du Big Data. Aujourd’hui, nos navigations Web, nos smartphones, nos tablettes, nos usages mobiles et Internet, génèrent des volumes astronomiques de données qui sont récoltées et analysées. On le sait, la « gratuité » de bien des services Internet se fait au détriment d’une petite partie de la vie privée de chacun d’entre nous. Le Big Data est sans aucun doute un domaine d’avenir qui a des implications extraordinaires en termes de Business bien évidemment, mais aussi, on l’oublie souvent, en matière d’épidémiologie, de santé publique, d’analyse d’évolution des populations, etc. Aujourd’hui, la plupart des acteurs se cachent derrière des petites cases à cocher par lesquelles l’utilisateur confirme être conscient que des informations personnelles peuvent être récoltées. À partir du moment où on génère et on récolte des volumétries astrono- data 10 ans de Trustworthy Computing miques de données, « il ne suffit pas de demander à l’utilisateur si on peut ou non récolter des informations personnelles. Il faut aussi savoir ce que l’on va en faire et pour quels usages ces données sont prévues. On s’est exprimé à de nombreuses reprises pour demander une évolution des pratiques. Si l’on veut que le Big Data soit un succès, il faut préserver la vie privée des individus. Si on remet en cause la confiance derrière un modèle, tout s’effondre, » prévient Bernard Ourghanlian. Évidemment, à l’instar de Google, Microsoft – notamment via ses services Bing – récolte nombre d’informations sur ses utilisateurs. Pourtant, pour Microsoft, les pratiques des deux ennemis ne sont pas comparables. Dès 2007, l’entreprise a édicté des principes clairs autour de la recherche et la publicité en ligne. Et sa politique d’anonymisation des informations récoltées est connue et transparente. Cependant, si les différents acteurs promettent toujours que les informations récoltées sont anonymes ou « anonymisées » après un certain délai, nombre d’expérimentations ont montré qu’il était possible de réidentifier des données a priori anonymes en rapprochant les informations de multiples sources. MS Research travaille d’ailleurs sur ces problématiques d’anonymisation des informations avec différents projets comme la « Differential Privacy » (cf. les différentes publications de Cynthia Dwork : http://research.microsoft.com/enus/people/dwork/recentpublications.aspx). Dans une société de plus en plus centrée autour de l’information et de la donnée, l’approche orientée sur la collecte ne suffit plus à assurer un respect de la privée et le TWC oriente aujourd’hui davantage ses efforts vers l’utilisation faite des données. 4/ L’ultra mobilité des personnes et des informations Avec l’ouverture sur le monde imposée par la mobilité et Internet, l’architecture des systèmes d’information a considérablement évolué, mais Bernard Ourghanlian constate que la plupart des entreprises ne l’ont pas encore intégré : « Nombreuses sont celles qui pensent encore que tous les malwares seront laissés à la porte de l’entreprise. En réalité, le fait que des malwares entrent dans le système d’information est devenu une chose ‘normale’. » Force est de reconnaître que les dispositifs de sécurité mis en place il y a plusieurs années ne servent plus à rien aujourd’hui. Croire que les pare-feu et antivirus installés suffisent à défendre le patrimoine de l’entreprise est une utopie. Patrick Pailloux, le directeur de l’ANSSI, invite depuis deux ans les DSI à un retour aux fondamentaux (« Back To Basics »), leur reprochant d’avoir empilé les outils de sécurité sans s’attaquer aux origines du mal : la multiplication des comptes admin, les mots de passe à 2 caractères, le refus ou l’oubli de patcher systématiquement serveur et postes, etc. Pour Bernard Ourghanlian, « ce ‘Back To Basics’ est primordial. Ce qui me frappe le plus, c’est qu’aujourd’hui les particuliers sont souvent mieux protégés que dans les entreprises. Une gestion efficace des patchs et des identités reste encore à mettre en œuvre dans bien des entreprises... Il faut aussi se focaliser sur la protection du patrimoine informationnel ! » Pourtant, sous l’impulsion du TWC, Microsoft n’a cessé d’implémenter de nouvelles protections pour automatiser les mises à jour, simplifier la gestion des identités et améliorer la protection des données (et de l’accès aux données) dans un univers informatique dépérimé- data 10 ans de Trustworthy Computing tré. Mais cela impose à la fois de mettre à jour les OS vers les versions récentes et d’adopter Windows Server 2012 par exemple. Il faut aussi rappeler que bien des menaces de sécurité n’exploitent plus désormais des vulnérabilités logicielles, mais le manque de vigilance et la naïveté des utilisateurs. Le projet Broad Street du TWC a ainsi montré que plus de 50% des ordinateurs compromis l’avaient été au travers d’une attaque utilisant de l’ingénierie sociale. Quel avenir pour le TWC ? Ces quatre révolutions constituent les nouveaux chantiers du TWC. « Ce sont des chantiers techniques bien sûr, mais ce sont surtout des chantiers de nature sociétale, » constate Bernard Ourghanlian. C’est pourquoi l’idée moderne d’une informatique de confiance ne peut aujourd’hui être qu’un processus « en cours ». Onze ans après la publication du mémo de Bill Gates, le « Trustworthy Computing » reste une idée à concrétiser et la « confiance » reste l’objectif à atteindre. Contrairement à ce que certains affirment, le TWC n’est pas un échec. C’est une idée qui n’a jamais été aussi actuelle qu’aujourd’hui et dont le champ d’investigation ne cesse de s’élargir. En 2012, Scott Charney, actuel directeur du TWC, traçait les grandes lignes de la prochaine décennie « TWCnext », en écho au mémo de Bill Gates : « En adoptant une stratégie de sécurité plus globale, unissant la prévention, la détection, le confinement et la récupération, le monde informatique peut mieux lutter contre des ennemis toujours plus persistants et déterminés. En comprenant et mesurant ce que signifie ‘vivre dans un monde ultra connecté, truffé d’appareils électroniques et noyé dans une abondance de données’, nous pouvons élaborer des principes qui protègent efficacement la vie privée tout en tirant profit des avantages que seul le Big Data peut procurer. En s’appuyant sur l’intelligence d’ingénierie et en développant l’informatique orientée rétablissement (ROC, Recovery Oriented Computing), nous pouvons créer des produits et services flexibles en cas de pannes et assurer la fiabilité des appareils et des services quelle que soit la complexité et l’interdépendance qui existe dans nos systèmes d’information. Enfin, en étant ouvert et transparent dans nos pratiques commerciales et la conduite de nos Business, nous pouvons gagner la confiance de tous ceux qui dépendent des technologies de l’information… » Laurent Delattre data 10 ans deDell Trustworthy Latitude 10 Computing Windows 8 et le BSI : la confiance de nouveau mise à mal C’est le feuilleton « high-tech » de l’été 2013. Suite à la fuite de documents internes du BSI, le bureau fédéral pour la sécurité des systèmes d’information du gouvernement allemand, le journal Die Ziet déclarait que le BSI interdisait l’utilisation de Windows 8 dans les agences gouvernementales et avertissait l’opinion de risques de sécurité liés à l’usage de ce système. Si les titres les plus alarmants ont surgi un peu partout sur le Web suite à cette publication, la réalité est plus subtile. Ce que le BSI déconseille, c’est l’usage conjoint de Windows 8 et de TPM 2.0, le circuit présent sur certaines cartes mères pour stocker de façon sécurisée des clés de chiffrement notamment utilisées par les fonctions « Secure Boot » et « BitLocker » de Windows 8. Le fond du débat n’est d’ailleurs pas Windows 8 lui-même mais davantage la spécification du standard TPM 2.0 édicté par le « Trusted Computing Group », un groupement ouvert à tous les acteurs du marché, mais auquel le BSI reproche d’être entièrement américain (AMD, Cisco, Dell, HP, IBM, Wave) oubliant un peu rapidement qu’on y retrouve aussi des acteurs comme Fujitsu, Infineon, Lenovo, Accenture, Huawei ou Gemalto. Tout comme son équivalent français l’ANSSI, le BSI adopte une approche intrinsèquement paranoïaque qui tend à anticiper l’existence de portes dérobées dans tous les appareils. Il voit en l’utilisation conjointe de Windows 8 (ou plus exactement de Secure Boot) et TPM 2.0 de potentiels nouveaux risques. Pour le BSI, ces nouveaux risques seraient que Microsoft, la NSA ou pourquoi pas même les constructeurs chinois de ces circuits TPM aient glissé leurs propres clés permettant de contourner les chiffrements ou de bloquer le démarrage des machines à distance. Jusqu’ici, les circuits TPM étaient relativement onéreux et essentiellement présents sur les ordinateurs professionnels. Avec TPM 2.0, son utilisation grand public se généralise et des machines comme les tablettes Microsoft Surface RT, par exemple, en disposent et activent par défaut l’option Secure Boot qui l’exploite. Sur les PC traditionnels, on peut généralement opter pour ou contre l’activation du TPM au niveau du BIOS. Enfin rappelons que les Mac utilisent aussi un tel circuit, Apple l’exploitant notamment pour empêcher l’usage de Mac OSX sur des machines non Apple. Pour autant, faut-il en déduire comme le BSI que Windows 8 est forcément plus risqué que Windows 7 pour des organismes gouvernementaux ? Chacun reste libre de juger… data Cependant, on se souviendra quand même que le problème n’est pas nouveau. En 1984, alors qu’il recevait son Turing Award, Kevin Thomson, l’un des deux pères d’UNIX, rappelait que la confiance reste une chose très relative, dans un texte devenu célèbre « Reflexions on Trusting Trust ». Celui-ci démontrait, exemples à l’appui, qu’accéder au code source n’est pas suffisant car on peut modifier le compilateur pour que, sur la base d’une séquence spécifique, le code exécuté fasse autre chose que ce qui est programmé. Par extrapolation, il alertait également sur le fait que même si on faisait à la fois confiance au code et au compilateur, on pouvait en faire autant au niveau hardware et faire en sorte que, sur une séquence donnée, le processeur réalise autre chose que ce que l’on croit exécuter. Ainsi, pour Bernard Ourghanlian, « il en découle une approche paranoïaque où il est impératif de contrôler tout le hardware et tout le logiciel. On peut évidemment imaginer un ordinateur européen avec des composants totalement européens. Aucun pays en Europe n’a la capacité à le faire seul. Ça ne peut être qu’un projet européen. » Encore faut-il se donner les moyens de sa paranoïa ! Dellstockage Latitude 10 Big Data : IBM prépare sa révolution Dr. Ambuj Goyal, General Manager IBM System Storage & Networking Nous avons profité du passage à Paris d’Ambuj Goyal, responsable mondial stockage et réseau chez IBM, pour savoir quelle allait être la stratégie d’IBM en matière de stockage et réseau. Ses responsabilités englobent l’orientation des produits logiciels et matériels, la direction de la recherche et du développement, et les ventes et acquisitions couvrant ces domaines. L’entretien était placé sous le signe des données d’entreprise dans le Cloud. Voilà qui signe de façon on ne peut plus claire et forte, la nouvelle orientation d’IBM. Au-delà d’une vision stratégique, c’est bien d’un nouveau modèle économique qu’il est question : comment partager et monétiser des volumes de données en constante progression, et y associer les entreprises. L’idée majeure mise en avant par Ambuj Goyal est que les données d’entreprises sont devenues une entité à considérer en soi. Les logiciels, les matériels, les réseaux devraient tous venir en support des données car ce sont eux qui véhiculent les informations et in fine l’intelligence nécessaire au fonctionnement des entreprises. Mais comment les entreprises peuvent-elles capitaliser sur ces données vis-à-vis des autres entreprises ? Le secret : monétiser les données Pour y arriver, il faut laisser d’autres entreprises consulter ses données en leur offrant un accès contrôlé. Cet accès est fourni à travers l’ensemble d’API ouvert Open Stack, devenu un standard de facto et dans lequel IBM a acquis le rôle de leader (cf. PC Expert n° 1, p. 14). Open Stack est une initiative destinée à fournir une infrastructure data stockage en tant que service (le Cloud) et qui peut tourner sur un ordinateur dédié ou sous un système d’exploitation. Cette technologie comprend un certain nombre de projets interdépendants qui contrôlent à l’intérieur d’un datacenter des ensembles de processeurs et processus, de disques, de ressources réseaux et de machines virtuelles. Le pilotage de l’Open Stack est réalisé par des interfaces Web, donc pilotables à distance. Les utilisateurs et applications y accèdent à travers des applications serveur au sein des datacenters qui travaillent avec des applications clientes extérieures. Open Stack autorise la délocalisation géographique des données et des ressources réseau. L’utilisateur n’a plus besoin de savoir où elles sont localisées, ni comment on y accède. Openstack : une architecture modulaire, l’intelligence en plus Open Stack permet de développer de multiples types d’applications comme la réplication et l’interfaçage avec des outils de sauvegarde de données, de restauration après sinistre, mais aussi avec des moteurs pour des recherches et traitements sur ces données du Cloud. Elle apporte donc à terme – et IBM ne s’en cache pas – des capacités d’analyse sur de vastes quantités de données dans les domaines jusque-là tranquilles du transactionnel et du data mining. Une révolution. L’intérêt pour IBM c’est d’abord de participer à la définition et à la réalisation de ce que sera le Cloud dans les années à venir au travers du développement des modules et de leurs API. Audelà, il s’agit d’élaborer des idées inédites d’utilisation pour ses clients. Ici la capacité du géant américain à développer des services spécifiques et des applicatifs entiers est mise à contribution. Un sujet abordé par M. Goyal était l’aide au diagnostic médical. Dans ce type d’application les données ne sont pas uniquement vues à travers un filtre. Elles doivent être comparées aux autres données avec des pondérations qui peuvent varier. Le résultat n’est pas une valeur absolue, mais statistique qui est une fonction des pondérations choisies. Pour comprendre le résultat, le médecin a besoin non seulement de voir le cheminement logique de sa requête, mais de pouvoir intervenir sur les pondérations. Cela nécessite le développement d’applications, de nouvelles API. La protection d’anciennes comparaisons et l’injection de nouveaux filtres est successivement prise en compte lors des prochaines requêtes, affinant ainsi la pertinence du processus de requête / analyse. Tous ces indices préfigurent ce que sera la troisième grande transformation d’IBM. Pour rappel, IBM était une société de matériel où les logiciels étaient fournis gratuitement. L’auteur avait participé à cette période à la fin des années 50 quand il a travaillé avec un IBM 709. Au cours de la seconde période, initiée au début des années 70, c’est le logiciel qui était loué indépendamment du matériel. Et en même temps IBM commençait – déjà – à vendre du service. Aujourd’hui, nous sommes aux prémices d’une autre évolution majeure, celle où des mainframes existent encore. Mais IBM n’a cessé d’y ajouter de nouveaux services Cloud pour devenir une entreprise où les services et datacenters prennent une place prépondérante dans leur portfolio d’offres. Dans ces circonstances, la nouvelle orientation d’IBM semble déjà lui donner raison : ce sont bel et bien les données qui deviennent stratégiquement importantes. Tout à coup, la vente de divisions entières initiée avec les postes de travail et les portables en 2005 (et en cours de négociation pour les serveurs) est cohérente avec cette nouvelle vision. Richard Trilling data les chiffres du mois +7% C'est la croissance sur 2013 du secteur de la Business Intelligence, qui devrait avoisiner les 14 milliards de dollars en fin d'année. Avec pour leaders IBM, SAP, Oracle et Microsoft, ce secteur bénéficie d'investissements soutenus et devrait dépasser les 17 milliards de dollars en 2016. Source : Gartner 107 milliards de $ C'est le poids financier global du Cloud public qu'IDC projette pour 2017. Une valeur encourageante, puisqu'elle représente plus du double du poids actuel, évalué par IDC à 47 milliards pour l'année 2013. Avec une part de marché de 60% pour le seul SaaS. Soit un taux de croissance annuel moyen de 23%, qui démontre que ce secteur-là ne connaît décidément pas la crise. C'est surtout une croissance qui représente 400% comparé à celle du reste de l'industrie IT. Source : IDC data +2% C'est l'augmentation très légère - des montants d'investissements planétaires, bien en deçà des prévisions du même Gartner, évaluées initalement à +4,1% en février dernier. Cela représente tout de même 3,7 trilliards de dollars consacrés aux investissements de par le monde. Des montants significatifs pour une stabilité certes relative... Source : Gartner e n co en c o u v ert e r t u re re n o i t c e e é t o h r c P ppro a r s e c n lia p p A & é t i r cu é s de s e s i r ep r t n e e n co en c o u v ert e r t u re re A lors qu’Internet est encensé comme le liant incontournable du village global, l’espace où culture et données de travail circulent librement tels le lait et le miel dans les fleuves de certains paradis, il est pour tous les responsables informatiques du monde entier un véritable cauchemar, aussi nécessaire et dangereux qu’était la Via Appia aux meilleurs moments de l’Empire romain. Espace de chalandise incontournable, domaine de toutes les prédations, cette nouvelle Mare Nostrum vitale à tous ne permet la navigation tranquille qu’à ceux qui s’y présentent bien armés sous peine de pertes lourdes de conséquences. À l’instar de toutes les voies de communication que l’homme a constitué au fil de son évolution, Internet rassemble aujourd’hui son lot de prédateurs aux aguets. Bien sûr, nous ne risquons plus de nous y faire étriper (même si des vies se jouent quelque fois par son entremise). Plus subtils, les risques y sont pourtant multiples : vol ou détérioration de données, soumission de machines les convertissant en outils d’agression, mise à mal de services et bien d’autres périls attendent toute unité ou réseau qui s’y connecte. C’est un fait bien connu et disposer de protections et contre-mesures est en général admis. Le problème est : lesquelles ? En effet, le nombre et les formes des agressions possibles sont tels qu’il semble impéra- tif de disposer de toute une gamme de matériels complémentaires couvrant la totalité des risques. Si les grosses entreprises n’hésitent pas, les PME sont confrontées à une équation économique difficile : soit elles financent des environnements informatiques complexes (tant sur le plan matériel qu’humain) et problématiques pour leur compte de résultats, soit elles ne s’offrent qu’une protection minimale en se fiant à leur bonne fortune et c’est leur résultat entier qu’elles peuvent compromettre. En matière de sécurité, des solutions sont apparues au début du XXIe siècle avec les appliances. Littéralement, une appliance, c’est un boîtier qui contient tous les éléments d’un ordinateur (processeur, mémoire vive, ports entrée/sortie, disque dur) et qui est dédié à une fonction particulière : firewall, anti-virus, passerelles, VPN, filtrage d’adresses ou autre. Plutôt que d’avoir un ordinateur avec son système d’exploitation et un ou plusieurs logiciels spécialisés qu’il faut maintenir à leur rythme respectif, les éditeurs ont rassemblé le tout en les associant à des services de mises à jour unifiés. Ils ont aussi « durci » les composants de ces boîtiers afin de les protéger eux-mêmes des agressions et de les rendre encore plus fiables. Avec les appliances multifonctions, ces éditeurs ont encore poussé plus loin l’intégration et mis en œuvre plusieurs fonctions de sécurité dans un même boîtier. Georges Pécontal e n co en c o u v ert e r t u re re Risques informatiques État des lieux A vant d’entrer dans les solutions de protection, il convient de faire un point sur les risques encourus. En premier lieu, et c’est un facteur souvent mésestimé, le principal risque dans une installation informatique tient à l’interface chaise/écran, à savoir l’utilisateur lui-même. Que ce soit par distraction, laxisme, confiance, volonté de nuire, ce sont les faits de collaborateurs qui travaillent dans une organisation qui la mettent souvent en danger et la tendance au BYOD (bring your own device) ne fait rien pour arranger les choses. Il est tellement aisé de creuser un trou dans le firewall de l’entreprise avec des outils tels que Logmein ou Teamviewer (qui permettent de prendre le contrôle de son poste depuis le domicile ou d’accéder à sa machine domestique depuis le lieu de travail) que les DSI en font des cauchemars. Utiliser un matériel personnel (smartphone, tablette, clé USB, CD/DVD RW, disque dur de poche) plus ou moins « propre » semble parfaitement sans risque (« Mais, j’ai un antivirus à la maison ! ») et tellement facile que peu y prennent garde. Quant aux intranets basés sur des systèmes simples (mais plus proche de la passoire que du bouclier), ils font les délices des acteurs de l’intelligence économique. L’imagination humaine étant sans limite, nous ne saurions livrer une liste exhaustive de tous les risques possibles (quoique le bon sens permette d’en identifier la majorité) et nous nous limiterons ici à ceux liés aux connexions (Internet, liens inter-sites, clients légers, données distantes, mails). Sans proposer un glossaire complet, nos pages sur les dangers du net plus loin dans ce dossier présentent les principales catégories d’agressions dont il convient de se prémunir. Elles permettront d’identifier celles qui concernent chacun selon son périmètre d’activité et sa topologie. e n co en c o u v ert e r t u re re Check-list L Ce qu’un système de sécurité doit faire e problème de la lutte contre les risques réside dans sa complexité. Choisir la ou les bonnes défenses en fonction des besoins spécifiques de l’entreprise et de son périmètre de risque réclament une connaissance exhaustive de ceux-ci et une compétence élevée quant aux solutions techniques. Or, si nombreux sont les VAR (Value Added Resellers) à même de conduire un audit de la meilleure qualité, quelques dizaines de jours leur seront nécessaires, pour peu que l’activité soit spécifique, pour rendre une copie exploitable. Si de telles interventions sont le lot de grosses PME ou des grandes entreprises au regard de leur chiffre d’affaire, c’est proprement impensable pour une TPE ou une petite PME. Heureusement, l’ANSSI a publié un rapport sur les bonnes pratiques dans le domaine de la sécurité des systèmes d’informations : le guide d’hygiène ! Adapté aux TPE et PME, il représente une sorte de prêt-à-porter de la sécurité face à la haute couture que représentent les VAR partenaires. Ces meilleures pratiques permettent de déterminer ce que devrait garantir tout système de sécurité d’une installation. Et ces garanties tiennent en 7 axes. 1 Identifier Tout ce qui entre ou trafique sur le réseau doit avoir une identité ou une source connue (et qualifiée, c’est à dire considérée comme valide). Identifier les accès au réseau implique d’une part de disposer d’une table des utilisateurs (avec leurs droits), ce qui est assez classique, mais d’autre part de savoir quelles applications fonctionnent sur le réseau et agir en cas de présence inappropriée. Certains matériels ont une capacité de discrimination permettant d’autoriser un site social comme Facebook (nécessaire par exemple dans le cadre de la gestion d’une eréputation) mais de bloquer les jeux du même Facebook (totalement inutiles au sens de la production). Par ailleurs, l’identification des sites de connexion est une nécessité : cela implique que les accès internet sont filtrés pour gérer les destinations (interdiction pure et simple de sites dangereux, limitations à des populations et/ou des périodes précises pour certains sites). Cette fonctionnalité est en général liée à l’abonnement à un service de mise à jour auprès d’une « autorité » qui garantira à ses clients des listes exactes de ces sites. Ces meilleures pratiques permettent de déterminer ce que devrait garantir tout système de sécurité d’une installation. Et ces garanties tiennent en 7 axes. e n co en c o u v ert e r t u re re Toute présence d'un code considéré comme dangereux ou inapproprié, sur le réseau ou à son entrée, doit pouvoir être bloquée. 2 Repousser 3 Verrouiller Toute présence d'un code considéré comme dangereux ou inapproprié (virus, spywares, malwares, adwares…), sur le réseau ou à son entrée, doit pouvoir être bloquée. Là encore, cette fonctionnalité nécessite un service de mise à jour. Une fois identifiés, les éléments à risque et souvent frauduleux sur le réseau ou du réseau vers internet doivent être proscrits. Cela implique le blocage des échanges inadéquats. Les téléchargements peer-to-peer sont souvent exploités pour récupérer des applications ou des médias dits « crackés » (donc illégaux, ce qui prête le flanc à une action juridique à l’encontre de l’entreprise). Ils provoquent en outre une forte consommation de bande passante dans la mesure où le poste qui pratique ce type de téléchargement « entre dans le système » et devient serveur lui-même. Leur identification est rendue délicate par le changement permanent de leur adresse IP ou des ports exploités : le matériel de protection doit disposer d’un moyen de s’assurer d’un repérage efficace. 4 Garantir et répartir Par essence, notamment dans les TPE/PME, la bande passante est une ressource limitée. La gérer et choisir son affectation en fonction des exigences de l’entreprise sont une nécessité. Il est inaccep- e n co en c o u v ert e r t u re re table d’avoir l’accès Internet surchargé par des utilisations annexes tandis que des éléments de production (vidéoconférences, accès à des données dans le Cloud, utilisation d’applications en mode SaaS, etc.) doivent y transiter. La répartition consiste à accorder les ressources nécessaires en fonction des intérêts de l’entreprise (par exemple en priorisant des applications précises aux moments nécessaires pour des groupes sélectionnés d’utilisateurs ou en affectant une fraction précise de bande passante à certains flux). Une autre dimension de cet axe est la garantie d’existence de lien. Nul n’est en effet à l’abri d’une panne (de son lien ou de son boîtier de sécurité) et en cas de dépendance importante vis-à-vis d’internet, il convient de s’assurer de leur fonctionnement permanent. Ce service est proposé par des systèmes de redondance (deux liens sur le même boîtier, deux boîtiers sur le même lien, deux boîtiers sur deux liens). 5 Protéger Dans l’entreprise moderne, l’activité ne se limite plus à un périmètre physique exact. Outre les sociétés disposant de plusieurs établissements, il est classique de « rapporter du travail à la maison » ou, plus simplement, d’utiliser hors les murs un appareil moderne (smartphone, tablette, ordinateur portable personnel ou non) pour consulter ses mails ou exploiter une fonction de l’entreprise. Protéger les canaux d’échange est requis. Contrôler le contenu des échanges (mail, FTP…) afin d’éviter des fuites de données dommageables pour l’entreprise peut s’avérer aussi une nécessité. Une certaine déontologie doit s’appliquer ici (la loi l’oblige au demeurant) afin de ne pas confondre surveillance personnelle (recherche de mots clés tels que « Curriculum Vitae » dans les mails) et lutte contre l’intelligence économique (information sur les flux contenant des éléments significatifs de fichiers client ou de bases de secrets de fabrication). 6 Crypter 7 Administrer Dire que le Cloud est devenu une dimension incontournable des entreprises relève de la tautologie. Les données qui y sont stockées n’y bénéficient pourtant pas de la protection la plus absolue, loin s’en faut. Il est donc nécessaire de les protéger de manière à ne les rendre accessibles qu’à des personnes autorisées. Le cryptage/décryptage « à la volée » des données permet de palier cette lacune en les rendant inexploitables à ceux qui ne disposent pas de la bonne clé (un chiffrement AES avec clé de 256 bits – permis en France depuis 2004 – propose 1,16 x 1077 façons de chiffrer des données, et demanderait de très nombreuses années à un super ordinateur avant d’être cassé). Pour être exploitable par des « non-spécialistes », il est impératif de fournir des plateformes de management ergonomiques permettant aussi bien la définition des règles que la visualisation du trafic afin d’adapter le pilotage aux évolutions de la société. Cette visualisation permet par exemple d’alimenter le périmètre « identification » en connaissant bien les outils en place dans le réseau avant de procéder à une régulation des utilisations de logiciels. L’administration comporte aussi un volet information qui répercute les alertes auprès d’un compte « administrateur » en lui permettant de prendre des décisions (par exemple, savoir qu’on est victime d’une tentative de « déni de service » permet de rechercher l’origine de l’agression et d’entamer des contre-mesures). e n co en c o u v ert e r t u re re Appliances de sécurité Un spécialiste dédié C es axes de fonctionnalité sont peu ou prou (tout dépend du coût et du périmètre de sécurité proposé) supportés par une gamme extrêmement complète de logiciels et d’appareils dédiés. Très performantes et adaptables aux besoins exacts de chaque entreprise, leur mise en œuvre demande un parc matériel conséquent (des ordinateurs dotés de ressources définies en fonction de la mission qui leur sera confiée) et des compétences affirmées tant en administration de systèmes qu’en définition de règles de sécurité, ce qui a un coût assez élevé. Les appliances de sécurité présentent l’immense intérêt de la spécialisation. Assemblées autour d’éléments dédiés à ces fonctions, elles sont elles-mêmes « durcies » afin de se protéger contre les agressions et elles offrent des solutions rapidement opérationnelles même avec peu de compétences informatiques (même si l’accompagnement par un spécialiste durant les premiers pas est souvent la clé d’une sécurité réussie). Parmi les appliances, les UTM (United Threat Management ou gestion unifiée des menaces) représentent des solutions particulièrement intéressantes pour les TPE/PME. Ces boîtiers intègrent une panoplie complète de fonctionnalités répondant aux 7 axes décrits plus haut. Ce sont en quelque sorte des intégrés de la sécurité. Ce sont ces unités qui connaissent la plus forte croissance actuellement dans le monde entier. Deux grandes méthodes sont exploitées pour effectuer les tâches liées aux périmètres de sécurités choisis. La méthode comparable au « proxy » : l’appareil stocke les données sur une unité de stockage (disque dur ou disque SSD) et y applique les traitements pour lesquels il est paramétré. Les données jugées « propres » par une analyse en couverture sont transmises à la suivante ou continuent leur chemin vers leur destination. Les données considérées comme « déviantes » subissent le traitement correspondant à l’analyse qui les a détectées (mise en quarantaine, envoi de message d’avertissement au destinataire et/ou à l’administrateur…). Très pratiquée, cette méthode pose des problèmes lors de la manipulation de très gros fichiers qui sont soit ignorés (et transmis sans contrôle avec tous les risques que cela implique) soit bloqués (avec les inconvénients de production que l’on peut imaginer. Cette méthode induit en outre des latences lorsque de multiples analyses sont effectuées (ce qui est le cas lorsque tous les services de sécurité sont activés). Il convient alors de bien dimensionner (voire sur-dimensionner) la partie processeur afin de compenser cet inconvénient, une économie en la matière engendrant immanquablement des lenteurs insupportables voire des blocages. La méthode dite « à la volée » : ici, peu de stockage mais une mémoire vive et une puissance de calcul proportionnelle au nombre de fonctions de filtrage. Certains matériels haut de gamme vont jusqu’à intégrer près de cent cœurs de processeur (mais disons-le, leur prix dépasse les 150 K€ ce qui les rend inaccessibles à la quasi totalité des PME). Chaque fonction (firewall, filtrage d’url, IPsec, antivirus, analyse de trafic, répartition de bande passante…) se déroule simultanément avec les autres en exploitant le nombre de cœurs nécessaire. Les promoteurs de cette méthode garantissent le maintien des performances quelle que soit la charge de l’unité. Un autre critère doit être pris en compte tout particulièrement dans les entreprises ne bénéficiant pas des compétences internes dans ce domaine : la compatibilité ascendante. Ce critère garantit la pérennité de l’investissement initial car les politiques de règles sont décrites de la même manière sur la totalité des unités du constructeur. Ainsi, au fil de l’évolution de la société et de ses besoins, tout le travail antérieur sera portable même par un novice. Enfin, la fonction centrale reste et demeure le firewall, cœur de la protection. Les familles classiques (et un peu anciennes) se contentent de ce qu’il est convenu d’appeler un « static packet filtering » (ou filtrage statique de paquets). De manière simple, seuls l’en-tête et l’origine des paquets sont analysés. Les pare-feux de dernière génération (next gen firewalls) ont une approche plus dynamique de l’analyse et traitent la totalité des flux les traversant. Pour une protection efficace, ces derniers doivent absolument être privilégiés. La compatibilité ascendante garantit la pérennité de l’investissement initial car les politiques de règles sont décrites de la même manière sur la totalité des unités du constructeur. Tout le travail antérieur sera portable même par un novice. e n co en c o u v ert e r t u re re Appliances de sécurité Comment choisir ? T ous les éditeurs de sécurité décrivent leurs gammes par des caractéristiques numériques : débit firewall, débit VPN, débit IPS, débit antivirus, nombre de règles, nombre de connexions (ou sessions) simultanées, nombre d’ouvertures de sessions simultanées, nombre de tunnels VPN IPsec ou SSL, etc. Si ces informations sont intéressantes pour comparer des matériels, elles ne sont pas évaluées de la même manière d’un constructeur à l’autre. D’autre part, pour citer un éditeur, « comparées à la description d’un véhicule, elles vous donnent leurs possibilités à vide et en descente mais absolument pas leurs capacités en pleine charge dans une montée ». Comme indiqué plus haut, ces caractéristiques sont « théoriques », souvent exclusives l’une de l’autre (si l’on active l’antivirus, le flux firewall ne pourra jamais être atteint) et obérées par la mise en place de politiques de sécu- rité complexes. Choisir un matériel demande donc d’évaluer les besoins, et la simple catégorisation TPE/petites PME/PME ne suffit pas. Il existe des TPE de 5 personnes travaillant chez elles et manipulant des fichiers extrêmement lourds dans un milieu concurrentiel tandis que certaines PME de plus de 50 salariés n’exploitent localement que des fichiers simples et n’ont que des échanges modestes via Internet. Dimensionnement (pour donner les débits devant être assurés) et caractérisation (pour donner le type de défense, leur niveau et donc la puissance de calcul nécessaire) sont donc la clé d’une bonne sécurité. Ils reposent sur 8 axes. 1 Nombre de personnes reliées à Internet Même si ce critère n’est pas à lui seul déterminant, il contribue à dimensionner les besoins. e n co en c o u v ert e r t u re re 2 Typologie d’utilisation L’entreprise peut limiter l’utilisation de son environnement ou permettre des appareils externes de salariés (le courant du BYOD fait entrer dans les réseaux d’entreprise des configurations quelquefois inattendues) ou de visiteurs (qui peuvent avoir besoin d’accès internet par le wifi et que la plus élémentaire des sécurités interdit de laisser pénétrer dans le réseau principal). 3 Grandeur des données 4 Type d’usage Les flux se calculent à partir du nombre, du type et de la taille des fichiers à échanger ainsi que du nombre d’échanges par période de temps. Les fichiers multimédias sont par essence volumineux (et il est nécessaire d’identifier ceux qui seraient « cachés » car inclus dans des sites nécessaires mais n'étant pas « internes » à l’entreprise). De même, un Cloud a un énorme impact sur ce besoin précis puisque les données de travail transitent sans arrêt sur le net. Certes, en l’espèce, un éventuel ralentissement n’est pas directement préjudiciable au travail mais l’occupation de la bande passante limite le débit disponible pour d’autres usages. L’exploitation de logiciels sur le net (que ce soit des extranet via un navigateur ou des applications SaaS, PaaS ou IaaS plus élaborées) est un élément de consommation à calculer. C’est aussi le symptôme d’un besoin d’outil de répartition de la bande passante pour éviter les ralentissements et donc de caractéristiques nécessaires pour la solution de sécurité. 5 Population de travailleur et type d’activité Si l’activité fait appel à des personnes peu familières avec les pratiques modernes (telles que, par exemple, réseaux sociaux) ou extrêmement disciplinées, le système de sécurité pourra fermer la quasi totalité des accès à ce qui ne relève pas exclusivement du périmètre professionnel. Si en revanche la population employée est très friande des NTIC ou que l’activité même inclut leur usage pour certains de ses services (par exemple, le commuity manager aura bien du mal à faire son travail d’eréputation sans accès aux réseaux sociaux et les services comptables connaîtront quelques difficulté à procéder aux opérations de trésorerie sans accès aux comptes bancaires), le système de sécurité devra pouvoir affecter des droits d’accès à des personnes ou des groupes de personnes voire même leur autoriser ou interdire certaines applications. Dans certains cas, ces droits devront pouvoir être modulés dans le temps (une société procédant cycliquement à des vidéoconférences pourra prioriser ces applications les jours nécessaires aux dépends d’autres besoins). Les fichiers multimédias sont volumineux et il est nécessaire d’identifier ceux qui seraient « cachés » car n’étant pas « internes » à l’entreprise. e n co en c o u v ert e r t u re re ƒig. 1 – Carte des besoins Nombre de personnes reliées à Internet 9 8 Faiblesse des compétences internes Typologie d’utilisation 7 6 5 4 3 2 1 0 Vulnérabilité Grandeur des données Topographie de l’activité Type d’usage Population de travailleurs et type d’activité Cartographie de qualification d'un périmètre de sécurité souhaité 6 Topographie de l’activité Selon cet axe, une entreprise fonctionne en un seul lieu rassemblant les équipes, en plusieurs lieux fixes d’activité, avec des travailleurs distants et/ou avec des travailleurs en mobilité (sachant que ces paramètres peuvent se mixer : multisite avec des travailleurs permanents à domicile et des travailleurs itinérants). Une entreprise très localisée aura moins de problèmes de liens à résoudre qu’une entreprise répartie. Entreprise très fortement localisée : tous les acteurs sont dans un même lieu. Dans ce cas, le système de protection va être similaire à une porte blindée comportant des orifices très précis (par exemple celui pour l’internet, ports 80 et 443, celui pour le mail, ports 25 et 110), etc. sur lesquels le matériel de sécurité aura une vigilance aigüe. en couverture Si par exception un acteur extérieur devait pénétrer le système de protection, la majorité des matériels de sécurité proposent en standard d’en gérer quelques uns (encore faut-il le prévoir et bien se munir d’un système le permettant). Entreprise avec plusieurs sites : les acteurs sont répartis en granules. L’alternative va être de concentrer les défenses en un seul lieu central (auquel cas il faudra relier chacun de ces granules à ce centre via, par exemple, un lien VPN IPsec et imposer à tous leurs trafics de passer par ce centre qu’il faudra dimensionner en conséquence) ou de répartir les défenses sur chacun des lieux de travail (ce qui ne va pas réduire le besoin en lien sécurisé mais va le répartir selon le débit et la nécessité de protection. Entreprise mono ou multisite utilisant des personnels à domicile ou des acteurs mobiles occasionnels : cette fois, il s’agira de mettre en œuvre des tunnels VPN temporaires (VPN SSL). Le matériel devra supporter le nombre de tunnels simultanés. L’utilisation des smartphones ou tablettes pour la consultation de mails relève de ce périmètre. 7 Vulnérabilité Ce facteur est complexe à définir mais il mesure l’envie qu’un tiers aurait de s’attaquer à l’entreprise. Plus le milieu professionnel est concurrentiel, plus l’excellence de l’entreprise est grande et plus ses spécificités sont exceptionnelles (brevets, secrets de fabrication, anticipation des besoins qui lui donne des coups d’avance), plus les convoitises sont exacerbées et les risques importants. Si cela a peu d’impact sur la volumétrie des données, cela en a sur la force des protections à développer… et aussi sur la méfiance à avoir envers tout et tous. Le besoin d’outils de sécurité apte à détecter les fuites de données peut émerger ici. 8 Manque de compétences internes Il est clair que si l’entreprise ne comprend pas de département informatique ou de personnes disposant des compétences nécessaires à la manipulation de tous les éléments de sécurité, une attention particulière devra être portée sur l’ergonomie et la simplicité de mise en œuvre. Même si les RSSI ne détestent pas l’ergonomie, ils en sont moins tributaires de par leur expérience et mettront plus l’accent sur la finesse de paramétrage et l’exhaustivité des informations livrées par leur système. Évaluer la « puissance réelle » ou « utile » d’une unité de sécurité n’est pas simple. Ainsi, tel UTM proposant un débit de 200 Mbits/s pour le firewall ne va pas nécessairement les assurer si vous établissez de très nombreuses règles de sécurité (et au demeurant, le nombre de règles possibles est aussi un paramètre à prendre en compte). Si en outre vous décidez d’ouvrir plusieurs dizaines de tunnels VPN vers vos utilisateurs itinérants (et le nombre maximal de tunnels ouverts simultanément est aussi un critère) et que vous avez décidé la mise en place de toutes les protections (antivirus, antispam, détection d’intrusion, filtrage applicatif et d’URL), il faudra, d’une part prendre comme débit maximum celui assuré par la fonction la plus lente et, d’autre part réduire encore ce nombre en fonction des traitements souhaités. Pour guider cette démarche, nous proposons d’organiser l’analyse des besoins selon les 8 axes de description ci-dessus au travers d'un « radar » (voir figure 1) représentatif des exigences de sécurité. Notés de 1 à 10, chacun des critères va former les sommets d’un octogone irrégulier qui définira votre territoire de sécurité souhaité. Les caractéristiques des matériels e n co en c o u v ert e r t u re re ƒig. 2 – Carte des caractéristiques Débit maximum de la fonction la plus lente 9 8 7 Ergonomie 6 5 Possibilité de connecter des matériels extérieurs (BYOD) 4 3 2 Gestion de bande passante par personne 1 0 Gestion fine des utilisateurs, antivirus Gestion applicative, nombre de règles Administration multi site Nombre de VPN IP sec/SSL Dans cet exemple, la carte des caractéristiques (en rouge) recouvre celle des besoins (en bleu). devront ensuite être appariées à ces besoins (par exemple : bande passante maximale proposée pour la fonction la plus lente et nombre de connexions simultanées, nombre de règles firewall, nombre et type de VPN possibles, filtrage applicatif, antivirus, ergonomie). Cet appariement n’est pas générique : chacun devra chercher celui qui lui convient. Les éléments ainsi définis seront à leur tour notés, ce qui permettra de dessiner un nouveau territoire : celui des performances de chaque matériel. Lorsque la carte d’une appliance recouvre la totalité de celle des besoins, elle est éligible (figure 2). Il reste alors parmi les matériels possibles à trancher sur le prix, les services du fournisseur ou toute caractéristique complémentaire qu’il proposera. Le VAR est votre ami. Toute la difficulté ré- side bien sûr dans l’appariement des critères en couverture ENTRETIEN Pierre Poggi, Country Manager de WatchGuard pour la France Pour Pierre Poggi, il est essentiel pour une entreprise de conduire régulièrement une étude de sa connexion Internet. Cela fait partie intégrante du processus de sécurisation pour deux raisons : connaître la composition des flux y compris les applications web utilisées, et dimensionner la puissance de l’appliance requise pour sécuriser la liaison Internet. Comme nous l’avons vu, toutes les liaisons Internet ne se ressemblent pas, et ne sauraient se limiter au seul débit. Le choix d’un boîtier de sécurité est donc directement dépendant des conclusions de cette étude initiale. Pierre Poggi rappelle à ce sujet que le chef d’entreprise est responsable des données qui y circulent, et donc de l’usage que font ses salariés d’Internet. Au-delà de la DSI, cela concerne donc tout autant la DRH que le service juridique de l’entreprise. Le maître mot reste toutefois la pédagogie, insiste Pierre Poggi. WatchGuard confie ainsi à ses revendeurs l’organisation de et la bonne définition des notes à attribuer. La technique « du doigt mouillé » est souvent utilisée pour un utilisateur très averti mais un conseil avisé est tout de même préférable. Il ne suffit pas de connecter un matériel quelconque aux caractéristiques en apparence correctes et de retourner à ses affaires. Faute d’une bonne adéquation entre l’activité et la sécurité, l’illusion de la protection peut créer plus de drames que de bienfaits. Or, dans les TPE ou les PME de taille moyenne, la problématique principale est souvent l’objet de l’activité, un périmètre est souvent sous-estimé. Si les appliances de sécurité apportent réellement des solutions « prêtes à porter », outre leur bon dimensionnement, il faut garder un œil sur ce qu’elles font, entretenir leurs règles en fonction de l’évolution de l’activité ou des contextes de l’Internet. Le choix de produits proposant des rapports exploitables séminaires de sensibilisation gratuits auprès des collectivités locales, avec des résultats très encourageants. (c’est-à-dire pas des listes infinies de log mais des informations lisibles sur tout ce qui n’est pas « normal ») est certes un moyen de surveillance mais ce n’est pas vraiment le travail d’un responsable de PME que d’effectuer cette supervision. Le VAR se présente donc ici comme l’acteur essentiel. Partenaire de confiance, sa compétence et sa connaissance de l’entreprise viennent au service de votre sécurité. Il vous épaulera dans la démarche décrite plus haut. Et une simple visite annuelle de réglage (quelques centaines d’euros) garantira une protection continue et de qualité. S’il est certes utile d’avoir un petit firewall à l’entrée de son réseau, la mise en place d’une politique de sécurité pérenne et respectant les règles de l’art passe souvent par le choix d’un partenaire compétent qui va accompagner l’entreprise pendant longtemps. e n co en c o u v ert e r t u re re Appliances de sécurité Parts de marché mondiales des appliances Fabriquant Cisco Check Point Juniper Fortinet McAfee Autres Total 1er trimestre 2012 CA Part de marché 346 M$ 17,80 % 239 M$ 12,30 % 152 M$ 7,80 % 104 M$ 5,30 % 112 M$ 5,80 % 992 M$ 51,00 % 1 945 M$ 100 % 1er trimestre 2013 CA Part de marché 335 M$ 16,60 % 252 M$ 12,50 % 125 M$ 6,20 % 121 M$ 6,00 % 111 M$ 5,50 % 1 066 M$ 53,20 % 2 010 M$ 100 % Écart 2012/2013 -3,40 % 5,70 % -17,70 % 16,60 % -0,80 % 7,50 % 3,40 % Un marché en croissance modérée tiré par les UTM A près les grandes manœuvres de regroupement constatées en 2012 (rachat de Secure Computing par McAfee puis de McAfee par Intel, reprise d’Astaro par Sophos, de SonicWall par Dell), le marché de la sécurité informatique se consolide. Celui des appliances, qui n’en représente qu’environ 10 % avec quelque 2 milliards de dollars au premier trimestre 2013 (source IDC Worldwide Quarterly Security Appliance Tracker, de juin 2013), est en croissance modérée (+3,4 %) par rapport au même trimestre de 2012 tandis que le nombre d’unités vendues est en net recul (-6,4 % avec 472 306 boîtiers vendus). Au sein de ces appliances, ce sont les unités multifonctions qui tirent le marché (et en atteignent 37,1 %) tandis que les firewall/VPN sont en net recul (tout en représentant encore 20,9 % de l’ensemble) et que les passerelles de sécurité sont en forte croissance pour en atteindre 20,3 %. Cette apparente stabilité cache toutefois une grande disparité. D’une part, si 5 constructeurs se partagent quasiment la moitié de ce marché, leur part est en recul et 53 % sont répartis entre une grande quantité d’acteurs et la bataille y est âpre. Parmi eux, Blue Coat, Palo Alto Networks qui adressent plus particulièrement les grands groupes et Sophos y ont connu la plus grosse croissance. D’autre part, Cisco qui domine ce secteur (16,6 %) y perd 3,4 % de CA tandis que Juniper connaît une chute de plus de 17 % de son CA tout en maintenant sa 3e place (6,2 %) et que la position de McAfee s’effrite (-0,5% de CA pour e n co en c o u v ert e r t u re re 5,5 % du marché). Pendant ce temps, Check Point maintient sa croissance avec 5,7 % et conforte sa seconde place (12,5 %) tandis que Fortinet effectue un bond de 16,6 % pour ravir la 3e place (6 %) à McAfee. En France, aujourd’hui, si la structure est similaire en prenant en compte tout le marché (y compris les différentes structures d’état ou les grosses entreprises du CAC 40), pour les PME, Fortinet se taille la part du lion avec près du quart du marché tandis que Cassidian (groupe de sécurité français, filiale du groupe EADS avec les solutions Netasq et Arkoons) en prend environ 22 %. Viennent ensuite Check Point et SonicWall (repris par Dell en 2012). Juniper, toujours présent recule quelque peu sur le marché de la sécurité depuis sa réorientation vers les matériels de connectivité. Quelques liens Normes Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) www.ssi.gouv.fr ANSSI : Le guide d’hygiène des systèmes informatiques www.ssi.gouv.fr/IMG/ pdf/guide_hygiene_informatique_ anssi.pdf PCI SSC https://www.pcisecuritystandards. org Organisme de qualification Gartner est un organisme privé qui analyse en profondeur les résultats des entreprises et structure les différents marchés de la technologie en pointant les leaders www.gartner.com/technology/ research/methodologies/research_ mq.jsp Le NSS Labs procède à des tests d’utilisation : les matériels y sont mis à l’épreuve pendant plusieurs mois dans des conditions réelles d’utilisation. Ses notations sont très réalistes. https://www.nsslabs.com Fabricants & éditeurs Cassidian (Arkkon et Netasq) www.arkoon.net/securite-desreseaux-informatiques-appliancefast360 www.netasq.com/fr/products/ unified-threat-managementsecurity/tableau-comparatiffirewall Check Point http://france.checkpoint.com/ fiches-produits Dell Sonicwall www.sonicwall.com/fr/fr/ products/TZ_Series.html Fortinet www.fortinet.fr Juniper www.juniper.net/fr/fr/ WatchGuard www.watchguard.com/ international/fr/corporate ZyXEL www.zyxel.fr e n co en c o u v ert e r t u re re Appliances de sécurité Se repérer dans l’offre actuelle L es pages qui précèdent présentent la structure du marché des appliances de sécurité. Quatre constructeurs se partagent plus de la moitié du marché national tandis que tous les autres (plus d’une dizaine) se battent pour le reste. Notre propos s’adressant plutôt aux TPE/PME, nous nous limiterons à une présentation rapide des principaux acteurs et de leurs gammes. Cisco | Cisco répartit son offre en deux grands axes : les grandes PME avec une gamme de firewall de nouvelle génération ACA-CX proposant un niveau élevé de sécurité avec un système de création de règles intuitif incluant des paramètres tels que l’identité de l’utilisateur, le type de terminal ou de connexion (locale ou distante avec prise en compte de VPN), l’heure de la connexion, l’application utilisée, La catégorie d’URL, la réputation de la destination (pour palier le risque d’infection), le chiffrement ou pas de la session. Pour les TPE/PME, Cisco propose au travers de Cisco Meraki des équipements de sécurité gérés en mode Cloud. Outre la fonction parefeu et des connections dites Auto-VPN, l’interface web Cisco Meraki offre une gestion centralisée des réseaux sans fil, commutateurs et des appareils mobiles mis à disposition du personnel. Le filtrage par application, par type de terminal et des connexions à distance depuis smartphones et tablettes fait partie de cette gamme, apportant les mêmes fonctionnalités que les systèmes les plus complexes au service des entités les plus modestes. Ce sont les gammes MX60 (environ 20 utilisateurs) à MX90 (jusqu’à 250 utilisateurs) qui adressent ce marché. en couverture Fortinet | Fortinet, acteur traditionnel de la sécurité informatique et tout particulièrement des appliances (plus de 100 000 clients dans le monde exploitent ses solutions) est un des pionniers des UTM où il a une longue expérience. Il propose une large gamme de modèles adressant au plus près les besoins des différents types d’entreprise en fonction notamment de leur taille et de leurs besoins. Sa gamme très lisible permet aisément d’identifier un matériel adéquat. Par exemple : pour les TPE, la gamme desktop (FortiGate/FortiWifi-20 à 90) ; pour petites PME, les modèles FortiGate-60D à 90D ; pour les moyennes à grosses PME, les Cassidian | Cette filiale d’EADS est spé- cialisée dans les solutions de protection informatique de pointe. Elle a racheté en avril 2013 Arkoon Network Security, éditeur français (basé à Lyon) de solutions de protection réseau proposant une gamme d’UTM particulièrement puissante, les Fast360. Avec une méthode de détection contextuelle, les FAST360 sont aptes à résister aux attaques les plus complexes. Ces appliances proposent de nombreux services de sécurité spécialisés tels que filtrage d’URL, VPN, VLAN, antivirus, antispam. Ce rachat est intervenu quelques mois après celui de Netasq, autre éditeur français de solutions FortiGate-100C à 600C. Toutes ces appliances intègrent les fonctions essentielles de sécurité réseau : pare-feu, VPN sur IPsec ou SSL, antivirus, antispam, prévention des intrusions et filtrage Web, etc. La prévention des fuites de données, le contrôle applicatif, l’inspection du trafic SSL, le contrôle d’accès des postes utilisateurs et la gestion des vulnérabilités ne sont pas oubliés. Des services d’abonnement permettent de mettre à jour les appliances (firmware, tables de virus, liste de sites). L’expérience accumulée au fil du temps a permis à ce constructeur de développer des processeurs SoC optimisés pour leurs fonctions (FortiASIC Network Processor pour assurer des débits de sécurité ultra-rapides et le FortiASIC Content Processor, qui accélère l’inspection des contenus). de sécurité acquis en 2012. Netasq avait déjà au début de l’année 2012 racheté les technologies Edenwall spécialisée dans le filtrage de réseau en fonction de l’identité de l’utilisateur et de son contexte de connexion. Netasq propose plusieurs gammes d’appliances adressant les TPE/PME (U30 ou U70 au format ½ U) et les PME (avec les U150 et au-delà au format 1U) dotée des dernière technologies d’analyse, de filtrage et d’administration aux normes les plus récentes. Ces opérations ont porté Cassidian à la seconde place des solutions de sécurité avec près du quart du marché et une offre d’un très haut niveau. en couverture Check Point | Check Point Software Technologies Ltd. est lui aussi un des leaders mondiaux de la sécurité, renommé depuis longtemps avec notamment Firewall-1 qui protège les sociétés du monde entier depuis de nombreuses décennies (une version existait déjà du temps de Windows NT4). Ses appliances ont hérité de cette technologie et Check Point a amélioré son offre avec l’architecture « software blade » autorisant une adaptation au plus près des besoins des clients. Très bien implantée dans les plus grandes entreprises mondiales (les 100 entreprises référencées dans le classement « Fortune 100 » sont ses clients), Check Point développe cette activité haut de gamme vers les PME avec les matériels de type UTM-1 Edge N pour les grosses PME, Sale@Office 500 et 1000 pour les PME et, de- Dell SonicWALL | SonicWALL est un acteur de la sécurité informatique depuis 1991 et constructeur d’appliances racheté par Dell en mai 2012. Il fournit des solutions de protection haut de gamme de réseaux et de protection « intelligente » des données. Le constructeur est par- ticulièrement réputé pour ses solutions de management de systèmes distribués permettant aux administrateurs réseau de dimensionner et de gérer de manière centralisée un nombre considérable de matériels sur de multiples sites. En plus des fonctionnalités de puis le début de l’année 2013, avec ses modèles Appliances 600 particulièrement orientés vers les TPE/petites PME. D’un coût extrêmement réduit (la gamme débute en dessous de 300 €) ces unités apportent un très puissant pare-feu doté des derniers développements en matière de prévention des menaces, de filtrage applicatif, d’antivirus et d’antispam. Elle propose aussi la gestion du sans fil avec plusieurs réseaux, permettant d’offrir un accès Internet aux invités sans risque pour le réseau interne, et une administration intuitive. protection (firewall, détection d’intrusion, filtrages applicatifs, etc.), SonicWALL offre elle aussi une gestion centralisée des différentes appliances mises en service dans une structure (locale ou éclatée). Dell SonicWALL propose une démarche originale dans la sécurité informatique par son développement de matériel multicoeur à la puissance de calcul adaptée au nombre de fonctionnalités mises en œuvre. Cette technologie est accessible dès les entrées de gamme puisqu’un produit bicœur est proposé aux environs de 300 €. Un produit 96 cœurs coûte quelques 150 K€ et servira de préférence les grosses structures. La gamme plus particulièrement dédiée aux TPE et petite PME (jusqu’à 70 postes) est la gamme TZ (TZ 150/170/170W) inférieure à 1 000 €. La gamme NSA vient ensuite au service d’entreprises ayant besoin de gérer plus de postes. en couverture Sophos | Initialement (ce qui remonte tout de même aux années 80), Sophos était un éditeur de solutions antivirus et de chiffrement. La société s’est développée depuis lors et a produit des solutions intégrées (UTM) qui ont atteint les meilleurs niveaux de qualification (Gartner Quadrant magique en 2012 par exemple). Sa solution Sophos UTM Home Edition est une offre logicielle gratuite à destination des foyers (qui permet de monter aisément des réseaux privés en direction des entreprises, ce qui facilite le travail sécurisé à domicile). La gamme d’appliances est composée de 8 matériels (UTM 100 à 625) adressant depuis les PME jusqu’aux grosses entreprises. Watchguard | Bien présent en France aussi, Watchguard a récemment mis sur le marché deux nouvelles appliances (UTM) : les XTM 25 et 26 particulièrement destinées aux petites entreprises. Elles incluent l’inspection HTTPS, le support de la VoIP, le contrôle d’applications, la gestion des VPN (pour iOS), la prévention contre les malwares et les hackers, une solution Cloud de filtrage des IP et des URL en plus des services de sécurité usuels (blocaque d’URL, antispam, passerelle antivirus, IPS…). La gamme comprend aussi une importante série de matériels adressant toutes les entreprises jusqu’aux plus grosses. ZyXEL | Les nouveaux ZyWALL USGs 20, 20W (version sans fil) et 50 s’adressent plutôt aux TPE tout en permettant plusieurs tunnels VPN simultanés ce qui les destine aussi aux travailleurs domicile. Notons le service « à vie » de mise à jour du firmware de ces boîtiers. La gamme se complète de produits destinés aux PME jusqu’à 500 postes environ proposant tous les services de sécurité attendus jusqu’à la haute disponibilité. L’antivirus proposé est sous licence Kaspersky. e n co en c o u v ert e r t u re re Dangers du net : les mots pour le dire a>c Le vocabulaire Internet est majoritairement anglais. La liste qui suit est organisée par ordre alphabétique des principaux risques encourus par ses usagers. Adware Corolaire des spywares, les adwares affichent des panneaux publicitaires (bandeaux, popups) dans le navigateur de leur victime. Backdoor Littéralement « accès dérobés », ces moyens permettent à un agresseur de se connecter discrètement au système concerné. Ils sont mis en place par des virus ou des codes malicieux. Botnet C’est un groupe de machines contrôlées par un même agresseur. Les botnets (ou zombies) sont souvent exploités pour des attaques massives en déni de service. Buffer overflow Cette forme d’attaque exploite un défaut dans le programme agressé qui ne contrôle pas la taille des données qu’il manipule et peut se retrouver en « dépassement de capacité » à l’occasion de la manipulation de certaines données. En dépassant la taille logiquement affectée aux données, l’agresseur peut littéralement déposer un code exécutable dans la machine porteuse ou choisir le point où le programme va reprendre le fil de son activité. Ces défauts sont usuellement le fait de langages de programmation qui en ouvrent la possibilité. Covert channel Particulièrement difficile à détecter, le « covert channel » (ou canal caché) consiste en l’exploitation d’un moyen non prévu à cet effet pour transférer discrètement des informations. C’est un moyen de faire circuler illicitement (en contradiction avec les règles locales) des informations au travers d’un système. Il existe plusieurs types de covert channels. Par exemple, un processus peut voir « modifier » son temps d’action (comme son temps d’écriture d’une donnée sur un disque) pendant qu’un autre processus « lit » ces modifications, transformant ces modifications en séries de « 0 » et de « 1 », donc en données. L’existence insoupçonnable de tels canaux est un argument des défenseurs de la stéganographie (l’art de la dissimulation : personne ne sait qu’il y a une donnée) face à la cryptographie (l’art du secret : la donnée est connue mais transformée de manière à n’être lue que par un processus disposant d’un code). Cross site scripting Cette forme d’agression consiste en l’insertion de données pernicieuses au sein des lignes HTML (ou JavaScript et VB script) des pages web. Cela permet de faire afficher autre chose que ce qui est normalement prévu dans la page, d’exé- en couverture c>k cuter des codes agressifs ou d’engendrer des actions différentes que celles prévues par son utilisateur (par exemple l’envoyer vers d’autres sites internet) ou modifier les cookies associés à la session. Ce type d’agression concerne des serveurs mal protégés qui deviennent alors « porteurs sains » dans la mesure où ils ne semblent pas impactés et où le code malicieux s’exécute sur les machines clientes. Cross-site request forgery Ce type d’attaque génère un envoi de requêtes vers un site par sa victime. Appelée aussi « injection de requêtes illégitimes par rebond », cette forme d’agression voit l’attaquant profiter de l’authentification de la victime sur le site visé. Cybersquatting C’est une agression consistant à enregistrer un nom de domaine dans le seul but de bloquer toute attribution ultérieure par leur titulaire naturel ou légitime. Par exemple, une société « le bel ordinateur » qui voudrait créer un site Internet « le-bel-ordinateur.com » pourrait se retrouver obligée de racheter son propre nom si un tel cybersquatteur l’avait précédée. Defacement Cousine du cross site scripting, cette agression consiste à altérer le contenu d’un serveur internet. Les Anonymous se sont notamment fait connaître en se livrant à ce type d’agression contre différents sites Internet Denial of service Le « déni de service » a pour effet d’inhiber un système dans sa fourniture d’un service donné, en général par sa saturation. Il arrive que le DoS soit seulement dû à un sous-dimensionnement des ressources allouées, ce qui rend l’identification d’une attaque difficile. DNS pharming Assez élaborée, cette agression consiste à modifier un serveur DNS pour rediriger un domaine vers une autre adresse que la sienne. Tous les flux (mail, connexion d’utilisateur…) sont ainsi récupérés par un utilisateur malhonnête. Par définition, ce type de menace concerne les environnements où des domaines sont définis (donc rarement les TPE ou petites PME). Exploit Fruit de l’intelligence technique, ce sont des codes qui exploitent une vulnérabilité d’un logiciel ou d’un matériel à des fins en général peu avouables (accès à des données, prise de contrôle à distance de tout ou partie d’un système informatique, inhibition d’accès…). Hoax Il s’agit des canulars : une information est transmise avec pour objet de provoquer une réaction chez son récepteur, réaction prévisible et en général dommageable (rejet d’un produit, participation à des chaînes contribuant à dénigrer une personne ou un produit et dégrader leur e-reputation). Certains hoax célèbres ont annoncé le changement de politique de Hotmail ou Facebook supposés devenir payants tandis qu’un autre a décrit la possibilité de faire cuire un œuf avec un téléphone portable ! Keylogger Ces dispositifs (matériels ou logiciels) permettent de capter les frappes clavier d’un utili- en couverture l>r sateur. C’est un moyen efficace d’espionnage, de vol de codes d’accès ou de données bancaires. Logic bomb Cette forme d’agression est caractéristique de logiciels sournois mais en apparence. Inoffensifs. Passives (et donc inactives) tant que des conditions préprogrammées ne sont pas réunies, elles se déclenchent automatiquement lorsque les conditions sont rassemblées. Certains virus fonctionnent sur cette base : frappe d’une adresse dans un navigateur, occurrence d’une date (le virus Tchernobyl qui se déclenchait le 26 avril, date anniversaire de l’explosion de la centrale éponyme a fait de gros dégâts entre 1997 et 2002). Malware Ces programmes ont pour objet de nuire à leurs utilisateurs ou au système informatique qu’ils emploient. Les virus sont des types de malwares. Man-in-the-Middle Cette agression consiste en une « usurpation » où une personne malveillante s’interpose de manière transparente pour les utilisateurs dans un échange. Les éléments du trafic intercepté sont copiés et éventuellement modifiés avant renvoi à leur destinataire. Mail bombing C’est l’envoi en masse de mails à une même adresse jusqu’à obtenir la saturation de la boîte ainsi visée. Cette forme d’agression peut est utilisée pour bloquer un compte commercial ou un support technique. Phishing L’agression consiste ici à simuler un environnement de confiance (écran d’accueil d’une banque) pour voler les données confidentielles de l’utilisateur qui s’y laisse prendre. Ces attaques, aussi appelées « hameçonnage », se font souvent en deux temps, un mail conduisant la victime sur le site falsifié. Port scanning Cette technique consiste à expédier sur les différents ports d’une machine des paquets et d’en déduire l’état (ouvert ou fermé) en fonction de la réponse obtenue. Par exemple, le port 80 peut être ouvert pour une machine attendant des flux de type http tandis que le port 443 le sera pour des flux https. Cela est normal et les systèmes de protection s’y attendent et filtrent ce qui y transite. Mais d’autres ports peuvent être ouverts et prêter le flanc à une attaque faute d’une protection appropriée. Ransomware Cette forme de virus consiste à extorquer quelque chose d’un utilisateur faute de quoi le service ou la machine auxquels il veut accéder lui sont interdits. Certains de ces ransomwares bloquent des machines ou cryptent des disques durs jusqu’à obtention d’un code de débridage. La réinitialisation est certes possible mais les données sont alors perdues à jamais. Rootkit Ce terme désigne tous les logiciels permettant de s’assurer le contrôle d’un système sans y avoir été invité. Le rootkit est installé par le biais d’une agression (virus, par exemple). en couverture s>z Sniffer Ces moyens (matériels ou logiciels) analysent les données transitant sur les réseaux parmi lesquelles les codes d’accès, les données de travail voire même les éléments environnementaux permettant d’organiser une attaque informatique. Spam De manière large, les spams sont tous les courriers automatiques envoyés de manière non sollicitée par leur destinataire. Si elle concernent quelque fois du démarchage commercial (encore que ce soit interdit : « Est interdite la prospection directe au moyen d’un automate d’appel, d’un télécopieur ou d’un courrier électronique utilisant, sous quelque forme que ce soit, les coordonnées d’une personne physique qui n’a pas exprimé son consentement préalable à recevoir des prospections directes par ce moyen. ») ce sont en général des porteurs de moyen à la légalité douteuses ou d’attaques. Spyware Ces logiciels espions ont pour objet de collecter des données comportementales d’un utilisateur à son insu au commanditaire de leur action. Leur action est souvent « commerciale » dans la mesure où les informations envoyées relèvent des usages de l’utilisateur victime. Trojan horse Les « Chevaux de Troie » sont des formes de programmes dont l’utilisateur pense tirer un avantage quelconque alors que leur véritable fonction reste cachée : vol de données, exploitation d’autorisations de l’utilisateur pour accéder des ressources limitées, etc.). Typosquatting Cousine du cybersquatting, cette action consiste à déposer un nom de domaine très proche d’un autre, avec pour différence un ou deux caractères seulement. Il s’agit ici de capter les connexions normalement destinées au site normalement orthographié. Pour s’en prémunir, Google n’a pas hésité à réserver le nom « gogle » avec plusieurs extensions (.com, .fr, .it…). Virus Ces logiciels (ou morceaux de logiciel) malveillants ont pour but d’assurer leur survie dans un système informatique et pour fonction d’en parasiter les ressources. Ils ont la capacité de s’insérer dans d’autres programmes lorsqu’ils sont activés. Vulnerability Une vulnérabilité est un défaut (accidentel ou intentionnel) dans un système ouvrant la voie à un risque d’intrusion. Worm Sorte de virus, ces programmes malveillants (aussi appelés « vers ») se propagent seuls à partir de la machine infectée sur tout le réseau auquel elle est connectée. Zero-day Cette catégorie d’agression caractérise toutes celles qui n’ont pas encore été identifiée et donc représentent un risque majeur sur les installations puisque par définition, aucune protection n’a encore été proposée par les éditeurs. e n co en c o u v ert e r t u re re Sécurité informatique Des lois et des standards Un cadre juridique L a loi Informatique et libertés du 6 janvier 1978 impose à toute entreprise exploitant des données à caractère personnel de mettre en œuvre des moyens de sécurité empêchant tout accès et modification non autorisés. L’absence de ces moyens est constitutive d’une infraction pénale pour le responsable de l’entreprise (cinq ans de prison et 300 000 € d’amende selon l’article 226-17 du Code pénal). Pour les personnes morales l’amende est quintuplée. Et il faut savoir que l’inadéquation des moyens mis en œuvre est aussi sanctionnée. Cette loi a été complétée par une directive du 24 octobre 1995 qui, dans son article 17, impose aux responsables de traitement de données personnelles de « mettre en œuvre les mesures de sécurité appropriées pour protéger les données à caractère personnel contre la destruction acciden- telle ou illicite, la perte accidentelle, l’altération, la diffusion ou l’accès non autorisés, notamment lorsque le traitement comporte des transmissions de données dans un réseau, ainsi que toute autre forme de traitement illicite. Ces mesures doivent assurer, compte-tenu de l’état de l’art et des coûts liés à leur mise en œuvre, un niveau de sécurité approprié au regard des risques présentés par le traitement et la nature des risques à protéger. » Par ailleurs il découle de l’article 1383 (qui indique que « chacun est responsable des dommages qu’il a causé non seulement par son fait mais encore par sa négligence ou son imprudence ») et de l’article 1384 §5 du Code Civil (qui permet à des victimes de salariés indélicats d’une entreprise de rechercher cette dernière en dédommagements dans la mesure où ces salariés auraient agi dans le cadre de leur fonction pendant leur temps de travail avec des outils fournis par l’entreprise) que l’entreprise qui n’aura pas pris des en couverture mesures de sécurité adéquates pour protéger son infrastructure contre une agression informatique pourrait être réputée négligente (et donc poursuivie). Enfin, pour les sociétés anonymes, la loi de sécurité financière (LSF) 2003-706 du 1er août 2003 a modifié le code du commerce afin de renforcer la confiance des investisseurs. Leurs dirigeants sont personnellement responsables des mesures du contrôle interne garantissant une présentation fidèle de la situation financière de leur entreprise et la détection des fraudes. Ils doivent « rendre compte des procédures de contrôle interne » mises en œuvre et être en mesure de garantir la fiabilité des informations financières produites sous peine de lourdes sanctions pénales. Un cadre normatif A u-delà des menaces pesant sur les responsables des entreprises (et par extension sur les RSI), des normes ont été développées permettant de fournir des référentiels auxquels répondent les systèmes de sécurité. Elles garantissent les clients du niveau de « résistance » des moyens qu’ils mettent en œuvre. Leur respect est souvent nécessaire lors d’une collaboration avec une entité publique (gouvernement par exemple). ITSEC (Information Technology Security Evaluation Criteria) C’est un standard européen pour la sécurité des systèmes d’information datant du début des années 90 proposant des critères homogènes sur les périmètres : Confidentialité (prévention d’une divulgation non autorisée des informations) ; Intégrité (prévention d’une modification non autorisé des informations) ; Disponibilité (prévention d’un blocage d’accès non autorisé aux informations). ISO 27000 Ensemble de normes plutôt que norme ellemême, la famille ISO 27000 propose un référentiel d’organisation de la gestion de la sécurité d’un système d’information. Elle se compose de : ISO 27001 décrit les processus de gestion de la sécurité des informations ; ISO 27002 propose une liste des meilleurs pratiques en matière de sécurité ; ISO 27003 structure la démarche de mise en place d’un système de gestion de la sécurité en différentes étapes afin qu’il soit conforme à la norme 27000 ; ISO 27004 fournit les règles de contrôle d’un système de gestion de la sécurité des informations ; ISO 27005 présente les processus de la gestion des risques ; ISO 27006 précise les règles imposées aux auditeurs de certification 27000. ISO 15408 Les Critères Communs EAL pour les évaluations de sécurité informatique (code ISO 15408), ont été développés par les autorités ISO sous l’impulsion de plusieurs nations (dont la France) qui ont défini pour différents produits de sécurité informatique destinés à des environnements commerciaux et publics dit sensibles des standards. Ils sont classés en 7 niveaux. Les niveau 1 et 2 proposent les solutions les plus souples à exploiter mais, bien sûr, répondant aux principes de sécurité les plus « simples ». On y trouve les firewall avec filtrage de paquets par exemple ; en couverture L’ANSSI est l’organisme officiel français qui définit les normes de la sécurité des systèmes d’information, en particulier les normes sur l’évaluation et la certification des systèmes d’information. Elle maintient le portail gouvernemental de la sécurité informatique. Le RGS a été créé par l’article 9 de l’ordonnance n° 2005-1516 du 8 décembre 2005 relative aux échanges électroniques entre les usagers et les autorités administratives et entre les autorités administratives. Pour le RGS, la règle impose depuis mai 2013 aux produits d’être labellisés selon 3 méthodologies : L’évaluation, obtenue via un laboratoire privé (tel le CETSI) au regard des référentiels ITSEC ou ISO 15470 ; La qualification, obtenue via le bureau Qualification et Agrément de l’ANSSI et qui fournit 3 niveaux : Élémentaire pour les besoins de sécurité les plus basiques ; Standard pour les besoins qui sont assimilables à la « diffusion restreinte » ; Renforcé assimilable au « confidentiel défense » ; La certification, un niveau supérieur obtenu lui aussi via le bureau Qualification et Agrément de l’ANSSI et qui garantit que l’évaluation a été conduite selon un protocole plus strict garantissant l’indépendance, la compétence et la méthodologie de l’analyse. Le Référentiel Général de Sécurité (RGS) Le PCI DSS Les niveaux 3 et 4 recouvrent les matériels traitant la totalité des fonctions de sécurité et soumis à des tests de contrainte élevés par des organismes agréés. Les codes des logiciels les animant sont fournis aux évaluateurs ; Les niveaux 5, 6 et 7 imposent en plus aux matériels évalués d’apporter une preuve formelle (scientifiquement prouvable) de la solidité de leurs algorithmes. Si les précédents niveaux sont le domaine des ingénieurs, ceux-ci sont celui des mathématiciens. Pour donner une idée, les cartes à puces actuelles bénéficient d’un niveau 5 alors que le niveau 7 a « la robustesse d’un panzer ou la force d’un module nucléaire » pour citer un éditeur. L’ANSSI Si une certification selon une des normes en vigueur est nécessaire, elle n’est pas suffisante pour adresser les besoins de confidentialité des administrations. Le niveau d’évaluation (et donc de « solidité » selon les critères communs) n’est pas à confondre avec le périmètre de protection (à quoi servirait de mettre une serrure de coffrefort inviolable sur une porte en bois blanc ?). Cela conduit au Référentiel Général de Sécurité. Le PCI Security Standards Council (PCI SSC) est une émanation du secteur économique des moyens de paiement par carte (PCI pour Payment Card Industry) qui émet des recommandations de sécurité en la matière. Le PCI DSS (Payment Card Industry Data Security Standard) est son standard de sécurité qui propose une norme en 12 règles pour la protection des données et la prévention des fraudes. Si une certification selon une des normes en vigueur est nécessaire, elle n’est généralement pas suffisante. techno P RO J E T Hadoop Big Data Flash Accélérer l’analyse prédictive du avec la mise en cache techno P RO J E T Le volume, la vélocité et la diversité des données augmentent constamment. Ces trois dimensions du « déluge de données » que nous connaissons font du framework open source Hadoop un outil naturel pour l’analyse du Big Data. Car la solution a été conçue pour analyser des données très diverses – qu’elles soient structurées, semi-structurées ou non-structurées – sans avoir à définir un schéma ni à anticiper les résultats. Les améliorations apportées à l’écosystème Hadoop permettent désormais aux responsables informatiques de faire face à l’augmentation effrénée des données en transférant en temps réel les données actives dans le cluster pour une analyse immédiate. Mais le principal atout d’Hadoop est son évolutivité, car il permet d’analyser un volume sans précédent de données, de façon aussi rapide qu’économique sur des clusters de serveurs universels. L a capacité d’Hadoop à répartir les travaux MapReduce au sein d’un cluster afin de traiter les données en parallèle débouche sur des performances linéaires et évolutives du fait de l’ajout de serveurs et de cœurs de processeurs ou de mémoire, voire les deux, dans ces serveurs. Il existe cependant une option plus économique permettant de garantir l’évolutivité des performances dans les clusters Hadoop : les cartes hautes performances de mise en cache sur mémoire Flash. Afin de mieux comprendre les améliorations de performances obtenues au travers de la mise en cache Flash, il est important d’établir le contexte traditionnel d’adaptation des performances dans les clusters Hadoop. Rappel historique de l’évolution des performances Hadoop À première vue, l’utilisation d’un réseau de stockage (SAN ou NAS) pour le Big Data (données mesurées en téraoctets, pétaoctets, voire exaoctets) peut sembler intéressante d’un point de vue économique. Après tout, les configurations SAN et NAS sont très efficaces, ce qui permet de partager facilement et économiquement d’importants jeux de données entre plusieurs serveurs et applications. Cependant, le problème des réseaux de données réside dans la distance (et par conséquent la latence accrue) qu’ils imposent entre le processeur et les données. Plus les données sont proches du processeur, plus les performances sont rapides et plus l’analyse prédictive du Big techno P RO J E T Le gain de performances obtenu sur une configuration de test type avec mise en cache Flash des données atteint 33 % par rapport à une infrastructure de stockage conventionnelle. Data bénéficie de cette proximité. La proximité des données constitue la clé de voûte de l’architecture Hadoop et la principale raison de son succès en tant que solution hautes performances d’analyse prédictive du Big Data. Afin de conserver les données près du processeur, Hadoop s’appuie sur des serveurs avec du stockage en attachement direct (DAS). Et pour rapprocher encore plus les données du processeur, les serveurs sont généralement équipés d’une importante quantité de RAM. La combinaison du DAS et de la RAM optimise les performances de chaque serveur. Ainsi, Hadoop est en mesure d’adapter les performances de traitement et la taille du jeu de données en ajoutant davantage de serveurs ou de nœuds au sein d’un cluster. Certains, voire l’ensemble des nœuds du cluster, sont ensuite utilisés pour traiter de gros jeux de données en parallèle et en créant des étapes plus gérables avec le système HDFS (Hadoop Distributed File System) et JobTracker, qui coordonne le traitement parallèle des travaux MapReduce. La fonction Map utilise un nœud maître pour lire les fichiers d’entrée, répartir les jeux de données dans des sous-ensembles et délé- techno P RO J E T guer le traitement de ces sous-jeux à des nœuds de travail. Les nœuds de travail peuvent, à leur tour, déléguer le traitement et créer une structure hiérarchique coordonnée par JobTracker. Ainsi, les différents nœuds d’un cluster interviennent sur des sections beaucoup plus réduites de l’analyse en parallèle, assurant l’évolutivité linéaire d’Hadoop. Avec la fonction Reduce, le nœud maître accepte les résultats de l’ensemble des nœuds de travail, puis les assemble, les trie et les fusionne dans un fichier de sortie, toujours sous le contrôle de JobTracker. Cette sortie peut, de façon facultative, devenir l’entrée des travaux MapReduce supplémentaires afin de traiter de façon plus approfondie les données. Selon la nature des travaux MapReduce exécutés, des goulots d’étranglement peuvent se former soit sur le réseau, soit au niveau des différents nœuds de serveur. Ces goulots d’étranglement peuvent souvent être éliminés en ajoutant d’autres serveurs (pour plus de puissance de traitement en parallèle), plus de cœurs de processeurs (lorsque les serveurs manquent de processeur) ou plus de RAM (lorsque les serveurs manquent de mémoire). Avec les travaux MapReduce, les performances maximales d’un serveur sont généralement déterminées par sa capacité en RAM. En particulier au cours de la fonction Reduce, lorsque les assemblages, tris et fusions de données intermédiaires dépassent la capacité en RAM et que le traitement doit alors se faire au niveau du disque. Les performances se dégradent au fur et à mesure de l’augmentation du nombre d’entrées/ sorties sur disques, en raison de la différence de latence d’E/S au niveau des disques (10 millisecondes) en comparaison avec celle de la mémoire (0,0001 millisecondes). Une lenteur due aux pièces mécaniques des disques durs traditionnels – notamment les plateaux et les bras de commande – et qui augmente significativement sur un système SAN ou NAS. Et c’est précisément pour cette raison qu’Hadoop s’appuie sur un système DAS. Mais même avec un système en attachement direct et des disques durs ultrarapides et optimisés en short-stroking, la latence supérieure d’E/S sur le disque pénalise considérablement les performances. L’une des solutions les plus économiques pour supprimer le goulot d’étranglement au niveau du disque et adapter les performances du cluster Hadoop consiste à utiliser une mémoire Flash SSD pour la mise en cache. Évolution des performances Hadoop avec la mise en cache Flash La mise en cache des données sur un support plus rapide date des premiers gros systèmes et demeure une fonctionnalité essentielle sur tous les ordinateurs actuels. Les données sont également mises en cache à plusieurs niveaux et à différents emplacements du centre de données, depuis les caches de premier et second niveau intégrés dans les processeurs de serveurs à la mise en cache dynamique en RAM (DRAM) sur les contrôleurs utilisés pour les systèmes SAN et NAS. L’usage répandu de la mise en cache démontre que cette technique apporte à la fois des améliorations substantielles de performances et d’importantes économies financières. Par exemple, les PC placent constamment en mémoire le cache des données et des logiciels enregistrés sur le disque dur afin d’améliorer le débit d’E/S et les performances des applications. Le sous-système de fichiers du système d’exploitation utilise des algorithmes spéciaux afin d’identifier et déplacer de façon automa- techno P RO J E T Aucun changement logiciel n’est requis, car la mise en cache sur mémoire Flash est transparente pour les applications serveur, le système d’exploitation, le sous-système de fichiers et les pilotes de périphériques. tique et transparente les données les plus sollicitées, ou données chaudes, en mémoire cache afin d’améliorer le taux de réponse. Les serveurs placent également en mémoire cache les données et les logiciels dans la mesure du possible. Lorsqu’un serveur dispose d’une quantité adaptée de DRAM et lorsque cette mémoire est totalement utilisée par les applications, la seule façon d’accroître la capacité de la mémoire cache consiste à ajouter un autre type de mémoire. La mémoire NAND constitue l’une des possibilités les plus intéressantes. Avec une latence d’E/S de 50 à 100 microsecondes, la mé- moire flash NAND peut être 200 fois plus rapide qu’un disque dur hautes performances. Le principe de proximité des données s’applique également à la mise en cache. Ainsi, l’accélération du cache grâce au Flash offre les meilleurs gains de performances lorsque la carte est placée directement dans le serveur, sur le bus PCI Express (PCIe). Certaines cartes de cache Flash offrent désormais plusieurs téraoctets de mémoire SSD, ce qui améliore considérablement le taux de réponse. Et une nouvelle classe de solutions offre à la fois des interfaces Flash internes et SAS (Serial-Atta- techno P RO J E T ched SCSI) pour créer des DAS hautes performances. Cette solution repose sur des disques SSD et durs, alliant ainsi les performances de la mémoire Flash à la capacité et au faible coût des disques durs. Comparaison des performances de clusters avec et sans mise en cache Afin de comparer les performances en cluster avec et sans la mise en cache, il est possible de s’appuyer sur TeraSort, une référence de l’analyse comparative. TeraSort teste les performances des applications qui trient de gros volumes d’enregistrements de 100 octets, impliquant des Go et To de données, et qui nécessitent également un nombre considérable de calculs, de mises en réseau et d’E/S de stockage, caractéristiques des charges de travail Hadoop. L’analyse comparative de TeraSort couvre la génération, le tri et la validation. Pour le test, LSI a utilisé un cluster à huit nœuds pour son test TeraSort de 100 Go. La configuration de test était composée d’un commutateur Ethernet de 10 Gbits/s connectant les huit serveurs et chaque serveur était équipé de 12 cœurs de processeur, 64 Go de RAM et huit disques durs de 1 To. Les serveurs ont également été équipés d’une carte d’accélération LSI Nytro MegaRAID modèle NMR-8100-4i disposant de 100 Go de mémoire Flash NAND. La mémoire Flash de la carte d’accélération a été désactivée pour le test sans mise en cache. Aucun changement logiciel n’est requis, car la mise en cache sur mémoire Flash est transparente pour les applications serveur, le système d’exploitation, le sous-système de fichiers et les pilotes de périphériques. Il est à noter que le stockage RAID n’est normalement pas utilisé sur les clusters Hadoop en raison du mode de réplication des données sur les différents nœuds par le système HDFS (Hadoop Distributed File System). La fonctionnalité RAID de la carte d’accélération Nytro MegaRAID ne serait donc pas utilisée par les clusters Hadoop. Par conséquent, elle n’a pas été utilisée dans ce test. Néanmoins, son implémentation sur un circuit RoC (RAID-on-Chip) n’aurait qu’un impact négligeable sur le coût de la carte. Lorsque la mise en cache sur la mémoire Flash est activée, le test de TeraSort est 33 % plus rapide. Plus précisément, la tâche testée prend environ trois minutes (3 min 2 s) avec la mise en cache contre environ quatre minutes sans mise en cache (4 min 8 s). Le gain de performances de 33 % lié à la mise en cache est proportionnel à la taille du cluster nécessaire pour accomplir une tâche MapReduce, ou de tout autre type, pendant la période requise. Ce n’est qu’un début Les entreprises qui procèdent à l’analyse prédictive du Big Data disposent désormais d’une nouvelle option pour obtenir les performances voulues avec les cartes Flash d’accélération en cache. Si les tests évoqués ci-dessus portaient sur Hadoop, d’autres tests complets menés par LSI menés sur différentes bases de données et applications populaires font ressortir des gains de performances allant d’un facteur de 3 (pour les configurations DAS) à un facteur de 30 (pour les configurations SAN et NAS). Ces gains de performances sont également possibles pour des jeux de données moins importants. Dans les environnements virtualisés, par exemple, l’optimisation de l’utilisation du serveur passe par l’optimisation des performances. En effet, plus le niveau de performances de l’application est élevé, plus les serveurs sont disponibles, et plus ils sont disponibles, plus ils sont utilisés. Le même principe techno P RO J E T s’applique aux serveurs dédiés, pour lesquels la mise en cache améliore les performances et réduit les temps de réponse. L’utilité du Big Data dépend directement des analyses prédictives réalisées par les organisations pour exploiter son potentiel, ce qui fait d’Hadoop un outil puissant d’analyse des données ouvrant de nouvelles perspectives en sciences, dans la recherche, l’administration et l’économie. L’analyse prédictive du Big Data se développera au fur et à mesure que les entreprises réaliseront que plus les données sont importantes, plus l’analyse est fine. Les serveurs doivent également être plus intelligents et efficaces. La mise en cache sur la mémoire Flash permet d’effectuer de façon plus rentable davantage de tâches sur un nombre plus restreint de serveurs (réduisant ainsi le nombre de licences logicielles) et ce, quel que soit le volume des jeux de données. Cette solution est donc idéale pour les responsables informatiques confrontés à des budgets limités et l’augmentation des données. Gary Smerdon A propos de l’auteur Gary Smerdon est viceprésident senior et directeur général de la division ASD (Accelerated Solutions Division) de LSI Corporation. Il supervise le marketing, la conception et la fabrication des solutions d’accélération d’applications qui associent la technologie Flash PCIe à des logiciels intelligents de gestion et de mise en cache. Gary Smerdon est membre du conseil et observateur de Greenfield Networks (racheté par Cisco), 3Leaf Systems (Huawei), SandForce (LSI) et Teranetics (PLX). Il est diplômé en ingénierie électrique de l’université de Duke. P RO J E T Facebook, Dropbox, Google Drive, SkyDrive… Si tous ces services sont devenus indispensables au quotidien, basculer de l'un à l'autre relève de l'exercice pénible, à travers tous ces mots de passe à mémoriser. Avec Jolidrive, vous centralisez l'ensemble des applications et services web dont vous avez le plus besoin et vous les manipulez depuis un tableau de bord unique. P RO J E T C ontrairement à ce que son nom laisse à penser, Jolidrive n'est pas un service de stockage dans le Cloud en plus. Totalement gratuit, il agit au contraire comme un « concentrateur » d'applications SaaS, en regroupant tous vos comptes autour d'une interface unique. Développé par JoliCloud, une société française qui s'était déjà illustrée par la sortie d'un système d'exploitation libre et ouvert, destiné aux netbooks, Jolidrive est un jeune service prometteur. Les utilisateurs professionnels lui confieront tous leurs comptes de stockage dans le Cloud (SkyDrive, Dropbox, Google Drive…) afin d'unifier les accès et la consultation des documents. Le grand public ajoutera ses comptes de réseaux sociaux et ses services de partage de vidéos, pour basculer facilement de l'un à l'autre. Élégant et simple, Jolidrive s'appuie sur HTML5 pour offrir une expérience uniforme d'un navigateur à l'autre. Vous en profiterez ainsi sur votre mobile ou votre tablette avec le même confort de lecture, sans mémoriser des dizaines d'identifiants différents. La solution ne lésine pas non plus sur la sécurité et aucun document n'est directement consigné sur les serveurs de Jolidrive. Sous forme de modules, vous ajoutez progressivement de nouveaux services en piochant dans un catalogue amené à grandir de jour en jour. Présentation Entièrement développé avec les derniers standards du Web, Jolidrive harmonise votre expérience autour des services dont vous avez le plus besoin au quotidien. Quelle que soit la plateforme, votre tableau de bord général emprunte la même allure et se conforme à merveille à la résolution du navigateur, avec un thème adaptatif très réussi. Le principe est très simple : vous intégrez vos services web favoris parmi une liste d'une trentaine de prestataires afin de les centraliser autour d'une interface unique. La connexion s'effectue à travers le protocole OAuth sécurisé et Jolidrive ne stocke jamais vos identifiants ou vos données. En quelques minutes, vous faites ainsi cohabiter vos comptes Dropbox, Google Drive, Facebook, Flickr ou Skydrive. Accessibles en un clic, ils révèlent tous leurs documents dans une interface très lisible, avec une visionneuse intégrée. En fonction du service, celle-ci donne accès au mode édition des Office WebApp (SkyDrive) ou des outils Google Docs. On apprécie tout particuliè- P RO J E T rement la clarté de l'explorateur de fichiers, qui indique encore plus distinctement l'espace utilisé que sur les services d'origine. Outre les services de stockage, Jolidrive fait la part belle au multimédia et aux réseaux sociaux, avec une intégration réussie de Tumblr, SoundCloud, Picasa, Flickr, Dailymotion et Vimeo. Certains services incontournables, comme Twitter, sont encore cruellement absents mais l'outil est en expansion permanente et de nouveaux modules apparaissent régulièrement. Compte tenu de l'architecture de Jolidrive, les évolutions ne devraient pas manquer et ce premier socle, très réussi, laisse préfigurer un outil vraiment utile au quotidien. Totalement gratuit, il séduira l'utilisateur professionnel souhaitant cen- traliser ses solutions de stockage dans le Cloud. Les adeptes de réseaux sociaux tireront partie de ses fonctions de recherche et de son lecteur multimédia pour suivre les dernières actus de leurs contacts, tout en écoutant de la musique sur SoundCloud. Pour gagner encore en intérêt, Jolidrive devra renforcer ses fonctions de partage et de collaboration, tout en facilitant les échanges entre les services. Dans le même registre, l'outil payant Otixo.com (9,99 dollars par mois) autorise les glisser-déposer d'un compte à l'autre, pour copier rapidement des documents sur plusieurs espaces. Une fonction dont devrait a priori s'inspirer Jolidrive dans les prochains mois, pour poursuivre sur cet excellent cap. Jean-Marc Delprato Jolidrive à l'œuvre Particulièrement simple à prendre en main, Jolidrive est construit sur les derniers standards du Web, HTML5 en tête. Vous avez donc intérêt à l'ouvrir depuis un navigateur moderne, que ce soit en mode bureau ou mobile. Vous profiterez de la même expérience à travers l'ensemble de vos services préférés, sans ouvrir une nuée d'onglets. 1 Pour créer un compte, rendez-vous à l'adresse www.jolidrive.com. Vous pouvez vous authentifier à l'aide d'un compte Google+ ou Facebook (ils seront alors pré-renseignés dans votre tableau de bord) ou saisir votre e-mail et partir d'un compte vierge. Ajoutez vos services de stockage Après avoir créé votre compte, cliquez sur le lien « Add More Services », en haut à gauche. Vous accédez à la liste de tous les modules de Jolidrive : cliquez sur l'onglet Storage pour filtrer les services de stockage. En cliquant sur le bouton +, vous avez la possibilité de renseigner votre compte Dropbox, Google Drive, SkyDrive, MediaFire, SugarSync, Ubuntu One, Box ou Evernote. L'authentification s'effectue dans une fenêtre séparée, à travers le protocole OAuth. Autorisez l'accès à vos documents : la connexion s'effectue de manière sécurisée et Jolidrive ne stocke jamais vos fichiers. P RO J E T 2 Consultez les réseaux sociaux La colonne de gauche de votre tableau de bord se remplit au fur et à mesure de l'ajout de services ; cliquez sur leur intitulé pour basculer rapidement de l'un à l'autre. En bas à droite, des boutons vous permettent de visualiser un document ou de l'ouvrir dans l'application web correspondante. Parmi les autres services incontournables, ajoutez vos réseaux sociaux préférés. Là encore, cliquez sur « Add More Services » puis triez la liste en cliquant sur « Social ». Facebook, Google+ ou Tumblr : vous suivez l'actualité de votre réseau et vous passez facilement d'un compte à l'autre. Les contenus multimédias sont privilégiés, en particulier avec Facebook où vous visualisez toutes les photos de vos amis. L'accès aux réseaux sociaux sur Jolidrive reste toutefois largement consultatif ; on attend impatiemment la possibilité d'interagir davantage avec ses contacts, en croisant éventuellement les réseaux. 3 Complétez vos services Après avoir ajouté tous les services dont vous avez besoin au quotidien, apprenez à les manipuler en parallèle. Vous avez ainsi la possibilité de lancer l'écoute d'un morceau sur SoundCloud, tout en consultant un document déposé sur Google Drive. À ce titre, vous faites basculer la visionneuse en mode édition en cliquant sur le bouton en bas à gauche : vous retrouvez alors tous les outils de Google Docs, sans quitter la fenêtre de Jolidrive. C'est d'ailleurs par le biais de cet éditeur que vous gérez vos permissions d'accès et vos partages de fichiers, à travers les fonctions standards de chaque service. Suivez les évolutions de Jolidrive et testez éventuellement d'autres services, comme SlideShare (présentations) ou Readability (lecture d'articles). 4 Lancez des recherches L'un des atouts de Jolidrive tient à son moteur de recherche central, en haut de l'écran : sélectionnez un service dans la colonne de gauche, saisissez un mot-clé et validez pour retrouver rapidement tout type de fichiers. Outre la possibilité de rechercher un élément parmi vos propres documents, ce système permet d'interroger très rapidement une grande variété de services. Vous comparez ainsi facilement les résultats d'une requête sur YouTube, Dailymotion, Vimeo ou Tumblr. Le diagramme sur la droite de l'écran, qui indique l'espace de stockage disponible sur chacun des services, est également très pratique. Seul regret : il n'est pas encore possible, à l'heure actuelle, d'effectuer des recherches croisées sur l'ensemble de ses comptes. P RO J E T Croisez tous vos comptes de stockage dans le Cloud Sur le même principe que Jolidrive, Otixo.com se spécialise dans l'intégration de comptes de stockage dans le Cloud et propose une série de fonctionnalités avancées. Recherches croisées, copie de fichiers par simple glisser-déposer, ajout de 1 multiples comptes du même prestataire… Autant de fonctions susceptibles d'intéresser les utilisateurs professionnels ! Il s'agit toutefois d'un service payant, à 9,99 dollars par mois. Regroupez vos services de stockage Otixo est accessible dans une version d'évaluation de quinze jours. Cliquez sur le bouton + en regard de la section « My Cloud Services » et ajoutez les prestataires de votre choix (Dropbox, Google Drive, SkyDrive…). Il est possible d'intégrer plusieurs comptes différents du même service. Vous consultez ensuite vos documents de manière très intuitive, en les déplaçant d'un compte à l'autre par simple glisser-déposer dans la fenêtre du navigateur. 2 Effectuez des recherches croisées La barre d'outils, en haut de l'écran, vous permet de partager un fichier ou de déposer un nouveau document sur le service de votre choix. Il est également possible d'effectuer un clic droit sur un élément, pour le télécharger, le renommer ou le supprimer. Le champ de recherche, en haut à droite, interroge l'ensemble des services que vous avez intégrés : vous retrouvez en un instant l'emplacement de stockage de chaque résultat. 3 Profitez d'espaces collaboratifs En créant des « espaces », en bas à gauche de l'écran, vous profitez des fonctions collaboratives d'Otixo. Définissez l'ensemble des collaborateurs et leurs permissions respectives. Chaque membre a ensuite la possibilité de partager les documents de son choix, depuis les services qu'il a renseignés. La section « Items » combine ainsi indifféremment des fichiers SkyDrive d'un collègue à vos propres documents Dropbox et ainsi de suite. P RO J E T Profitez de fonctions avancées pour les réseaux sociaux Suite.com centralise tous vos comptes Facebook, Twitter, Google+ ou LinkedIn autour d'un tableau de bord unique. Vous planifiez vos prochaines parutions et vous les publiez sur plusieurs réseaux à la fois. Si vous effectuez régulièrement des opérations de community management pour le compte de votre entreprise ou d'une marque, vous avez intérêt à vous épauler d'un véritable agrégateur de réseaux sociaux. Sur les bases de Jolidrive, Hoot- 1 Personnalisez votre compte Rendez-vous à l'adresse HootSuite.com et créez votre compte d'utilisateur. Vous gérez gratuitement jusqu'à cinq profils : comptez 7,19 euros par mois pour porter cette limite à 50. Vous ajoutez des services en cliquant sur le bouton « Ajouter un réseau social ». Sélectionnez un prestataire puis indiquez votre identifiant et mot de passe. Renouvelez l'opération pour chacun de vos comptes. 2 Suivez tous vos réseaux à la fois Sur votre tableau de bord, cliquez sur le 3 Planifiez une publication croisée L'un des intérêts de HootSuite bouton Flux. Sous forme d'onglets, vous ajoutez ensuite des « vues » propres à chaque réseau social. Avec Twitter, par exemple, vous pouvez afficher votre timeline, vos mentions, vos retweets ou une recherche spécifique. Avec Facebook, vous ajoutez un onglet relatif aux événements ou aux photos de vos amis. Pratique pour embrasser et comparer d'un coup d'œil une grande variété d'informations tient à la possibilité de contrôler de multiples comptes à la fois. Cliquez sur le bouton Éditeur du tableau de bord puis sur « Composer un message ». Cliquez sur le champ en haut à droite pour sélectionner les comptes concernés (Facebook, Twitter…) et rédigez votre message. En bas à gauche, vous visualisez la limite de caractères pour chaque réseau. Associez éventuellement une image ou un lien, choisissez l'heure de publication et validez. PREMIERS ESSAIS Avec un serveur, les données qui servent à votre entreprise seront enfin hiérarchisées, rationalisées et sécurisées. Mais ce ne sont pas les uniques fonctions qu’il offre. 6 Un outil pour gérer serveurs testés L votre entreprise orsqu’une entreprise se développe, il arrive un moment où il faut centraliser les données. En effet, avec un nombre de plus en plus conséquent d’ordinateurs de bureau ou de portables, elles sont quelque peu éparpillées ici et là et il devient très difficile de hiérarchiser et de rationaliser les informations. Et si le NAS offre une belle alterna- tive au serveur, il ne propose pas les mêmes services. Avec un serveur, il est possible d’installer des applications spécifiques. Vous pourrez ainsi gérer plus finement votre messagerie électronique, installer toute une artillerie de protection de votre réseau (pare-feu, antivirus, anti-spam, etc.) et même faire fonctionner plusieurs environnements au sein d’une machine virtuelle. Par ail- P R E M IE R S E S S A IS 6 serveurs testés leurs, un serveur peut être un allié de choix pour gérer les imprimantes et administrer les droits des utilisateurs d'un réseau. Il pourra même héberger votre site internet ! Bref, le champ d’action d’un serveur est conséquent. C’est pourquoi il ne faut pas sous-estimer vos besoins afin de choisir le serveur qui sera le plus adapté. Protégez vos données. En fonction de vos be- soins, il faudra bien sûr privilégier une caractéristique plutôt qu’une autre. Si votre serveur est avant tout destiné à accueillir une base de données, disques dédiés et capacité mémoire conséquente seront à privilégier. S’il a pour vocation à effectuer des sauvegardes de vos données, c’est la quantité et la qualité des disques durs qui vont entrer en jeu. Mais dans les deux cas, la pérennité des données est à prendre en compte. En effet, plus qu’un particulier – encore qu’avec l’accroissement des données personnelles, la sauvegarde devient essentielle – une entreprise ne peut se permettre une interruption de son activité suite à une perte de données. Qui plus est, la perte de données peut causer celle de l’entreprise… C’est pourquoi, la redondance et la tolérance aux pannes sont des critères à prendre en compte. Évolutif, pour suivre votre entreprise. Bien entendu, vous ne pouvez pas envisager quels seront vos besoins dans les années à venir. Nombre d’utilisateurs plus conséquent, besoin de sauvegarde à la hausse ou services supplémentaires sont autant de paramètres qui seront amenés à évoluer. Fort heureusement, un serveur, comme un ordinateur, peut évoluer au gré du développement de votre entreprise. Mémoire et disque dur sont les principaux composants que vous pourrez par la suite faire changer. Toutefois, il faut veiller à ce que le serveur que vous convoitez offre de telles capacités d’évolution. Il faut donc prendre connaissance du nombre d’emplacements (slots) mémoire disponibles et regarder la quantité de mémoire maximale que le serveur est capable de gérer. Il faudra en faire de même avec les emplacements 3,5 pouces dédiés aux disques durs. Il faut également prendre en compte le nombre de connecteurs Sata afin de relier simplement vos disques. Faute de quoi, vous devrez investir dans une carte contrôleur supplémentaire. À ce propos, veillez à choisir un serveur proposant un nombre de connecteurs d’extension suffisant. Enfin, lorsque l’on ajoute un disque dur, la consommation du serveur augmente elle aussi. Les alimentations de votre serveur devront elles aussi suivre cette inflation. Comptez entre 15 et 20 watts par disque dur supplémentaire. Un environnement qui fait la différence. Dis- poser d’un environnement informatique homogène est presque impossible. PC fonctionnant sous différentes versions de Windows (XP, Vista, 7, 8), Linux ou encore des ordinateurs Macintosh constituent bien généralement le casse-tête de bien des gestionnaires informatiques. Fort heureusement, les systèmes d’exploitation pour serveur gèrent parfaitement ces différents environnements. Le plus simple est d’utiliser un système Windows Server 2012 Essentials. Il est parfaitement adapté à un environnement composé de moins de trente postes. Enfin, si l’espace de votre bureau est compté, veillez à ce que votre serveur se montre silencieux. Rien de plus pe- P R E M IE R S E S S A IS 6 serveurs testés sant qu’un vrombissement incessant pour vous gâcher la journée ! Un serveur pour votre entreprise. Pour réaliser ce dossier nous avons convié six protagonistes avec des filtres de sélection bien précis. Pour mieux les comparer, nous nous sommes contentés de machines conçues pour subvenir aux besoins d’une entreprise de moins de 30 utilisateurs. Ces serveurs sont par ailleurs au format tour afin d’être intégrés plus facilement dans un bureau. Pour nos différents tests, nous avons également pris en compte l’évolutivité du serveur, son silence de fonctionnement, mais également ses différents niveaux de performance. De la sorte, nous avons pu choisir le modèle le plus polyvalent et qui fera face aux différentes tâches que vous pourrez lui confier. Alexandre Marcq Acer AT310F2 Une architecture simple, mais efficace Un serveur économique et évolutif Des outils de gestion complets À y regarder de très près, l’AT310F2 n’est guère loin d’un PC traditionnel. Boîtier ATX, carte mère au même format… tous les éléments sont réunis pour rendre ce serveur aussi discret que possible. D’ailleurs, même en fonctionnement, il ne se fait pas entendre. Il n’y a guère qu’en regardant sa face avant et sa connectique qu’on se rend compte qu’il a tous les atouts d’un véritable serveur d’entreprise. En premier lieu, on remarque les quatre baies cachées derrière la porte avant. Ces quatre unités au format 3,5 pouces peuvent accueillir des disques à la norme Sata 3. D’ailleurs, les fonds de panier sont parfaitement câblés afin de les accueillir en moins de deux secondes… Cela permet également d’échanger à chaud un disque défectueux. Les disques sont par ailleurs pris en charge par un système Raid logiciel. Ici deux options sont proposées : Intel ou LSI. L’Intel gère des volumes en Raid 0, 1, 10 et 5, tandis que le LSI se contente du Raid 0, 1 et 10. Mais dans les deux cas, seul le RAID logiciel est proposé, avec les inconvénients que l’on connaît (lenteur à la reconstruction d’un volume, performances moindres, etc.). Une configuration simple, mais efficace. Concernant le processeur, c’est un Xeon E3-1220 cadencé à 3,1 GHz qui prend place. Notons au passage que cette configuration ne permet pas de se constituer une solution multiprocesseur. Il s’accompagne de 4 Go de mémoire au format DDR3 ECC (évolutif jusqu’à 32 Go). Une capacité un peu réduite mais qu’il est très simple d’étendre via les trois emplacements qui restent libres. La carte mère présente de larges possibilités d’ex- P R E M IE R S E S S A IS 6 serveurs testés tension. Les ports PCIe (4x, 8x et 16x) pourront accueillir des cartes d’extension afin d’offrir un Raid matériel à votre serveur. D’ailleurs, Acer propose une carte PCIe Raid qui prend en charge les disques durs au format SAS. Pour le refroidissement, l’AT310F2 reste tout aussi mesuré. Deux petits ventilateurs se chargent de refroidir l’ensemble. En outre, l’alimentation standard prend en charge cette tâche. D’une puissance de 450 watts, elle peut être remplacée par un modèle redondant de deux fois 400 watts. Une suite d’outils complète. Côté réseau, là encore on retrouve des composants simples, mais éprouvés. On dispose ici de deux connecteurs Gigabits Ethernet. Les deux peuvent être facilement agrégés ou dissociés. Par le biais du réseau, vous pourrez administrer le serveur. Il suffit tout simplement d’utiliser la console d'administration Acer Smart Console. Celle-ci vous permettra d'installer et configurer le serveur et d’en effectuer une supervision totale. En plus de cet outil, on retrouve Acer Smart Server Manager. Une suite complète qui permet d’administrer le serveur, mais également l’intégralité de votre parc de serveurs Acer. Avec cet outil, vous pourrez effectuer des mises à jour des bios, surveiller la consommation électrique de votre parc en temps réel ou encore intervenir sur des pannes. En conclusion Discret de par son format et son silence de fonctionnement, l’AT310 F2 séduit davantage par son prix que par ses possibilités d’extension. Si vous souhaitez transformer ce modèle en serveur de stockage vous serez très vite confronté aux limites imposées par les quatre baies 3,5 pouces ainsi que par le contrôleur Raid matériel. Mais pour moins de 1 000 euros HT en version 2 x 500 Go et sa suite logiciel complète, il reste le serveur le plus attractif du moment ! Carri ProServer E3 V3 Un serveur assemblé en France Une configuration plus puissante que les grands noms du secteur et aussi évolutive Made in France, le ProServer E3 V3 affiche une conception pour le moins classique, mais de qualité. Le boîtier issu de la gamme Chenbro affiche des possibilités d’évolution exemplaires. Au format EATX, il accepte les cartes mère dans ce format. Autrement dit, les cartes mères biprocesseurs et les cartes d’extension pleine longueur ne lui font pas peur. Sa grande taille lui permet également d’afficher un silence de fonctionnement appréciable. D’ailleurs, un seul ventilateur placé à l’arrière du boîtier permet de refroidir l’ensemble des composants. En outre, il présente de belles possibilités d’évolution avec la présence de trois emplacements 5 pouces ¼ et de quatre baies 3,5 pouces en façade. Ils utilisent des fonds de panier câblés en Sata 3, lesquels sont reliés à un contrôleur Raid de la carte mère. Ce Raid logiciel supporte les modes 0, 1 ,10 et 5. Notons au passage que la configuration est livrée avec deux disques d’un téraoctet chacun. Ces disques mus à 7 200 tr/min sont issus de la gamme Western Digital Raid Edition qui est dévolue à un usage intensif. P R E M IE R S E S S A IS 6 serveurs testés nant les logiciels d’administration du serveur, il faudra ici se contenter de l’offre proposée par la carte mère Asus puisque Carri ne conçoit pas ce type de produit… Baptisé Intel Deployment Assistant, il se charge de mettre à jour les composants, les pilotes, de configurer le Raid et de créer une image système pour le déploiement de plusieurs serveurs identiques. En conclusion Silencieux, ce serveur affiche de Une configuration puissante. La carte mère, une Asus P9DX, provient de la gamme serveur du constructeur. Au format ATX, elle utilise le chipset Intel C222. Elle profite ainsi d’une connectique complète (PCIe 8 et 16x, PCI, SATA 2 et 3, etc.). Elle offre également la possibilité d’accueillir des composants de dernière génération tel le processeur Intel Xeon E3-1240V3 cadencé à 3,3 GHz. Il s’accompagne ici d’une barrette de 4 Go DDR3 ECC. Une capacité qui peut être portée à 32 Go. Mais dans cette configuration, ce serveur est déjà le plus performant de ce dossier ! Le tout est nourri par une alimentation de 620 watts. Elle a l’avantage d’afficher une puissance conséquente et une version redondante de 650 watts peut s'y substituer en option. De quoi faire face aux évolutions futures. Une administration simple. Côté réseau, on retrouve deux connecteurs Gigabits Ethernet. Les slots PCIe vous seront d’une aide précieuse pour augmenter les performances réseau en ajoutant une carte fibre par exemple. Concer- très bonnes performances. Et avec son format EATX, il pourra évoluer au gré de vos besoins. En contrepartie, il faudra se contenter d’outils d’administration en retrait face à la concurrence. Dell Poweredge T620 Une génération plus puissante Un modèle qui présente quelques fonctionnalités bien pratiques Imposant, le Poweredge T620 affiche ses ambitions avec un boîtier massif. Selon sa configuration, il prend en charge de 4 à 32 disques durs échangeables à chaud. Il offre une compatibilité avec les disques SAS 2, SATA III et SSD. Pour gérer toutes ces unités, c’est un contrôleur PERC S110 qui officie. Un composant qui permet de gérer de façon logicielle les différents modes Raid. Ici, Raid 0, Raid 1 et Raid 5 sont pris en charge. La gestion logicielle du Raid impose également quelques limites, notamment en termes de per- P R E M IE R S E S S A IS 6 serveurs testés formance, mais aussi sur le nombre de disques qu’elle peut accueillir. Le PERC S110 ne peut pas contrôler plus de quatre disques. Une carte destinée au Raid matériel est également disponible et accroît davantage les performances. Cette carte Mini PERC H710 prend place dans un slot dédié, dispose de 512 Mo de mémoire cache, supporte les différents modes Raid jusqu’au Raid 6 et offre un support des interfaces SAS et SATA. Reste que cette carte optionnelle coûte 400 euros… Simple ou double processeur. Bien agencé, le T620 ne laisse pas de place au hasard. Tous les composants sont parfaitement rangés. La carte Raid H710 se place à côté des différentes baies. Ici les fonds de panier sont câblés à huit ports SATA. Le T620 dispose de 24 emplacements mémoire au format DIMM. Notre configuration, équipée de 8 Go de RDimm 1 333 MHz s’accompagne ici d’un processeur Intel Xeon E5-2609 cadencé à 2,4 GHz (un deuxième emplacement est disponible). Un ensemble suffi- samment robuste pour un groupe de travail de moins de trente personnes. Ce processeur quadri-cœur s’octroie également les services de 10 Mo de mémoire cache. À l’usage, l’ensemble se montre plutôt silencieux. Pourvu de 3 ventilateurs échangeables à chaud, le T620 présente une consommation de 105 watts en fonctionnement. En charge, la consommation monte à plus de 380 watts. Soit la limite maximale que peut supporter son alimentation redondante de 450 watts. Notez toutefois que vous pourrez piocher dans les options afin de porter cette puissance à 750 ou 1 100 watts. De quoi supporter les évolutions matérielles à venir. Notre modèle dispose de sept ports PCI Express de troisième génération. Réseau sur mesure. Par défaut, le T620 est pourvu d’une puce Broadcom 5720 supportant les réseaux Ethernet jusqu’à 1 gigabit. Pour s’offrir un réseau en 10 gigabits il faudra débourser 360 euros de plus et pour de la fibre comptez au minimum 750 euros. Par ailleurs, ce serveur est pourvu du nouveau contrôleur de gestion à distance : le iDRAC7. Associé à une interface web, ce système offre aux administrateurs un outil simple pour effectuer des relevés complets sur les fonctionnalités de la machine (espace disponible, consommation, température, etc.). L’iDRAC7 permet également de suivre les évolutions matérielles, en affichant les slots occupés ou encore configurer les ports réseau ou les systèmes Raid. En conclusion Silencieux et à l’agencement intelligent, le T620 facilite sa maintenance. Pour cela, il dispose d’un utilitaire de surveillance et P R E M IE R S E S S A IS 6 serveurs testés de mise à jour parfaitement bien conçu et il utilise différents systèmes qui permettent d’intervenir sur la machine sans le moindre outil. Par exemple, il est possible de démonter la carte mère en moins de cinq minutes, en déclipsant les différents éléments qui la retiennent. Un excellent choix qui est ici assorti d’une garantie de 3 ans avec une intervention le jour ouvrable suivant l’appel. Fujitsu Primergy TX140S1P ter le stockage présent. Vous pourrez ainsi profiter d’unités de sauvegarde LTO, RDX ou DDS. Celles-ci prennent place en façade dans un des deux emplacements 5,25 pouces. L’ensemble est géré par un contrôleur Raid logiciel qui ne peut traiter plus de quatre canaux. Si vous utilisez le rack 8 baies 2,5 pouces, vous serez dans l’obligation d’acquérir une carte contrôleur Raid additionnelle pour en profiter. Le chipset présent en standard (Intel C200) gère le Raid 0, 1 et 10. Notez également qu’une carte Raid spécifique est nécessaire pour utiliser des disques durs SAS. Mono processeur et extensions limitées. Un serveur intéressant qui satisfera le plus grand nombre Un module qui peut accueillir indifféremment des disques 3,5” ou 2,5” Voici un serveur atypique. De base, il se présente sous la forme d’une tour classique. Dans ce format, il est doté d’un module qui peut accueillir quatre disques au format 3,5 pouces. Ces paniers sont câblés en SATA et en SAS afin d’offrir une compatibilité maximale. Avec quelques artifices, il se transforme volontiers en serveur rack. Autre astuce, un boîtier permet de convertir les quatre baies 3,5 pouces en 8 baies 2,5 pouces. Ce format de disque est de plus en plus utilisé. Des gammes de disques ont récemment été annoncées et les SSD sont de plus en plus utilisés dans les serveurs. Ces derniers sont d’excellents atouts pour les bases de données où la réactivité et les débits sont deux éléments cruciaux. Par ailleurs, le constructeur propose de nombreuses options afin de complé- Malgré sa taille standard, cette configuration utilise une carte mini ATX. Il en découle un nombre d’extensions très réduit. Ainsi, avec un seul port PCIe la configuration atteindra vite ses limites. Surtout si vous utilisez une carte contrôleur RAID. Côté processeur, nous P R E M IE R S E S S A IS 6 serveurs testés avons à faire à un Intel Xeon E3-1200V2. Cadencé à 3,1 GHz, ce modèle s’accompagne de 4 Go de DDR3 ECC extensible à 32 Go. Une opération simple qui s’opère grâce aux quatre slots mémoire. Il en va de même du côté de l’alimentation avec une puissance limitée à 300 watts. Mais il existe une version avec alimentation redondante, soit avec une ou deux extractibles à chaud. Notez que dans cette version, la puissance passe à 450 watts. La suite logicielle la plus complète. La par- tie réseau est composée de deux ports Gigabits Ethernet. Basés sur des contrôleurs Intel 82574L et 82759LM, ils offrent les fonctions de Boot iSCSI et PEX. Mais cela ne fait partie que d’un faible aperçu des possibilités de ce serveur. Fujitsu a mis un point d’honneur à mettre à disposition tous les outils nécessaires pour administrer le serveur ainsi que le parc de serveurs. Gestion à distance, mise à jour et maintenance, détection et analyse des pannes, voici un petit échantillon des possibilités offertes. En conclusion Si ce serveur présente quelques limites, notamment en terme d’évolution matérielle, il séduit d’avantage par son module hybride capable d’accueillir 4 disques durs au format 3,5 pouces ou 8 disques au format 2,5 pouces. Son adaptateur rack séduira les plus perfectionnistes, tandis que sa suite de logiciels simplifiera amplement le quotidien de l’administrateur réseau lors des maintenances et autres interventions. HP ProLiant ML310e Gen8 v2 Server Un serveur à moins de 900 € pour un groupe de moins de 30 personnes Quelques concessions Robuste, voici le meilleur qualificatif pour ce serveur signé HP. Fraîchement lancé sur le marché, le ProLiant ML310e présente une esthétique pour le moins épurée. Mais ce dessin obère également le côté pratique de la machine. Ici, pour accéder aux quatre baies 3,5 pouces, il ne suffit pas d’ouvrir une simple porte, non il faut ôter la face avant du serveur dans son intégralité. On a vu plus simple. Heureusement, les berceaux de disque se retirent aisément et même à chaud. Câblés en SATA et en SAS, ces disques profitent du contrôleur Dynamic Smart Array B120i/ZM. Ce contrôleur RAID peut gérer jusqu’à six unités de stockage au format SATA. Si vous souhaitez utiliser des disques SAS, il faudra opter pour le contrôleur ZM Dynamic Smart Array B320i. Outre cette compatibilité, il offre un support de huit disques. Un intérêt quelque peu discutable puisque ce ProLiant ne dispose pas d’autant d’espace pour accueillir ces disques. Concernant les modes Raid proposés, les deux contrôleurs font jeu égal, avec du Raid 0, 1 et 10. Le Raid 5 reste une option logicielle… L’accès aux différents composants est plus aisé que celui aux disques. Le panneau gauche du ProLiant se retire en quelques secondes. Ici, P R E M IE R S E S S A IS 6 serveurs testés Réseau standard, mais service de pointe. c’est propre et parfaitement rangé. Comble du raffinement, un large conduit vient prendre place au-dessus des cartes filles et du processeur. Il a pour vocation d'optimiser les flux d’air. Dans ces conditions, les composants sont parfaitement refroidis et le bruit généré par le ventilateur est limité. Le conduit s’ôte rapidement afin d’accéder en quelques instant aux composants. On distingue notamment les ports PCIe 3.0 (8x et 16x) et PCIe 2.0 (8x et 4x) Bon processeur, mais mémoire à minima. En jouant la carte du prix le plus bas, HP a dû consentir à quelques concessions sur les spécifications et la quantité des composants intégrés. Si le processeur – un Intel Xeon E3-1220v2 à 3,1 GHz – remplit sa tâche, les deux petits gigaoctets de mémoire sont plus que justes pour faire face à la demande. Oubliez d’emblée cette configuration et optez au minimum pour 4 Go de DDR3 ECC. Surtout qu’avec 4 slots mémoire, il y a de quoi faire (32 Go au maximum). Au-dessus de la carte mère trône une alimentation silencieuse de 460 watts. Un bloc qui peut être remplacé par un modèle redondant de même puissance en option. Ce n’est pas non plus du côté de la connectique réseau que ce modèle se distingue. À moins de piocher dans la banque d’organes présentant des cartes 10 gigabits ou fibre, il faudra se contenter de deux ports Gigabits Ethernet gérés par le contrôleur Intel 330i. En revanche, ce serveur propose un nombre impressionnant d’utilitaires pour administrer son serveur et son réseau. L’installation, la configuration et la maintenance sont simplifiés avec HP iLO Management Engine (iLO4) et HP Intelligent Provisioning. Pré-chargés dans le serveur, ces outils peuvent être déployés en quelques secondes sur les ordinateurs de votre choix. Ils vont même au-delà de la maintenance. En effet, HP Active Health présente des fonctions de surveillance des performances de votre serveur. Cet utilitaire vous indique alors les composants qui présentent des défaillances, évalue automatiquement la consommation d’énergie et gère la mise à jour des applications. Enfin, l’option HP Insight Online est aussi séduisante. Se présentant sous la forme d’un portail, elle propose des services en ligne basés sur le Cloud. L’accès au serveur, sa sauvegarde en ligne ou encore sa personnalisation n’auront jamais été aussi simples ! En conclusion Pour moins de 900 euros, ce ser- veur affiche de belles prestations. Toutefois, il faut garder à l’esprit que pour cette somme, il faudra souvent se contenter du minimum. Pensez donc à augmenter la capacité mémoire et à opter pour une alimentation redondante afin d’obtenir un serveur digne de ce nom. Mais dans ces conditions, on atteint les 1 100 euros HT. Une somme raisonnable si l’on prend en compte la quantité et la qualité des logiciels livrés. P R E M IE R S E S S A IS 6 serveurs testés Lenovo ThinkServer 430 Une solution d’entrée de gamme, simple et économique Apte pour les groupes de 30 personnes Quelques limites Le Lenovo ThinkServer TS430 reprend un design inspiré de la gamme de PC traditionnels, avec des angles biseautés et des voyants de fonctionnement ici et là. Mais après un examen plus attentif, on se rend bien compte que nous sommes en présence d’un serveur. Il suffit d’ouvrir la porte en façade pour voir apparaître les huit baies au format 3,5 pouces. Grâce à celles-ci, ThinkServer TS430 offre de belles possibilités d'évolution. Il pourra atteindre une capacité de stockage de 32 To avec disques SATA ou SAS. Toutes ces baies sont remplaçables à chaud et les fonds de panier sont parfaitement câblés. Pour gérer l’ensemble, un contrôleur Raid implémenté sur la carte fille gère les Raid de niveau 0, 1 et 10. Pour l’utilisation du Raid 5, il faudra effectuer une mise à jour, payante, de la carte. Par ailleurs, si vous souhaitez utiliser des disques de type SAS, il faudra prendre l’option « Raid 500 ». Constituée d’une carte fille, cette solution offre le même niveau de gestion et bénéficie du Raid 5, également après une mise à jour. Ce ThinkServer s’accompagne de quelques outils pratiques pour gérer à la perfection l’intégralité de ses données. Par exemple, il dispose d’un logiciel permettant de sélectionner l’unité logique d’amorçage. Très utile si vous souhaitez disposer deux systèmes sur votre serveur. En outre, la reconstruction automatique des disques après un changement à chaud est possible, tout comme la migration de niveau de Raid en ligne ou l’extension des données sur le Cloud. De l’Intel Core au Xeon. Très abordable, le ThinkServer TS430 est proposé en différentes configurations. L’entrée de gamme se contente d’un processeur à architecture Core. Ce G620 se nourrit de deux cœurs à 2,6 GHz. Le haut de gamme est quant à lui représenté par un Xeon E3-1280 (4 cœurs à 3,6 GHz). Dans cette configuration plus haut de gamme, le TS430 ne dépasse pas les 1 500 euros… Le bon compromis se situe sur la configuration intermédiaire, dotée d’un Xeon E3-1220. Ce processeur quatre cœurs est cadencé à 3,1 GHz et affiche déjà de bonnes prestations. Dans notre configuration de test, il s’accompagne de 4 Go de mémoire vive. Une capacité que l’on peut faire évoluer jusqu’à 32 Go sur les quatre emplacements mémoire DDR3. Avec une telle configuration, pas besoin de disposer d’un déluge de watts. Ici un seul modèle d’alimentation P R E M IE R S E S S A IS 6 serveurs testés La garantie, une option aussi importante que votre serveur À la moindre panne vous devrez être le plus réactif afin que votre entreprise conserve sa productivité : avec 24 heures sans réseau, votre entreprise est presque au chômage technique. Un serveur a pour vocation d’abriter toutes les données de votre entreprise, de stocker votre base de données et même de gérer votre réseau. De fait, à la moindre panne vous devrez être le plus réactif possible afin que votre entreprise conserve sa productivité… Si ce n’est qu’une panne minime, tel qu’un disque dur, son remplacement et la reconstruction du système ne vous prendront que quelques minutes. Mais si elle est plus grave, vous devrez faire appel au constructeur. Et c’est là que toute la différence se fait. Si un constructeur vous propose une intervention en J+1, vous devrez attendre le lendemain de votre appel pour être secouru ! Et avec 24 heures sans réseau, votre entreprise est presque au chômage technique. Dans ce dossier, à l’exception de HP et Fujitsu qui présentent une garantie en standard de 1 an, tous affichent une couverture de 3 ans pièces et main d’œuvre sur site en J+1. Ces garanties sont assorties d’une intervention. Pour étendre ces garanties à trois ans, il faudra donc mettre la main à la poche (de 155 à 250 €). Notez que vous pourrez également étendre votre garantie, afin de la faire passer à 6 ans sur site. Comptez entre 230 et 619 € pour ce type de service. Mais comme nous vous le disions, en cas d’une panne importante, le mieux est est proposé. D’une puissance de 450 watts, elle se montre silencieuse. Notez qu’il est possible d’opter pour une alimentation redondante de même puissance. Celle-ci vient prendre place aux côtés de la première afin de préserver la bonne intégration des composants. Pour quelques évolutions. Le châssis fait le plein de bonnes intentions. On dispose ainsi de trois slots PCIe 2.0 8x, d’un slot PCIe 4x et d’un slot PCI 2.3. La connectique n’est pas en reste avec deux ports gigabits Ethernet, dont un qui est partagé avec l’outil de gestion à distance. Avec lui, il est possible de surveiller le bon fonctionnement de votre machine et même d’effectuer quelques d’être dépanné le plus rapidement possible. Et à ce petit jeu là, Carri monte sur la première marche du podium. Le constructeur propose des interventions en moins de quatre heures en Île de France… Pour 695 €, Acer propose d’étendre sa garantie à 5 ans au travers de son programme AcerAdvantage. Celui-ci assure aux clients Acer d’être dépannés le jour ouvrable suivant l’appel. Le service affiche une disponibilité de 9 heures par jour et fonctionne 5 jours par semaine. Une version intermédiaire est également proposée. Pour 466 €, cette garantie couvre le serveur pendant trois ans. ajustements de configuration. Côté garantie, le constructeur propose une couverture de 3 ans sur site en J+1 (France métropolitaine). Toutefois, un large catalogue propose des extensions de garantie. Assistance 24/24, 7 jours sur 7 avec appel prioritaire et packs d’installation et de formation sont également proposés. En conclusion Complet, silencieux et peu oné- reux, le ThinkServer TS430 présente une solution efficace pour un premier investissement. Pour des besoins plus conséquents, ce modèle atteindra en revanche ses limites. Vous devrez par exemple vous contenter de 32 Go de mémoire vive et vous satisfaire de l’unique socket processeur. P R E M IE R S E S S A IS 6 serveurs testés Dell Poweredge T620 Fujitsu PRIMERGY TX140 S1p HP ProLiant ML310e Gen8 v2 Server Lenovo ThinkServer TS430 CARACTÉRISTIQUES TECHNIQUES Acer Carri ProServeur E3 LT Processeur Intel Xeon E3-1220V2 Intel Xeon E3-1240V3 Intel Xeon E5-2609 Intel Xeon E3-1200V2 Intel Xeon E3-1220V2 Intel Xeon E3-1200V2 Fréquence 4 x 3,1 GHz 4 x 3,3 GHz 4 x 2,4 GHz 4 x 3,1 GHz 4 x 3,1 GHz 4 x 3,1 GHz Mémoire livrée 4 Go DDR3 ECC 4 Go DDR3 ECC 8 Go DDR3 ECC 4 Go DDR3 ECC 4 Go DDR3 ECC 4 Go DDR3 ECC Mémoire maximale 32 Go DDR3 ECC 32 Go DDR3 ECC 32 Go DDR3 ECC 32 Go DDR3 ECC 32 Go DDR3 ECC 32 Go DDR3 ECC Nombre de baies 3,5 pouces 4 4 4 4 (3,5'') ou 8 (2,5'') 4 8 Raid supporté en standard 0, 1, 10, 5 0, 1, 10, 5 0, 1, 10, 5 0, 1, 10 0, 1, 10 0, 1, 10, 5 Capacité livrée 2 x 500 Go 2 x 1 To 0 2 x 500 Go 0 0 Capacité maximale 4 x 4 To 2 X 4 To 4 x 4 To 4 x 4 To 4 x 4 To 8 x 4 To Alimentation 450 watts 620 watts 495 watts 300 watts 450 watts NA Alimentation redondante 2 x 400 watts en option 2 x 650 watts en option jusqu'à 2 x 1 100 watts en option 2 x 450 watts 2 x 460 watts en option 2 x 450 watts Réseau 2 x Gigabit Ethernet 2 x Gigabit Ethernet 2 x Gigabit Ethernet 2 x Gigabit Ethernet 2 x Gigabit Ethernet 2 x Gigabit Ethernet Prix 970 € HT 1 095 € HT 1123 € HT 1 140 € HT 900 € HT 1 100 € HT Garantie standard 3 ans 3 ans, dont 1 sur site 3 ans J+1 1 an sur site 1 an sur site 3 ans J+1 Garantie en option 3 ans sur site J+24 / 230 € HT 3 ans sur site J+1 / 400 € HT 3 ans sur site J+1 / 1 102 € HT 3 ans sur site J+1 / 619 € HT 3 ans sur site J+24 / 255 € HT 3 ans prioritaire / 150 € HT NOTATION Caractéristiques Évolutivité Performances Services Garantie Total 3 3 3 4 2 15 4 3 5 2 4 18 4 4 4 4 4 19 P R E M IE R S E S S A IS 4 4 3 4 2 17 3 4 4 4 4 19 3 3 3 4 4 17 Dragon NaturallySpeaking 12 Premium Mobile pour L’excellence de la reconnaissance vocale avec la version 12.5. contre Plusieurs essais dans la version mobile testée pour obtenir un très bon résultat. 249 € 4 en résumé Pour son prix, il procure des prestations de haut niveau et constitue donc un excellent produit. (149 € logiciel seul) Sans refaire l’histoire des logi- ciels de reconnaissance vocale, Dragon Naturally Speaking (DNS) version 12 reste pratiquement seul au monde. Via Voice (IBM) a disparu. Philips, conserve 360 | SpeechMagic SDK, plate-forme de développement dédiée au secteur médical, distribuée par Nuance et les partenaires de sa branche Healthcare. La société Philips poursuit également la commercialisation d’enregistreurs numériques pour la dictée vocale lesquels constituent d’excellents périphériques d’entrée P R E M IE R S E S S A IS 5 Dragon NaturallySpeaking 12 Premium Mobile pour DNS. Pour cet article, nous avons testé la qualité de reconnaissance vocale de Dragon NaturallySpeaking 12 et nous avons complété l’essai avec l’enregistreur livré avec la version mobile. Un peu de clarté dans tout ca : la version Home est limitée à la dictée et la reconnaissance d’un texte, la version Premium y ajoute la commande vocale d’un ordinateur sous Windows – lancer un programme, envoyer des mails, surfer sur Internet. Il existe aussi une version professionnelle dédiée au déploiement en entreprise basée sur la version 12. Nuance commercialise en outre une version 12 Legal et Dragon médical qui reste encore en version 11. L’ensemble testé ici comprend le logiciel Dragon Naturally Speaking 12 Premium, le micro-casque livré avec le pack ainsi que l'enregistreur numérique Philips VoiceTracer LFH0662 d’où l'épithète Mobile. Cette version accepte aussi comme périphérique d’entrée un téléphone mobile sous iOS et même Androïd depuis peu. L'éditeur du logiciel, Nuance, réussit totalement l'aide à l'usage de son produit : insertion du DVD, installation simplissime. Common Software Manager, chercheur de mises à jour logicielles, est ajouté à votre machine et vous fait découvrir un patch de 500 Mo, disponible depuis le 15 juillet 2013 : adaptation aux récents logiciels de Microsoft (Windows 8, Office 2013, Internet Explorer 10) et correction des bugs répertoriés. Vous voilà aux commandes de la version 12.5. Il est préférable d’exécuter en premier ce patch. Mise en route Aussitôt après l’installation, le logiciel vous propose de créer votre profil locuteur qui se réalise en lisant un texte de 10 min. Après la lecture, le traitement de ce profil prend 5 à 10 min. Cette opération somme toute assez rapide (il fallait compter plus d’une heure sur les anciennes versions) est capitale pour obtenir une bonne quali- P R E M IE R S E S S A IS Dragon NaturallySpeaking 12 Premium Mobile L’enregistreur numérique Philips C’est l’instrument de mobilité et de liberté de cette version (Premium Mobile) puisque vous pouvez dicter n’importe où avec ce petit outil (11 x 4 x 2 cm), 84 g avec ses deux batteries AAA 900ma rechargeables par le port USB ou avec un chargeur (non fourni). Pour notre part nous préconisons deux batteries supplémentaires chargées : l’autonomie est d’au moins 20 heures. La capacité de la mémoire est de 2 Go. Les notes prises au dictaphone sont versées dans la section Voice en fichiers MP3 transférables par un câble USB. Cette section est divisée en 4 registres A, B, C, D pouvant contenir chacun 99 fichiers MP3 dans la limite de la mémoire. À chaque enregistrement, le temps écoulé et le temps restant sont affichés. Dans les options figure le déclenchement à la voix. Pour un meilleur résultat, il est possible d’agir sur les deux choix d’enregistrement possibles : High ou Low selon l’environnement calme ou bruyant. En outre, dans le logiciel DNS on crée un profil spécifique soit 4 min de texte lu sur ce nouveau périphérique qui sera analysé. Mais le profil micro-casque té de reconnaissance. Nous ne saurions trop vous conseiller d’articuler et d’adapter votre diction, mais sans aller jusqu’à travestir votre phrasé naturel. L’objectif reste tout de même que le logiciel reconnaisse votre prose au quotidien ! Vous êtes ensuite dirigé vers le didacticiel interactif qui, en 10 étapes, vous apprend les bases du logiciel : commande du micro, diction, ponctuation et commandes de dictée, correction, épellation si le mot est inconnu, modification du texte (mettre en gras, supprimer un mot), sélection du texte et déplacement du point d’insertion, formatage du texte. Ce module est particulièrement réussi et permet d’entrer en 30 minutes dans les fonctionnalités de DNS. Tout n’est pas forcément clair à l’issue ? Pas d’inquiétude : n’hésitez pas à refaire le didacticiel interactif. De plus, une fenêtre d’aide permet de consulter les différentes commandes du logiciel mais aussi de solliciter l’aide en ligne. Au total, cette nouvelle version vous assure d’être productif en une heure (en excluant le peut aussi être utilisé. Enregistrer son texte, ses notes puis transférer les fichiers MP3 par un port USB avec un système bien paramétré donne une très bonne reconnaissance. Au pire, un fichier MP3 peut s’écouter avec un simple lecteur... Cet enregistreur constitue en définitive un excellent outil de mobilité mais sous liberté « conditionnelle » : le soin que l’on mettra à faire le(s) meilleur(s) choix. Avantage, c’est l’utilisateur qui reste le seul juge de sa peine pour réussir. temps de téléchargement du patch et son installation). Vous pouvez soumettre des documents représentatifs de votre style, ce qui améliore encore votre profil locuteur et, ce faisant, l’exactitude de la reconnaissance. De plus, à la fin de chaque nouveau texte, votre profil est automatiquement enrichi. Cette fonction est désactivable si vous le souhaitez. Intégration aux logiciels Dans la version Premium testée, la commande vocale des logiciels et leur contrôle est satisfaisante. Dragon NaturallySpeaking est compatible avec la majorité des logiciels Microsoft et grâce au dernier patch, y compris dans leurs toutes dernières versions. L'application travaille directement dans les logiciels Word et Excel et une aide spécifique s’ouvre sur le côté. Pour PowerPoint, c’est la « boîte de dictée » de Dragon qui s’ouvre et le contenu se transfère au point d’insertion. La « boîte de dictée » est l’outil par défaut que propose DNS quand il ne sait pas écrire directement P R E M IE R S E S S A IS Dragon NaturallySpeaking 12 Premium Mobile dans un logiciel : on peut travailler le texte à la voix. En dehors d’une accessibilité avec un minimum de manipulation clavier ou souris, l’intérêt de la boîte de dictée pour ces logiciels est modeste. Outre le contexte bureautique auquel DNS se prête bien sûr tout particulièrement, le surf sur Internet peut également bénéficier de la navigation vocale : Internet Explorer 10 et Firefox sont parfaitement reconnus et bénéficient d’une aide contextuelle pour les commandes. Et pour la messagerie, Windows Live Mail et Outlook bénéficient aussi de la même prestation. L’optimisation pour Gmail n’est pas au rendez-vous : il n’est pas possible de dicter directement dans la messagerie. Il faut donc passer par la case « boîte de dictée », on y perd en ergonomie. Qualité de reconnaissance À quelques réserves près énoncées ci-après, DNS s’acquitte de sa tâche fort honorablement dans la grande majorité des cas dans lesquels nous l’avons testé. Par exemple, si l’aide est vraiment utile et la base de connaissance fort riche, certaines réponses sont inadaptées car certains types de commandes ne sont disponibles que dans certaines versions de Dragon Premium. Plutôt qu’une aide unique, l’éditeur gagnera à les différencier en fonction des versions. Enfin, la « boîte d’épellation » n’obéit pas très bien au contrôle vocal et le recours à la souris ou autre moyen de pointage est souvent nécessaire pour faire un choix parmi ceux proposés. Au total, malgré ces quelques petits défauts, le logiciel est vraiment performant en reconnaissance vocale avec le micro casque et l’enregistreur numérique. Il ne faut pas négliger la puissance machine : avec le minimum requis, le texte ne s’affiche pas 3 fois plus vite qu’à la frappe mais on peut dicter très rapidement sans rien perdre. Francis Daliphard P R E M IE R S E S S A IS Acronis True Image 2014 Premium pour Une interface remaniée, des fonctions pléthoriques et complètes. La restauration Cloud qui fonctionne. Une offre de stockage accessible. contre Certaines fonctions comme les opérations portant sur un disque ou des partitions (clonage, sauvegarde) gagneraient à être directement accessibles. Et l'affichage des origines de restauration, plus immédiate. 79,95 € 4 5 en résumé Avec sa version 2014, Acronis réussit à innover sur un secteur qui semblait ne plus devoir évoluer. Et cela, en ajoutant des fonctions de gestion de sauvegarde avancées et programmables. Au fil des versions, Acronis True Image, utilisé par de nombreux professionnels, a acquis le statut envié de référence en matière de gestion de partitions et de clonage de disques. Prenant appui sur ce socle technique solide, l’éditeur l’a graduellement positionné comme un outil de sauvegarde à part entière. Sans prétendre devenir une solution de sauvegarde universelle (Acronis dispose de versions spécifiques pour serveurs), elle couvre de façon très complète la sphère du poste de travail. Les disques et les P R E M IE R S E S S A IS ½ Acronis True Image 2014 Premium partitions qui les composent peuvent en effet être gérés sur un disque dur externe, un serveur NAS, un FTP… ou même le Cloud ! Les fonctions de base L’interface du logiciel a été remaniée pour cette nouvelle version et se divise en quatre sections, chacune accessible par un onglet. Voilà qui simplifie l’utilisation, plutôt que l’arborescence à volets, réminiscence du déjà ancien Windows XP. Si la nouvelle interface simplifie globalement l’utilisation du logiciel, certaines opérations précises comme le clonage de disque demandent un peu de recherches (notamment dans les options avancées) et sont donc hors de vue dans un premier temps. Cela signe de façon subtile mais marquée le virage qu’Acronis fait prendre à True Image pour en faire un logiciel de sauvegarde pur et dur. Il est à noter qu’aussi bien sur la version installée sous Windows qu’en démarrant sur la clé USB de restauration, vous pouvez poursuivre l’utilisation du logiciel pendant qu’une sauvegarde ou une restauration se déroulent. Vous pouvez exploiter les fonctions de sauvegarde à la demande (complète ou incrémentale), ou encore la nouvelle fonction NonStop Backup qui sauvegarde vos données en continu. Elle ajoute la possibilité de sauvegarder une partition en permanence et procède comme pour les données : une sauvegarde complète, suivie de sauvegardes incrémentales ne comprenant que le delta de données ayant changé depuis la dernière sauvegarde. Mieux encore, la gestion de l’ancienneté des deltas est gérée : elle est conservée toutes les minutes pour le jour actuel, mais ne conserve que la dernière en date pour la journée d’hier, la semaine et le mois écoulés. Ce qui assure des sauvegardes complètes avec des données à jour tout en préservant la frugalité rendue nécessaire par la bande passante, forcément limitée. En cas de panne matérielle, le logiciel est capable de restaurer système d’exploitation et données sur un PC différent à l’aide de la fonction Universal Restore… à condition d’avoir opté pour la version Premium du logiciel (vendue 79,95 € contre 49,95 € pour la version Home). C’est la principale différence. Si vous avez un parc à gérer, optez donc pour la version Premium. Bien sûr, des versions spécifiques Workstation (testé le mois dernier) et Serveur (testé prochainement) existent, mais Acronis True Image procure un nombre de fonctions impressionnant capable de répondre à la majorité des cas. Le clonage de disque passe par l’emploi d’un assistant pour déterminer le disque source et le disque destination. Par défaut, le mode de clonage automatique s’occupe de migrer les partitions à votre place et surtout, de les retailler en fonction de la capacité du nouveau disque. Ce mode automatique peut être débrayé et vous laisser prendre la main pour choisir le mode de copie des partitions : à l’identique, proportionnel ou entièrement manuel. Ce dernier mode est certainement le plus puissant de tous. Vous pouvez déterminer librement l’intégralité de ses caractéristiques : taille de la partition à l’arrivée (sans pouvoir choisir une taille inférieure aux données déjà présentes bien sûr), son emplacement (début, fin ou n’importe quel endroit de l’espace alloué), le système de gestion de fichiers (NTFS ou FAT32), et le type (Pri- P R E M IE R S E S S A IS Acronis True Image 2014 Premium maire, Logique, active ou non). Certaines configurations de disques ne sont prises en charge que dans la version Premium du logiciel, c’est le cas des disques dynamiques ou en RAID. La sauvegarde dans le Cloud C’est la grande nouveauté de cette version : Acronis vous offre 5 Go d’espace de sauvegarde gratuitement. Ces 5 Go vous sont acquis et sont utilisables pour sauvegarder des éléments distincts (documents, fichiers, photos) ou comme zone de synchronisation dédiée à vos appareils mobiles à l’aide des applications pour iOS et Android de l’éditeur. L’offre de l’éditeur plafonne pour l’heure à 5, 50 ou 250 Go payables au mois ou à l’année (49,95 pour 250 Go annuels). Des offres de stockage supérieures existent pour des volumes plus importants (jusqu’à 3 To, voir tableau). L’opération de sauvegarde sur le Cloud est possible sous deux formes. La première consiste, comme s’il s’agissait d’une sauvegarde standard, à paramétrer une sauvegarde complète (nécessaire pour la sauvegarde initiale), suivie de sauvegardes incrémentales. Ces dernières se font de trois façons possibles : à la demande (manuellement) ou selon un calendrier programmé, quotidien ou hebdomadaire. La seconde, beaucoup plus intéressante, consiste à choisir directement le disque dur à sauvegar- P R E M IE R S E S S A IS Acronis True Image 2014 Premium der. Ce qui comprend par défaut également sa structure (taille et type de partitions, informations de boot), mais vous pouvez choisir de n’en sauvegarder que la partition de votre choix. Pour la restauration depuis le Cloud, Acronis promet le « bare metal recovery ». Cette expression un peu barbare équivaut au Nirvaña de tout DSI qui se respecte : booter sur une simple clé USB (générée par le logiciel) et restaurer directement depuis un câble Ethernet. Nous avons réalisé nos tests avec plusieurs PC portables successivement dotés de Windows XP, de Windows 7 Professionnel et de Windows 8 Professionnel fraîchement installés et mis à jour – soit 20 Go de données. Ces 20 Go ont mis environ 2 heures à être sauvegardés sur le Cloud Acronis via un lien fibre de 100 Mbits/s à un débit fluctuant entre 20 et 80 Mbits/s en upload. Lors de nos tests, nous avons noté une tendance franchement optimiste du logiciel à évaluer le temps de restauration requis. Le compteur oscillait entre 20 et 35 minutes pour une opération qui prenait entre 1 h 45 et 2 heures. À cette réserve près, le logiciel tient ses promesses. La mini distribution Linux servant d’amorce pour la restauration a reconnu tous les chipsets Ethernet que nous avons testé, pour certains déjà anciens. Bon point : en cas de ralentissement ou d’interruption, True Image reprend la sauvegarde sans interruption jusqu’à achèvement. Et cela y compris en cas de mise en veille. En revanche, lors de l’un de nos tests, la mise en veille prolongée a interrompu la sauvegarde en cours avec une erreur, la sauvegarde étant par la suite affichée comme complète. La consultation du fichier journal a confirmé nos doutes – mais c’est là un cas atypique. Les sauvegardes peuvent être protégées par mot de passe et sont cryptées en AES 128, 192 ou 256 bits. P R E M IE R S E S S A IS Acronis True Image 2014 Premium Grille tarifaire des volumes de stockage pour postes de travail 5 Go 9,95 € par an 50 Go 2,95 € par mois ou 29,95 € par an 250 Go 4,95 € par mois ou 49,95 € par an Grille tarifaire des volumes de stockage pour stations de travail 250 Go 79 €/1 an – 149 € / 2 ans – 219 € / 3 ans 500 Go 159 € / 1 an – 289 / 2 ans – 409 € / 3 ans Pour serveurs 1 To 629 € / 1 an – 1190 € / 2 ans – 1690 € / 3 ans 1,5 To 949 € / 1 an – 1799 € / 2 ans – 2499 € / 3 ans Pour machines virtuelles 2 To 1199 € / 1 an – 2249 € / 2 ans – 3229 € / 3 ans 3 To 1799 € / 1 an – 3399 € / 2 ans – 4849 € / 3 ans Options supplémentaires Initial seeding (sauvegarde initiale réalisée en local) 83,99 € par machine Restauration à grande échelle (jusqu’à 2 To) 234,45 € par machine Bien entendu, pour tester la restauration « bare metal » il faut prendre soin de générer au préalable un média bootable. True Image sait créer un fichier ISO, graver directement un CD ou DVD bootable, et bien entendu, créer une clé USB bootable (400 Mo sont requis pour l’amorce et le noyau Linux chargé de la restauration). Sachez qu’Acronis vous propose d’essayer gratuitement pendant 30 jours un espace de 250 Go. Au-delà de cette période d’essai, il vous en coûtera 49,95 € par an (ou 4,95 € par mois). Le noyau de démarrage permet d’effectuer la plupart des opérations de base, ainsi que la sauvegarde et clonage de disques et de partitions. Et surtout, de lancer une opération de restauration depuis un disque optique ou externe (connecté en SATA, SAS, SCSI, IDE, IEEE1394, USB 1, 2 et 3.0), le serveur FTP de votre choix, un NAS du réseau (le logiciel gère login et mot de passe), ou encore l’espace Cloud d’Acronis. Curieuse- ment, ces espaces de stockage n’apparaissent pas spontanément dans le logiciel, il faut aller jusqu’au bouton « parcourir » pour que les différentes cibles accessibles apparaissent dans l’arborescence… la logique voudrait qu’ils s’affichent aussitôt. Le logiciel est compatible avec toutes les éditions Windows XP SP3, Windows Vista SP2, Windows 7 SP1 et Windows 8, en 32 comme en 64 bits. True Image sait convertir des fichiers de son format natif (.tib) au format de disque virtuel Microsoft (.vhd) et inversement. Ces derniers peuvent être « montés » par Windows 7 et Windows 8 sans autre forme de procès. Idéal pour virtualiser n’importe quel poste de travail. Au final, hormis quelques bizarreries ergonomiques, l’ensemble des nouveautés dont la sauvegarde et la restauration depuis le Cloud sont bien intégrées – une réussite ! Joscelyn Flores P R E M IE R S E S S A IS 3 ½ Toshiba Excite Write pour Ultra rapide. Processeur quadricoeur Tegra 4. Affichage d’un piqué exceptionnel. Android 4.2 5 contre Onéreuse. Tablette relativement lourde et épaisse. Adaptateur secteur de taille importante. Intégration de l’encre numérique perfectible. 649 € en résumé Même son processeur haut de gamme et sa dalle de qualité ne justifient pas un prix si élevé. C’est peu de le dire, mais la toute nouvelle tablette de Toshiba, l’Excite Write, marque considérablement les esprits. Tout d’abord pour sa qualité de conception et de finition. On a affaire là à un produit robuste qui inspire confiance, une bonne nouvelle pour les nomades. Ensuite, niveau équipement on a rarement vu aussi impressionnant : processeur quadricoeur Tegra 4 d’une réactivité sans égale, et surtout un sublime écran 10,1 pouces dispensant une définition de 2 560 x 1 600 pixels. Ce qui fait dire que P R E M IE R S E S S A IS Toshiba Excite Write cette tablette hors norme est vraiment taillée pour tous les usages, des plus basiques comme la navigation sur Internet, aux plus gourmands en ressources matérielles comme le traitement photo ou vidéo. Revers de la médaille, cette tablette sous Android 4.2 est la plus onéreuse du moment dans la catégorie des 10,1 pouces de diagonale. Design et fonctionnalités Toshiba a décidé de ne pas rendre l’Excite Write aussi classieuse que l’Excite 10. Exit donc l’élégance de l’aluminium et place à un plastique texturé ayant déjà fait ses preuves avec l’Excite 10 SE, une tablette à prix étudié. Mais par-dessus tout, c’est son poids et son épaisseur qui surprennent, surtout comparés à des modèles comme la Sony Xperia Tablet Z ou la Nexus 10 qui présentent respectivement une épaisseur de 7 et 9 millimètres et un poids de 498 et 589 grammes contre 1 cm pour 671 grammes côté Excite Write. Comme de nombreux modèles, cette tablette embarque sur l’une de ses tranches le bouton d’allumage ainsi que le régulateur du niveau de volume. Derrière une petite trappe se trouvent un emplacement pour cartes microSD, une prise micro HDMI ainsi qu’un connecteur micro USB. Ce dernier peut être utilisé aussi bien pour transférer des données que pour ouvrir une session USB OTG (On-The-Go). Juste à côté trône la prise Une trappe astucieuse dissimule l’ensemble de la connectique de l’Excite Write, à savoir un emplacement microSD, une prise microHDMI et un connecteur microUSB. de l’alimentation secteur où vient s’enficher un bloc inhabituellement imposant que l’on a plus l’habitude de voir accompagner un ordinateur portable qu’une tablette. Visiblement, la Full HD et au-delà ne font guère peur aux tablettes actuelles. L’Excite Write, tout comme la Nexus 10 d’ailleurs, arbore une dalle IPS supportant une définition de 2 560 x 1 600 pixels. Avec une densité de 300 pixels par pouce, elle détrône l’écran Retina de l’iPad et ses 263 pixels par pouce. Ce qui est dommage, c’est que la pauvreté et le manque d’optimisation des applis disponibles sur Google Play ne permettent pas de mettre en valeur ses qualités d’affichage, et ce même si l’Excite Write affiche des couleurs légèrement sursaturées avec un jaune tirant un peu vers le vert. Petite déception du côté de la luminosité, l’iPad et l’Asus Transformer Pad Infinity TF700 faisant nettement mieux qu’elle. Au dos de la tablette sont placés deux hautparleurs Harman Kardon, mais Toshiba a eu la mauvaise idée de les situer là où l’on vient poser les mains pour la tenir, si bien que le son qui en émane est souvent étouffé, dommage ! P R E M IE R S E S S A IS Toshiba Excite Write Côté performances et équipement L’Excite Write est la première tablette à intégrer le Tegra 4 et ses 4 cœurs. Conséquence : en performances brutes, on sait à quoi s’attendre. Cadencée à 1,8 GHz, la puce Nvidia est une des toutes premières à utiliser la nouvelle architecture de l’ARM A15 ; de plus, elle est ici associée à 2 Go de mémoire vive. Ainsi armée, la Toshiba obtient un impressionnant score de 3 937 au test GeekBench, là où la Xperia Tablet Z et la Nexus 10 réalisent respectivement 2 099 et 2 480. Ne disposant pas de 3/4G, le seul moyen de connexion à internet pour l’Excite Write reste donc le wifi. Ici, il est proposé en bibande (2,4 et 5 GHz) et est accompagné d’une puce Bluetooth 4 pour entrer en communication et échanger des données avec les appareils compatibles. Un GPS vient parfaire l’ensemble. Bon point, la tablette de Toshiba s’est révélée très endurante lors de notre test d’autonomie (test consistant à jouer une vidéo en boucle avec le contraste poussé au maximum et avec la connexion wifi active). Certes, elle fait un peu moins bien que la TF700 d’Asus (qui a réalisé un incroyable 7 h 17 min), mais elle surclasse haut la main la Xperia Tablet Z et la Nexus 10 qui ont tenu respectivement pendant 5 h 09 min et 4 h 41 min. En mode photo, avec son 8 mégapixels dorsal, l’Excite Write prend des clichés tout à fait respectables… du moins lorsque les conditions de lumière sont favorables. Ledit objectif dorsal sert également à réaliser des vidéos full HD (1080p) à 30 images/s. Le capteur frontal ne fait que 1,2 mégapixel, et se réserve à la visioconférence… Un stylet numérique actif en plus Pour se démarquer de la concurrence, Toshiba a équipé sa tablette d’un stylet numérique actif. Prendre des notes sur le pouce, tracer quelques lignes pour esquisser un croquis… on s’imagine déjà faire tout plein des trucs sympas, comme avec le Galaxy Note de Samsung. En fait non, car l’appli (TruNote) proposée par Toshiba gère assez mal le stylet. En effet, normalement, selon la pression que l’on exerce, le trait sort plus ou moins épais. Sur l’Excite, les traits sortent avec la même épaisseur quelle que soit la pression exercée. Pire, sur une appli de dessin à main levée comme Autodesk Sketchbook, le décalage entre le moment où vous tracez et le moment où cela apparaît à l’écran est tellement important que cela en devient très vite insupportable. L’idée du stylet numérique est très intéressante et a certainement une grande utilité pour certains professionnels, mais pas en l’état. Reste qu’au vu de ce que propose déjà la concurrence, l’Excite Write est au sommet de la pyramide. Un argument qui ne serait pas défavorable si ce n’était le manque criant d’applications capables de tirer profit des performances du Tegra A, ni du côté d’Android ni du côté des applications professionnelles. Cela ne peut donc que s’améliorer et justifier ainsi cette super tablette qui sort de l’ordinaire. Fernando Miguel Type Tablette tactile | Diagonale de l’écran 10,1 pouces | Définition 2 560 x 1 600 pixels | Densité de pixels 300 par pouce | Système d’exploitation Android 4.2.1 | Processeur Nvidia Tegra 4 à 1,8 GHz | Mémoire système / de stockage 2 Go / 32 Go | Extension du stockage par carte microSD | Connecteurs microSD, microHDMI, microUSB Connectivité sans fil Wifi b/g/n bibande, Bluetooth 4, GPS P R E M IE R S E S S A IS A4 Technologies Easy 120 pour Faible coût d'acquisition et d'exploitation. L'impression d'un modèle 3D coûte entre quelques dizaines de centimes et quelques euros. Simplicité d’utilisation proverbiale. contre Le délai d'impression, lequel peut atteindre plusieurs heures pour des modèles importants et/ou très détaillés, mais c'est inhérent à la technologie utilisée. Taille somme toute limitée des modèles. 1 990€ 4 ½ 5 en résumé Mature sur le plan de la technologie comme de la qualité obtenue, cette imprimante constitue une excellente première étape pour se lancer dans l'impression 3D. Impossible d’y échapper : voilà plusieurs mois que le tapage autour des imprimantes 3D est assourdissant. Avec l’arrivée de modèles positionnés pour une utilisation personnelle et professionnelle, PC Expert a testé l’un des tout derniers modèles, à la fois technologiquement abouti et fonctionnellement accessible. Imprimer en 3D, inabordable il y a seulement deux ans, est désormais à la portée du plus grand nombre. C’est surtout un moyen peu onéreux, rapide et efficace pour valider un concept ou design 3D P R E M IE R S E S S A IS A4 Technologies Easy 120 avant de le reproduire en série. C’est donc un nouveau type de périphérique adapté aux créateurs d’objets et d’éléments 3D : concepteurs, graphistes, cabinets d’architecte. Cette imprimante est également capable de reproduire des pièces difficiles à réparer ou introuvables (voitures anciennes, électroménager, informatique vintage, etc.). L’imprimante Easy 120 distribuée par le français A4 technologies appartient à la famille des imprimantes « Desktop 3D », entendez par là qu’elle peut venir prendre place sur un bureau, littéralement. Son petit volume l’y autorise : ses dimensions sont de 24 x 26 x 35 cm, soit un encombrement inférieur à celui d’une imprimante à jet d’encre classique. Deux modèles existent dans la gamme, l’Easy120 (le modèle testé, 1 990 €) et l’Easy 100, légèrement plus petite (1 490 €). L’imprimante est livrée avec une bobine de fil de 700 grammes (46 €, 6 coloris disponibles), ce qui permet déjà de produire quelques dizaines de pièces. Comme avec la totalité des modèles à extrusion thermoplastique, « imprimer en 3D » est un abus de langage à double titre. La machine procède en réalité au dépôt d’un fil de plastique ABS (acrylonitrile butadène styrène), matière couramment utilisée pour les coques de PC portables, par exemple. Le fil passe par une buse chauffée à 260°C qui le dépose en fines couches empilées qui finissent par constituer un objet tridimensionnel. Cette imprimante est capable de reproduire un objet de dimensions maximales de 130 x 130 x 130 mm. La mise en place de l’imprimante est simple, mais minutieuse. Une fois le fil passé dans la buse d’impression et le support d’impression clipsé sur le plateau porteur, l’imprimante est prête. L’imprimante est livrée avec un logiciel qui pilote l’impression à partir de modèles STL (stéréolithographiques), qu’est capable de générer 3DS Max, par exemple. C’est aussi le format de fichier utilisé par les scanners 3D. Le logiciel requiert quelques minutes d’adaptation pour maîtriser les opérations de placement et d’échelle. L’imprimante allumée, il lui faut cependant quelques minutes pour être opérationnelle, le temps que la buse d’impression atteigne sa température de fonctionnement. Le logiciel vous donne la main sur la plupart des paramètres d’impression, mais les réglages standard sont amplement suffisants. Vous ajustez notamment la structure de la matière interne, invisible sur un objet plein, par exemple. Vous pouvez opter pour un modèle solide (mais comptez un temps d’impression plus long) ou, au contraire, choisir un maillage plus ou moins serré (trois niveaux) pour gagner en matière et en légèreté, au détriment de la solidité – un réglage à considérer en fonction de la taille de l’objet et de l’épaisseur des parties extérieures. L’impression proprement dite est triviale. Pour P R E M IE R S E S S A IS A4 Technologies Easy 120 chaque modèle, le logiciel imprime un support grossier destiné à porter l’objet proprement dit. Une fois l’objet imprimé, ce support s’enlève à l’aide des nombreux accessoires (cutter, pinces coupantes, etc.) livrés avec l’imprimante. Le test Lors de nos essais, nous avons voulu tester les limites de cette imprimante 3D avec divers objets. Au chapitre des essais concluants, l’imprimante a su reproduire une charnière articulée et fonctionnelle d’un seul tenant (composée de deux éléments indissociables imprimés « l’un dans l’autre »). Lorsque les cotes de l’objet à imprimer sont en deçà des tolérances mécaniques, le logiciel vous avertit en colorant les parties en rouge – et c’est effectivement le cas des parties trop minces. Sur l’un de nos modèles de test, un éléphant, une partie des oreilles a été impossible à reproduire. Plus gênant, cette alerte ne se déclenche pas si vous appliquez un facteur de réduction à votre objet. Ce fut le cas sur un modèle d’avion de chasse, dont les ailes étaient suffisamment épaisses dans le modèle 3D, mais qui, une fois un coefficient réducteur appliqué, sont devenues impossibles à reproduire. Parmi les objets complexes que l’Easy 120 n’a pas pu reproduire fidèlement figure l’un des cinq solides de Platon, l’icosaèdre à faces triangulaires. La limite ne se situait pas ici aux cotes Au chapitre des essais concluants, l’imprimante a su reproduire une charnière articulée et fonctionnelle d’un seul tenant (composée de deux éléments indissociables). de l’objet, mais à sa composition géométrique, en partie incompatible avec la méthode d’impression par couches successives. Le résultat manquait de finesse, mais c’était là un exemple extrême il est vrai. Il faut cependant garder à l’esprit qu’un temps d’adaptation et des essais successifs font partie de l’apprentissage des contraintes inhérentes à cette technologie d’impression. Si le temps d’impression peut devenir conséquent avec une impression « fine », l’attente en vaut la peine : le résultat est tout bonnement époustouflant de finesse, notamment comparé aux contours parfois grossiers et l’aspect légèrement granuleux de la génération d’imprimantes précédente. Rien de tout ça ici, tout au plus vous devrez passer un léger coup de papier de verre fin (fourni) pour parfaire l’aspect en quelques minutes. Le volume sonore lors du fonctionnement est tout à fait supportable, la machine est presque silencieuse – seul se fait entendre un léger feulement dû aux mouvements du plateau. Comparé aux imprimantes de génération précédente, le saut qualitatif sur l’Easy 120 d’A4 Technologies est probant. Joscelyn Flores P R E M IE R S E S S A IS 3 ½ Acer B296CL pour Rendu des couleurs uniforme, excellents niveaux de gris. Nombreuses entrée et sorties vidéos, réglages complets pour un positionnement parfait. 5 contre Angle de vision vertical réduit. Pas de fonction de rotation automatique. 599 € en résumé Un ultra-large de 29 pouces à un prix raisonnable, doté d’une connexion fort complète et d’une dalle IPS pour afficher la meilleure image possible. Et afin de s’adresser aux professionnels, le B296CL propose de nombreux réglages. Depuis quelques mois, les écrans ultra-large au format 21/9 fleurissent. D’une diagonale de 29 pouces, ces écrans ont plusieurs intérêts. Alors bien sûr vous pourrez regarder un film au format cinémascope sans les bandes noires, mais vous pourrez surtout vous passer des deux écrans qui trônent sur votre bureau. Avec une telle surface d’affichage, un écran tel que le B296CL les remplace aisément. P R E M IE R S E S S A IS Acer B296CL Des caractéristiques devenues classiques Le B296CL utilise une dalle IPS de 29 pouces avec un rapport de 21/9. Tout comme ses concurrents, ce moniteur affiche une résolution de 2 560 x 1 080 pixels avec un cadre assez fin. L’ensemble est maintenu par un pied robuste et stable. D’ailleurs, sa grande surface permet d’accueillir vos petits accessoires de bureau. Mais gare à vos stockages de masse (clé USB, carte mémoire, etc.) car une partie de la surface est aimantée. Pour ranger des trombones, dit Acer... curieux. Coulissant sur 15 cm, ce pied permet de régler l’écran à votre convenance. D’ailleurs, pour disposer d’une position idéale, la dalle s’incline également sur près de 40 degrés. En bon écran professionnel, il offre également un mode portrait. Mais pour profiter d’une image dans ce format, il faudra accéder aux panneaux de configuration afin d’effectuer le basculement. Cette opération n’est pas automatisée Le pied orientable possède comme sur les écrans une large base. Méfiez-vous de la zone magnétique. plus haut de gamme. Elle n’a d’intérêt que si Concernant la connec- vous utilisez encore des tique, le B296CL est trombones... l’un des plus complets du marché. Au dos de l’écran, on peut dénombrer deux ports HDMI, une prise DVI, une entrée audio, une entrée DisplayPort et deux connecteurs USB 3.0. Également appréciable, une sortie DisplayPort est présente pour chaîner plusieurs moniteurs. Sur le côté gauche, on dispose de deux ports 3.0 USB. Ces deux connecteurs permettent de recharger vos smartphones et autres tablettes, même si l’écran est éteint. Enfin, deux haut-parleurs sont intégrés. Leur présence permet tout juste d’entendre les sons émis par le système d’exploitation ou de regarder une vidéo… À un volume d’écoute correct, la musique est nasillarde. Du côté des diverses commandes, ce modèle se distingue par les touches Empowering Technology et PIP. La première donne accès au menu du mode d’affichage. Ici, vous pourrez utiliser un des cinq modes (utilisateur, éco, standard, graphique, vidéo). Le second permet d’incruster une image dans l’image. Là encore, cinq choix de position sont possibles pour la fenêtre de PIP. Enfin, le menu OSD présente les réglages les plus classiques, dont la luminosité, le contraste, la température de couleur, la teinte et de la saturation. P R E M IE R S E S S A IS Un rendu fidèle, dès le départ Avant même d’effectuer les mesures, l’Acer nous a étonné par son rendu. De bonnes impressions confirmées lors de nos différents tests. Le B296CL reproduit parfaitement les nuances de gris. La précision des couleurs est tout aussi bonne et le diagramme CIE couvre parfaitement le spectre des couleurs RVB. L’excellente précision des cou- Acer B296CL Un moniteur de cette proportion remplace avantageusement les deux écrans qui encombrent votre bureau. leurs est à mettre au crédit de la dalle IPS. Par ailleurs, ce modèle délivre des angles de vision larges. On ne remarque aucun changement de couleur ou de luminosité à l’horizontale. En revanche, ce constat est bien différent pour les angles verticaux. Ici, l’écran s’assombrit. Enfin, ce modèle nous a séduits par son niveau de contraste. Avec une mesure à 0,54 cd/m² sur fond noir, il parvient à atteindre les 624 cd/m². Les images sont donc détaillées et très profondes. En outre, le B296CL consomme 45 watts dans ses derniers retranchements (luminosité à 100 % avec une vidéo 1080p). Une puissance assez élevée qu’il convient de tempérer puisque ce modèle engloutit seulement 31 watts une fois le mode « Eco » enclenché. Il fait donc ici mieux que beaucoup de concurrents. Au final, le B296CL séduira les utilisateurs qui ont besoin d’une configuration à deux moniteurs. Qui plus est, ce modèle arrive avec de sérieux atouts : consommation réduite, encombrement limité et une image sans défaut. Qui plus est, ce 29 pouces à dalle IPS parvient à diffuser des angles ultra-larges, des couleurs riches et précises et un très bon contraste. Ajoutez à cela une connectique exhaustive et le B296CL parvient à se classer au-dessus de l'AOC Q2963PM. Mais son prix est également supérieur (599 euros). Alexandre Marcq Diagonale 29 pouces | Résolution 2 560 x 1 080 pixels | Luminosité 250 cd/m² | Contraste 100 000 000:1 Connectique 2 HDMI, 1 DisplayPort, 1 VGA, 1 DVI, 4 USB 3.0 | Réglages hauteur, inclinaison, rotation et pivot P R E M IE R S E S S A IS Buffalo AirStation Extreme AC 1750 pour Bons débits et excellente portée. Interface claire et complète. Fait office de routeur, de point d'accès sans fil et de concentrateur. Nombreuses fonctions intégrées. contre Interface de gestion mobile un peu inutile. Accès distant à des clés USB connectés au routeur difficile à configurer. Socle à la qualité de finition douteuse. 140 € 5 en résumé Avec son routeur sans fil double bande gigabit AirStation Extreme AC1750, Buffalo étoffe sa gamme : l'appareil s'articule autour d'une interface claire et précise et offre d'excellentes performances. Présentant de Dernier routeur 802.11ac signé Buffalo, l'AirStation Extreme AC 1750 (129 euros environ) présente d'excellentes performances à travers tous nos tests et surclasse largement les modèles d'entrée de gamme du même constructeur, en particulier l'AirStation AC1300/N900 Gigabit Dual Band WZR-D1800H. Mieux encore : l'interface de gestion brille par son élégance et sa simplicité, en facilitant la configuration de fonctions susceptibles d'intéresser le grand public et les petites ou moyennes entreprises. Ces seuls défauts P R E M IE R S E S S A IS 3 Buffalo AirStation Extreme AC 1750 L’interface de Quality of Service est accessible au débutant. concernent le réglage de l'accès distant aux périphériques de stockage qu'on lui connecte et la gestion des appareils mobiles. Caractéristiques, design et modes de fonctionnement Le dernier routeur double bande de Buffalo emprunte directement le design de son auguste prédécesseur, le WZR-D1800H, à une exception près : le bouton AOSS (AirStation One-Touch Secure System), visant à sécuriser les connexions, est rouge et non argenté. L'AC1750 intègre un chipset Broadcom et supporte un débit théorique de 450 Mbits/s sur la bande 2,4 GHz et jusqu'à 1 300 Mbits/s à 5 GHz. Trois diodes sur sa face avant apparaissent en colonne, autour du logo de Buffalo qui s'éclaire lorsque le routeur est sous tension. La diode supérieure indique le statut de la connexion sans fil, celle du milieu correspond aux connexions WAN et la diode du bas signifie que l'appareil fonctionne comme routeur. À ce titre, vous pouvez le configurer en tant que pur routeur, concentrateur ou point d'accès. Dans le premier cas, les trois diodes sont éclairées. Lorsque vous l'utilisez en tant que concentrateur, la troisième diode reste éteinte. À l'arrière, on retrouve quatre ports Ethernet Gigabits, un port WAN Gigabit, un port USB 2.0 et un port USB 3.0, que vous utiliserez pour connecter des supports de stockage externes ou des imprimantes. Une série de boutons complémentaires figurent à cet endroit. On ne les trouve que rarement sur de tels routeurs : ils servent notamment à basculer l'AirStation Extreme en mode concentrateur ou en point d'accès. Sous cet interrupteur se trouve un autre bouton avec la mention « Mode » à proximité. Si vous avez choisi d'utiliser l'AC 1750 en tant que point d'accès, ce bouton permet d'activer ou non les fonctions de routage (dans ce dernier cas, les fonctions DHCP et NAT sont donc désactivées). En limitant le routeur au rôle de point d'accès, vous permettez à tous vos périphériques WLAN de rejoindre le réseau. Le modèle de Buffalo constitue ainsi une bonne solution pour les TPE et PME souhaitant étendre leur réseau aux appareils sans fil. Rares sont les routeurs offrant la possibilité de fonctionner exclusivement en tant que point d'accès, dans cette gamme de prix. Buffalo a préconfiguré son routeur avec un mot de passe administrateur et des SSDI pour les deux bandes supportées. Ces détails figurent sur la face inférieure de l'AC 1750 et vous devez ainsi penser à les changer, afin de renforcer la sécurité de l'interface d'administration et des réseaux sans fil. Il est possible de visser le rou- P R E M IE R S E S S A IS Buffalo AirStation Extreme AC 1750 L'AirStation Extreme affiche les périphériques qui lui sont connectés, en indiquant s'ils sont en filaire ou wifi. teur à un mur, mais le kit de fixation est hélas très limité, avec des vis qui paraissent trop petites pour assurer un bon maintien. Deux socles accompagnent le routeur, vous les utiliserez pour le maintenir en position verticale ou horizontale. L'ensemble manque toutefois de stabilité, en particulier lorsque vous connectez plusieurs câbles à l'arrière. La configuration du Buffalo AC 1750 Comme avec la plupart des routeurs dernier cri du marché, la configuration initiale de l'AC 1750 est simple et rapide. Un guide de démarrage vous aide à brancher au mieux chaque machine et à configurer Windows ou Mac OS X afin de se connecter au réseau sans fil par défaut du routeur. Il vous suffit ensuite d'ouvrir un navigateur et de vous rendre à l'adresse du routeur pour accéder à l'ensemble de ses fonctionnalités. À ce titre, l'interface bénéficie d'une refonte complète par rapport à celle du WZR-D1800H, en affichant ses différentes options sous la forme de tuiles, à la manière de Windows 8. La navigation se révèle très intuitive et vous bénéficiez d'une vue d'ensemble de toutes les caractéristiques de votre configuration. L'onglet Wireless vous permet de parcourir et modifier les paramètres du réseau sans fil, notamment son type de chiffrement, son SSDI, son canal de diffusion, etc. Vous pouvez cliquer sur une icône en forme de rouage sur la plupart des écrans de l'interface, afin d'accéder aux paramètres avancés. Vous avez ainsi la possibilité de créer des SSID supplémentaires (chaque bande en supporte deux) ou d'isoler le WLAN en empêchant les différents clients de communiquer entre eux, par exemple. Les fonctionnalités brillent par leur diversité. Vous êtes notamment en mesure de configurer le VPN, le filtrage des adresses MAC ou la planification de l'accès Internet, tout en profitant d'un mode Eco, dans lequel vous désactivez les diodes ou la connexion sans fil durant les périodes de votre choix. Nous nous concentrerons essentiellement sur les nouvelles fonctionnalités du routeur de Buffalo à travers la suite de ce test. QoS Parmi les nouveautés essentielles, on apprécie la possibilité d'éditer finement les règles de QoS (Quality of Service). À travers une interface graphique claire et précise, les utilisateurs débutants assignent facilement les priorités du trafic réseau. Les utilisateurs plus aguerris profiteront de paramètres avancés. Si vous désirez privilégier les flux vidéo au sein d'un réseau domestique, par exemple, il P R E M IE R S E S S A IS Buffalo AirStation Extreme AC 1750 vous suffit de cocher la case « vidéo ». Vous indiquez ensuite le niveau de trafic que vous autorisez à travers des règles prédéfinies, comme « Ultra Premium », « Standard » ou « Limité » parmi d'autres paramètres. Filtrage web et contrôle parental Buffalo incorpore à son routeur le service ConnectSafe de Norton pour soutenir les fonctions de contrôle parental. Après avoir accepté les conditions d'utilisation de Norton, vous avez la possibilité de bloquer les sites frauduleux susceptibles d'héberger des logiciels-espions ou des malwares, les sites pour adultes ou même plus globalement toutes les sources évoquant des sujets matures, comme les jeux d'argent. Il suffit d'activer les interrupteurs figurant à l'écran pour appliquer les règles de filtrage. Avec les paramètres les plus élevés, nous n'avons pas été en mesure d'accéder au site web d'un fabricant de cigarettes par exemple, ce qui laisse présager un filtrage plutôt correct. Le filtrage peut s'appliquer sur le réseau entier ou pour des adresses MAC, des adresses IP ou des noms de machines spécifiques. Vous pouvez ainsi le limiter à l'ordinateur de votre enfant, en excluant votre propre PC par exemple. Accès distant De plus en plus de routeurs grand public facilitent la configuration de l'accès distant. Buffalo s'inscrit dans cette tendance, en autorisant l'accès à distance à son interface d'administration. L'AC 1750 dispose à ce titre d'une interface mobile qui simplifie la configuration depuis un smartphone. Elle manque toutefois de clarté dans ses options plus difficiles d'accès que sur un navigateur standard. À travers nos tests, nous avons constaté que la validation des paramètres est notamment bien plus longue que sur un PC de bureau. Par ailleurs, il est impossible de se connecter simultanément à l'interface d'administration depuis deux appareils à la fois. On aurait donc préféré une véritable application mobile en lieu et place de cette interface mal taillée. D-Link mène actuellement des essais allant dans ce sens, à travers son app MyDLink, disponible sur la plupart des boutiques mobiles, qui se connecte au Cloud pour administrer sa gamme de routeurs. Buffalo dispose en revanche d'un service permettant d'accéder à distance aux supports de stockage connectés à l'AC 1750 : BuffaloNAS. com. Les instructions relatives à sa configuration sont hélas très succinctes. Vous devez tout d'abord activer une redirection de port sur le routeur, facilitée par une option de configuration automatique. Vous devez ensuite créer un compte sur le service en ligne de Buffalo et vous enregistrer. Aucun détail n'indique l'URL à utiliser pour accéder à distance aux périphériques connectés. En se rendant sur BuffaloNAS.com, on nous demande un identifiant et un mot de passe : en réutilisant les informations définies précédemment, nous n'avons pas réussi à nous connecter au service. Il fallait en réalité créer un compte spécifique pour le partage de périphériques, une tâche mal documentée et peu claire. Après avoir déterminé le compte à utiliser, nous avons finalement été en mesure d'accéder à distance à la clé USB connectée au routeur, depuis un réseau externe. P R E M IE R S E S S A IS Buffalo AirStation Extreme AC 1750 Mis à part ces légers défauts, l'étendue des fonctionnalités et la qualité de l'interface constituent de véritables atouts. Les administrateurs réseau et les utilisateurs plus avancés seront notamment charmés par ses fonctions avancées, dignes d'un modèle semi-professionnel. Performances L'AC 1750 est un routeur 3x3, c'est-à-dire qu'il est capable de transmettre et recevoir des données sur trois flux. Il s'agit d'une fonctionnalité avancée, que l'on ne retrouve que sur les modèles les plus complets, et qui assure un excellent débit. À l'heure actuelle, les revendeurs spécialisés ne proposent toutefois que des adaptateurs sans fil 2x2 à la norme 802.11ac. D'après nos tests, nous avons constaté que l'utilisation d'un adaptateur 2x2 avec l'AC 1750 en mode 11ac conduisait à des performances inférieures à celles du WZR-D1800H avec un pont 3x3 en bout de chaîne. L'AC 1750 offre tout de même de très belles performances générales, même avec les adaptateurs sans fil 2x2. Vous êtes en droit d'attendre des débits bien plus importants, dès que les adaptateurs 3x3 supportant la norme 802.11ac apparaîtront sur le marché. Nous avons relevé les performances du routeur en utilisant une clé USB wifi compatible 802.11ac signée Buffalo, branchée au Dell Latitude E5430. Nous avons également testé le récepteur intégré à ce PC portable afin de vérifier le résultat avec les connexions 802.11x classiques. L'utilitaire de test IxChariot d'Ixia mesure le débit entre le PC portable et un HP Elitebook 8440w, connecté à travers un port Ethernet Gigabit au routeur. En mode 802.11n, nous avons obtenu de meilleurs résultats avec le récepteur 3x3 intégré qu'avec la clé USB de Buffalo. À moins de cinq mètres de distance, le débit est de 121 Mbits/s avec ce récepteur wifi et de seulement 81 Mbits/s avec la clé de Buffalo. L'AC 1750 figure parmi les routeurs les plus performants dans la bande des 2,4 GHz, seulement talonné par l'Airport Extreme d'Apple en mode mixte, l'EA6400 de Linksys et le R6300 de Netgear. En mode 5 GHz, les performances du routeur de Buffalo sont tout aussi excellentes, tutoyant celles des modèles les plus performants du marché, comme l'AC 1750 de D-Link (à 5 mètres, ils offrent respectivement un débit de 120 et 121 Mbits/s). En mode 802.11ac, le routeur de Buffalo surclasse le modèle de D-Link (124 Mbits/s contre 104 Mbits/s) et même l'Airport Extreme d'Apple, testé avec un MacBook air en 11ac. Des fonctionnalités complètes et d'excellentes performances Si l'AirStation AC1300 et le N900 WZR-D1800H de Buffalo nous avaient déjà impressionnés par leurs hautes performances, leur interface d'administration manquait cruellement de lisibilité et de confort. Le constructeur a largement amélioré cet aspect, à travers une application claire qui donne facilement accès à l'ensemble des fonctionnalités du routeur. Le tableau n'est toutefois pas parfait : l'interface mobile est clairement en retrait et le service BuffaloNAS.com pourrait se montrer plus efficace. Ce routeur exige par ailleurs un adaptateur 3x3 pour débrider totalement ses performances. Il séduira en premier lieu les TPE et PME à la recherche d'un équipement complet, aux multiples possibilités et au très bon débit. Jean-Marc Delprato P R E M IE R S E S S A IS 4 Dell OptiPlex 3011 pour Un PC tout-en-un paré pour les tâches professionnelles. Écran tactile. Design compact. Excellentes performances. Abordable. 5 contre Résolution de l'écran plutôt limitée. Circuit graphique intégré seulement. 924 € en résumé L'OptiPlex 3011 de Dell est un PC tout-en-un très à l'aise dans les tâches bureautiques, équipé d'un écran tactile et de Windows 8. Un choix judicieux pour les petites et moyennes entreprises ! Si le marché des PC professionnels est saturé de machines aux caractéristiques très proches, rares sont les modèles profitant du confort d'utilisation d'un écran tactile. L'OptiPlex 3011 de Dell est l'un d'entre eux, autour des composants que l'on est en droit d'attendre d'un PC de bureau complet, d'un écran tactile de 20 pouces et de Windows 8 Pro, réunis dans un châssis touten-un. P R E M IE R S E S S A IS Dell OptiPlex 3011 Un design sobre qui lui donnera l’occasion de s’insérer sans peine dans le décor du bureau. Design et fonctionnalités Conçu pour l'utilisateur professionnel, l'OptiPlex 3011 est un PC complet et confortable au quotidien, qui sublime les activités bureautiques les plus courantes à travers son écran tactile et son format tout-en-un, en faisant toutefois l'impasse sur le divertissement. Là où la plupart des PC tout-en-un s'articulent autour d'un large écran avec une résolution Full HD, l'OptiPlex 3011 se contente d'un moniteur de 20 pouces à la définition de 1 600 x 900 pixels. Si c'est amplement suffisant pour comparer deux documents côte-à-côte ou visionner du contenu encodé en 720p, vous ne profitez pas du piqué des couleurs et de la résolution 1080p des modèles conçus pour le grand public. La qualité des haut-parleurs est en revanche étonnamment bonne pour cette gamme de PC, avec des basses profondes et un son clair même à un haut volume sonore. Vous pouvez ainsi envisager des séances de cinéma dans de bonnes conditions générales, en entendant distinctement la voix des acteurs se détacher de la bande-sonore ou du son des explosions. Le design reste plutôt sobre, avec cette robe noire qui couvre l'ensemble du PC et son simple pied qui permet d'ajuster l'angle de vision mais pas la hauteur de l'écran. Sur le côté droit de l'OptiPlex 3011, vous retrouvez un lecteur/graveur de DVD. Sur la gauche, vous disposez d'un lecteur de cartes mémoires, de deux ports USB 3.0 et d'une entrée casque et microphone. Trois boutons figurent également sur ce côté gauche et vous permettent d'éteindre ou d'allumer l'écran et de contrôler le volume. À l'arrière du PC, vous retrouvez quatre ports USB 2.0 supplémentaires auxquels vous connecterez des périphériques et des supports P R E M IE R S E S S A IS Dell OptiPlex 3011 de stockage externe, ainsi qu'un port Ethernet, un connecteur Kensington et un câble d'alimentation. Le bloc d'alimentation externe de l'OptiPlex 3011 est plutôt volumineux et vous devez donc prévoir un logement nécessaire au pied de votre bureau. Du côté des communications, le PC tout-en-un de Dell supporte les connexions wifi 802.11n et Bluetooth, pour synchroniser un smartphone ou assurer l'accès à des périphériques sans fil. Une webcam HD complète l'équipement, pour participer à des conférences vidéo. Dell a équipé son OptiPlex 3011 d'un disque dur de 500 Go à 7 200 tours par minute. Il s'agit d'un espace de stockage équivalent à celui du Lenovo ThinkCentre M71Z ou ThinkCentre Edge 92Z, sans pour autant prétendre aux performances du disque SSD de 128 Go qui équipe l'OptiPlex 9010 AIO du même constructeur. L'édition 64 bits de Windows 8 Pro se voit préinstallée, ainsi qu'une version d'évaluation de 30 jours de Microsoft Office 365. En-dehors de ces deux éléments, vous devrez installer manuellement toutes les autres applications. L'OptiPlex 3011 est couvert par une garantie de trois ans. Performances L'OptiPlex 3011 s’équipe du processeur à double cœur Intel Core i3-3220 (3,3 GHz) de troisième génération. S'il ne présente pas les performances du Core i5 qu'embarque le ThinkCentre M71Z de Lenovo, il convient parfaitement à un large éventail de tâches bureautiques, en réalisant un score de 2 836 points sur PCMark 7, là où le Lenovo M71Z se contente de 2 134 points. Ce n'est toutefois pas le processeur qui est respon- sable d'un tel écart, dans la mesure où il obtient à lui seul un résultat de 3,27 points, contre 4,10 pour le CPU équipant le Lenovo M71Z. Dans les tâches multimédias, testées avec Handbrake et Photoshop, l'OptiPlex 3011 reste dans la grande moyenne du marché, avec des scores respectifs de 1 min 7 s et 5 min 4 s. Plus solidement équipé, l'OptiPlex 9010 AIO de Dell (avec son Core i7 et un SSD plus véloce) prend largement la tête, effectuant les mêmes tests en 33 secondes et 3 min 31 s. Si le circuit graphique intégré au processeur (Intel HD Graphics 2500) se montre amplement suffisant pour les tâches les plus basiques, notamment la navigation sur le Web, les applications bureautiques et les retouches photo légères, il ne tient pas la comparaison face à un véritable processeur graphique, comme celui qui équipe le ThinkCentre Edge 92Z de Lenovo. Si ses performances restent honorables avec 3DMark 11, où il réalise un score de 712 points dans le test standard et 130 points dans le test extrême, il est largement surclassé par le Lenovo 92Z, qui double ces résultats grâce à son GPU AMD. Si vous êtes avant tout à la recherche de hautes performances, l'OptiPlex 3011 devrait donc rapidement montrer ses limites. En revanche, il s'agit d'une machine parfaitement taillée pour les tâches bureautiques les plus diverses, qui offre un excellent confort d'utilisation au quotidien avec son écran tactile. Bien que sa configuration se voit largement surclassée par celle de l'OptiPlex 9010, le PC tout-en-un de Dell offre un très bon rapport qualité/prix et devrait séduire les TPE ou PME à la recherche de modèles fiables et simples d'emploi. Jean-Marc Delprato P R E M IE R S E S S A IS 4 BenQ MX661 pour Bonne qualité d'affichage. Capable de projeter des présentations depuis une clé USB. Support de la 3D. Bonne autonomie de la lampe. 5 contre La partie audio est en retrait. La qualité de l'affichage se dégrade à travers une connexion VGA. 499 € en résumé Le BenQ MX661 est un bon projecteur dans un usage professionnel, offrant une excellente qualité générale de l'image, avec une vidéo fluide et une connectique variée. Le projecteur MX611 de BenQ est avant tout conçu pour les environnements professionnels. Il présente une grande luminosité et une bonne résolution, avec un rendu fidèle des couleurs, une connectique diverse, un bon niveau de zoom et un support de la 3D. Le MX661 est un projecteur de DLP à la résolution native XGA (1 024 x 768 pixels) et au format 4/3, avec une luminosité de 3 000 lumens. Autour d'un châssis noir et blanc, avec des bords arrondis, il occupe un espace minimal : 124 x 325 x 231 mm pour P R E M IE R S E S S A IS BenQ MX661 Une connectique très complète : entrée et sortie audio, entrée micro, S-Vidéo, jack RCA, 2 entrées VGA, une sortie VGA, HDMI3 types de ports USB, Ethernet. Qualité de l'image 2,6 kg. Il dispose par ailleurs d'un niveau de zoom très utile de 1.3:1. Sérieux atout à porter à son crédit, la connectique est très complète et comprend deux ports VGA, une sortie moniteur, un connecteur HDMI, une sortie S-Vidéo et un jack RCA pour la vidéo composite. Il dispose également d'une entrée et sortie audio, d'une entrée microphone et série, d'un connecteur Ethernet, d'un port USB de type B, d'un port mini-USB et d'un port USB de type A pour lire des présentations stockées sur une clé externe. Il est notamment capable de lire les formats JPEG, BMP, PNG, GIF et TIF. À 2,5 mètres de recul, le MX661 projette une image de 1,5 mètre de diagonale. Malgré la lumière ambiante et les néons au plafond de notre salle de test, l'image est restée parfaitement lisible, sans paraître souséclairée. Nous avons testé la qualité de l'image à l'aide de la suite DisplayMate. Dans la grande moyenne du marché pour un projecteur DLP de cette résolution, l'image du MX661 convient avant tout à un usage bureautique et à la diffusion de présentations professionnelles. Le texte de petite taille peut toutefois paraître flou et difficile à lire à une certaine distance. On discerne également un manque d'uniformité, avec des blancs qui ont tendance à virer au jaune dans les angles. Les autres couleurs restent en revanche très naturelles. En connectant le vidéoprojecteur en VGA, la qualité de l'image a tendance à se dégrader et des effets arc-en-ciel apparaissent dans les bords de la surface de projection. Ils se remarquent tout particulièrement lorsque l'on projette l'image sur un arrière-plan très clair, mais ne perturbent pas la lisibilité générale de l'affichage dans le cadre d'une présentation PowerPoint, par exemple. Avec une connexion P R E M IE R S E S S A IS BenQ MX661 HDMI, ils s'estompent et la qualité générale de l'image s'améliore. Bien que le MX661 ne soit équipé que d'un haut-parleur de 2 watts, l'équipement audio est tout à fait convaincant et suffisant à remplir une salle de réunion, avec une bonne qualité d'écoute. Le MX661 dispose d'une série de paramètres liés à l'économie d'énergie. La durée de vie de sa lampe grimpe alors jusqu'à 6 500 heures d'utilisation, un score plus qu'honorable dans cette gamme de prix. Le mode EcoBlank éclaire directement le présentateur et économise l'énergie de près de 70 %, pendant une mise en pause. Le projecteur bascule d'ailleurs automatiquement vers ce mode après trois minutes d'inac- Le BenQ supporte la vidéo 3D, en particulier les Blu-Ray 3D à travers la technologie 3DTV Play de Nvidia. Hélas, la paire de lunettes 3D actives n’est pas livrée avec le projecteur... tivité. Le mode SmartEco ajuste automatiquement la luminosité de la lampe en fonction des conditions relevées. Le projecteur supporte les séquences vidéo 3D, en particulier les disques Blu-Ray 3D à travers une connexion HDMI et la technologie 3DTV Play de Nvidia, avec une compatibilité totale avec 3D Vision. La paire de lunettes 3D actives n'est toutefois pas livrée avec le projecteur. Le support de la 3D est un vrai atout, qui le démarque de la concurrence, notamment du PowerLite 1835 XGA 3LCD Projector d'Epson – un projecteur plus lumineux (3 500 lumens) mais aussi plus lourd et encombrant – et du PowerLite 93+, un modèle d'entrée de gamme à 2 600 lumens. Les deux projecteurs d'Epson présentent une excellente qualité d'affichage et ne renvoient aucun effet arc-en-ciel grâce à leur technologie LCD. La partie audio reste toutefois moins convaincante qu'avec le modèle de BenQ. Du côté de la connectique, le MX661 s'inscrit dans la moyenne haute du marché, avec un bien plus large assortiment que le 93+. Le PowerLite 1835 présente en revanche un équipement légèrement supérieur. Complet et performant dans sa gamme de prix, le MX661 de BenQ convient avant tout à un usage professionnel. Il renvoie une image de bonne qualité, avec une excellente luminosité générale et des tons naturels. Si les cinéphiles passeront leur tour, résolution de 1 024 x 768 oblige, la lisibilité est amplement suffisante pour des activités bureautiques, en particulier la projection de présentations. Jean-Marc Delprato P R E M IE R S E S S A IS SOLUTIONS SOLUTIONS Les solutions d'urgence lorsque Windows ne démarre plus Lorsque votre système n'est plus accessible, faites preuve de sangfroid et agissez méthodiquement. En identifiant la nature de la panne, vous serez en mesure de rétablir le démarrage de Windows sans perdre vos données. Apprenez à explorer toutes les pistes ! Tout fonctionne parfaitement et soudain… plus rien. Sans le moindre signe avant-coureur, votre PC refuse de démarrer sous Windows et s'interrompt sur un laconique message d'erreur ou un écran noir. Face à de si maigres éléments, difficile d'identifier à coup sûr les raisons d'une panne. Quelle que soit votre version de Windows, il existe toutefois une stratégie commune à adopter. Dans un premier temps, vérifiez si le problème est d'origine logicielle ou matérielle. Avez-vous récemment installé un nouveau périphérique ou changé un composant ? Si c'est le cas, essayez de le déconnecter et relancez votre PC. Nous verrons dans la suite Créer un support de récupération sous Windows 8 SOLUTIONS Sur Windows 8, il n'est plus possible de presser la touche F8 au démarrage du PC : pour accéder aux options de réparation, vous devez disposer du DVD d'installation ou préparer un disque de récupération. Pour cette dernière solution, pressez les touches Win+W et saisissez « récupération » avant de cliquer sur « Créer un lecteur de récupération ». Insérez une clé USB dans votre PC puis cliquez sur le bouton Créer. Il vous suffit ensuite de démarrer sur cette unité (en changeant éventuellement l'ordre de boot dans le BIOS) pour accéder à l'ensemble des options avancées de restauration système. En parallèle, n'hésitez de ce dossier comment vérifier l'état de vos barrettes de mémoire vive ou charger d'autres pilotes pour votre carte graphique. Si le message « nonsystem disk or disk error » apparaît au démarrage, votre disque dur est en cause. Pressez la touche Suppr ou F2 au lancement afin d'accéder au BIOS et vérifiez l'ordre de démarrage de vos unités : votre disque dur doit figurer en tête de la liste. Si c'est le cas, le MBR (Master Boot Record) de votre disque dur doit être endommagé ; il s'agit de son premier secteur, contenant la table des partitions et le code d'amorçage du système d'exploitation. Insérez le DVD d'installation de Windows 7 ou 8 dans votre lecteur et démarrez dessus, avant de cliquer sur l'option « Réparer l'ordinateur ». Sous Windows 8, poursuivez en cliquant sur Dépannage, Options avancées, Réparation automatique. Sous Windows 7, choisissez directement « Réparation du démarrage ». Si la procédure automatique ne donne aucun résultat, cliquez sur « Invite de commandes ». Dans la fenêtre qui apparaît, saisissez : pas à créer des points de restauration (clic droit sur Ordinateur, Propriétés, Protection du système) voire des images complètes de votre installation. Pour cela, pressez Win+R et saisissez SDCLT, avant de cliquer sur « Créer une image système ». bootrec /fixmbr puis : bootrec /fixboot Votre PC devrait à nouveau redémarrer sous Windows. Si ce n'est pas le cas, explorez les solutions suivantes et envisagez tout particulièrement de démarrer sur un Live CD, afin de vérifier l'intégrité de vos données. Explorez toutes les pistes Vous parvenez à accéder à l'écran d'ouverture de session mais votre mot de passe n'est jamais reconnu ? Sous Windows 7, il existe une série d'utilitaires permettant de réinitialiser ce précieux sésame. Nous vous recommandons tout particulièrement Offline NT Password & Registry Editor (http://pogostick.net/~pnh/ntpasswd), un outil gratuit qui donne de bons résultats. Copiez l'application sur une clé USB et démarrez dessus. Sélectionnez la partition contenant l'installation de Windows en saisissant son numéro dans la liste qui apparaît à l'écran, puis SOLUTIONS validez en pressant Entrée. Conservez les paramètres par défaut et choisissez l'option « Password reset ». À l'écran suivant, choisissez votre compte d'utilisateur : vous pouvez écraser son mot de passe ou en créer un nouveau. Redémarrez et créez un mot de passe dans le premier cas de figure. Si vous désirez bénéficier d'une interface moins austère, reportez-vous sur les outils Windows Password Key (www.lostwindowspassword.com) ou Windows Password Unlocker Pro (www. passwordunlocker.com), deux applications commerciales à 20 dollars environ. Ces utilitaires fonctionnent également avec les comptes locaux sous Windows 8. Si vous ouvrez une session à l'aide d'un compte Microsoft, n'oubliez pas que vous pouvez réinitialiser son mot de passe à l'adresse https://account.live. com/password/reset. Si vous rencontrez un autre problème, pressez la touche F8 au démarrage sous Windows 7 et choisissez « Dernière configuration valide connue ». Sans affecter vos fichiers personnels, Windows tente de restaurer vos paramètres à une date antérieure. Il est d'ailleurs possible de choisir le point de restauration en sélectionnant « Réparer l'ordinateur » puis « Restaurer le système » dans le même menu. Sous Windows 8, vous devez impérativement démarrer sur le DVD d'installation ou le support de récupération (reportez-vous à notre encadré) si vous n'avez plus la main sur le système. Choisissez ensuite Dépannage, Options avancées et cliquez sur Restauration du système. Sélectionnez un point de restauration avant une mise à jour majeure et essayez de l'appliquer afin de redémarrer Windows. Résoudre les erreurs matérielles Si votre PC affiche un message d'erreur au démarrage, vos composants sont probablement en cause. Pour les problèmes de disque dur, reportez-vous à la procédure : selon toutes vraisemblances, c'est le secteur de démarrage qui est en cause et il existe de multiples solutions pour le réparer. À l'aide d'une distribution Linux spécialisée que vous déposez sur une clé USB, comme Hiren's BootCD, vous disposerez d'une trousse de diagnostic de la plupart des défaillances matérielles. Rendez-vous à www.hirensbootcd.org/ download et téléchargez l'image complète (592 Mo). Déposez-la ensuite sur une clé USB que vous aurez préparée en vous référant à la section « USB Booting ». Démarrez dessus : vous découvrez des dizaines d'utilitaires capables d'analyser vos barrettes de mémoire vive, vos disques durs, votre CPU ou votre GPU. Idéal pour identifier la provenance de la panne ! SOLUTIONS Notez que Windows 8 vous permet facilement de restaurer une image complète du système, que vous créez en pressant les touches Win+R puis en saisissant « SDCLT ». Cliquez sur « Créer une image système » et suivez la procédure. Toujours dans les options de démarrage de Windows 8, vous remarquez la possibilité « d'actualiser votre PC ». Le système va procéder à sa réinstallation complète en réduisant votre intervention ; une sauvegarde de vos données et paramètres s'effectue en amont, afin de les restaurer par la suite. En revanche, toutes les applications de bureau que vous avez installées seront perdues. Plus drastique, la possibilité de « réinitialiser votre PC » correspond à une réinstallation complète, au cours de laquelle vous perdrez vos données personnelles. Vous envisagerez ces deux dernières options dans cet ordre, si Windows 8 ne veut décidément plus redémarrer. Procédez à une restauration progressive Autre protocole : le démarrage de Windows en mode sans échec puis l'examen minutieux du système à la recherche de virus, logiciels-espions ou pilotes à incriminer. Sous Windows 7, l'option se trouve directement dans l'écran de réparation, auquel vous accédez en pressant la touche F8 au démarrage. Sous Windows 8, démarrez sur votre support de récupération et choisissez Dépannage, Options avancées, Paramètres. Cliquez sur Redémarrer et pressez la touche F4 pour redémarrer en mode sans échec. Dans les deux cas, lancez ensuite un antivirus et pressez les touches Win+R puis saisissez « msconfig ». Dans la fenêtre qui apparaît, reportez-vous à l'onglet Démarrage et décochez la case de tous les logiciels suspects, qui s'arrogent le droit de démarrer en même temps que Windows. Après chaque opération, essayez de redémarrer normalement Windows afin de valider vos réglages. N'hésitez pas à désinstaller certaines applications ou à changer vos pilotes à travers le Gestionnaire de périphériques. Si décidément rien n'y fait, envisagez de réinstaller Windows. Sous Windows 8, l'option « d'actualisation » évoquée précédemment accélère l'opération et conserve tous vos fichiers personnels. Essayez un Live CD Avant de formater votre disque ou de réinstaller le système, assurez-vous de disposer d'une ultime sauvegarde de vos données personnelles. Il existe de nombreux kits prêts à l'emploi, basés sur une distribution Linux, qui intègrent une série d'utilitaires idoines. Vous les utiliserez pour analyser vos composants essentiels (mémoire vive, disque dur, etc.) et pour sauvegarder éventuellement vos données vers un support amovible. Parmi les meilleures solutions du genre, nous vous recommandons tout particulièrement Ultimate Boot CD (www.ultimatebootcd. com), Hiren's BootCD (www.hirensbootcd. org) et Trinity Rescue Kit (www.trinityhome.org). Ces trois distributions se déclinent en des versions à déposer sur une clé USB, sur laquelle vous démarrez votre ordinateur. Vous accédez ensuite à un véritable environnement bureautique, grâce auquel vous lancez un antivirus gratuit ou copiez in extremis vos données sur un support externe. Pratique ! Jean-Marc Delprato Réparez votre PC sous Windows 8 1 Accédez aux options de démarrage Essayez dans un 2 Passez en mode sans échec Vous rencontrez toujours 3 Désactivez des programmes En mode sans premier temps de démarrer sur le DVD d'installation de Windows 8 ou sur le lecteur de récupération que vous avez créé. Parmi les options, cliquez sur Dépannage puis sur « Options avancées » et sur « Réparation automatique ». SOLUTIONS une erreur ? Retournez dans le menu précédent et cliquez sur Paramètres puis Redémarrer. Pressez la touche F4 pour redémarrer en mode sans échec, afin d'explorer d'autres pistes et d'analyser plus en profondeur votre PC. échec, effectuez un clic droit sur la barre des tâches et choisissez le Gestionnaire des tâches. Reportez-vous à l'onglet Démarrage et désactivez progressivement les logiciels dont vous n'avez pas besoin. L'un d'eux entrave peutêtre le bon fonctionnement du système. 4 Réactualisez votre installation Autre solution : restaurez un point de sauvegarde spécifique de Windows 8, à travers le menu Dépannage précédent. Vous avez également la possibilité « d'actualiser » votre PC ; Windows est réinstallé mais vos fichiers personnels sont préservés. Utiliser un Live USB SOLUTIONS Pour remettre d'aplomb un système défaillant, sauvegarder vos documents ou diagnostiquer un problème matériel, utilisez une distribution Linux spécialisée. Vous la déposez sur une clé USB et vous profitez d'une véritable trousse à outils. 1 Téléchargez Hiren's BootCD Rendez-vous à l'adresse www.hirensbootcd.org/ download et téléchargez la version complète de la distribution. Décompressez l'image .iso à l'aide d'un utilitaire comme 7Zip ou WinRar. Vous obtenez ainsi un nouveau dossier. 2 Préparez votre clé USB Formatez une clé USB de 1 Go ou plus. Copiez tout le dossier décompressé à la racine de votre clé USB. Toujours sur la clé, ouvrez le dossier /HBCD et copiez les fichiers « grldr » et « menu.lst » à la racine. 3 Lancez l'outil sous Windows Si vous avez déjà la main sous Windows, notamment en mode sans échec, lancez l'outil en effectuant un double clic sur « HBCDMenu.cmd ». Vous découvrez des dizaines d'utilitaires, notamment des antivirus ou des outils de diagnostic. 4 Démarrez sur la clé Naturellement, vous pouvez aussi démarrer sur la clé USB en changeant l'ordre dans le BIOS. Vous profitez alors d'un mini-Windows XP qui vous donne accès à l'ensemble des fonctionnalités de Hiren's BootCD. Windows 8 : Restaurer une image système (Dépannage > Options avancées) Restaurer une image système (Dépannage > Options avancées) Retrouvez-vous la main ? Accédez-vous à Windows ? Windows 7 Lancez un antivirus, désinstallez les programmes suspects, exécutez « msconfig » et décochez les logiciels se chargeant au démarrage Le système redevient opérationnel ! Windows 8 : Changement manuel du mot de passe du compte Microsoft Windows 7 et compte local Windows 8 : utiliser l'un des utilitaires Offline NT Password & Registry Editor - Windows Password Key - Windows Password Unlocker Démarrez en mode sans échec. Windows 7 : F8, mode sans échec. Windows 8 : Dépannage > Options avancées > Paramètres > F4 Retrouvez-vous la main ? Choisissez de restaurer le système à une date antérieure. Windows 7 : Réparer l’ordinateur > Restaurer le système. Windows 8 : Dépannage > Options avancées > Restauration du système Retrouvez-vous la main ? Pressez F8 au démarrage et choisissez « Dernière configuration valide connue » 1 L’authentification ne fonctionne pas ou vous avez perdu votre mot de passe utilisateur ? Accédez-vous à Windows ? Démarrez sur un LiveCD, comme Hiren’sBoot CD ou Ultimate Boot CD. Lancez l’analyse antivirus et sauvegardez vos documents. Redémarrez normalement Accédezvous à l’écran d’ouverture de session ? Windows 8 : Réinitialisez votre PC, dans le menu Dépannage. Retrouvez-vous la main ? Redémarrez en mode « Invite de commandes », dans le menu précédent. Saisissez « bootrec /fixmbr» puis « bootrec /fixboot » Retrouvez-vous la main ? Démarrer sur le DVD d’installation de Windows, cliquez sur « Réparer l’ordinateur ». Windows 8 : Dépannage > Options avancées > Réparation automatique. Windows 7 : Réparation du démarrage Rencontrez-vous le message « non-system disk or disk error » au démarrage ? 1 Reportez-vous au point 1 Réinstallez Windows, puis restaurez les documents et applications. 1 Oui Non Vérifiez l’état de l’alimentation et des composants dans le BIOS. Reportezvous au manuel de votre carte mère pour déterminer la panne matérielle. Essayez de démarrer sur un Live CD et de procéder à une série de tests. Remplacez le composant fautif. Votre PC rencontre-t-il un problème lors du POST ? SOLUTIONS Rendez un tableau intelligent avec des tests Quand les formules incluent des tests, elles prennent des décisions et vos tableaux deviennent intelligents. Simples, complexes, multiples, statistiques : utilisez les fonctions logiques. Téléchargez nos trois fichiers d’exemple : primes.xlsx location.xlsx europe.xlsx « SI », la fonction de test la plus simple, est aussi la plus utilisée. Elle demande trois arguments. Un : le test. Deux : la donnée à renvoyer si le test est vrai. Trois : la donnée à renvoyer si le test est faux. Par exemple : la cellule B15 contient la formule =SI(B5>10;"Super";"Trop faible") En clair : si la cellule B5 contient une donnée strictement supérieure à 10, B15 affiche « Super ». Sinon, elle affiche « Trop faible ». Autre exemple : =SI(B5<=0;0;B5) Si B5 contient une valeur inférieure ou égale à 0, B15 affiche 0 sinon, B15 affiche la valeur contenue dans B5. SOLUTIONS La simplicité de la fonction SI n'est qu'apparente. En effet, le test peut inclure plusieurs conditions liées entre elles avec un OU ou un ET logique. Encore plus fort : les SI en cascade. Une fonction SI peut inclure une autre fonction SI comme deuxième ou troisième argument, jusqu'à 7 niveaux d'imbrication. Avant d'explorer les arcanes des fonctions SI, il faut savoir que les tests reconnaissent six opérateurs de comparaison : >, <, >= (supérieur ou égal), <= (inférieur ou égal), =, <> (différent de). Autre chose : les deux derniers arguments peuvent être un texte (entre guillemets), une valeur numérique, une adresse de cellule ou encore une autre fonction. Tests en cascade 1 Pour faciliter la construction et la lecture d'une formule complexe, n'hésitez pas à l'écrire sur plusieurs lignes en insérant des sauts de lignes avec la combinaison de touches Alt+Entrée. SI, en toute simplicité Dans le classeur d'exemple primes.xlsx, la prime des employés est calculée en fonction de leur qualification. Les cadres reçoivent 2 000 euros et les autres, 1 000 €. La formule en F7 s'exprime comme ceci : si D7 contient « cadre », F7 affiche 2000. Si D7 contient autre chose que « cadre », F7 affiche 1000. Ce qui donne donc : 2 Un peu plus complexe Si les primes sont modifiées, il faut corriger les formules. À moins de faire référence au tableau des primes. La formule devient donc : =SI(D7="cadre";$B$3;$B$4) Ainsi, la modification des montants en B3 ou B4 est immédiatement répercutée dans le calcul des primes. 3 Imbriquez les tests Dans ce même tableau, si un employé n'a pas de qualification, la formule de calcul de la prime renvoie 1000. C'est normal : le test D7="cadre" est faux et la formule renvoie donc le troisième argument ($B$4). Ajoutons un test : si D7 est vide, aucune prime n'est calculée. On utilisera ici la fonction ESTVIDE qui renvoie VRAI si la cellule indiquée entre parenthèses est vide. Voici le test (en F19) : =SI(ESTVIDE(D19)... Deuxième argument : si le test est vrai, la cellule affiche 0. Complétons la formule : =SI(ESTVIDE(D19);0... =SI(D7="cadre";2000;1000) Notez au passage que le test ne tient pas compte des majuscules et minuscules. Et enfin, si le test est faux (c'est-àdire si la cellule D19 n'est pas vide), la prime est calculée. Voici la formule complète : =SI(ESTVIDE(D19);0;SI(D19="cadre";$B$3;$B$4)) SOLUTIONS Vous avez vu les deux parenthèses finales. La première correspond au SI imbriqué:SI(D19="cadre";$B$3;$B$4). La seconde ferme le premier SI : SI(ESTVIDE(D19);0;…) Des SI en pagaille 1 Deux SI imbriqués Le classeur locations.xlsx contient un tarif de location d'appartement ainsi que les données pour une assurance annulation et quatre taux de remise. Ces informations de base sont utilisées pour le calcul du prix d'une location. En G3, une simple multiplication. En G4, l'assurance annulation calculée en fonction du code indiqué en F4. Voici comment la formule est construite. Si le code est égal 1, le coût de l'assurance est récupéré dans la cellule C6 : CHOISIR renvoie l'erreur #VALEUR! si le premier argument est inférieur à 1 ou s'il est supérieur au nombre de valeurs de la liste. Par exemple, si F4 contient 4, la formule CHOISIR (F4;B2;B3;B4) renvoie #VALEUR! car il n'y a que trois valeurs dans la liste : B2, B3 et B4. donc trois tests imbriqués : =SI(F8=0;B12;SI(F8=1;B13;SI(F8=2;B14;B15))) Cette formule renvoie le taux en fonction du code indiqué dans la cellule F8. Pour obtenir la remise en euros, il reste à multiplier le taux obtenu par le total (en G5). Comme ceci : =SI(F8=0;B12;SI(F8=1;B13;SI(F8=2;B14;B15)))*G5 =SI(F4=1;C6... Sinon, un second test contrôle si le code est égal à 2. Dans ce cas, le coût de l'assurance est dans la cellule C7 : =SI(F4=1;C6;SI(F4=2;C7;... Pour la troisième possibilité (le code est égal à 3), pas de test. En effet, si le code n'est pas égal à 1 ni à 2, il ne peut qu'être égal à 3. Voici la formule complète : =SI(F4=1;C6;SI(F4=2;C7;C8)) 2 Trois SI imbriqués Quatre taux de remise sont prévus : 0, 2 %, 3 %, 5 %. Quatre possibilités et 3 CHOISIR au lieu de tester Lorsque les valeurs à tester sont égales à 1, 2, 3… la fonction CHOISIR est plus facile à mettre en place que des SI imbriqués. Premier argument de cette fonction : la valeur à tester. Dans notre exemple : la cellule F14. Deuxième argument, la donnée à renvoyer si F14 contient 1. Troisième argument, la donnée à renvoyer si F14=2. Et ainsi de suite. Voici la formule en G14 : =CHOISIR(F14;C6;C7;C8) La fonction CHOISIR teste au maximum 254 valeurs entières : 1, 2, 3 … Tester plusieurs valeurs 2 Le OU logique Le double test F24=0 et F24>3 peut être réduit à un seul test : si F24 est égal à 0 ou supérieur à 3. Une fonction spécifique est prévue pour le OU logique : OU(F24=0;F24>3) SOLUTIONS Appliquée à la formule de la cellule F34, ça donne ceci : =SI(OU(F34=0;F34>3);"ERREUR";CHOISIR(F34;C16;C 17;C18)) Autre option pour éviter les erreurs : le contrôle de validation. Sélectionnez la cellule F24. Dans l'onglet Données du ruban, cliquez sur le bouton Validation des données et, dans la liste Autoriser, choisissez Nombre entier puis complétez avec les valeurs maximale et minimale autorisées. 1 Gérer les erreurs Entrez 0 comme code d'annulation dans la cellule F14. Résultat : une erreur car la fonction CHOISIR n'aime pas le zéro. Essayez avec le code d'annulation 5. Même résultat. Pour éviter cette erreur disgracieuse, prévoyez deux tests imbriqués sur le contenu de F24. Le premier pour la valeur 0 : =SI(F24=0;"ERREUR"... Le second pour toute valeur supérieure à 3 : =SI(F24=0;"ERREUR";SI(F24>3;"ERREUR"... Et on complète la formule avec la fonction CHOISIR : =SI(F24=0;"ERREUR";SI(F24>3;"ERREUR";CHOISIR(F2 4;C6;C7;C8))) Bien sûr, vous pouvez remplacer « ERREUR » par tout ce que vous voulez, y compris un blanc : =SI(F24=0;" ";SI(F24>3;" ";CHOISIR(F24;C6;C7;C8))) En clair : si F34 est égal à 0 ou supérieur à 3, afficher le texte « ERREUR ». Sinon, appliquer la fonction CHOISIR. 3 OU ou ET Le code de remise doit être compris entre 0 et 3. Le test de contrôle peut être basé sur un OU logique : =SI(OU(F38<0;F38>3);"ERREUR" Si F38 est inférieur à zéro ou supérieur à 3, la formule renvoie « ERREUR ». Sinon, les SI imbriqués vont chercher les taux de remise : =SI(OU(F38<0;F38>3);"ERREUR";SI(F38=0;B12;SI(F3 8=1;B13;SI(F38=2;B14;B15)))*G35) Remplaçons le OU par un ET : =SI(ET(F48>=0;F48<=3);SI(F48=0;B12;SI(F48=1;B13;S I(F48=2;B14;B15)))*G45;"ERREUR") En clair : si F48 est compris entre 0 et 3, le taux de remise est calculé. Sinon « ERREUR » est affiché. SOLUTIONS Des statistiques conditionnelles test. Si le test est vrai, il inclut dans la somme la cellule correspondante de la plage B6:B32. 2 Accéder facilement au test Pour modifier le test de la fonction SOMME.SI, il faut éditer la cellule. Ce n'est pas très pratique. Sortez le test de la fonction. Par exemple, entrez le test dans la cellule E39. Le test de la fonction SOMME.SI correspond alors au contenu de E39. Ce qui donne : =SOMME.SI(C6:C32;E39;B6:B32) Encore mieux : décomposez le test pour laisser l'opérateur de comparaison dans la formule et faire référence à la cellule E39 uniquement pour la valeur. Par exemple, si E39 contient 100000, la formule devient =SOMME.SI(C6:C32;">" & E39;B6:B32) Deux contraintes pour les fonctions statistiques conditionnelles. Un : le test est toujours au format texte et donc entre guillemets. Deux : la plage de cellules testée contient le même nombre de cellules que la plage de cellules à calculer. 1 Une somme conditionnelle Calculer une somme, c'est facile. Mais une somme sous condition, c'est un peu plus compliqué. Ici, c'est la fonction SOMME.SI qui entre en jeu. Elle demande trois arguments : la plage des cellules contenant les données à tester, le test et la plage des cellules contenant les données à additionner. Voyez l'exemple europe.xlsx. La cellule G37 contient la formule : =SOMME.SI(C6:C32;">100000";B6:B32) Le test >100000 est appliqué à la plage C6:C32 et la somme est effectuée sur la plage B6:B32. Pratiquement, Excel examine une à une chaque cellule de la plage C6:C32 et lui applique le 3 Et le décompte ? La moyenne conditionnelle (MOYENNE.SI) fonctionne de la même manière que la somme conditionnelle. Le décompte conditionnel (NB.SI) est presque identique. La fonction ne demande que deux arguments : la plage de cellules et le test. Par exemple : =NB.SI(D6:D32;">200") Excel examine la cellule D6. Si elle contient une valeur supérieure à 200, Excel l'inclut dans le décompte. Et ainsi de suite pour chaque cellule de la plage jusque D32. Jean-Paul Mesters SOLUTIONS Protégez et sécurisez vos classeurs Confidentialité, sécurité, partage en toute confiance : ne laissez pas vos classeurs sensibles à la portée de n'importe qui. Verrouillez vos classeurs avec un mot de passe. Non seulement, le mot de passe sera exigé pour l'ouverture du fichier mais, en outre, son contenu est crypté sur le disque dur de telle manière qu'il est vraiment illisible. Autre technique, plus souple : la protection d'une feuille de calcul. Dans ce cas, vous décidez ce qui est interdit. Par exemple : interdiction de modifier le contenu de certaines cellules ou leur format, d'ajouter ou de supprimer des lignes ou des colonnes… C'est pratique quand vous confiez à d'autres personnes un classeur que vous avez créé. Vous laissez accessibles uniquement les cellules contenant les données. Vous avez la garantie que les formules et la structure des tableaux resteront intactes. Si vous travaillez en réseau, un même classeur peut être consulté et modifié SOLUTIONS par plusieurs personnes simultanément. Chaque intervention est notée dans un journal qui indique le nom de l'intervenant, la date, l'heure et chaque action qu'il a effectuée dans le classeur. Les mots de passe ne sont pas totalement sûrs (aussi bien celui qui est associé à l'ouverture d'un classeur que celui qui bloque les modifications). En effet, Internet fournit des logiciels capables de le retrouver et de le désactiver. pour la modification est exigé uniquement lorsque le classeur est modifié puis enregistré. Attention : le mot de passe est demandé pour l'enregistrement du fichier sous son nom d'origine. L'enregistrement sous un autre nom reste possible sans mot de passe. Lorsque vous cliquez sur OK, une seconde boîte de dialogue vous demande de confirmer le mot de passe. Enregistrez ensuite le classeur. Verrouiller un classeur Utilisez des mots de passe solides, composés de 8 caractères au minimum : lettres majuscules et minuscules, chiffres et caractères spéciaux. Évitez les dates de votre vie, les prénoms, les lieux, les mots du dictionnaire. 1 Un mot de passe à l'ouverture Pour verrouiller l'ouver- ture d'un classeur, cliquez sur le bouton Office (Excel 2007) ou sur l'onglet Fichier (Excel 2010 ou 2013) puis sur Enregistrer sous. Au bas de la boîte de dialogue Enregistrer sous, cliquez sur Outils puis sur Options générales. Deux mots de passe sont proposés. Le mot de passe pour la lecture protège le fichier à l'ouverture : il sera exigé à chaque ouverture du classeur. Le mot de passe 2 Annuler le mot de passe 3 C'est plus facile avec Excel 2010 et 2013 Si vous utilisez L'ancien fichier est remplacé par le fichier crypté sauf si vous cochez l'option Créer une copie de sauvegarde. Dans ce cas, le fichier d'origine non protégé est enregistré sous le nom « Sauvegarde de… ». Vous pouvez l'ouvrir librement, sans mot de passe. Pour libérer le classeur de son mot de passe, commencez par l'ouvrir. Le mot de passe est demandé : tapez-le. Repassez ensuite par la commande Enregistrer sous et par la boîte de dialogue des options générales. Et là, effacez les points noirs représentant le mot de passe. Validez puis enregistrez le fichier. l'une des deux dernières versions d'Excel, la procédure est plus simple. Dans l'onglet Fichier, cliquez sur In- formations puis le bouton Protéger le classeur et enfin sur Chiffrer avec un mot de passe. Entrez le mot passe puis confirmez-le après avoir cliqué sur OK. Le fichier sera protégé dès que vous l'enregistrerez. SOLUTIONS Protégez vos formules en les verrouillant sur le bouton Protéger la feuille. Laissez cochée la première option : « Protéger la feuille et le contenu des cellules verrouillées ». Ensuite, cochez les actions que vous autorisez. Si vous l'estimez nécessaire, entrez un mot de passe (celui-ci sera indispensable pour déprotéger la feuille). 1 Le bouton Verrouiller les cellules sert à verrouiller et à déverrouiller. Quand les cellules sélectionnées sont verrouillées, le cadenas devant Verrouiller les cellules est sur fond jaune. Sinon, il est sur fond gris. Supprimer le verrou des cellules Au départ, chaque cellule est équipée d'un verrou. Mais ce verrou reste inactif tant que la protection de la feuille n'est pas en service. La protection d'une feuille s'effectue donc en deux étapes. Premièrement, vous supprimez le verrou des cellules qui doivent rester accessibles. Deuxièmement, vous activez la protection globale : les cellules qui ont conservé le verrou deviennent alors inaccessibles. Pour supprimer le verrou des cellules sélectionnées au préalable, cliquez sur le bouton Format puis sur Verrouiller les cellules. 2 Activer la protection globale Une fois que vous avez déverrouillé les cellules qui doivent rester accessibles, protégez la feuille : dans l'onglet Révision du ruban, cliquez 3 Protéger le classeur Avec le bouton Protéger le classeur, vous verrouillez la structure du clas- seur : l'ajout et la suppression de feuilles de calcul est interdit ainsi que l'affichage des feuilles masquées. Avec le même bouton, vous protégez les fenêtres : elles ne pourront pas être déplacées ni redimensionnées. Partagez un classeur en toute sécurité SOLUTIONS 1 Ouvrir un classeur en réseau Si vous ouvrez un classeur en cours d'utilisation par quelqu'un d'autre, Excel vous informe que le fichier est en cours d'utilisation et vous propose de l'ouvrir en lecture seule. Si vous cliquez sur le bouton Notipeuvent alors voir les modifications apportées par les autres. Dynamisez le partage en automatisant la mise à jour des modifications et du suivi : cliquez sur le bouton Partager le classeur et voyez les options dans l'onglet Avancé de la boîte de dialogue. 3 fier, un message vous informera lorsque le classeur sera à nouveau disponible. Si vous cliquez sur Lecture seule, vous ne serez pas informé. Dans les deux cas, vous pouvez modifier le classeur mais il sera impossible de l'enregistrer sous son nom d'origine. Ici, il ne s'agit donc pas d'un partage. 2 Suivre les modifications Cli- quez dans l'onglet Révision du ruban sur Suivi des modifications puis sur Afficher les modifications. Pour voir toutes les modifications, désactivez les trois paramètres d'affichage. Chaque cellule modifiée est alors encadrée et un commentaire Activer le partage Dans l'onglet Révision du ruban, cliquez sur le bouton Partager le classeur. Dans la boîte de dialogue, cochez l'option « Permettre une modification multi-utilisateur ». Après validation, Excel propose d'enregistrer le fichier : acceptez. À partir de maintenant, n'importe qui peut également ouvrir le classeur. Par défaut, le classeur est mis à jour dès qu'il est enregistré. Tous les utilisateurs du classeur associé indique par qui et quand la modification a été faite. Vous pouvez demander à Excel de pointer une à une chaque modification pour que vous puissiez l'accepter ou de la refuser. Cliquez sur Suivi des modifications puis sur Accepter ou refuser les modifications. Jean-Paul Mesters SOLUTIONS Prenez le contrôle d’un PC à distance Pilotez à distance un ordinateur, exactement comme si vous étiez devant son clavier. Pour accéder à votre ordinateur lorsque vous êtes en voyage ou pour dépanner des amis, des collègues. Objectif : piloter à distance un PC (le vôtre ou celui de quelqu'un d'autre), comme si vous l’aviez devant vous. En outre, vous pouvez discuter avec l'utilisateur du PC connecté et des fichiers peuvent être transférés directement d'une machine à l'autre. La connexion s'établit entre deux ordinateurs connectés à Internet ou à l'intérieur d'un réseau local. D'un côté l'ordinateur que vous allez contacter à distance : c'est l'hôte. De l'autre, l'ordinateur que vous utilisez pour contacter l'hôte : c'est le client. La connexion s'établit à travers le réseau local ou Internet. Pour utiliser votre PC à distance, deux conditions doivent être remplies. L'ordinateur hôte est allumé et un logiciel ou un service de connexion distante est en cours de fonctionnement. Seconde condition : il doit être connecté à Internet. Nous vous proposons trois solutions : le Bureau à distance inclus dans Windows, TeamViewer et LogMeIn. SOLUTIONS LogMeIn et TeamViewer proposent des applications de contrôle à distance pour tous les types de tablettes et de smartphones : iPad, iPhone, Android, Windows RT. Elles sont gratuites. Profitez-en. Trois solutions Depuis XP, Windows est fourni avec un service Bureau à distance. Il permet d'utiliser l'ordinateur à distance à partir d'un autre PC dans le réseau local. La connexion via Internet est également possible mais plus compliquée. En effet, il faut connaître l'adresse IP de l'ordinateur distant. S'il a une adresse IP fixe, pas de problème. Mais si elle n'est pas fixe, il est impossible de la connaître à distance. La solution, c'est l'abonnement à un service DNS dynamique (par exemple DynDNS – http://dyn.com/dns). Il y a un second obstacle, car l'ordinateur à distance est probablement connecté à une box ou à un routeur. Il faut configurer ce routeur pour que la demande de connexion soit dirigée vers votre PC. Bref, si vous envisagez la connexion à l'intérieur d'un réseau, c'est OK. Sinon, prenez une autre solution : par exemple, TeamViewer ou LogMeIn. Ces deux logiciels établissent une connexion rapide (en réseau ou via Internet), sans rien à configurer. Ça marche immédiatement. Pourquoi ? Parce que la connexion entre les deux ordinateurs passe par les serveurs de ces deux services qui contiennent toutes les données nécessaires pour atteindre les ordinateurs de votre choix. Ils fonctionnent sur tous les PC (depuis Windows 98 jusqu'à Windows 8), sur les Macintosh et sur les ordinateurs Linux. Pratiquement, cela signifie que vous pouvez prendre le contrôle de n'importe quel ordinateur à partir de n'importe quelle machine, y compris les tablettes et les smartphones. Ces deux logiciels sont gratuits pour une utilisation privée avec cependant quelques limitations. Voyez le tableau comparatif des versions sur le site de LogMeIn (https://secure.logmein.com/comparisonchart/comparisonFPP. aspx) et sur celui de TeamViewer (www. teamviewer.com/fr/licensing/index.aspx). Dans la version gratuite des deux logiciels, le pilotage à distance est entièrement fonctionnel. Pilotez votre PC avec le Bureau à distance Le Bureau à distance n'est pas activé par défaut. C'est à vous d’autoriser les accès à votre ordinateur. Une fois qu'il est activé, vous pouvez vous connecter à distance à partir d'un autre ordinateur. Tout se passe alors exactement comme si vous ouvriez normalement une session. Activer le Bureau à distance SOLUTIONS Le PC distant doit être en fonctionnement. S'il est en veille, la connexion ne s'établira pas. Désactivez la veille automatique : voyez le module Options d'alimentation du Panneau de configuration. Pour activer le Bureau à distance sur un PC Windows Vista, 7 ou Windows 8, passez par le Panneau de configuration où vous ouvrez le module Système. Cliquez ensuite dans le volet gauche sur Paramètres d'utilisation à distance. Cochez l'option qui autorise les connexions d'assistance à distance. Cliquez ensuite sur le bouton Avancé et autorisez le contrôle d'accès à distance. Tout utilisateur ayant un compte sur ce PC pourra ouvrir une session à distance. Sur un PC Windows 8 professionnel ou entreprise, les utilisateurs administrateurs peuvent se connecter immédiatement mais les utilisateurs ayant un compte standard doivent explicitement figurer dans une liste d'accès à distance. La boîte de dialogue des paramètres d'utilisation à distance affiche l'option « Autoriser la connexion des ordinateurs exécutant n'importe quelle version de Bureau à distance ». Si vous êtes certain que les connexions proviendront toujours de PC exécutant Windows Vista, 7 ou 8, cochez l'option « N'autoriser que la connexion des ordinateurs exécutant Bureau à distance avec authentification NLA » : les connexions seront ainsi plus sécurisées. Cliquez ensuite sur Choisir les utilisateurs. La boîte de dialogue Utilisateurs du Bureau à distance s'affiche. Cliquez sur le bouton Ajouter et choisissez un à un les noms des utilisateurs pour lesquels vous autorisez l'accès distant. Ceux-ci doivent avoir un compte utilisateur sur le PC. Se connecter à un Bureau distant Et maintenant, comment se connecter à un PC sur lequel le Bureau à distance est activé ? Lancez la connexion Bureau à distance. Faites une recherche parmi les applications dans le dossier des accessoires. Pour prendre le contrôle d'un ordinateur de votre réseau local, entrez son nom et cliquez sur le bouton Connexion. Un nom d'utilisateur et un mot de passe sont demandés : entrez le nom (et le mot de passe) d'un utilisateur ayant un compte sur le PC distant. Une fenêtre s'ouvre : elle affiche le bureau distant. Pour configurer la connexion, cliquez sur le bouton Options dans la fenêtre de connexion : vous trouverez là tous les paramètres disponibles (qualité d'affichage, périphériques à utiliser, sortie audio…). Installez TeamViewer 1 Téléchargez et installez Téléchargez TeamViewer sur le PC qui prendra le contrôle d'un autre ordinateur : www.teamviewer.com/fr/ download/windows.aspx. Après l'installation, TeamViewer démarre automatiquement. Par la suite, vous le lancerez comme n'importe quelle application, à partir du menu Démarrer. Son icône est visible dans la zone SOLUTIONS Si les mouvements de votre souris dans la fenêtre de TeamViewer sont un peu gluants, réduisez le volume des données transmises. Cliquez sur le menu Visualiser puis sur la commande Qualité et enfin sur Privilégier la vitesse. de notification. Sur la machine qui sera contrôlée, un petit module nommé TeamViewer QuickSupport suffit mais la version complète convient également. Si vous optez pour le module QuickSupport, il n'y a rien à installer. Un double-clic sur l'icône du fichier téléchargé suffit pour le démarrer. mande Visualiser > Écran actif. Le son de l'ordinateur distant se fait entendre à moins que vous ne le réduisiez au silence : cliquez sur le bouton Audio/Vidéo puis sur l'option Sons de l'ordinateur. Contrôlez l'ordinateur distant 1 Souris et clavier 2 Communiquez Transférez des Les mouvements de la souris et les actions au clavier sont transmises sur l'autre ordinateur, exactement comme si vous étiez devant son écran. Les commandes pour redémarrer l'ordinateur distant ou fermer la session sont dans le menu Actions. 2 Connexion Pour vous connec- ter à un PC distant, demandez à son propriétaire de démarrer TeamViewer ou QuickSupport et de vous communiquer l'ID et le mot de passe. Sur votre PC, double-cliquez sur l'icône de TeamViewer dans la zone de notification. Entrez l'ID dans le volet droit. Cliquez sur Connexion à un partenaire, entrez le mot de passe et cliquez sur le bouton Connexion. 3 Contrôle La fenêtre de Team Viewer s'ouvre immédiatement : elle affiche l'écran de l'utilisateur distant. Sur l'autre PC, le papier peint est remplacé par un fond noir afin d'optimiser la connexion. Si l'ordinateur distant est équipé de plusieurs écrans, TeamViewer choisit d'afficher le premier. Pour basculer sur un autre écran, choisissez la com- fichiers : choisissez dans le menu Transfert de fichiers. La fenêtre qui s'ouvre affiche à gauche les disques et les volumes de votre ordinateur et, à droite, ceux de l'ordinateur distant. Faites glisser les fichiers de droite à gauche et vice versa. Pour échanger des messages instantanés entre les deux ordinateurs, choisissez la commande Audio/Vidéo > Discussion. Entrez votre message et enfoncez la touche Entrée. La fenêtre de chat s'ouvre sur l'autre ordinateur : la SOLUTIONS conversation peut se dérouler. Le contrôle s'effectue toujours dans un seul sens. Il n'est pas possible aux deux ordinateurs de contrôler l'autre simultanément. Mais vous pouvez donner le contrôle à l'autre avec la commande Inverser le sens avec le partenaire dans le menu Actions. 3 Libérez votre ordinateur de tout contrôle en cliquant sur le bouton Déconnecter dans la petite fenêtre qui s'affiche dans le coin supérieur gauche de l'écran. Enregistrez la session Pour enregistrer dans une vidéo tout ce qui se passe, cliquez dans le menu Suppléments sur Enregistrer puis sur Démarrer. L'arrêt de l'enregistrement est dans le même menu : un fichier est enregistré sur votre disque dur. Pour voir la vidéo dans la fenêtre de TeamViewer, double-cliquez sur l'icône du fichier vidéo. Autre option : les captures d'écran. La commande est également dans le menu Suppléments. Installez LogMeIn 1 Téléchargez le logiciel Installez LogMeIn sur le PC hôte (celui qui sera distant) : https://secure. logmein.com/FR. Une fois le formulaire d'identification complété, la page de téléchargement s'affiche. Cliquez sur le bouton vert. Pendant la phase d'installation, identifiez votre PC en indiquant par exemple votre nom. Vous recevrez deux mails. Le premier contient un lien de confirmation de votre inscription : cliquez dessus. Le second confirme l'inscription de votre ordinateur sur les serveurs de LogMeIn. 2 Définissez un code d'accès 3 Envoyez une invitation Vous L'icône de LogmeIn est dans la zone de notification. Pointez-la : une infobulle vous informe que LogMeIn est activé et en ligne. Il sera automatiquement réactivé à chaque démarrage de Windows. L'ordinateur est donc accessible à distance en permanence par l'intermédiaire du serveur de LogMeIn. Double-cliquez sur l'icône et créez le code d'accès qui sera demandé pour toute connexion à distance. avez besoin de l'aide d'un ami ou d'un collègue féru d'informatique ? Dans la fenêtre de LogMeIn, cliquez sur le bouton Partage de bureau. Envoyez une invitation à un ami pour lui demander de se connecter à votre bureau. Celui-ci reçoit un email. Il lui suffit de cliquer sur le lien proposé : son navigateur s'ouvre et la connexion s'établit. Vous rece- SOLUTIONS vez un message vous demandant de confirmer cette connexion et de définir le niveau d'autorisation que vous accordez. Toutes les informations concernant la session en cours sont regroupées sur l'ordinateur distant dans l'onglet Présentation de la fenêtre de LogMeIn. Utilisez et surveillez Le temps de réaction dépend du débit de la connexion. S'il est trop long, réduisez le nombre de couleurs et la résolution en cliquant sur le bouton Qualité d'affichage (en haut de la fenêtre). 1 Surveillez l'ordinateur LogMeIn est spécialisé dans l'assistance à distance. La preuve ? Les boutons Gestion de l'ordinateur et Paramètres de l'ordinateur vous donnent accès aux outils système de l'ordinateur distant. Par exemple, l'éditeur de la base de registre ou encore les ressources partagées. Le chat d'assistance ouvre une fenêtre de communication directe. Intéressant également, le bouton de surveillance des performances qui vous dit tout sur le fonctionnement de l'ordinateur en détresse. Voyez également le tableau de bord. 2 le bouton Login et entrez votre identifiant et votre mot de passe. Immédiatement, une nouvelle page s'affiche : elle indique le nom de votre PC. Cliquez sur le nom du PC puis entrez le code d'accès que vous avez défini sur votre ordinateur distant. Voilà ! La fenêtre du navigateur affiche le Bureau de votre PC distant. Prenez l'initiative Si vous avez installé LogMeIn sur votre ordinateur de bureau, connectez-vous à lui à partir d'un autre ordinateur. Dans votre navigateur, entrez l'adresse www.logmein.com. Cliquez sur 3 Pilotez votre ordinateur distant Pour prendre les com- mandes, cliquez sur le bouton Contrôle à distance. Pour envoyer une combinaison de touches à l'ordinateur distant, cliquez en haut de la fenêtre sur le bouton Options et déroulez la liste des combinaisons de touches. Pour envoyer ou récupérer des fichiers sur l'autre ordinateur, cliquez sur Transfert de fichiers. La fenêtre se divise en deux volets : à gauche l'ordinateur sur lequel vous travaillez. À droite, l'ordinateur distant. Sélectionnez un fichier dans l'un des deux volets et cliquez sur le bouton Copier ou Déplacer. Jean-Paul Mesters Raspberry Pi retour vers le futur ? Bricoler son ordinateur relève aujourd’hui de l’inconscience ou du professionnalisme le plus avancé. Les compétences nécessaires sont élevées et les contraintes du design ont réduit les marges de manœuvre de nos gros doigts malhabiles (essayez de changer une batterie sur un MacBook Air). Réaliser des « expériences » technologiques est complexe et souvent onéreux. Pourtant, une framboise britannique semble annoncer le retour du « do it yourself » dans bien des périmètres de l’informatique personnelle. V ous souvenez-vous de ce temps où une frénésie créatrice s’est emparée d’une génération entière de passionnés de technique, où chacun ne jurait que par son Oric, son Pet Commodore, son ZX Spectrum ou, pour les plus fortunés, son Apple II ? Cette époque où un « Poke » ne faisait pas référence à un réseau social mais était synonyme de programmation avancée ? Ce bon vieux temps des années 70/80 qui n’était quand même pas si béni (quasiment rien n’était compatible avec rien) n’est pas connu des moins de trente ans mais c’était celui où apprendre le fonctionnement d’un monde nouveau était une passion vibrante et où beaucoup ont révélé leurs talents. Combien de langages informatiques ont été écrits, de trains électriques ont été gérés, de télescopes amateurs pointés sur une galaxie lointaine pour des photos ébouriffantes, d’alarmes plus ou moins fonctionnelles mises en action ou de synthétiseurs constitués à la recherche du son des Pink Floyd dans « One of these days » ? Aujourd’hui, les matériels sont tous plus beaux et puissants les uns que les autres mais « bricoler » est moins simple : bien sûr, il est toujours possible de se connecter à son port USB pour créer quelque chose mais cela demande compétences et argent… Et apprendre est tout aussi ardu et cher : le plus petit netbook (qui ne suffirait d’ailleurs pas) demande au minimum 100 €. En outre, ce prix qui peut sembler ridicule lorsque nous voyons le prix des consoles de jeux est inaccessible à beaucoup ! C’est dans l’idée de réduire cette fracture que la fondation Raspberry Pi a été constituée en mai 2009 en Grande Bretagne par Eben Upton et David Braben, créateur de la série de jeux vidéo « Elite » (ainsi que d’autres serials entrepreneurs). Leur objectif était littéralement de « promouvoir l'étude des sciences de l’ordinateur et des thèmes qui y sont liés tout particulièrement à l’école et remettre de l'amusement dans l'apprentissage de l’informatique ». Ce projet s’est concrétisé début 2012 avec une carte ordinateur, simplement dénommée Raspberry Pi, basée sur un processeur ARM, un circuit imprimé 6 couches, quelques composants et connecteurs ainsi qu’un lecteur de cartes SD. Le tout animé par un système d’exploitation (logé sur une carte SD). Commercialisé initialement en version A autour de 20 €, il faut compter aujourd’hui 35 € pour la version B. Plus de 1,2 millions de Raspberry Pi se sont vendus (principalement en Europe et aux ÉtatsUnis mais aussi en Asie, Australie et au MoyenOrient) et la production initialement chinoise a été rapatriée en Grande-Bretagne (plus précisément dans les usines Sony au Pays de Galles). Sa présence dans moult milieux scolaires montre la réussite du projet… qui a toutefois dépassé l’objectif initial dans la mesure où tout un écosystème s’est construit proposant extensions, logiciels (il existe même une place de marché dédiée aux applications pour Raspberry Pi) et accessoires divers. Le Raspberry Pi à la loupe Le Raspberry Pi est composé d’une seule carte mère de 55 x 65 mm. Le composant principal en est un processeur ARM cadencé par défaut à 700 MHz (mais il est possible de l’overclocker jusqu’à 1 GHz). La version B dont nous parlons ici est dotée de 512 Mo de mémoire vive, un composant Hynix monté directement audessus du SoC (System on Chip) Broadcom BCM 2835 de type ARM 11 (ARM1176JZF-S pour être précis). Pour information, ce composant comporte 300 broches et le montage de la mémoire par la méthode PoP (Package on Package) permet d’économiser 68 broches. Les entrées/sorties sont assurées par un composant LAN9512 de SMSC gérant deux ports USB 2 et un port Ethernet 10/100 MHz (mais nous n’avons pas pu obtenir plus de 3 Mbits/s), un port HDMI (piloté par un coprocesseur multimédia VideoCore IVdual core, capable de streamer du HD 1080 H.264) et deux ports analogiques audio et vidéo (pour le cas où vous ne disposeriez pas d’une télé en HDMI ou d’un câble adaptateur HDMI/DVI). Un lecteur de cartes SD contiendra le système d’exploitation et les premières données (4 gigaoctets au minimum sont à prévoir, même si les distributions proposées peuvent se contenter de 2 Go). L’alimentation doit être fournie via un port micro @USB délivrant 5 volts (seules les broches d’alimentation sont câblées) sous au minimum 700 mA. Pour être certain de la stabilité de l’ensemble (ou si un overclockage est envisagé), il faudra assurer jusqu’à 1 ampère. Un ensemble de LED témoignent du fonctionnement de l’appareil. « ACT » scintille en vert lorsque tout va bien et « PWR » est rouge lorsque la tension est présente. Les 3 autres décrivent le fonctionnement de la connexion réseau (« FDX » en vert pour Full Duplex, « LNK » en vert indiquant que le trafic passe tandis que 100 clignote en jaune lorsque le débit est de 100 Mb/s) À cela s’ajoutent plusieurs éléments qui amplifient le potentiel de l’engin. Tout d’abord, un GPIO (General Purpose Input/output) associé à un connecteur 26 broches qui permettra de relier le Raspberry Pi à divers appareils (afficheurs LED, contacts secs, détecteurs, etc.). Ensuite, le GPU (Graphic Processing Unit) peut recevoir une caméra directement via un connecteur ruban se plaçant à l’emplacement idoine en arrière du connecteur Ethernet. Les concepteurs du Raspberry Pi n’ont pas lésiné puisque le GPU est capable de traiter directement (sans passer par le processeur) des flux de 30 images par seconde en 1 920 x 1 080 (ou plus rapidement pour des images de plus faible résolution). Enfin, un DSI (Display Serial Interface) placé au-dessus du lecteur de carte SD attend l’arrivée d’un écran dédié (les caractéristiques de ce connecteur ne sont pas encore documentées par la fondation, donc, patience). Survol de la galaxie Raspberry Polyvalente, peu onéreuse et soutenue par une équipe passionnée dont le projet initial était de fournir un outil de formation et d’éveil des initiatives, la famille Raspberry Pi a rapidement connu un vif succès. Eben Upton, un de ses concepteurs, attribue cet envol « à l’engagement de l’équipe fondatrice sur les médias sociaux et à la propagation de sa réputation par tous ceux qui ont commencé à l’utiliser ». En deux ans, ce sont toute une collection d’applications et de réalisations qui se sont développées, alimentant encore plus la communauté de ses fans qui s’est même dotée d’un magazine (The MagPi) depuis un peu plus d’un an. Ce magazine propose toute une série d’articles d’initiation de tous niveaux. Côté langages nous y trouvons des initiations à : • Scratch pour les plus jeunes ; • Bash, le classique langage ligne de commande pour Linux ; • Python, un langage de programmation objet sur lequel le magazine va même vous initier aux calculs parallèles ; • Et même de l’assembleur, pour descendre au plus profond du cœur du micro-calcul numérique. Ces initiations impliquent bien sûr que ces langages sont implémentés sur certaines distributions de Linux pour Raspberry Pi. Côté matériel, les articles présentant des prototypes plus ou moins compliqués viennent épauler les lecteurs dans leur apprentissage et témoigner de leur inventivité en primant leurs meilleures réalisations. Une constellation d’accessoires… Destiné initialement à épauler les formations à l’informatique en général, les Raspberry Pi évoluent désormais dans un écosystème conséquent. Cela se traduit par un foisonnement d’accessoires et périphériques dont les exemples montrés ici ne sont qu’un échantillon. Plusieurs de ces produits peuvent être trouvés en France chez Kubii (www.kubii.fr) qui porte ce produit sur notre marché. Dernière née, la caméra Livrée avec sa nappe de connexion à la prise la reliant au GPU du Raspberry Pi version B, cette caméra proposée à 25 € est dotée d’une optique à focale fixe et offre une résolution de 5 mégapixels. Elle peut fournir des images fixes de 2 592 x 1 944 pixels ou des flux vidéos HDMI de 30 trames par seconde jusqu’au 1080p. L’imagination de la communauté n’ayant aucune limite, certains l’ont déjà bricolée en dévissant l’optique pour en faire un outil de macro photo ou film tandis qu’un adaptateur au format M12 est proposé pour 5 $ aux États-Unis afin d’ajouter des optiques complémentaires. Deux applications (Raspivid et Raspistill) permettent de lancer des captures vidéo ou photo en ligne de commandes. La société Pimoroni propose de nombreux modèle colorés facilitant leur appropriation par les plus jeunes Des extensions Faire quelque chose avec le Raspberry Pi n’a de limite que l’imagination, mais pour les premiers pas nombre d’accessoires et extensions sont proposés qui permettront de se lancer avec efficacité. Le T-Cobbler d’Adafruit permet pour 8 $ de relier le Raspberry Pi à une plaque de prototypage. Il en existe d’autres comme celui présenté ci-contre mais celui-ci est simplissime à mettre en œuvre, dispose d’un rappel visuel des fonctions de chaque plot du GPIO et il ouvre la porte à moult apprentissages de montages électrotechniques variés. De nombreux modèles de plaques de prototypage existent sur le marché. Pour donner une idée de ce qui peut être fait avec un Raspberry, le convertisseur analogique/digital 8 voies présenté ici est un exemple des composants qui peuvent être pilotés par son entremise (détection d’ouverture, télé action suite à un signal…), tels sont les possibilités ouvertes. Conscient que certains utilisateurs exigent une accessibilité simplifiée à leur interface GPIO, Quic2wire propose pour 20 € une carte qui se branche directement dessus et offre un accès bien différentié a 8 entrées/sorties, une interface série (SPI) ainsi qu’un bus I2C (Inter Integrated Circuit), employé dans le monde de la domotique. Il est aussi possible d’interfacer les nombreuses cartes Arduino au Raspberry Pi. Pour ceux qui trouveraient que la carte ordinateur manque de protection, un nombre et une variété de coques comblera leurs attentes. Pour une dizaine d’euros, toutes les formes, toutes les couleurs (nous avons sélectionné la plus flashy) pourront habiller le Raspberry. Plusieurs écrans à cristaux liquides simples peuvent aussi être reliés au Raspberry. Ils fournissent une interface rapide et visuelle pour communiquer avec lui (sans passer par la connexion à un écran DVI ou HDMI). Et dans la mesure où créer une média box est chose facile avec un Raspberry, son intégration avec une télévision peut être essentielle. Heureusement, des adaptateurs à la norme VESA permettent d’intégrer le Raspberry dans le dos de la majorité d’entre elles. … et une nuée de systèmes d’exploitation… Les deux connecteurs USB 2.0 du Raspberry peuvent aussi être exploités. Une des utilisations est le wifi : de nombreux dongles wifi peuvent être utilisés pour le mettre en réseau (d’autant que le débit assuré par ce canal est bien supérieur à celui du port Ethernet). Nous ne pouvions oublier ce circuit GPS que vous pourrez connecter à votre Raspberry pour construire votre propre unité de navigation Un micro-ordinateur n’est rien sans son système d’exploitation. La fondation Raspberry Pi l’a bien compris et elle entretient une distribution Linux sur son site. C’est Debian 6, adapté sous le nom de Raspbian et qui occupe plus de 2 Go (il faut dire qu’il comporte environ 35 000 packages) qui a été choisi. C’est la référence pour la fondation. Mais la communauté a œuvré dans un grand nombre de directions et il est possible d’installer aussi : • Debian Serveur, une version plus compacte du précédent d’où ont été enlevés les packages de jeu et de bureautique. Quelques alternatives « soft » S’il est le seul à proposer cet accès intime à l’informatique, le Raspberry n’est pas unique sur le terrain des « petites » machines pas chères. En voici deux dont la vocation est plus logicielle mais qui régaleront leurs utilisateurs. Les EBOX PC Windows vous manque vraiment trop et vous ne voulez pas entrer dans le hard ? Qu’à cela ne tienne, il existe des solutions. Parmi celles-ci, les produits « verts » du taiwanais DMP Electronics Inc. Pour moins de 150 €, vous disposez d’un EBOX 3350, une unité centrale complète de 10 x 10 cm haute de moins de 2 cm. Capable de faire tourner Windows, la merveille offre de nombreuses entrées/sorties (1 RJ 45, 3 USB 2, une sortie vidéo, un lecteur de carte SD, 1 entrée/sortie son). www.compactpc.com.tw/product. aspx?mode=41&cate_id=55 L’Utilite de Compulab Annoncée pour la rentrée 2013, cette merveille d’à peine 2 cm de haut pour 10 x 15 cm de taille, proposera à moins de 100 $ un boîtier doté de multiples entrées/ sorties (2 RJ45, wifi, BlueTooth, 4 USB 2, HDMI, S/PDIF optique, • Raspbian minimal, encore plus réduit : il ne lui reste que le noyau et un nombre minimum de packages. On n’y installe que ce dont on a besoin. • ArchLinux ARM, une distribution très connue pour son minimalisme et sa rapidité, elle est prisée par les puristes. • Fedora, très usitée elle aussi (c’est un fork de la célèbre Red Hat) elle est quasiment l’opposé de la précédente. Très complète, avec une interface riche et beaucoup d’applications, elle est destinée au grand public. Une carte 4 Go est exigée pour la faire tourner. • FreeBSD, dérivée de BSD, un Unix développé par l’université de Berkeley en Californie (les amateurs d’Apple apprécieront). Non exhaustive, cette liste doit pourtant être enrichie de systèmes plus ésotériques assez lecteur de carte SD et même des RS232 de la vieille époque) propulsé par un processeur ARM Freescale i.MX6 et un système d’exploitation Ubuntu ou Android. Les configurations embarqueront jusqu’à 512 Mo de RAM, de 1 à 4 cœurs, et un GPU dont la version la plus élevée saura gérer des flux vidéos 1080p H264 (bien sûr, le prix le plus bas correspondra au niveau de ressource le moins élevé)… De quoi se fabriquer un média center du meilleur effet ! http://utilite-computer.com/web/ home inattendus sur un matériel de cette catégorie (et de ce prix) : • RISC OS, un système ouvert développé initialement par Acorn à Cambridge (et les premières traces remontent aux années 80) et surtout par l’équipe qui a créé l’architecture ARM. Ce système appartient aujourd’hui à RISC OS Open Ltd qui le met gracieusement à disposition des utilisateurs de Raspberry Pi. • Moebius. Très compacte (moins de 1 Go) cette distribution dédiée aux processeurs ARM exploite les packages de Debian et est idéale pour des applications de pilotage d’accessoires liés au GPIO. • Plan 9, utilisé par des chercheurs et des amateurs éclairés remonte au temps des Laboratoires Bell et les années 80. • Chameleon est un RaspBian adapté à l’ému- lation de systèmes rétro. Il dispose des package pour redonner vie aux programmes d’un Spectrum, d’un Oric 1, d’un Atari 2600 ou même d’un Apple II. Il en existe bien d’autres (à ce jour, plus de 25) dont les usages sont variés. Les amateurs de sécurité apprécieront PwnPi qui dispose en standard de près de 200 outils de pénétration de réseau permettant d’en tester la solidité. Des réalisations inattendues Parmi les réalisations les plus intéressantes développées autour du Raspberry Pi, les robots sont parmi les plus passionnantes. Il est possible pour les plus expérimentés de se concocter leurs propres recettes : un Raspberry Pi, une source d’alimentation suffisamment puissante, deux servomoteurs, un convertisseur analogique/numérique à plusieurs voies, quelques détecteurs de contact ou de proximité, un peu de quincaillerie, des heures de développement en Python et, pour eux, le tour est joué. Un scarabée bizarre va se balader dans leur salon et interagir avec son environnement en répondant à leurs ordres. Un passionné (Green Sheller) a même réalisé un R2D2 qui lui obéit, va et vient en évitant les obstacles grâce à un télémètre à ultrasons et des capteurs infrarouges. Un autre a équipé un de ces nouveaux aspirateurs automatiques d’un Raspberry pour lui conférer une intelligence plus efficace que son électronique de base. Une entreprise « kickstarter » va bientôt (les 125 000 $ nécessaires ont déjà été rassemblés) proposer un drone aquatique, le Ziphius, qui accompagnera un nageur dans l’eau et filmera des images qui seront retravaillées en temps réel en réalité augmentée sur une tablette. Pour les moins expérimentés, divers kits sont proposés tel le Raspberry Pi 2WD Robot Instructional Pack chez Abra aux USA qui vous mettra le pied à l’étrier pour 160 $ (hors frais de port mais avec le Raspberry Pi). Le kit Rapiro permet de développer un petit robot doté de 12 servomoteurs, une carte interface, le kit camera le tout piloté par un Raspberry. La vivacité de la communauté portant les projets Raspberry Pi a impressionné Eben Upton que l’on voit ici découvrir Rapiro assemblé. Il ne s’agit pas là d’un appareil radiocommandé (encore qu’il soit possible d’écrire des applications qui permettent son pilotage par réseau wifi) mais d’un appareil mobile dont il est possible de construire le comportement. Avec la caméra embarquée, il peut aussi faire office d’agent de surveillance mobile tandis qu’avec une interface infrarouge, il saura allumer les chaînes TV qui vous conviennent au son de votre voix. Et il peut même préparer le café ! Georges Pécontal Interview Trois questions à Eben Upton Co-fondateur et directeur exécutif de la fondation Raspberry Pi Carte d’identité de la fondation : La fondation Raspberry Pi est une organisation de bienfaisance britannique, fondée en 2009 dans le but de promouvoir l’étude de l’informatique par les enfants dans et en dehors de leurs classes. Le nombre de Raspberry Pi vendu au monde a dépassé les 1,2 millions en avril 2013. Quel était votre projet lors de la fondation de Raspberry Pi ? Avec un groupe de collègues de l’Université de Cambridge, nous nous sommes profondément inquiétés du déclin du nombre d’élèves s’orientant vers des études informatiques et, corollairement, de la diminution des compétences informatiques des candidats aux postes de ce domaine, que ce soit pour des développements en langage machine ou pour des choses plus simples, comme l’écriture de pages internet. L’intérêt mondial pour le Pi au-delà de notre cible initiale a été une énorme surprise pour tous les acteurs de la fondation. Alors que nous pensions le distribuer principalement à des enfants du Royaume Uni pour écrire des programmes, ce sont des adultes du monde entier qui s’en sont emparés. Quel objectif visiez-vous alors ? À l'origine nous Quel avenir envisagez-vous désormais ? Nous voulions seulement produire quelques milliers d’exemplaires pour les distribuer aux jeunes de Cambridge qui envisageraient de s’orienter vers l’informatique. Nous avons dans ce but cherché à atteindre un prix très bas (de l’ordre de grandeur de celui d’un manuel scolaire) tout en incorporant le plus grand nombre de fonctionnalités possibles (mon collègue Pete Lomas a été le pivot de ce travail). L’intérêt mondial pour le Pi au-delà de notre cible initiale a été une énorme surprise pour tous les acteurs de la fondation. Alors que nous pensions le distribuer principalement à des enfants du Royaume Uni pour écrire des programmes, ce sont des adultes du monde entier qui s’en sont emparé. Beaucoup l’utilisent pour développer des projets matériels. J’ai découvert, lors d’un récent voyage à Tokyo, une communauté de passionnés réalisant des merveilles auxquelles nous n’aurions jamais osé rêver, tel cet excellent robot en kit, le Rapiro. pensons qu'il y a un potentiel énorme pour un ordinateur bon marché permettant à la fois de résoudre le problème initial – à savoir accroitre le nombre de jeunes voulant devenir ingénieurs en informatique – que de fournir un ordinateur polyvalent et bon marché pour les pays en voie de développement. Nous espérons développer le Raspberry Pi jusqu'à ce qu’il remplisse de manière optimale cette mission d’outil universel. Eben Upton a 35 ans et a vécu les 17 dernières années dans la banlieue de Cambridge où il a étudié la physique et terminé un doctorat dans l'informatique ainsi qu’un MBA. Il a travaillé à l'université comme Directeur d'Études, a fondé plusieurs startups, dont Marmalade, qui produit le middleware pour des jeux mobiles. Il a été salarié dans plusieurs grandes sociétés américaines dont IBM, Intel et, dernièrement Broadcom. Il a cofondé Raspberry à la fin de 2008 et en est devenu directeur exécutif en 2011. La concurrence du Pi Le Raspberry Pi n’est pas le seul à proposer un outil de calcul et de développement ouvert sur lequel de nombreux accessoires peuvent se connecter. Il est toutefois le seul à avoir eu ce succès international, à disposer d’une communauté vigoureuse qui échange sur ses possibilités. Nous ne pouvions toutefois pas oublier ses alternatives. OlinuXino Dans la même gamme de prix (environ 40 € pour le premier prix), les Olinuxino d’Olimex proposent une carte composée d’un processeur ARM. Le moins cher, l’IMX233 (du nom de son microprocesseur, un ARM 9) n’a toutefois pas de connecteur HDMI, ne dispose que de 64 Mo de mémoire vive et a une vitesse d’horloge assez basse, en dessous de 0,5 MHz. Il faut monter en gamme (et en prix) pour disposer de processeurs plus puissants et de 512 Mo. Tous les modèles arborent de nombreux connecteurs standards (SD, USB) ou spécifiques (GPIO de 40 broches) leur ouvrant le monde vers divers développements. Les cartes-ordinateurs fonctionnent sous Linux (plusieurs distributions peuvent être installées, dont une version de Debian). Les arguments principaux des promoteurs du projet OlinuXino (qui est accessible sur GitHub) sont que sa totalité est ouverte (y compris la CAO des cartes mères), le rendant ainsi aisément intégrable dans n’importe quel autre projet industriel ainsi que l’exploitation du microcontrôleur Freescale I.MX233, très répandu et peu onéreux, gage de pérennité et d’économie. https://www.olimex.com/ Products/OLinuXino/open-source-hardware BeagleBone Black Très récent et toujours autour de 35 € (45 $, prix US), le BeagleBone Black est propulsé par un processeur Texas Instrument AM335x (un ARM 8) à 1 GHZ avec 512 Mo de RAM. Avec un port RJ45, deux ports USB et un connecteur mini HDMI, le BeagleBone est très compact (5,3 sur 8,1 cm), très léger (en dessous de 40 grammes). Il n’est doté d’aucun processeur vidéo de grande puissance ce qui ne le destine donc pas aux traitements multimédias. Sa grande force est son ouverture sur l’extérieur : il propose en effet deux connecteurs de 46 broches pour le relier à des dispositifs matériels. Il ne dispose pas d’une communauté très riche mais un wiki vient le documenter de manière très complète. La merveille fonctionne sous Ubuntu, Angström Linux et même Androïd. http://beagleboard. org/Products/BeagleBone%20Black Le HackBerry Presque deux fois plus cher que le Raspberry Pi, il est équipé d’un ARM 10 plus rapide, de 512 Mo de RAM DDR3 et se dote de 4 Go de mémoire de stockage. Un slot SDHC permet d’étendre celle-ci jusqu’à 32 Go. Il est par ailleurs équipé d’un connecteur RJ45 Ethernet et d’une antenne wifi, de 2 USB 2, de connecteurs audio et pour la vidéo d’un port AV et d’une HDMI (le processeur graphique autorise les flux jusqu’au 1080 p). Le HackBerry marche à Androïd par défaut (il boote sur la partition dédiée à ce système) mais supporte aussi des distributions Linux (Ubuntu ou Debian). En revanche, seul un connecteur série lui permet d’accéder à des périphériques exotiques. Il sera donc réservé à des développements exploitant des interfaces classiques. Un wiki très complet permet de s’initier très aisément à sa mise en œuvre et à son utilisation. https://www.miniand. com/products/Hackberry%20A10%20Developer%20Board Le CubieBoard Projet concurrent du Raspberry (et disponible depuis une année à peine), le CubbieBoard, produit de la conception de développeurs indépendants de Chenzen, se veut plus ouvert (le projet est accessible sur GitHub). C’est un ARM 10 à 1 ou 2 cœurs (selon l’option choisie) et sa version 2 produite depuis mai 2013 propose un stockage on board de 4 Go épaulé par un lecteur de cartes micro- SD, 1 Go de RAM (une version 2 Go est attendue), une connexion Ethernet 10/100, une sortie HDMI 1080p. Il dispose d’un GPIO de 96 broches divisé en deux blocs (dont l’un n’est autre qu’une interface SATA 2). Préconfiguré avec Androïd 4, il peut recevoir Ubuntu, Fedora, Debian et d’autres distributions Linux. http://cubieboard.org Ce tour d’horizon ne pouvait ignorer deux autres familles : les cartes italiennes Arduino et le PandaBoard. Plus ancienne, la famille Arduino est sans doute plus complète avec toute une série de cartes relativement bon marché (depuis des cartes GSM jusqu’à des cartes robot, Ethernet et même des cartes de prototypage permettant de tester ses créations). Malgré cette richesse, aucune communauté ne s’est emparée de cette famille avec vigueur : cela tient sans doute à cette immensité de produits très bien conçus et répondant à des besoins identifiés : pourquoi se lancer à créer si cela a déjà été fait ? http://arduino.cc/en La Pandaboard se rapproche du Raspberry en ce qu’il se veut ouvert et accessible. Pour 150 $, vous disposez d’un Dual Core ARM 9 à 1,2 GHz avec 1 Go de RAM DDR2, de l’Ethernet 10/100, du wifi et du BlueTooth, d’un processeur graphique qui envoie du 1080p sur un connecteur HDMI ou du DVI (d’ailleurs, il peut gérer deux écrans) et aussi d’un GPIO (2 x 24 broches) et d’un connecteur pour écran LCD… Une merveille, donc… Mais 4 fois plus chère que le Raspberry. www.pandaboard.org/content/platform Pourquoi les investisseurs raffolent des startups « entreprises » Les startups technologiques qui développent des produits (logiciels, matériels ou services) pour le marché des PME et des entreprises ont de nouveau le vent en poupe, après avoir été totalement éclipsées par les jeunes pousses « grand public » (réseaux sociaux, mobile et e-commerce/marketing). « Depuis les introductions en bourse de Facebook, Zynga et Groupon l'année dernière, les valorisations des startups “consumer” ont flambé, au point que les jeunes pousses B2B (business to business), paraissent désormais peu chères », explique Adéo Ressi, le PDG du Founder Institute. Outre leur valorisation plus raisonnable, le retour en grâce des startups B2B s'explique par l'adoption par les entreprises des modèles économiques et technologies qui ont fait leur preuve sur le marché grand public – la « consumérisation » de l'informatique – comme le freemium (essai gratuit), le logiciel par abonnement (SaaS/ Cloud), les applications mobiles ou encore les réseaux sociaux (Yam- JeanBaptiste Su Rédacteur en chef de BayLive, le journal de la Silicon Valley ça se termine bien à la fin « Après quelques années d’euphorie pour les startups mass-market, on assiste à un retour d’intérêt pour les stratups B2B. » Sébastien Lépinard, fondateur de Next World Capital mer, Chatter, HearSay…). D'autres tendances comme le Big Data, l'informatique décisionnelle (BI), la virtualisation (serveur et réseau), la sécurité ou encore l'utilisation de mémoires Flash pour le stockage ont aussi contribué a attiré les investisseurs. Cette année, le célèbre fond de capital risque Kleiner Perkins (Amazon, Google, Intel, Waze…), investira à lui seul, plus de 200 millions de dollars dans ces startups visant le marché de l'entreprise. Parmi les plus grosses levées d'argent du secteur en 2013, on peut citer AirWatch (225 millions), HootSuite (165 millions), Pure Storage et SevOne (150 millions chacun) ou encore Scality (22 millions) mené par le Français Jérôme Lecat. Une belle revanche pour un secteur qui a été durement touché par la crise financière et les coupes des budgets informatiques de cette dernière décennie. « C'est cyclique et aujourd'hui, après quelques années d'euphorie pour les startups mass-market, on assiste à un retour d'intérêt pour ces startups B2B, avant que ça ne recommence pour le B2C », souligne Sébastien Lépinard, le fondateur de Next World Capital, un fond d'investissement basé à San Francisco et qui a investi dans plusieurs startups entreprises comme GoodData, Virtual Instruments, Host Analytics ou Zuora. Prochaine étape pour ces nouvelles stars de la Silicon Valley, la Bourse de New York. Après Exact Target, Jive ou encore Splunk, des centaines d'autres sont déjà sur les rangs comme Box, Cloudera, Docusign, Violin Memory, RingCentral ou SugarCRM. « Le cycle de développement est plus long pour les startups entreprises et notamment celles qui fournissent des produits d'infrastructure comme nous. Mais aujourd'hui, la fenêtre de lancement est enfin grande ouverte pour celles qui sont prêtes à s'introduire en Bourse », conclut Philippe Delansay, le co-fondateur d'Aquantia, qui est le plus gros fabricant de puces 10 gigabits Ethernet et qui prépare son introduction en Bourse. 2014 sera donc une très bonne cuvée pour les entrepreneurs du secteur « pro » ! Mensuel numérique édité par Xpert and Co Société par actions simplifiée au capital de 1000 euros Siège social : 66, avenue des Champs-Élysées 75008 Paris R.C.S Paris 790 609 507 Rédaction Adresse de la rédaction PC Expert / Xpert and Co 104, Boulevard Arago 75014 Paris [email protected] Président Directeur Général : Christophe Rodrigues Directeur de la publication : Christophe Rodrigues Création graphique / réalisation : Bertrand Grousset N° 4 09/2013 2,99 € Comité éditorial Président d’honneur : Thierry Derouet Membres : Francis Daliphard, Jean-Marc Delprato, Joscelyn Flores, Alexandre Marcq, Jean-Paul Mesters, Fernando Miguel, Frédéric Milliot, Georges Pécontal, Jean-Baptiste Su, Richard Trilling Rédaction Web Webmaster : Dev Star Digital Rédacteurs : Yann Nguyen Van, Cécile Delaporte, Sébastien Langlois Publicité : Hannah Ensaïbia, Jacqueline Flores [email protected] Abonnements : [email protected] Diffusion : Numérique au format PDF Dépôt légal : À parution - ISSN 2268-0470 Remerciements à : Biggi Dalaker, Fatih Gezen, David Hassine, Eddie Leblanc, Adrien Lochon, François Lochon, Luc Masset, Marc Mitrani, Marie Pinon, Séverine Théry-Perez 4.1 www.pcexpertlemag.fr Copyright Xpert and Co SAS 2013. Tous droits de reproduction réservés. Published under license from Ziff Davis, Inc., New York, New York. Some editorial items appearing in PC Expert were originally published in the U.S. Edition of the pcmag.com and are the copyrighted property of Ziff Davis, Inc. Copyright© 2013. All Rights Reserved. La rédaction n’est pas responsable des textes, illustrations et photos qui lui sont communiqués par leurs auteurs. La reproduction totale ou partielle des articles publiés dans PC Expert est interdite sans accord écrit de Xpert and Co SAS. Sauf accord particulier, les manuscrits, photos et dessins adressés à PC Expert, publiés ou non, ne sont ni rendus ni renvoyés. Les indications de prix et d’adresses figurant dans les pages rédactionnelles sont donnés à titre d’information, sans aucun but publicitaire.
Documents pareils
Windows Server 2012 Essentials
reste complexe à appréhender. En cela, notre
profession de foi reste fidèle à l’ADN qui a animé cette marque depuis sa création. Décrypter pour mieux choisir et utiliser les nouvelles
technologies ...