Une piscine publique chauffée par des serveurs IBM Une piscine

Transcription

Une piscine publique chauffée par des serveurs IBM Une piscine
La Lettre Innovation, Nouveautés, Evènements, et Pratiques des TI
N° 08/1
08/15 14 Avril 2008
La pensée de la semaine
«Le silence est une vertu qui nous rend agréables à nos semblables.»
Samuel Butler
Une piscine publique chauffée par des serveurs IBM
http://www.lemondeinformatique.fr/actualites/lire-une-piscine-publique-chauffee-par-des-serveurs-ibm-25772.html
Les grands centres de données sont de véritables plaies pour l'environnement. Ce sont d’énormes consommateurs d'énergie. De plus,
cette énergie est essentiellement transformée en une chaleur telle qu'il faut installer des climatisations encore plus énergivores...
Pour mettre fin à ce cercle vicieux, IBM vient de trouver une idée plutôt originale : tout simplement récupérer la chaleur perdue du centre
de stockage d'un de ses clients pour chauffer une piscine publique ! Installé en Suisse dans un ancien bunker, le site de stockage sécurisé
de la société de services Gib-services devrait générer l'équivalent de 2 800 Mégawatts par an de chaleur perdue. Selon IBM, il serait
théoriquement possible de récupérer jusqu'à 90% de la puissance électrique de départ. Largement suffisant pour réchauffer les Helvètes
adeptes de natation. Mais surtout, l'opération éviterait ainsi 130 tonnes d'émission carbones.
Open XML ou les normes ISO encore crédibles?
http://www.silicon.fr/fr/news/2008/04/03/tribune__open_xml_ou_les_normes_iso_de_l_osi_encore_credibles_
Par Bertrand Bruller, Professeur à l'Ecole Centrale de Paris
On peut s'interroger sur les conditions dans lesquelles cette norme ISO de Microsoft a été votée. Il en va de la crédibilité de l'OSI...
Organisation internationale de normalisation, ou ISO (International Organization for Standardization), est un organisme international de
normalisation composé de représentants d'organisations nationales de normalisation de 158 pays.
Son objectif est de produire des normes internationales dans les domaines industriels et commerciaux qui soient utiles aux organisations
industrielles et économiques de tout type, aux gouvernements, aux instances de réglementation, aux dirigeants de l’économie, aux
professionnels de l’évaluation de la conformité, aux fournisseurs et acheteurs de produits et de services, dans les secteurs public et privé.
En fin de compte, des normes qui servent les intérêts du public en général lorsque celui-ci agit en qualité de consommateur et utilisateur.
Dans le domaine informatique, les constructeurs ont toujours eu une position ambiguë vis-à-vis de normes susceptibles de nuire à leur
hégémonie. Ils ont tout fait pour retarder la publication de certaines normes. Pour une grande part, ils ont réussi à enterrer
définitivement le modèle OSI, y compris dans le domaine des réseaux où il était très avancé.
Selon Tenebaum, ce n’était ni la bonne technologie ni le bon moment. Il a fallu que le Département d’Etat américain de la Défense
impose ses propres normes sous peine d’être exclu du marché.
C’est ainsi que le modèle TCP/IP s’est rapidement imposé en quelques années et a pu enterrer l’OSI.
La décision de normaliser le format Open XML, proposé par Microsoft concurremment avec ODF, est assez surprenante. La publication de
cette norme avait été repoussée l’an dernier. L’Afnor (France) a voté contre.
Pour quelles raisons ces organismes nationaux ont-ils changé d’avis ? Sur quelles bases techniques ? Enfin quel est l'intérêt de disposer
de deux normes pour le même objet ?
Il est vraisemblable que le changement de ces votes n’est pas le fruit de problèmes techniques mais le résultat de marchandages.
On est donc en droit de se demander combien de temps un organisme, dont la vocation est la recherche de l’intérêt général, peut rester
crédible face à la publication de normes obtenues dans de telles conditions...
Léo Apotheker devient coco-PDG de SAP
http://www.lemondeinformatique.fr/actualites/lire-leo-apotheker-devient-co-pdg-de-sap-25754.html
Ainsi que l'on s'y attendait depuis un certain temps déjà, Léo Apotheker, actuel PDG délégué de SAP, vient d'être nommé co-PDG de
l'éditeur allemand, aux côtés de l'actuel PDG Henning Kagermann.
Selon Hasso Plattner, président du conseil de surveillance de SAP, Henning Kagermann a souhaité la nomination de Léo Apotheker
comme co-PDG, afin de préparer sa propre succession. Henning Kagermann doit quitter la direction de l'entreprise au printemps 2009
pour prendre sa retraite. Les deux hommes dirigeront conjointement SAP, numéro un mondial des progiciels de gestion intégrés, qui vient
d'achever l'absorption de l'éditeur français Business Objects, spécialiste du décisionnel.
Léo Apotheker, fondateur de la filiale française, a rejoint SAP en 1988. Membre du comité exécutif depuis 2002, il est PDG délégué de
SAP depuis mars 2007. Il a été nommé à ce poste alors que Shai Aghassi, responsable des développements technologiques et promis à
un bel avenir, avait préféré partir lorsque le mandat de Henning Kagermann à la tête de SAP avait été prolongé jusqu'en 2009.
IBM Readies Second Life For Enterprise
http://www.internetnews.com/breakingnews/article.php/3738491
Big Blue will create a private virtual world to boost business collaboration.
IBM said it would become the first company to host private regions of the virtual world Second Life on its own computer servers.
The project is in testing and will go live within several weeks. It marks a new focus by Second Life's parent company, Linden Lab, on
providing software and services to corporate customers who want to use the virtual world for collaboration and teleconferencing.
IBM employees will be able to move freely between the public areas of Second Life and private areas, which are hosted behind IBM's
corporate firewall. This will enable the company to have sensitive discussions and disclose proprietary information without having the
data pass through the servers of privately held Linden Lab.
IBM has long been one of the corporations most engaged with Second Life, a popular virtual world with several hundred thousand regular
users as well as its own currency and economy.
More than 6,000 IBM employees have created the Second Life characters called avatars, and the company signed a pact with Linden Lab
last year to explore interoperability between different virtual worlds.
The project is structured as a joint development agreement, and no money will change hands, Colin Parris, IBM's vice president for digital
convergence, said in a phone interview. "We see a need for an enterprise-ready solution that offers the same content creation capabilities
but adds new levels of security and scalability," he said.
After an initial phase of using the private Second Life areas internally, IBM will let its own customers access the privately hosted regions.
"We're doing this internally, and we're building the right kind of enterprise-grade solution," Parris said.
Second Life is increasingly used by corporations and other organizations instead of conference calls and meetings, but adoption has been
La surveillance au rasras-desdes-pneus.
http://www.hexview.com/sdp/node/44
L'inconvénient avec nombre de nouvelles technologies, c'est qu'elles peuvent souvent sans peine être exploitées à des fins de
surveillance. Un système de monitoring de la pression des pneumatiques d'une voiture, le TPMS (Tyre Pressure Monitoring System)
pourrait ainsi se montrer particulièrement bavard, estime HexView. Une voiture de moins de deux ans à de fortes chances d'en être
équipée. Et très prochainement aux Etats-Unis, l'ensemble des véhicules en disposeront à la demande d'une agence gouvernementale,
pour raison de sécurité. Ainsi chaque roue dispose d'un capteur communiquant avec un ordinateur de bord par radiofréquence. Or
chacune dispose de son propre identifiant, qui indirectement permet d'identifier un véhicule. Les communications peuvent grâce à une
antenne être interceptées et les déplacements d'une personne suivis. Dans un pays marqué par une tendance au big-brotherisme, les
fameux TPMS laissent craindre à certains l'émergence d'une nouvelle source de surveillance des citoyens. HexView y voit également
l'occasion pour des terroristes de déclencher par exemple une bombe au passage d'un véhicule précis identifié grâce aux capteurs TPMS.
Mais une solution reste envisageable pour éviter toute atteinte à la vie privée : le chiffrement des communications entre l'ordinateur de
bord et les capteurs.
Normalisation OOXML : l'UE enquête sur le vote de l'ISO
http://www.zdnet.fr/actualites/informatique/0,39040745,39380191,00.htm?xtor=EPR-101La procédure de vote ayant abouti à la
normalisation ISO de l'OOXML fait l'objet d'une enquête de la Commission européenne depuis le mois de février. C'est ce que révèle notre
rédaction américaine qui a eu accès à une lettre envoyée par le régulateur européen au comité de normalisation norvégien sur les
problèmes rencontrés dans ce pays.
L'objectif de l'enquête est de faire la lumière sur les allégations d'irrégularités et les possibles tentatives d'influences dans les pays de
l'Union. Selon nos informations, cette enquête est toujours en cours et le cas de la Norvège est plus que jamais observé.
Ce pays vient en effet de demander à l'ISO de suspendre son vote en faveur de la normalisation de l'Office Open XML. Comme nous
l'indiquait hier l'April, plus de 80 % du comité norvégien de normalisation souhaitait conserver le premier vote : le non. Au final, il a été
compatibilisé dans le camp du oui.
Microsoft, développeur du format OOXML, est interrogé dans le cadre de cette enquête. Tom Robertson, responsable des standards et de
l'interopérabilité chez l'éditeur de Redmond, assure que « Microsoft coopère pleinement » à toute investigation de la Commission. Il
précise cependant que tous les acteurs ont fait du lobbying dans ce dossier, dont IBM et d'autres opposants à la normalisation d'OOXML.
Un point de vue également défendu par Microsoft France.
Avast! 4.8 détecte 'rootkits' et 'spywares'
http://www.silicon.fr/fr/news/2008/04/03/avast__4_8_detecte__rootkits__et__spywares_
L'antivirus Avast! 4.8 intègre maintenant des modules de détection des logiciels espions et des rootkits. Ces fonctions
sont également disponibles dans la version gratuite
Avec Avast! 4.8, l'éditeur ALWIL Software introduit un moteur de détection des spywares (logiciels espions) certifié par le West
Coast Lab's Checkmark process. L'antivirus pourra également défendre la machine contre les rootkits, qui permettent à un tiers de
prendre la main sur un PC, en installant une « porte dérobée » sur l'ordinateur. Enfin, des modifications apportées au logiciel lui
permettent de mieux se défendre contre les attaques le visant directement.
Eduard Kucera, co-fondateur et directeur d’ALWIL Software, déclare : "Cette version représente une évolution majeure de l'offre d'avast!
pour nos utilisateurs. Beaucoup de nos concurrents font payer des frais supplémentaires pour la détection de logiciel espion ou la
détection de rootkit, ou n'ajoutent pas cette fonctionnalité du tout. Nous pensons que dans le domaine de la sécurité, une solution
partielle n'est pas du tout une solution."
Ces nouveaux composants sont disponibles dans toutes les versions Windows d'Avast! (Avast! Professionnel et Avast!
Professionnel Paquet Familial), y compris l'édition familiale, gratuite pour un usage personnel et non commercial. La mise à jour vers
Avast! 4.8 sera automatique pour l'ensemble des utilisateurs. Avec vingt ans d'existence et plus de cinquante millions d'utilisateurs
enregistrés, ALWIL Software continue donc - sereinement - à faire évoluer sa solution.
Les codes malveillants arrivent - vraiment - sur portable
http://www.atelier.fr/securite/10/04042008/etude-panda-security-menaces-telephone-mobile-se-developpe-36321-.html
La complexification des téléphones expose ces appareils à une large palette de menaces - spams, codes malveillants,
phishing. Des pratiques certes émergentes, mais néanmoins réelles.
La menace d'actes malveillants se précise sur les téléphones portables. Des pratiques, encore très loin d'atteindre les niveaux observés
sur la Toile, tendent à se rapprocher techniquement de celles visant les postes informatiques. Il est même possible de surveiller leur
fréquence d'apparition. D'après la dernière édition du Quarterly Report publiée par Panda Security, on apprend ainsi que la moitié des
"attaques" prennent la forme de Trojans. Ensuite, 40 % de ces actes malveillants appartiennent à la famille des vers, tandis que dans 2
% des cas il s'agit de logiciels espions (spyphones). Des statistiques qui ne renseignent cependant pas sur la prévalence du phénomène.
Des plates-formes plus complexes L'auteur de l'étude étant un fournisseur de solution anti-virus, ces chiffres sont à manipuler avec
des pincettes. Cependant, "l'évolution des plates-formes mobiles vers des modèles plus complexes augmente fatalement leur degré
d'exposition", déclare Matthieu Hentzien, consultant pour le cabinet spécialisé dans la sécurité informatique HSC. Une complexification
des appareils qui se traduit par la prise en charge de nombreuses fonctions hors téléphonie : navigation web, courrier électronique, prise
en charge de fichiers divers, etc. "Les systèmes d'exploitation de plus en plus élaborés comme Windows Mobile ouvre la voie au monde
de l'IP sur le portable. La popularisation de l'e-mail sur mobile devra imposer la vigilance", précise l'analyste.
Variété d'attaques Pas étonnant que d'autres pratiques frauduleuses comme l'envoi de courriers indésirables s'ajoutent à terme à la
liste. Sans oublier le smishing – variante mobile du phishing –, ainsi que le vishing, technique consistant en l'envoi d'un SMS au nom
d'une banque dans le but de récupérer les identifiants bancaires de l'utilisateur mobile. "A très court terme, ce sont les escroqueries au
call-back qui représentent la plus grande menace", estime pour sa part Matthieu Hentzien. La technique évoquée se base sur l'envoi d'un
SMS non sollicité incitant l'utilisateur mobile à émettre un appel vers un numéro surtaxé. "Dans la sphère mobile, ce type d'actions est
bien plus préjudiciable pour le consommateur en termes financiers", précise l'analyste, qui avance enfin que les attaques virales ne sont
pas encore à l'ordre du jour sur ce support. "Commercialement, il y a cependant un marché à venir pour les éditeurs d'antivirus".
Sun certifie Ubuntu
Ubuntu pour ses nouveaux serveurs
http://www.lemondeinformatique.fr/actualites/lire-sun-certifie-ubuntu-pour-ses-nouveaux-serveurs-25775.html
Alors qu'il l'avait déjà fait sur certains modèles dès 2006, Sun devrait annoncer d'ici quelques semaines la certification d’Ubuntu pour
l'ensemble de ses nouveaux serveurs. C'est du moins que qu'a affirmé Mark Shuttleworth, PDG de Canonical et fondateur d'Ubuntu Linux,
dans un entretien accordé à Reuters. Terri Molini, porte-parole de Sun, a confirmé l'information sans donner de date précise pour cette
certification. Elle a précisé que Sun s'assurait actuellement de la compatibilité de tous les éléments de Java avec Hardy Heron, Ubuntu
8,04, la nouvelle version attendue pour le 21 avril.
Yahoo, Google et MSN : l'Europe impose ses règles sur les données personnelles
http://www.lesechos.fr/info/comm/300255092.htm
Les 27 autorités européennes en charge de la protection des données imposent aux moteurs de recherche de ne pas conserver des
données personnelles au-delà de six mois.
Les moteurs de recherche vont devoir revoir leur politique. L'ensemble des 27 autorités européennes en charge de la protection des
données et regroupées au sein du G29 viennent d'adopter à l'unanimité un texte pour leur imposer de nouvelles règles. Dans un avis de
25 pages, ces autorités estiment que la régulation en matière de protection des données personnelles s'applique désormais aux moteurs
de recherche en Europe.
Point central du texte : ces entreprises ne pourront conserver des informations sur les internautes au-delà de six mois. " Les sociétés
américaines disposant d'établissements au sein de la communauté ou ayant des moyens de traitement des informations électroniques
doivent également se plier à ces règles ", explique aux " Echos " Alex Türk, président du G29.
Ainsi, Yahoo !, Google ou le service MSN de Microsoft peuvent exploiter des données personnelles mais uniquement " pour une finalité
légitime et non-excessive ". Ils doivent donc effacer ou rendre anonyme les données des internautes le plus rapidement possible dans un
délai maximal de 6 mois. Au-delà, ils devront se justifier. L'Allemagne souhaiterait même abaisser cette durée à 90 jours. Aujourd'hui,
AOL et Yahoo! conservent ces données 13 mois, contre 18 mois pour Google et Microsoft. L'historique des requêtes, lui, n'est
pratiquement jamais détruit.
Les données personnelles d'un internaute sont constituées des requêtes liées à son adresse Internet (IP), ou ses cookies (fichiers
marqueurs qui s'installent sur le PC). Cette mine d'information permet aujourd'hui d'afficher des bandeaux publicitaires ou des liens
sponsorisés très ciblés, vendus plus chers. Ils sont la principale, voire l'unique, source de revenus des grands moteurs de recherche.
" Si les moteurs souhaitent enrichir les profils des internautes avec d'autres données extérieures, ils devront au préalable demander le
consentement aux personnes concernées ", précise Alex Türk. Concrètement, Google, par exemple, ne pourra consolider les informations
de son moteur de recherche avec celles de ses filiales (YouTube, Orkut, Blogger, etc...) sans demander l'autorisation des internautes.
Enfin, tous les moteurs devront donner un accès facile à ces derniers sur le traitement qu'ils font de leurs données.
Ni Google ni Yahoo! ne souhaitaient vendredi commenter le texte. " Nous allons étudier l'avis rendu par le G29, a simplement déclaré un
porte-parole de Yahoo!. Nous continuons de vouloir trouver le meilleur équilibre entre le respect de la vie privée, proposer la meilleure
qualité de service, et répondre aux obligations juridiques "
Samsung Unveils Worlds Smallest 8MP Camera Technology
http://blog.3g.co.uk/2008/03/samsung-unveils-worlds-smallest-8mp.html
Samsung recently unveiled the world’s thinnest 8MP CMOS designed for use with mobile phones.
The device measures just 28mm × 15.3mm × 8.5mm and has some awesome features including :
Face-detection, Anti-shake, ISO 1600 sensitivity, Detecting and automatically taking a photo when
it recognizes a smile.
Samsung says the new 8MP CMOS should be available for mobile phones in the 3rd or 4th quarter
of this year.
Bill Gates promet un nouveau Windows pour 2009
http://www.silicon.fr/fr/news/2008/04/06/bill_gates_promet_un_nouveau_windows_pour_2009
Steve Ballmer sait ce qui lui reste à faire...
Une retraite toute proche n'empêche pas le grand timonier de Microsoft de faire des déclarations fracassantes. Bill Gates a en effet assuré
lors d'un séminaire sur la philanthropie d'entreprise que le successeur de Vista (Windows Seven) est prévu pour le courant 2009.
"Nous aurons une nouvelle version dans le courant de l'année prochaine à peu près", explique-t-il. "Je suis très emballé par ce qu'il (le
nouveau système) sera capable de faire". Une nouvelle interface graphique est au programme avec un menu circulaire. Le système
pourra être piloté via un écran tactile. On promet une installation rapide et un noyau léger. Seven devrait également "révolutionner" le
mobile, promet Bilou (rappelons que Windows Mobile 7 est également prévu pour 2009).
L'annonce a de quoi surprendre quand on connaît la propension de Microsoft à retarder ses projets. Pour mémoire, Vista devait sortir en
2003 ! Mais la firme entend désormais accélérer le mouvement : Microsoft avait dit prévoir de lancer une nouvelle version de Windows
environ trois ans après la sortie de Vista, en janvier 2007.
Et un porte-parole du groupe a déclaré que les déclarations de Bill Gates étaient conformes au cycle de développement puisque des
versions tests du logiciel sont généralement publiées avant son lancement officiel. On veut bien le croire. Pourtant, le développement de
Seven n'a commencé que l'année dernière... Trois ans pour développer un OS révolutionnaire : chapeau bas Microsoft !
Une telle précipitation n'est-elle pas à mettre en relation avec le sentiment mitigé provoqué par Vista ? Faut-il croire alors que cet OS
n'est qu'une version intermédiaire ?
Windows 7 : Microsoft relativise l'enthousiasme de Bill Gates
http://www.zdnet.fr/actualites/informatique/0,39040745,39380302,00.htm?xtor=EPR-101
Dans un e-mail adressé à Information Week, Microsoft revient sur les déclarations de Bill Gates qui annonçait, le 4 avril, lors d'une
conférence de la Banque de développement interaméricaine, la disponibilité du successeur de Vista dans le courant 2009.
« Nous n'en sommes qu'au stade de la planification et le développement est programmé sur les trois ans qui suivent la disponibilité
générale de la version grand public de Vista », indique le porte-parole de l'éditeur dans son message. Comme le dernier OS de
Microsoft est sorti en janvier 2007, Windows 7 ne devrait donc pas voir le jour avant janvier 2010.
Bill Gates a dû faire référence à des versions bêta, qui seront mises en circulation avant la fin 2009, avance Microsoft.
Apple aurait commandé 10 millions d'iPhone
d'iPhone 3G
http://www.lefigaro.fr/societes-etrangeres/2008/03/28/04011-20080328ARTFIG00545-apple-aurait-commande-millions-d-iphone-g.php
D'après un analyste du cabinet Gartner, le nouvel appareil pourrait
disposer, en plus de la 3G, d'un affichage OLED et d'une puce GPS.
L'iPhone 3G sera-t-il pour bientôt? La rumeur prend en tout cas de l'ampleur
depuis que The iPod Observer a interrogé Ken Dulaney, analyste chez Gartner
Ken Dulaney. D'après ses sources, Apple aurait passé commande de 10 millions
d'iPhone auprès de ses fournisseurs asiatiques. Or ces appareils seraient
équipés de la 3G, la fameuse technologie qui fait cruellement défaut aux
modèles actuels, en tout cas aux yeux du marché européen, où le réseau UMTS
plus développé qu'aux Etats-Unis.
Les nouveaux téléphones de la firme de Cupertino disposeraient par ailleurs de
la technologie OLED (Organic Light Emitting Diod) au lieu de l'écran LCD
actuel, ce qui permettrait d'améliorer l'autonomie de l'appareil. Lors de la
présentation de l'iPhone, Steve Jobs avait décrit le problème de l'autonomie
comme un des facteurs qui n'avaient pas permis d'intégrer la technologie 3G.
D'après les rumeurs, cette nouvelle version d'iPhone pourrait également embarquer une puce GPS et deux capteurs de caméra, dont un
serait placé sur la façade afin de permettre la visioconférence. Une fonction caméscope est également annoncée.
Depuis sa commercialisation le 29 novembre dernier, Orange a vendu plus de 90 000 iphone en France, dont 20.000 en janvier 2008. Le
groupe compte toujours en vendre 400 000 à 500 000 d'ici la fin de l'année.
Haute définition en vue pour les écrans mobiles !
http://www.atelier.fr/inventions/10/07042008/la-hd-va-arriver-sur-ecran-souple-36330-.html
Des écrans souples et transparents. C'est ce que va rendre possible la recherche sur les fils conducteurs nanométriques.
Vous conduisez. Devant vous s'affichent des informations sur le trafic, la route à parcourir ou le fonctionnement du véhicule. Et ce sur
votre pare-brise. Les passagers, eux, peuvent regarder un film en haute définition. Ces possibilités sont à portée d'atome. Des chercheurs
des universités de Purdue, de Californie du sud et de NorthWestern ont en effet réussi à mettre au point une matrice active composée de
transistors et de circuits électriques transparents.
Allumer sélectivement des diodes Pour réussir cet exploit, les universitaires ont utilisé les nanotechnologies. Résultat : des
transistors qui sont composés de fils électriques mille fois plus petits qu'un cheveu humain. Le tout est destiné à alimenter des diodes
électroluminescentes organiques - Oled. Une des particularités du système est que quand le courant n'est pas activé, le matériau ainsi
constitué est totalement transparent. Avec la technique en court de mise au point, il serait possible de contrôler individuellement chaque
diode. Pour le moment, les chercheurs arrivent à illuminer sélectivement une rangée d'un écran de la surface d'un ongle.
Souplesse et meilleure restitution Le plus de ce dispositif est que les fabricants devraient disposer à terme d'interfaces qui auront
aussi les avantages de l'Oled : souplesse, meilleure restitution des couleurs, vision non altérée même avec une forte inclinaison. Le
groupe de travail a pensé à d'autres applications possibles comme du papier électronique haute définition. La baisse du prix des écrans composés de diodes électroluminescentes - dédiés aux dispositifs portables est également un objectif. A noter qu'une autre équipe de
chercheurs devrait être intéressée par ces avancées : celle de l'université de Washington qui travaille sur les lentilles souples capables
d'afficher des informations.
HP lance
lance le 2133, un ultraportable 9 pouces à 499 dollars
http://www.pcinpact.com/actu/news/42894-hp-2133-ulcpc-eee-ultraportable.htm
La nouvelle guerre des ULCPC
Dans la course actuelle aux ULCPC (Ultra Low-Cost PC), Hp se jette dans la marre et
propose son propre modèle, apte à concurrencer les autres machines de type Eee PC. Le
2133, c’est son doux nom, est un ultraportable à bas prix, architecturé autour d’une dalle
LCD de 9 pouces affichant une résolution relativement élevée de 1280 x 768.
Son tarif démarre à $499 (il n’est disponible pour le moment qu’aux États-Unis) et inclut
pour ce prix un processeur VIA à 1 GHz, 512 Mo et 4 Go de mémoire Flash embarquant la
distribution Linux OpenSuse. Son tarif peut grimper jusqu’à $749, le processeur passant
alors à 1,6 GHz, la mémoire vive à 2 Go et le disque dur à 120 Go en 7200 tours par
minute. On notera que le système d'exploitation devient alors Vista Professionnel.
Les autres caractéristiques de la bête sont : Un châssis en aluminium, Trois ports USB 2.0,
Une sortie VGA, Un port Ethernet , Un lecteur de cartes mémoire, Une webcam , Wifi
802.11 b/g , Un port Express Card.
Oui, le 2133 est plus cher que l’Eee PC, mais ses caractéristiques techniques en font
également une machine plus puissante.
RIM a vendu 4,4 millions de terminaux sur le trimestre
http://www.lemondeinformatique.fr/actualites/lire-rim-a-vendu-4-4-millions-de-terminaux-sur-le-trimestre-25787.html
Research in Motion (RIM) a annoncé hier avoir vendu 4,4 millions de terminaux Blackberry sur son quatrième trimestre fiscal (échu au 1er
mars 2008) et 14 millions d'exemplaires sur l'ensemble de son exercice 2008. En complément, le fournisseur a enregistré 2,18 millions
d'abonnements à son service de messagerie, ce qui porte à 14 millions le nombre total de ses abonnés dans le monde.
L'iPhone n'est donc pas parvenu à faire de l'ombre au Blackberry. D'après le cabinet d'études Canalys, RIM a décroché 41% des parts de
marché des smartphones [sur le marché américain au quatrième trimestre 2007], devant l'iPhone (28%) [Au niveau mondial, Nokia
dominait toujours avec 52,9%, suivi de RIM avec 11,4% et d'Apple avec 6,5%].
Le Blackberry, initialement destiné aux entreprises, a réalisé avec succès son virage vers le grand public, amorcé il y a plus d'un an et
demi, avec la sortie de Pearl, lancé en septembre 2006.
La société canadienne a publié des résultats supérieurs à ses prévisions. Le chiffre d'affaires du quatrième s'est élevé à 1,88 Md$ et le
bénéfice net à 412,5 M$. Sur l'année, le chiffre d'affaires a doublé, à 6 Md$, de même que le bénéfice net à 1,29 Md$.
Le Français Dexxon lève un peu plus le voile sur son portable à bas coût
http://micro.lemondeinformatique.fr/actualites/lire-le-francais-dexxon-leve-un-peu-plus-le-voile-sur-son-portable-a-bas-cout-2068.html
Le groupe Dexxon dévoile progressivement les détails relatifs au Gdium, son
ultra-portable à bas prix. Disponible sous la marque Emtec dès l'été prochain, cet
ordinateur arborera dans un premier temps un écran 10''. Il sera aussi proposé en
8,9'' ultérieurement. Initialement Dexxon avait prévu de livrer le Gdium avec un
écran 7'', à l'image de l'EeePC d'Asus. « Une dalle de 10'' offre une surface
supplémentaire de 7 cm et, donc, un meilleur confort de travail et de lecture. A
titre d'exemple, elle permet de lire une page web sans devoir déplacer la fenêtre
horizontalement », explique Sari Shiafiei, directrice communication de Dexxon.
A défaut de disposer d'une unité de capacité de stockage interne, le Gdium sera
packagé avec une Gkey. Cette clé USB, à partir de laquelle est réalisée la
séquence de boot de la machine, est proposée dans des versions de 4 à 16 Go de
mémoire Flash. Elle embarque le bouquet d'applications, dont une quinzaine à
caractère éducatif, proposées par Dexxon et une distribution Linux Mandriva. «
Des Gkey supplémentaires peuvent être achetées séparément.
En pratique, cela signifie que plusieurs utilisateurs peuvent utiliser le même Gdium tout en disposant de leur environnement de travail
personnel. En outre, ce système permet aux utilisateurs de sécuriser leurs données en les emportant facilement avec eux ». Et si elle
s'avérait insuffisante, la capacité de stockage peut-être complétée par l'utilisation du lecteur de carte SD HC qui équipe le Gdium.
A l'heure actuelle, le fabricant ne divulgue pas encore le type et la puissance du processeur qui équipera sa machine. On devrait toutefois
en savoir plus sur le sujet lors du prochain Medpi qui se tiendra à Monaco. Le choix de ce salon dédié à la mise en relation des acheteurs
de la grande distribution et des fournisseurs n'a rien d'un hasard. Avec les opérateurs et les FAI, les enseignes du retail constituent un
des canaux de distribution sur lesquels Dexxon compte s'appuyer pour vendre le Gdium. Le monde de l'éducation constitue également
une cible de choix pour l'ultra-portable qui sera vendu dans une fourchette de prix de 299 € à 399 € selon les configurations.
Avec App Engine, Google ouvre ses serveurs pour créer et héberger des applications
http://www.zdnet.fr/actualites/informatique/0,39040745,39380301,00.htmAttirer les développeurs d'applications en mettant à leur
disposition des infrastructures réseau, c'est l'objectif de Google avec son nouveau service App Engine. Lancé lundi 7 avril, l'entreprise le
destine également aux entreprises à la recherche d'un socle évolutif pour la création d'applications en ligne, en disposant clés en main de
tout le matériel nécessaire, selon le concept du cloud computing.
App Engine, gratuit pour les 10 000 premières inscriptions, rassemble différents services en ligne de Google en matière d'hébergement de
logiciels, explique Pete Koomen, responsable produits au sein de l'équipe de développement de Google. Le stockage et le traitement de
données avec BigTable, l'authentification lors de la connexion aux services, et la messagerie pour permettre au système de prendre en
charge les communications.
Pas de frais pour redimensionner ses infrastructures
À titre d'exemple, les équipes de Google ont présenté des applications créées avec App Engine, dont une permet d'organiser des
covoiturages, de proposer des trajets, de trouver des passagers et de s'inscrire.
App Engine est, à en croire Google, la clé de la programmation facile, puisque les développeurs n'ont pas à se soucier d'acquérir de
nouveaux logiciels et matériels pour redimensionner leur infrastructure si leur application connaît un grand succès. Le service permet
d'exploiter toute la puissance des serveurs de Google. « Nous connaissons des cas où les développeurs ont dû revoir l'architecture de leur
système tous les 6 à 9 mois en raison de l'accroissement du trafic », affirme Pete Koomen. Une offre qui risque de porter un coup à la
concurrence représentée par les services en ligne d'Amazon - Elastic Compute Cloud (EC2) - et de Salesforce.com - AppExchange.
Pour Stephen Arnold, auteur Google Version 2, l'entreprise a de grandes ambitions concernant App Engine. Couplés, BigTable et la
technologie Sawzall, qui analyse d'énormes quantités de données, fourniront aux entreprises un moyen de mieux gérer le datamining.
Il cite ainsi des sociétés telle American Express qui se heurte à un vrai casse-tête pour déterminer, par exemple, tous les achats réglés
avec ses cartes de paiement et correspondants aux offres spéciales dans le commerce sur une période de cinq ans. « C'est une gageure
pour les banques et établissements de crédit », estime l'auteur, ajoutant que le service hébergé d'Amazon est plus restreint en termes de
capacité puisqu'il est limité au logiciel de base de données d'Oracle sur lequel il est basé.
Côté technique, les applications créées avec App Engine peuvent être écrites en Python, mais Google réfléchit à d'autres langages. Sa
capacité de stockage sera au départ limitée à 500 Mo, avec 10 Go de transferts chaque jour, et 200 millions de cycles quotidiens pour les
processeurs. De quoi offrir suffisamment de puissance à un site web revendiquant environ 5 millions de pages vues par mois.
Des capacités supérieures moyennant paiement Ces prestations seront gratuites dans cette limite. Pour disposer de capacités plus
importantes, Google facturera des frais, encore non communiqués.
Pour la société internet, les possibilités de revenus sont réelles. Google escompte en générer notamment grâce à sa plate-forme AdSense
(insertion de publicités contextuelles) si les développeurs l'intègrent dans leurs applications, explique Tom Stocky, également responsable
produit chez Google. Mais la rentabilité sera surtout indirecte, précise Koomen : « S'il devient plus facile de créer des applications web,
elles vont se multiplier, ce qui attirera de facto plus d'internautes et profitera à Google. »
App Engine devrait évoluer par la suite, en proposant du stockage de fichiers plus importants, en facturant aux utilisateurs leur usage
précis, et en prenant en charge les applications hors ligne. Plus d’informations lors de la conférence Google I/O en mai prochain.
Le CEA et le CRNS préparent l'arrivée d'un supercalculateur petaflopique
http://www.journaldunet.com/breve/france/25367/le-cea-et-le-crns-preparent-l-arrivee-d-un-supercalculateur-petaflopique.shtml
Les deux organismes publics ont annoncé la création du centre national Jacques Louis Lions de calcul haute performance du département
de l'Essonne. Prévu pour faciliter l'accès de la communauté scientifique aux principaux moyens de calcul haute performance, il est
constitué des sites de l'IDRIS (Le Moulon/CNRS) et du centre de calcul recherche et technologie du CEA à Bruyères-le-Châtel. Ce centre,
qui cumule 500 téraflops de puissance de calcul, reliera bientôt par liaison très haut débit les sites du CEA et du CNRS, puis présentera sa
candidature pour accueillir début 2012 une machine dépassant le pétaflop.
Le compteur piste la consommation de chaque appareil électrique
http://www.atelier.fr/inventions/10/08042008/coracle-de-smetec-apprend-la-consommation-electrique-de-tout-objet-36336-.html
coracle est un système voué à rendre intelligent les compteurs
électriques : il découvre et analyse tout seul les
caractéristiques de consommation des appareils ménagers.
L'Anglais Semtec mène depuis quelques temps un test grandeur nature
dans les chaumières de Cambridge, en Angleterre. L’expérimentation
concerne son outil coracle (CO2 Oracle), capable d'analyser l'utilisation
de puissance électrique propre à chaque objet présent dans une
habitation. L'adoption du produit de Semtec dans des compteurs
évolués (smart metering) permettrait ainsi de calculer le coût d'un
chauffe-eau électrique d'une douche mis à contribution quatre fois par
jour, de détecter la surconsommation d'un réfrigérateur et de lister les
appareils ménagers les plus gourmands en énergie. Le tout est mis en
relation avec le dégagement de CO2 induit. Et ce n'est pas une
bagatelle : selon des chiffres cités par le concepteur, une famille
anglaise dépenserait €480 par an et générerait deux tonnes de CO2.
Le but est de faire réfléchir les ménages du Royaume-Uni mais surtout de les faire agir. Semtec estime que la plus simple des
technologies de "smart metering" pourrait faire baisser la consommation des foyers de 15%. Cela n'empêche pas le fournisseur de
peaufiner les fonctions de son produit. "La première action que la plupart des gens vont faire lorsqu'ils disposent d'un dispositif
d'affichage de la consommation est de parcourir leur maison en éteignant et allumant les appareils électriques afin de voir combien
d'énergie ils consomment", s'amuse Tom Fryers, directeur commercial de Semtec. Alors que coracle "analyse la répartition de l'énergie
utilisée dans toute la maison, et peut apprendre par lui-même les caractéristiques des boîtiers dans la plupart des habitations". Le
principe de fonctionnement n'est pas très clair. Mais l'on peut émettre des hypothèses. "Il y a selon moi deux possibilités."
Trouver le bon seuil de rentabilité "On peut utiliser des prises gigognes équipées d'un wattmètre qui va mesurer la puissance qui
passe", estime ainsi Alexis Dion, chef de projet en charge du développement de nouveaux produits chez Poweo. "Sinon, on se sert d'une
pince ampérométrique, c'est-à-dire un anneau que l'on fixe autour du câble électrique de l'appareil dont on veut mesurer la puissance".
Le tout est ensuite de transporter ces informations vers un système centralisé comme celui de Semtec. Il ne manque donc pas grandchose pour que cela se généralise : il n'y a qu'à voir le Wattson en Angleterre. A une condition, cependant : "l'enjeu est de trouver un
système dont on connaisse le seuil de rentabilité pour l'utilisateur", prévient Alexis Dion, "et il faut que ce seuil ne dépasse pas six mois à
un an !". Poweo, qui propose à ses clients la Poweo Box veut aller plus loin. "Il faut pouvoir offrir aux utilisateurs de quoi affiner,
analyser, retirer de l'information de consommation". Le client serait bien étonné de savoir que sa Freebox allumée en permanence
consomme un demi kw/h par jour. "Sur deux jours, c'est déjà plus qu'un cycle de lavage", souligne le chef de projet.
Enchères records pour une pizza
http://www.01net.com/editorial/377859/encheres-records-pour-une-pizza/
C'est ce que l'on appelle une belle culbute. Pour un nom de domaine acheté $20 en 1994, un Américain de 43 ans, habitant la région de
Baltimore, a récupéré $2,6 M en le revendant. Chris Clark, c'est le Baltimore Sun qui le raconte dans son édition du 3 avril, avait déposé
le nom de domaine « pizza.com » au tout début du Web grand public, quand l'e-commerce était encore balbutiant. Comme il avait monté
sa propre boîte de conseil en ligne, il comptait faire affaire avec une société de livraison de pizzas. Ce qui n'est jamais arrivé.
En 2000, il revend sa société, en monte une autre, spécialisée dans la sécurité Internet, mais continue de s'acquitter des $20 annuels
pour rester titulaire de « pizza.com ». Chris Clark décide finalement de s'en servir pour constituer un site de référence sur les livreurs de
pizzas, qui fonctionne plutôt bien. Jusqu'à ce qu'il entende parler de la revente du nom de domaine Vodka.com à une compagnie russe
pour $3 M. Alors Chris Clark franchit le pas. Il décide de vendre « pizza.com ».
Histoire de tâter le terrain, il commence par en faire l'annonce sur le site au mois de janvier, pour voir la réaction de potentiels
acquéreurs. Résultats : des propositions à six chiffres... Le 27 mars 2008, il met alors « pizza.com » aux enchères sur le site de vente de
noms de domaine Sedo. Mise à prix, $100.
Le lendemain, les enchères atteignent déjà les $500 000. Ce jour-là, la famille Clark s'amuse innocemment à Disney World, poursuit le
Baltimore Sun. Le 29 mars, la barre des 2 millions est atteinte. C'est le prix plancher que s'est fixé Chris Clark. Il vend à 2,6 millions. Avec
un léger regret, celui de ne pas avoir acheté plus de noms de domaine génériques de ce type en 1994...
Un nouveau supercalculateur à base de Power6
http://www.itrmanager.com/articles/76251/ibm-dope-jeune-gamme-power-2-nouveaux-serveurs.html
Le Power6 permet à IBM de proposer aussi un nouveau supercalculateur : le Power 575. Equipé de 448 cœurs par rack, le nouveau
serveur Power 575 est crédité d'une performance 5 fois supérieur au modèle qu'il remplace de la gamme p (le System p5 575) et tout en
étant trois fois plus efficace sur le plan de la consommation d'énergie. Ce serveur peut être configuré sous la forme de cluster da grande
capacité baptisés Hydro-cluster. Parmi les innovations apportées avec ce système, le Power 575 est doté d'un système de refroidissement
à eau. Selon les ingénieurs d'IBM, ce système de réfrigération serait 4000 plus efficace qu'un système à air.
Le module de base du Power 575 comporte 32 cœurs et est crédité d'une puissance de 600 GFlops. Le modèle de base est composé de
14 modules qui comprend alors 448 cœurs cadencés à 4,7 GHz et pouvant comprendre jusqu'à 3,5 To de mémoire. Ce nouveau
supercalculateur de 8 Tflpos a déjà été installé au Max Planck Institute et sera utilisé dans le domaine de la physique des plasmas. Il offre
une puissance de calcul 20 fois plus grande que le système en fonctionnement depuis 2002 qu'il remplace. Il doit également être installé
au National Center for Atmospheric Research à Boulder dans le Colorado dans le courant de l'année.
Le palmarès des Trophées Entreprises et Société de l'Information 2008 Gaz de France
http://www.trophees-cio.com/index.php/les-laureats
Suite à la séparation d'EDF et de GDF et à la suppression progressive des monopoles sur le marché
de l'énergie, Gaz de France a été amené à créer sa DSI propre, séparée de celle d'EDF, et à
construire un nouveau SI commercial nommé Symphonie. Le SI commercial, amené à traiter 10
millions de clients, a été basé sur SAP. Aux volumes de données important s'est ajoutée une forte
contrainte sur les délais de réalisation. L'assistance à maîtrise d'ouvrage a été confiée à Bearing
Point et Unilog (Logica), la conduite du changement à la Cegos, l'intégration à Accenture, l'éditique
à EDS, la conduite applicative à Atos et l'hébergement applicatif à Orange Business Services.
RSA 2008 : Kraken, le nouveau botnet géant
http://micro.lemondeinformatique.fr/actualites/lire-rsa-2008-kraken-le-nouveau-botnet-geant-2072.html
Fort de ses 400 000 zombies (ou PC infectés sur lesquels un hacker a pris le contrôle à distance), Kraken est le nouveau botnet dont il
faut se méfier. Non seulement il a déjà infiltré certains postes de travail d'entreprises figurant au classement Fortune 500 (avec un accès
potentiel au reste de leur système d'information), mais son intrusion est indétectable par 80 % des antivirus actuels. Notamment parce
que son code binaire est régulièrement mise à jour.
Comme son prédécesseur Storm, ce botnet est pour l'instant utilisé principalement pour envoyer du spam standard (pilules bleues, gains
de loterie et autres). Mais cela pourrait changer. Pour Paul Royal, chercheur chez Damballa, société spécialisée dans la sécurité des
réseaux informatiques, « puisqu'il met son code à jour, il n'y a aucune raison pour qu'il ne trouve pas d'autres activités. » D'autant que ce
Kraken n'a pas fini sa croissance et risque d'atteindre les 600 000 PC zombies d'ici à la fin de la semaine.
La Super Resolution Technology séduit l'industrie du cinéma
http://www.atelier.fr/applications/10/09042008/la-super-resolution-technology-seduit-l-industrie-du-cinema-36342-.html
La SRT jusque là utilisée pour la sécurité nationale ou l'espionnage, s'introduit chez les producteurs de films. Elle permet
en effet d'obtenir une très haute qualité d'image.
Topaz Labs, fournisseur de technologies et logiciels en vidéo annonce son partenariat avec le producteur de films indépendant Ryan
Humphries, pour son film "Sounds". Le long métrage sera le premier produit cinématographique à bénéficier de la Super Resolution
Technology (SRT). Cette dernière ayant pour but d'améliorer la résolution d'une séquence d'images. Jusqu'à maintenant, la SRT était
utilisée pour les satellites espions, des opérations militaires, la CIA, quelques laboratoires de police scientifique High-Tech ainsi que des
agences de sécurité nationales aux Etats-Unis. En appliquant ce logiciel de haute résolution aux films, Topaz Labs s'introduit le premier
dans l'industrie du cinéma et offre de nouvelles perspectives en termes de production. C'est en effet un moyen pour les producteurs qui
disposent de peu de ressources : les images bénéficient d'une qualité significative et ce via un logiciel relativement peu coûteux.
Des algorithmes recréent l'image En effet, la SRT donne la possibilité aux producteurs de films indépendants, de modifier la
résolution de leur film une fois celui-ci réalisé et tourné. Le fonctionnement est le suivant : la technologie extrait différentes séquences du
film, ce qu'on appelle des cadres. Depuis ces cadres, elle produit des informations vidéo. Elle les modélise selon des algorithmes. Puis elle
regroupe toutes ces données dans un nouveau cadre, qui retranscrit l'image dans ces plus infimes détails. C'est cette reconstruction des
détails vidéo qui permet d'augmenter la résolution de l'image finale. Cette technique était déjà connue et utilisée, mais Topaz Labs
affirme que sa SRT établit des algorithmes plus rapides et plus robustes, pouvant être commercialisés dans des logiciels "grand public".
La qualité du film a posteriori L'utilisation d'un logiciel SRT permet d'améliorer les productions cinématographiques en passant de la
résolution standard à la haute définition, ou bien de la haute définition à la version numérique de 4 000 pixels. "Si vous tournez un film
en résolution standard, qui est généralement de 720x480, vous pouvez le traiter via le logiciel SRT. Le produit fini sera alors une version
du film d'une bien meilleure qualité visuelle, bénéficiant d'une haute définition de 1920x1080," explique Feng Yang, fondateur de Topaz
Lab. Ce dernier compare l'évolution offerte par cette technologie aux améliorations permises avec l'introduction du Blu-ray. La qualité
d'un DVD classique est largement supplantée par celle de type Blu-Ray.
L'ouverture à distance des portières affaiblit la sécurité des véhicules
http://www.atelier.fr/securite/10/09042008/cles-cryptographiques-keeloq-pirater-vulnerable-36339-.html
Les systèmes de contrôle à distance vont devoir être revus : étudier les variations de consommation énergétique de leur
récepteur permettrait de les pirater. En ligne de mire : les dispositifs KeeLoq.
Les clés numériques permettent de contrôler à distance les portières d’un véhicule ou les accès d’un immeuble. Ce, en utilisant un
émetteur et un récepteur se communiquant des codes par RFID. Problème : ce système, qui fait fureur sur les parkings quand il s'agit de
repérer son véhicule, est loin d’être infaillible. Une équipe de la Ruhr University Bochum, en Allemagne, annonce ainsi avoir développé
une attaque permettant de pirater les dispositifs d’ouverture sans-fil basés sur la technologie RFID KeeLoq. Le système récupère les clés
cryptographiques intégrées dans le transmetteur et le récepteur. Pour y parvenir, il mesure notamment la consommation électrique du
récepteur. Un système basé sur la trace énergétique qui permet d’extraire des données confidentielles, même cryptées.
Pirater à distance La méthode est d’autant plus dangereuse qu’elle ne nécessite pas que le pirate soit en contact avec le système : elle
permet de dupliquer des clés à plus de cent mètres de distance. "Il suffit aux personnes malveillantes d’intercepter deux signaux pour
leur permettre de reproduire votre clé et d’ouvrir votre garage ou votre voiture", souligne ainsi Christof Paar, responsable du projet. Un
peu à la manière d'une télécommande universelle qui est capable d'interpréter les signaux des autres systèmes de commande utilisés
dans un foyer. Et ce n’est pas tout : un autre procédé permettrait de manipuler à distance les récepteurs placés dans les portes - de
garage ou de voiture - afin de les rendre incompatibles avec le transmetteur situé dans la clé du propriétaire.
Une vulnérabilité inquiétante Intérêt : rendre cette dernière inutilisable et empêcher l’utilisateur d’accéder à son véhicule ou à son
parking. Pour rappel, les solutions KeeLoq sont utilisées depuis les années 90 et font partie - en Europe et aux Etats-Unis - des solutions
de contrôle à distance les plus populaires. Selon les scientifiques, l’ensemble des solutions basées sur l’algorithme de KeeLoq sont
concernées par cette vulnérabilité. Des fabricants automobiles comme Toyota, qui utilisent le système pour leurs solutions antivol,
pourraient ainsi être concernés par ces attaques. Il est également facile d’imaginer le même type de procédé pour pirater d’autres puces
d’identification basées sur la RFID. Notamment au niveau des solutions de paiement sans contact utilisant la radio-identification.
La Freebox passe au WiFi haut débit et perd ses antennes
http://www.zdnet.fr/actualites/internet/0,39020774,39380356,00.htm?xtor=EPR-102
Free met sur le marché une nouvelle version de sa Freebox débarrassée des trois antennes WiFi extérieures jusqu'alors
placées sur le boîtier ADSL de la box. Elles sont remplacées par des antennes WiFi internes, plus discrètes.
Mais la plus grande évolution n'est pas visible : le terminal de Free passe au WiFi haut débit en étant compatible avec la norme radio
802.11n, toujours en cours de ratification au sein de l'IEEE.
Cette technologie offre un débit jusqu'à 5 fois supérieur à la version précédente en 802.11g, soit 120 Mbits/s maximum en 802.11n,
contre environ 20 Mbits/s en pratique pour le 802.11g. De quoi visionner des contenus en HD dans des conditions optimales.
Une portée de 30 mètres en 802.11n
« De plus, il améliore significativement la portée du signal ainsi que la qualité de sa réception, notamment dans des environnements
cloisonnés », rappelle le FAI. La portée en 802.11g est d'environ 15 mètres ; elle double quasiment en 802.11n.
« En proposant cette nouvelle génération de WiFi, Free est le premier opérateur ADSL français à intégrer cette innovation dans sa box
sans surcoût », souligne l'opérateur.
La Freebox HD intégrant le WiFi 802.11n est mise à disposition de tous les nouveaux abonnés en zones dégroupées.