Les grands systèmes - Navigation du site[Passer]
Transcription
Les grands systèmes - Navigation du site[Passer]
Généralités Les grands systèmes Quand on parle de systèmes informatiques, on a tendance à penser aux PC et à Windows, parce quʼils se trouvent sur la plupart des bureaux, mais cette suprémacie du monde Microsoft ne concerne que les postes de travail. Lʼinformatique Les petits serveurs fonctionnent souvent sous Windows, mais ce nʼest pas le cas des moyens et grands serveurs, dont le système dʼexploitation est plutôt Solaris (le Unix de Sun), HP-UX (le Unix de HewlettPackard), z/Linux, z/OS ou z/TPF (IBM). z/OS est un système très particulier : il contient une version complète de Unix. Lʼordinateur Les grands systèmes Les serveurs Les serveurs sont le cœur des systèmes informatiques : les postes de travail ne servent à rien sʼils ne sont pas connectés aux serveurs, qui stockent lʼensemble des données des entreprises. Les postes servent seulement de moyens dʼaccès à ces données. Historique Les premiers ordinateurs de gestion datent des années 1950, mais ils coûtaient une fortune, si bien quʼils ne se rencontraient quʼaux États-Unis et dans les grands pays européens. Seuls les États et les grandes entreprises avaient les moyens de sʼéquiper. Cʼest à partir des années 1960 que lʼinformatique sʼest démocratisée et quʼon a vu les premiers ordinateurs de gestion apparaître dans les entreprises suisses. Voici de quoi avait lʼair un système informatique des années 1970 (à gauche) et 1980 (à droite) : Source : http://www-03.ibm.com/ibm/history/exhibits/mainframe/mainframe_album.html (cette page contient des photos des principales mainframes IBM). Sur la photo de droite, ce ne sont pas des PC qui se trouvent sur les tables, mais des terminaux qui se composent uniquement dʼun écran et dʼun clavier. Les unités centrales sont dans les armoires bleues. Ce sont elles qui contiennent les processeurs centraux et la mémoire vive (la RAM). Les disques durs se trouvent dans leurs propres armoires. Les grands systèmes informatiques 1 http://www.jaquet.org, septembre 2009 1837 LʼAnglais Charles Babbage conçoit le premier ordinateur universel, lʼAnalytical Engine, mais il ne sera jamais construit. 1941 LʼAllemand Konrad Zuse construit le premier ordinateur universel, le Z3. 1948 Zuse met au point Plankalkül, le premier langage de programmation évolué. 1950 Le ERA 1101 dʼEngineering Research Associates est le premier ordinateur mis sur le marché. Son tambour magnétique (lʼancêtre du disque dur) contient jusquʼà 1 million de bits, lʼéquivalent dʼenviron 120ʻ000 octets. 1952 Le 701 est le premier ordinateur dʼIBM. 1960 Le COBOL (Common Business Oriented Language) est mis au point. Ce sera le langage universel de lʼinformatique de gestion jusquʼaux années 1980-90. 1963 La table ASCII fait son apparition. 1965 Le PDP-8 de Digital Equipment Corp. est le premier mini-ordinateur à connaître le succès commercial. Il ne coûte que 18ʻ000 dollars. Cʼest le début de lʼinformatique dʼentreprise pour les entreprises de taille moyenne. La même année, la programmation à objets fait ses débuts. 1969 Naissance de UNIX. Aujourdʼhui, cʼest le système dʼexploitation le plus utilisé sur les moyens et gros serveurs. 1970 Débuts du réseau ARPANET, qui sera séparé en 1983 en un réseau militaire (MILNET) et un réseau civil (ARPANET). Il deviendra lʼinternet en 1995. 1971 Le Kenbak-1 est le premier micro-ordinateur mis sur le marché. Il se vend en kit (il doit être monté par lʼacheteur). Il coûte 750 dollars et a une mémoire vive de 256 octets. Seuls quarante exemplaires vont se vendre. 1972 Dennis Ritchie met au point le langage C. Avec ses descendants le C++ et le C#, cʼest le langage le plus utilisé aujourdʼhui. 1974 LʼAlto est mis au point par Xerox au PARC (Palo Alto Research Center), mais il nʼest pas commercialisé. Cʼest le premier ordinateur graphique. Il gère le multifenêtrage et est doté dʼune souris. 1977 Les premiers micro-ordinateurs à connaître un vrai succès commercial sortent en même temps : le PET (Personal Electronic Transactor) de Commodore, le TRS-80 de Tandy Radio Shack et surtout lʼApple II. Les petites entreprises commencent à sʼéquiper. 1979 Dan Bricklin invente le tableur, quʼil appelle Visicalc. Cʼest cette application qui va faire des micro-ordinateurs des outils utiles dans les entreprises. Les grands systèmes informatiques 2 http://www.jaquet.org, septembre 2009 1980 Fabriqué par Seagate, le ST506 est le premier disque dur pour micro-ordinateurs. Il a une capacité de 5 mégaoctets. 1981 Le PC dʼIBM donne un énorme élan à la micro-informatique. Il fonctionne sous MSDOS (Microsoft Disk Operating System). Cʼest le début de lʼère Intel-Microsoft. 1984 Le Macintosh dʼApple est le premier micro-ordinateur graphique à connaître le succès commercial. 1985 Microsoft met sur le marché la première version de Windows. Cʼest seulement une superstructure sur le système dʼexploitation MS-DOS. 1988 Robert Morris écrit un ver qui met à mal 6ʻ000 des 60ʻ000 systèmes informatiques connectés à lʼARPANET. Cʼest le début de lʼinsécurité informatique. 1990 Le World Wide Web est mis au point par Tim Berners-Lee, un chercheur du CERN à Genève. Le premier serveur du web est un NeXT. 1991 Naissance de Linux, un système dʼexploitation libre conçu par un étudiant finnois, Linus Torvalds. 1993 Microsoft met Windows sur le marché. Ce nʼest plus une interface par-dessus MSDOS, cʼest un système dʼexploitation à part entière (la version 1 est numérotée 3.1). 1995 Java est mis au point avec un principe : WORA (Write Once, Run Anywhere). Un programme doit fonctionner sans modification sur nʼimporte quelle plate-forme. Vers 2000 Le web et la messagerie électronique deviennent un élément essentiel de la vie économique, sociale et culturelle des pays riches et des pays émergeants. Les grands systèmes actuels Lʼavantage premier des grands systèmes nʼest pas leur vitesse de calcul — en faisant travailler ensemble quelques milliers de serveurs Intel, on peut créer un système au moins aussi performant que les plus grosses machines — mais leur fiabilité. Ils sont conçus pour fonctionner 24 heures sur 24, 7 jours sur 7, 365 jours par an, cela pendant des années, sans aucune interruption de service. On nʼa même pas besoin de les arrêter pour changer un processeur central en panne ou pour ajouter de la mémoire vive (ce quʼon appelle le hot-swapping). De plus, il est plus facile dʼadministrer cinq grosses machines plutôt que six ou huit mille petits serveurs. La fiabilité des grands systèmes repose sur la redondance (redundancy) : chaque composant matériel existe à deux exemplaires au moins et chaque instruction est exécutée deux fois, par Les grands systèmes informatiques 3 http://www.jaquet.org, septembre 2009 deux éléments matériels différents ; les deux résultats sont ensuite comparés pour vérifier que tout sʼest bien passé. Lʼautre caractéristique essentielle des grands systèmes est leur capacité multi-utilisateur : ils peuvent gérer des dizaines de milliers dʼutilisateurs sans se crasher. Chaque année, dans les jours qui précèdent Noël, les systèmes centraux de Visa ou Mastercard font face à une crête dʼutilisation énorme, avec des dizaines de milliers de transactions par seconde, et pourtant ils continuent de fonctionner imperturbablement. Cette capacité à fonctionner indéfiniment permet dʼutiliser ces machines pour les applications critiques, cʼest-à-dire les applications vitales pour lʼentreprise. IBM et Sun sont les deux fabricants principaux de grands ordinateurs. Chez IBM, on les appelle mainframes. Chez Sun, les plus grands serveurs sont les Enterprise M9000 (http://www.sun.com/servers/ highend/m9000), qui fonctionnent sous Solaris. Ils sont dotés de 32 ou 64 processeurs centraux et dʼun maximum de 2 téraoctets de mémoire vive. Le modèle à 64 processeurs pèse 1ʻ880 kilos. Il fait 1,8 mètre de hauteur, 1,7 de largeur et 1,3 de profondeur. En configuration minimale, il coûte environ 300ʻ000 dollars, mais le prix peut monter jusquʼà huit à dix millions selon la configuration. Chaque unité de disques a une capacité maximale de 330 téraoctets. Chez IBM, les grands systèmes sʼappellent z (http://www-03.ibm.com/systems/z). Le z10 est sorti au début de lʼannée 2008 (photo ci-dessous). Il peut être équipé de 64 processeurs centraux, 1,5 téraoctet de mémoire vive et plus de 1ʻ000 canaux dʼentrée-sortie. En chiffres ronds, ces valeurs sont mille fois plus élevées que sur un PC. Le z10 mesure 2 mètres de hauteur et occupe près de 3 mètres carrés au sol. Avec 64 processeurs, il pèse 2,3 tonnes. Le prix de base est dʼun million de dollars, mais les processeurs centraux supplémentaires, lʼextension de la mémoire et les périphériques peuvent multiplier ce montant par dix. Le z10 fonctionne le plus souvent sous une version de Linux appelée Linux on System z, mais il accepte aussi les systèmes dʼexploitation classique du monde des mainframes : z/OS, z/VM, z/ VSE et z/TPF. Plusieurs systèmes dʼexploitation peuvent coexister sur une seule machine réelle. et chaque machine virtuelle peut ellemême gérer plusieurs partitions logiques. De cette manière, un seul z10 réel peut abriter plusieurs milliers de serveurs Linux virtuels. Cela veut dire quʼun seul z10 peut fournir des services à des centaine de milliers de postes de travail. Les grands systèmes sont utilisés pour des applications massives dans des domaines comme la banque, les assurances, les services publics ou les réservations aériennes. Les plus grands dʼentre eux sont capables de traiter plusieurs milliards de transactions par jour, ce qui représente Les grands systèmes informatiques 4 http://www.jaquet.org, septembre 2009 des dizaines de milliers de transactions par seconde. Une transaction est un ensemble dʼopérations insécables (inséparables), comme, par exemple, les opérations consistant à débiter un compte dʼune certaine somme et à virer ce montant sur un autre compte. Lʼindice de performance est la tps (transaction par seconde). Le budget informatique annuel dʼune très grande entreprise sʼexprime en milliards de dollars. La sauvegarde La sauvegarde des données pose évidemment des problèmes inconnus sur les serveurs Windows : on ne copie pas dix téraoctets comme on copie dix gigaoctets. Cʼest mille fois plus. Toutes choses égales par ailleurs, cela signifie que, sʼil faut 2 minutes suffisent sur un petit serveur pour sauvegarder le travail des dernières 24 heures, il faudrait 2ʻ000 minutes, cʼest-à-dire 33 heures, sur une mainframe. Ça nʼirait évidemment pas. Les grands systèmes doivent donc être équipés de systèmes de sauvegarde bien plus performants que les petits serveurs. Aujourdʼhui, les entreprises sauvegardent leurs données sur des unités de disques. Dans une petite entreprise, cʼest un disque dur externe semblable à celui que possèdent les privés. Dans une multinationale, cʼest une armoire qui contient des centaines ou des milliers de disques durs. Un exemple est le Storage Tek 9990V de Sun (http://www.sun.com), qui est compatible, entre autres, avec Solaris, TPF, z/OS, AIX, HP-UX, Linux et Windows. Sa capacité dépasse un pétaoctet (un million de gigaoctets). Il mesure 1,9 mètre de hauteur, 65 cm de largeur et 92 de profondeur. Il pèse 4 tonnes. Les modes de traitement On distingue trois modes de traitement : 1. le traitement interactif (interactive processing), où le traitement avance au fil du dialogue entre lʼutilisateur et la machine ; cʼest le mode normal ; 2. le traitement par lots (batch processing), où le travail de la machine sʼeffectue sans aucune intervention humaine, la seule opération possible étant lʼabort, lʼarrêt du travail avant sa terminaison normale ; ce mode sʼemploie beaucoup la nuit ; 3. le traitement en temps réel (real-time processing ou RT), où le traitement sʼeffectue sous une contrainte de temps : une tâche donnée doit sʼeffectuer en un laps de temps maximum. Ce mode est typique de lʼindustrie et du secteur militaire. Pendant la journée, on donne la priorité au traitement interactif. Les travaux batch se font en arrière-fond et en priorité basse. Les gros travaux de ce type sʼeffectuent en général la nuit. Les grands systèmes informatiques 5 http://www.jaquet.org, septembre 2009 Un centre de calcul avec des machines IBM (photo ibmphoto24, http://www.flickr.com/photos/ 21317126@N04/2106501604/in/set-72157603323965583) : Un supercalculateur Blue Gene dʼIBM (photo ibmphoto24, http://www.flickr.com/photos/ 21317126@N04/2105723539/in/set-72157603323965583) : Depuis 2009, sa puissance sʼexprime en petaFLOPS (millions de milliards dʼopérations en virgule flottante par seconde). Il fonctionne sous Linux. Les grands systèmes informatiques 6 http://www.jaquet.org, septembre 2009 Les moniteurs transactionnels Sur les grands systèmes, le traitement interactif prend souvent la forme du traitement transactionnel ou OLTP (On-Line Transaction Processing). LʼOLTP résout le problème de la saturation du système dʼexploitation : quand un utilisateur ouvre une session sur un serveur, cela déclenche le lancement de plusieurs programmes et lʼouverture de plusieurs fichiers, et ces ressources restent actives tout au long de la session. Si trop dʼutilisateurs se connectent au serveur, son système dʼexploitation est submergé par le nombre, il sature et cʼest le crash. Pour éviter cela, les grands systèmes utilisent un moniteur transactionnel (transaction processing monitor ou TP monitor). Cʼest un logiciel qui accueille les demandes dʼouverture de session des utilisateurs et les canalise. Il les transmet ensuite au système dʼexploitation du serveur, mais à un rythme compatible avec sa capacité dʼabsorption. Chez IBM, TPF (Transaction Processing Facility) est à la fois un système dʼexploitation et un moniteur transactionnel, avec la capacité de gérer plusieurs centaines de milliers de transactions par seconde. Cʼest le moniteur le plus puissant. Parmi ses utilisateurs, il y a Visa, American Express, Sabre, British Airways, KLM, Amadeus et la SNCF. CICS (Customer Information Control System), également dʼIBM, est le moniteur transactionnel le plus utilisé dans les grandes entreprises. IMS (Information Management System), toujours dʼIBM, est un système de gestion de bases de donnée hiérarchique couplé à un moniteur transactionnel appelé IMS TM (Transaction Manager). Il est très répandu dans les banques. Quand on prélève de lʼargent sur un distributeur automatique de billets, cʼest souvent IMS TM qui gère la transaction. Pour UNIX, il existe un autre logiciel dʼIBM, TXSeries, ainsi que Tuxedo, un produit dʼOracle. Les trois moniteurs les plus répandus sont CISC, IMS et Tuxedo. Fiabilité, disponibilité et administrabilité Les trois caractéristiques les plus importantes des serveurs sont la fiabillté, la disponibilité et lʼadministrabilité. On parle de RAS (Reliability, Availability, Serviceability). 1. la fiabilité (reliability) concerne les pannes ; elles doivent être aussi rares que possible et durer un laps de temps aussi court que possible ; 2. la disponibilité (availability) concerne le bon fonctionnement de la machine ; les données et les autres ressources doivent être indisponibles aussi rarement que possible et le moins longtemps possible ; 3. lʼadministrabilité, ou maintenabilité, ou aptitude au service (serviceability), est la capacité de la machine à être entretenue dans les meilleures conditions possibles. Si, par exemple, un processeur de grand système tombe en panne, une alerte est envoyée automatiquement, le composant est expédié immédiatement et les techniciens le changent à chaud (sans arrêter le système). Le tout est «gratuit» (cʼest-à-dire compris dans le prix de location). Les grands systèmes informatiques 7 http://www.jaquet.org, septembre 2009 Trois autres caractéristiques sont également importantes mais elles dépendent moins du matériel : 4. lʼintégrité (integrity) est lʼabsence dʼaltérations non voulues ; 5. la confidentialité (confidentiality) est lʼabsence de fuites dʼinformations ; 6. la sûreté (safety) est lʼabsence de conséquences négatives sur la santé des utilisateurs et lʼintégrité de lʼenvironnement physique du système. En ce qui concerne la fiabilité, le MTBF (mean time between failures) mesure la fréquence des défaillances. Il indique le temps moyen qui sépare deux pannes. Le MTTR (mean time to repair) donne, lui, la durée moyenne dʼune réparation. Il est moins important si le système offre un mécanisme de tolérance de pannes. La tolérance de pannes (fault tolerance ou graceful degradation) est la capacité dʼun système à continuer de fonctionner si un de ses éléments tombe en panne. Si les performances baissent à la suite de la panne, on dit que le système fonctionne en mode dégradé (degraded mode). La tolérance aux sinistres (disaster tolerance) est la capacité à continuer de fonctionner même sʼil se produit un désastre, par exemple une coupure générale de courant ou une inondation. Elle nécessite un mécanisme de réplication de données entre deux sites informatiques distants. À la suite dʼune défaillance, la récupération peut prendre deux chemins. Soit elle reprend la tâche en cours au moment de la panne et elle la termine, auquel cas on parle de repositionnement avec restauration actualisée (roll-forward), soit elle ramène le système au dernier état stable connu et elle repart de là, auquel cas on a affaire au repositionnement avec restauration non actualisée (roll-back). Pour permettre un roll-back ordonné, on jalonne le code des programmes de points de reprise (checkpoints). Un point de reprise est un endroit dans un programme où aucun traitement nʼest en cours. On peut donc repartir de là sans problèmes. Les centres de calcul Sauf dans les petites entreprises, les serveurs et les équipements centraux de réseaux se trouvent dans une salle spéciale appelée centre de calcul (data center). Cʼest un lieu très protégé. On nʼy entre pas sans autorisation, et, quand des personnes étrangères au service y rentrent, cʼest souvent sous lʼescorte dʼun garde du service de sécurité. Cʼest le cas, par exemple, quand un technicien vient intervenir sur un serveur. Par sécurité, on doit passer par un poste de travail spécial pour effectuer les tâches dʼadministration critiques comme lʼarrêt dʼun serveur. Ce poste sʼappelle la console ou la console de système (system console). On dit aussi serial console ou, dans le monde UNIX, root console, en allusion avec le fait que lʼadministrateur sʼappelle root. Les consoles ne sont pas reliées aux serveurs par les câbles de réseau normaux. La liaison passe par des câbles particuliers. On évite ainsi tout risque quʼune personne extérieure parvienne à accéder au système. On utilise aussi ce système pour administrer les équipements de réseaux. Les grands systèmes informatiques 8 http://www.jaquet.org, septembre 2009 On utilise généralement plusieurs consoles. Dans la plupart des cas, ce sont de simples PC sous Windows ou Linux réunis dans la salle de contrôle : Les centres de calcul sont protégés contre lʼincendie. On emploie souvent le gaz, avec des bonbonnes qui injectent dans la salle ou le rack où le feu a été détecté un gaz inerte qui a des propriétés anti-feu. Le gaz remplace partiellement lʼoxygène, ce qui étouffe le feu. On utilise par exemple lʼInergen ou lʼheptafluoropropane (voir lʼimage ci-dessous à gauche). Si ce premier moyen échoue, les extincteurs à eau entrent automatiquement en fonction. Les installations sont dotées de leur propre alimentation électrique. En cas de panne de courant, des batteries prennent le relais pendant quelques dizaines de secondes, le temps quʼune génératrice diesel se mette en marche et commence à générer un courant stable. Les batteries et les génératrices diesel dʼun centre de calcul (photos Pierre Jaquet, http:// www.jaquet.org) : Chacune des quatre génératrices de la photo de droite développe 1ʻ000 kVA avec une tension de 3 x 400 volts. Un système de climatisation règle la température et le degré dʼhumidité pour éviter les problèmes de fonctionnement liés à la chaleur ou à un air trop sec (électricité statique) ou trop humide (condensation). En règle générale, les équipements sont placés sur un faux plancher sous lequel un espace de 60 à 100 centimètres permet une bonne circulation de lʼair conditionné. Le câblage est parfois placé sous le faux plancher, mais, pour des raisons pratiques, on préfère généralement le faire passer dans des rails suspendus au plafond. Les grands systèmes informatiques 9 http://www.jaquet.org, septembre 2009 Vue dʼun centre de calcul (photo jaxmac, http://www.flickr.com/photos/jaxmac/1492034758/in/ set-72157601605890223) : Des mainframes IBM Regatta à gauche et une vue de lʼintérieur dʼun z9 à droite (photos pchow98, http://www.flickr.com/photos/pchow98/sets/72157608546862745) : Les grands systèmes informatiques 10 http://www.jaquet.org, septembre 2009 Les équipements de télécommunication dʼun petit centre de calcul (photo Gregory Maxwell, http:// commons.wikimedia.org/wiki/File:Datacenter-telecom.jpg) : Les sous-sols dʼun centre de télécommunications (photo Pierre Jaquet, http://www.jaquet.org) : Les grands systèmes informatiques 11 http://www.jaquet.org, septembre 2009 Les composants dʼun rack de serveurs et dʼunités de disques Hewlett-Packard (photo Cliff Dwelling, http://www.flickr.com/photos/standorsett/2402296514) : Un centre de calcul avec des machines IBM (photo ibmphoto24, http://www.flickr.com/photos/ 21317126@N04/2072093556) : Les grands systèmes informatiques 12 http://www.jaquet.org, septembre 2009 Un espace doit être ménagé devant et derrière les racks pour la maintenance. Cet espace est typiquement de 30 pouces, soit 80 centimètres. Références EBBERS, M., KETTNER, J., OʼBRIEN, W., OGDEN, B. Introduction to the New Mainframe: z/OS Basics, Vervanté, Huntington Beach, 2009 (version Pdf gratuite : http://www.redbooks.ibm.com/ Redbooks.nsf/RedbookAbstracts/sg246366.html?Open). STEPHENS, David, What On Earth is a Mainframe ?, Lulu.com, Raleigh, 2008. Il existe aussi des vidéos qui donnent une idée de ce quʼest un centre de calcul. Un exemple avec les mainframes : « IBM launches ʻSystem z10ʼ Mainframe », http://www.youtube.com/watch?v=B97p8AyeHn8. Un exemple tout à lʼopposé avec un centre de calcul qui contient des dizaines de milliers de simples PC : « Google container data center tour », http://www.youtube.com/watch?v=zRwPSFpLX8I. Les grands systèmes informatiques 13 http://www.jaquet.org, septembre 2009
Documents pareils
Chap1-extrait - Histoire de l`informatique
650 mais surtout plus fiable et moins coûteux. Ce nouveau "mainframe" fut annoncé en octobre 1959 et les installations commencèrent dès le début de 1960. Les prévisions de livraison dʼIBM
pour ce m...