Texte de la 225e conférence de l`Université de tous les
Transcription
Texte de la 225e conférence de l`Université de tous les
Texte de la 225e conférence de l’Université de tous les savoirs donnée le 12 août 2000. Comment les révolutions de l'information et des communications ont-elles été possibles ? Les semi-conducteurs par Claude Weisbuch Introduction Les révolutions de l'information et des communications, issues des découvertes sur les semi-conducteurs, sont un des faits marquants du siècle passé et vont continuer à bouleverser dans ce nouveau siècle tous les domaines de l'activité humaine. Le comité Nobel a rendu hommage en cette année 2000 aux pionniers qui ont rendu possible ces révolutions : après le prix Nobel de Bardeen, Brattain et Shockley en 1956 pour l'invention du transistor, c'est Kilby d'une part, Alferov et Kroemer d'autre part, qui sont récompensés respectivement pour l'invention du circuit intégré, à la base de l'explosion de la micro électronique, et pour celle des hétérostructures semi-conductrices, qui permettent, entre autres, d'obtenir des lasers pour télécommunications. Ce prix Nobel est remarquable à plus d'un titre, en particulier parce qu'il récompense des inventions, qui ont été signifiées par des brevets (pour Kilby et Alferov), et non des découvertes scientifiques au sens habituel du terme, annoncées dans des revues scientifiques évaluées par les pairs. Les semi-conducteurs, et leur mise en œuvre dans les transistors, les lasers et les circuits intégrés, tiennent ainsi une place particulière dans les grandes découvertes du XXe siècle, à cause de leur impact jusque dans nos modes de vie. Il y a bien d'autres raisons qui ajoutent à la place essentielle du domaine dans l'histoire des sciences et des techniques : C'est un domaine technologique complètement né de la compréhension fondamentale de la matière solide. Aujourd'hui, les milliards de composants fabriqués chaque seconde opèrent exactement comme prévu par les modèles physiques microscopiques utilisés dans les programmes de conception de circuits. Inversement, depuis quelques années, la technologie des circuits intégrés permet d'explorer de nouveaux champs fondamentaux. C'est ainsi que l'effet Hall quantique dans les hétérostructures a déjà donné lieu à deux prix Nobel. Il y en aura certainement encore d'autres basés sur les semi-conducteurs et leurs structures. Le domaine est né d'une recherche fondamentale à long terme, effectuée dans un laboratoire industriel. Cette expérience a longtemps été à la base du paradigme, accepté jusqu'au début des années 80, selon lequel l'industrie devait faire elle-même de la recherche fondamentale. Il y a un étonnement renouvelé devant le progrès exponentiel ininterrompu (fig.1), à la fois en performance et en coût. Le domaine a ouvert de nouveaux champs industriels menant à un renouvellement des entreprises industrielles les plus importantes, et a donné naissance à ce qu'on appelle la nouvelle économie. De plus, son impact se retrouve dans tous les secteurs d'activité, industriels ou de service, à cause de son caractère de technologie diffusante, transverse. Le domaine a été à l'origine de nouvelles formes d'organisations et dynamiques industrielles. La Silicon Valley tire son nom des entreprises de microélectronique en Silicium, basées autour de San Francisco et de l'Université de Stanford. Ces entreprises ont défini un nouveau paradigme industriel, basé sur l'essaimage et la mobilité des personnes (la première entreprise, celle de Shockley est née des laboratoires Bell; des transfuges de Shockley ont créé Fairchild, puis Intel). On peut tracer des liens d'hérédité entre des centaines d'entreprises de la Silicon Valley. Une autre caractéristique est la rapidité de développement des nouveaux produits et des entités industrielles de la nouvelle économie. Ces révolutions de l'information et des communications sont nées du codage de l'information sous forme de paquets d'électrons (les « grains » d'électricité) ou de photons (les « grains » de lumière) (quelques dizaines de milliers de chaque pour l'élément d'information, le « bit »), et la capacité de manipuler et transmettre ces paquets d’électrons ou de photons de manière de plus en plus efficace et économique. On nous annonce une société passant de biens matériels à l'immatériel, la « société de la connaissance ». Cela peut être discuté, mais du point de vue physique il est vrai que les quantités portant l'information sont très petites : La plus grande bibliothèque du monde, celle du Congrès à Washington, a vingt millions de volumes. Si on considère qu'un livre est codable sur 50 millions de bits, il faut 1015 bits pour coder tous les livres1. Si on code chaque bit par la présence ou l'absence de la charge électrique de 10 000 électrons, la bibliothèque est portée par 1019 électrons, soit les électrons qui sont transportés dans un courant de 1 ampère en une seconde ! À notre échelle de tous les jours, le codage de l'information nécessite effectivement une quantité infime de matière. C’est pour cela que la manipulation en est facile et efficace. La capacité de communiquer l’information, grâce aux télécommunications, n’est pas en reste : une seule fibre optique, alimentée par des lasers à semi-conducteurs, transmet aujourd'hui 3 1012 bits (3 terabits) par seconde. Il faut donc 300 s pour transmettre toute la librairie du Congrès ! Pour prendre la réelle mesure de la révolution de l'information, il suffit de considérer la quantité d'informations produites chaque année2 sous forme de livres et journaux, images fixes ou animées (films), données sur CD-Rom ou disques magnétiques (c'est ce dernier type d'archivage qui est le plus important) : 2 attobytes (1 byte = 8 bits)( dont 0,003 % seulement sous forme imprimée), soit 350 gigabytes par habitant de la terre ! Tout cela a été rendu possible par les progrès des composants et systèmes semiconducteurs, liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la « puce », et de miniaturisation. Une des immenses surprises aura été le caractère « vertueux » de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en 35 ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, en réduction de coût (la puce de plusieurs centaines de millions de transistors coûte le même prix qu'un transistor dans les années 60), en fiabilité, en rendement de fabrication. Ce type de progrès exponentiel ne peut pas continuer indéfiniment. Le problème des limites physiques se pose de plusieurs manières : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a-t-il des matériaux autres que les semi-conducteurs qui permettraient d'aller au-delà des limites physiques, ou bien encore existe-t-il d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant ainsi à "refonder" un domaine d'activité immense qu'il a contribué à créer. Aux origines des révolutions de l'information et des communications : la physique quantique des solides 1 La notation scientifique et les unités de longueur Pour représenter des grandeurs extrêmes, on utilise la notation dite scientifique, comprenant le chiffre 10 et un exposant: ce chiffre en exposant signifie le nombre de zéros à mettre dans une notation normale après le chiffre 1 : 103 = 1 000 ; 106 = 1 000 000. Si l'exposant est négatif, il faut prendre l'inverse du nombre avec le même exposant positif : 10-3 = 1/103 = 1/1 000. Les préfixes : Méga dénote la puissance +6, Giga la puissance +9, ainsi 20 Gigabit valent 20 milliards de bits ; le préfixe Téra dénote la puissance +12, soit 1 000 Giga-- ; Petta la puissance +15, atto la puissance +18. -Unités de longueur : le micromètre (ou micron) = un millionième de mètre. On le note 10-6 m, symbole µm (un cheveu a un diamètre de 100 µm). L’angström, symbole Å, vaut un dix millionième de millimètre, soit 10-10 m Il représente l'ordre de grandeur de la distance entre atomes dans les cristaux solides, typiquement 3 Å. 2 voir http://www.sims.berkeley.edu/how-much-info/index.html À la base de la capacité à stocker, manipuler et transmettre l'information se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés « classiques » médiocres, que ce soit mécaniques, thermiques, optiques ou électriques. Comment en est-on arrivé à définir une catégorie de matériaux, les semiconducteurs, qui ne sont ni « bons » conducteurs (métalliques), ni « bons » isolants ! Ces matériaux ont longtemps mystifié ceux qui s'intéressaient à eux : contrairement aux métaux, leur conductivité s'améliore avec la température; de plus, et là aussi contrairement aux métaux, leur médiocre conductivité à l'état pur s'améliore grandement si on leur ajoute des impuretés chimiques choisies (les « dopants »). C'est justement les propriétés conductrices moyennes des semi-conducteurs, basées sur des quantités faibles de charges mobiles, qui les rendent « commandables ». Leur capacité à changer de conductivité électrique, devenue « contrôlée » par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors les effets d'amplification et d'interrupteur du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications. La compréhension de ces phénomènes a constitué le grand triomphe de l'application de la mécanique quantique au mouvement des électrons dans les solides cristallins : la résolution des équations de la mécanique quantique pour des électrons se propageant dans l'arrangement périodique des ions d'un cristal a montré que leurs énergies possibles se répartissaient en bandes d'énergie ayant une certaine mémoire des niveaux d'énergie des atomes constituant le cristal. Chaque bande dans un cristal comportant N atomes aura vN places pour des électrons (« états quantiques » dans le langage de la mécanique quantique) dans chaque bande, si v est le nombre de niveaux permis dans le niveau de l'atome de départ (fig. 2a). Suivant les positions de ces bandes d'énergie et le nombre d'électrons des atomes, en particulier ceux des électrons les moins liés au noyau (les électrons de « valence », assurant donc les propriétés chimiques) on va remplir entièrement ou non les bandes d'énergie permises par les électrons disponibles, à partir de l'énergie la plus basse (fig. 2b). Si les derniers électrons sont dans une bande où il reste dans le voisinage des places vides à plus haute énergie, un champ électrique appliqué pourra donner une impulsion et une énergie cinétique aux électrons. Il y aura conductivité électrique métallique. Si les électrons de valence du matériau remplissent complètement les bandes, ils ne peuvent pas prendre de l'énergie sous l'action d'un champ électrique appliqué. On a donc affaire à un isolant. On conçoit bien que pour des espèces chimiques différentes, ayant de très petites différences entre les niveaux d'énergie des atomes isolés de départ, on aura au final des matériaux solides isolants ou conducteurs, donc avec des propriétés électriques très différentes. Les semi-conducteurs, dans cette description, sont en fait des isolants à faible « bande interdite » entre les derniers niveaux occupés de la bande de valence et les niveaux immédiatement supérieurs de la prochaine bande d'énergie permise, appelée bande de conduction. Du coup, certains électrons peuvent être excités de la bande de valence, dans laquelle ils laisseront un « trou », vers la bande de conduction (fig. 2b, 3d). Plus la température est élevée et plus il y a de tels électrons et trous, qui donc assurent une conductivité plus grande. Ainsi s'explique le mystère de la conductivité des semi-conducteurs qui augmente avec la température (celle des métaux baisse à cause de l'agitation thermique des ions du cristal qui empêche la propagation des électrons, phénomène aussi présent dans les semi-conducteurs mais dont l'effet est masqué par la bien plus importante augmentation du nombre de charges conductrices). Le trou laissé dans la bande de valence a une conductivité qui semble être due à une charge positive, car le déplacement apparent dans un champ électrique a lieu en sens inverse de celui des électrons (figure 3c). Cette explication de la conductivité apparente de certains matériaux par le « trou » de charge apparemment « positive » dans une bande d'énergie presque pleine résout un des grands mystères des solides, car on savait depuis J. J. Thomson que les charges légères et mobiles étaient des électrons négatifs ! La propriété supplémentaire qu'ont les semi-conducteurs est leur conductivité « commandable» par incorporation d'impuretés choisies : comme le Silicium, matériau de base pour la microélectronique, a quatre électrons de valence, le fait d'incorporer des atomes ayant trois ou cinq électrons de valence (le bore ou le phosphore respectivement) va entraîner un manque ou un excès d'électrons par rapport au nombre qui remplit exactement la bande de valence pour du Silicium pur. Ceci se traduit par des niveaux d'énergie « permis » dans la bande « interdite », près de la bande de valence ou de conduction, qui vont relâcher des trous ou des électrons, en nombre exactement égal au nombre d'atomes dopants que l'on aura introduits. (fig. 3e, 3f) On imagine sans peine à quelles erreurs cet effet de dopage a pu donner lieu : pour des métaux, la conductivité augmente avec la pureté, car il y a moins d'ions étrangers pour s'opposer au passage du courant. Dans des semi-conducteurs, au contraire, la conductivité augmente avec les impuretés dopantes ! Tel chercheur croyait avoir un matériau pur parce qu'il conduisait bien alors qu'il était fortement dopé. Tel autre purifiait son matériau, s'attendant à le voir mieux conduire, et il devenait quasiment isolant ! Avec cette compréhension des semi-conducteurs dès 1930, fondée sur la mécanique quantique des solides cristallins, on avait les bases pour faire des composants électroniques. Il faudra cependant attendre 1947 pour que le transistor voie le jour. Du semi-conducteur au transistor et au circuit intégré Le transistor On a eu l'idée d'interrupteur (relais électrique) solide commandé par une tension électrique appliquée dès le début du siècle, avec des brevets décrivant correctement le fonctionnement du transistor à effet de champ dès 1923 (fig. 4). Cet effet « transistor », c’està-dire le contrôle d'un courant à travers un morceau de matériau semi-conducteur par une tension appliquée sur une grille de commande, a cependant nécessité de longs travaux dans les années 30 et 40. Il a fallu maîtriser la purification des semi-conducteurs, et l'incorporation contrôlée de dopants. Plus fondamentalement, il a fallu comprendre les barrières d'énergie existant dans les semi-conducteurs dopés de manière inhomogène, ou bien encore celles qui sont situées aux interfaces métal/semi-conducteur, ainsi que les effets de surface, qui tendaient à masquer tous les autres phénomènes. C'est par une démarche délibérée de recherche d'un tel relais solide que les laboratoires Bell, d'American Telegraph and Telephone (ATT), monopole américain des télécommunications, se sont lancés dans l'aventure du transistor dès 1936. Leur analyse montrait que l'accroissement du trafic téléphonique serait tel que les réseaux seraient constamment en panne vu leur taille et la mauvaise fiabilité des commutateurs, qu'ils soient à relais électromécaniques ou à tubes à vide. Il fallait des interrupteurs hautement fiables basés sur un nouveau concept physique. Le transistor a donc été inventé dans une entreprise de télécommunications grâce à un programme de recherche à long terme et à haut risque, pour satisfaire ses besoins, en lançant une recherche fondamentale de très grande ampleur puisqu'il a fallu comprendre complètement nombre de nouveaux phénomènes en physique et en chimie des matériaux semi-conducteurs. Il ne pouvait être inventé dans une entreprise d'ordinateurs tout simplement parce qu'ils n'existaient pas à l'époque. Le transistor et l'ordinateur Le domaine où les progrès induits par les transistors, puis les circuits intégrés, ont été le plus spectaculaires est sans doute celui des ordinateurs. Ce n'était pas clairement un impact attendu, les grands patrons de l'industrie se trompant parfois lourdement : Thomas Watson, PDG d'IBM, déclarait en 1943 que le marché mondial des ordinateurs serait de cinq unités. Ken Olsen, PDG de Digital, l'entreprise phare des Miniordinateurs, déclarait en 1977 qu'il ne voyait pas pourquoi les gens auraient des ordinateurs chez eux. Ce sont les progrès de la microélectronique qui ont généralisé les ordinateurs dans un premier temps, puis rendu accessibles l'ordinateur personnel, et les services associés comme le courrier électronique ou le web. Ces progrès ont été rendus possibles par la physique des composants. C'est qu'elle est particulièrement bien adaptée à la réalisation des fonctionnalités indispensables dans un ordinateur : rappelons que pour faire un ordinateur, il faut à la fois de la mémoire (pour stocker les programmes, les données d'entrée et les résultats de calcul) et une capacité de logique combinatoire (pour effectuer des calculs)(fig. 5). Le transistor permet de construire à la fois la fonction mémoire et la capacité logique nécessaires, car il peut fonctionner comme un bon interrupteur. Comme on le démontre à partir de l'algèbre de Boole, c’est-à-dire la combinatoire d'opérateurs logiques comme la porte « ET » de la figure 5, des interrupteurs associés à des résistances permettent de réaliser toute opération logique. Associé à un condensateur, un transistor fonctionnant en interrupteur permet aussi de réaliser un élément mémoire : c'est le principe des mémoires « dynamiques » DRAM (fig. 5). Pourquoi dit-on que la physique des composants à semi-conducteurs est bien adaptée ? C'est que l'on peut réaliser cette fonctionnalité d' interrupteur de manière quasi-parfaite, c’està-dire en consommant peu d'énergie et en isolant le courant contrôlé par l'interrupteur de la commande de cet interrupteur : on dit que la « sortie » du composant ne réagit pas sur l' « entrée ». Pour cela, le matériau isolant entre grille de commande et canal conducteur (fig. 4) est déterminant pour la qualité du transistor. Il a fallu attendre 1960 pour enfin avoir un isolant de la qualité voulue, alors que les essais de fabrication des transistors à « effet de champ » avaient débuté dès 1930. Une autre propriété très importante des transistors est que chacun d'eux peut commander plusieurs autres transistors, avec une tension qui est référencée à la tension d'alimentation (cf. la tension de « sortie » de la porte « ET » de la figure 5), et non pas à la tension de commande (« 0 » ou « 1 »). On peut donc mettre en cascade des milliers de composants sans dégradation du signal de commande. Le circuit intégré Le circuit intégré n’est pas un concept aussi fondamental que le transistor : son invention résulte de l'association d’éléments déjà connus, sinon maîtrisés, en réponse à un besoin pratique. Kilby, prix Nobel 2000, l'a décrit dans un brevet et des conférences, pas dans une revue scientifique. Dès l'invention du transistor, celui-ci remplace le tube à vide dans les appareillages électroniques, et les ingénieurs utilisent ses propriétés remarquables : miniaturisation, grâce à des techniques de micro fabrication, conception de très grands systèmes grâce à une meilleure fiabilité des composants, à leur petite taille et surtout à leur faible consommation énergétique. Cette course à la miniaturisation est suscitée par des besoins, comme ceux des grands centraux téléphoniques, des très grands ordinateurs, ou encore le besoin des militaires de disposer d'électronique « portable » pour les communications, les missiles ou les satellites. Pour toutes ces applications, on tente d'assembler, de façon compacte, le plus grand nombre de composants possible, par des techniques dites « hybrides » : chaque composant (résistance, diode, condensateur, transistor, inductance) est fabriqué dans un matériau différent, et ils sont reliés, mécaniquement et électriquement, par d'autres matériaux encore. Cette approche hybride rencontre toutefois une limitation importante. Tandis que la fiabilité des transistors a beaucoup augmenté, celle des soudures des fils qui assurent la liaison électrique entre ceux-ci plafonnent. Devra-t-on se contenter de circuits comportant au mieux quelques centaines de composants, qui ne nécessiteraient que quelques milliers de soudures ? Quelques visionnaires proposent alors de fabriquer tous les composants électroniques avec un seul matériau, le semi-conducteur, qui servirait aussi de support, d'où le terme de « monolithique » (« une seule pierre »). J. Kilby, en mai 1958, conçoit une méthode pour réaliser les différents éléments de circuits (résistances, condensateurs et transistors) par attaque chimique localisée du silicium. La composition chimique verticale du Silicium (on a incorporé lors de la croissance du cristal de silicium des impuretés chimiques qui dopent la conductivité), la profondeur de l'attaque et la géométrie des motifs attaqués déterminent les différents composants. Ce travail est suivi de près par celui de Robert Noyce, de la société Fairchild Electronics (il fondera plus tard Intel). Noyce décrit aussi un circuit intégré, mais, en plus, il propose la bonne méthode de fabrication : le procédé « planar ». Il reprend une idée développée chez Bell : l’utilisation de la silice SiO2 comme masque de fabrication à cause de ses excellentes propriétés d'adhésion et d'isolation chimique : elle forme une espèce de cocon protégeant la partie de la puce qui n'est pas traitée dans l'opération (cf. infra figure 6). Bien qu'il réponde à des besoins très concrets, le circuit intégré ne s’est pas imposé facilement. Au contraire ! La plupart des entreprises fabriquant des tubes à vide s’étaient mises à fabriquer des transistors, mais peu ont fait le saut vers les circuits intégrés : le bouleversement conceptuel était bien plus grand. Les transistors remplaçaient en effet les tubes « composant pour composant ». C’était simple et évident à faire. Au contraire, l’intégration monolithique se heurtait à plusieurs objections très pertinentes. D'abord, elle utilisait le très coûteux matériau semi-conducteur pour des fonctions peu nobles, de support par exemple. Ensuite, elle obligeait à des compromis sur les géométries et les compositions des composants : chacun était moins performant que s'il était fabriqué séparément. En outre, le rendement allait être bas, puisqu’on devait avoir d’un seul coup un ensemble de bons composants. Enfin, alors que l’on avait besoin de multiples fonctionnalités dans les assemblages de composants, que l’on pouvait concevoir et réaliser à la demande par l'approche hybride, il semblait impossible de satisfaire la variété de besoins par des circuits intégrés, à la fonctionnalité figée. On sait ce qu’il en advint : l’intégration permit au contraire de franchir ces limitations, et d’aller bien au-delà. On utilise aujourd’hui des plaquettes de silicium de 30 centimètres de diamètre, ensuite découpées en une ou quelques centaines de « puces », sur lesquelles on fabrique en une trentaine d'opérations de base des centaines de milliards de composants ! On utilise en fait fort efficacement la surface, relativement coûteuse du silicium, grâce à l’extraordinaire miniaturisation, impossible à atteindre pour des composants discrets (ne serait-ce que parce que l'on ne pourrait pas manipuler des composants aussi petits que ceux qui sont intégrés). On fabrique de manière très contrôlée (propreté, conditions chimiques de surface, préparation des matériaux, …) et à l’identique des milliards de contacts électriques, qui du coup sont tous bons ! Ces performances ont nécessité de nombreuses recherches et un long apprentissage pour maîtriser parfaitement les procédés industriels. Mais il est aujourd'hui patent que l'intégration a multiplié les rendements et la fiabilité par plusieurs milliards. Incidemment, le coût a baissé dans les mêmes proportions : un circuit intégré, comportant bientôt un milliard de transistors, coûte aujourd'hui une dizaine de dollars, autant qu'un transistor dans les années 1950. Quant au problème de la fonctionnalité limitée, il a été résolu en deux temps : au début des circuits intégrés, on ne réalisait que des fonctions universelles simples, les portes logiques (comme celle de la fig. 5), dont l'assemblage permettait de constituer de grands ensembles fonctionnels, tels des commutateurs téléphoniques ou des ordinateurs. Compacts, ces circuits étaient aussi très fiables. Comprenant quelques dizaines de composants élémentaires, ils contribuaient déjà fortement à l’augmentation de rendement de fabrication des ensembles, en diminuant le nombre de soudures à effectuer. La grande révolution est cependant arrivée par le microprocesseur : au lieu de produire une fonctionnalité par assemblage d’éléments physiques, on la programme. Le microprocesseur est multifonctions, multi-applications. Bien entendu, un tel système est loin d’être optimum dans l’utilisation des composants électroniques, mais comme le coût de ceux-ci s'est effondré, ce n'est plus très important. La course à la miniaturisation et ses limites Les principes de la fabrication Le procédé de fabrication par lithographie s'apparente à l'imprimerie (fig. 6) : on commence par dessiner les différents éléments de même nature que l'on pourrait fabriquer lors d'une même opération. Puis on projette optiquement cette image sur un matériau photosensible déposé sur la puce (le morceau de silicium portant le circuit intégré). Ce matériau est ensuite attaqué chimiquement de manière sélective pour transformer l'image originelle en matériau structuré. Il sert à définir les régions de la surface de la puce où l'on va opérer l'opération de fabrication voulue, par exemple un dépôt localisé de métal là où le matériau photosensible a été enlevé. On a donc transformé une image de la fonction « connectique » entre composants d’une puce en un ensemble de conducteurs sur la puce. On réalise de la même manière toutes les incorporations de matériaux structurés nécessaires à la puce telles que dépôt d'isolants, incorporation localisée d'impuretés chimiques dans le semiconducteur, etc. La fabrication des condensateurs, des transistors et de la connectique des circuits intégrés devient donc une succession d'opérations répétitives : fabrication d'une couche sur la plaquette de Silicium, transfert d'une image et révélation de cette image par un procédé chimique. A chacune de ces images correspond le transfert spatial des éléments constituant les circuits intégrés : isolants, dopages en espèces chimiques, métaux de contact et d’interconnexion, etc. Aujourd'hui, la fabrication d'un composant semi-conducteur comporte 25 étapes principales (correspondant à autant de masques, images des motifs à reporter sur le composant), se décomposant en 600 étapes élémentaires qu'il faut réaliser parfaitement. Les lois de la miniaturisation Il ne faudrait pas croire que les progrès de la miniaturisation ont été sans heurts : l'histoire des semi-conducteurs est marquée par une succession de crises. La première crise remonte à 1962, déjà ! Elle était liée aux limites technologiques qui freinaient le développement de la lithographie. Dans les années 70, on s’inquiétait des erreurs de mémorisation dues aux rayons cosmiques absorbés dans les mémoires. Autre sujet de crise en 1982 : l'interconnexion entre éléments commence à son tour à poser problème car on peine à faire des connexions de taille micronique sans défauts. Il y a aujourd'hui moins de crises, pour deux raisons : d'une part, on connaît les lois d'échelle, qui décrivent le comportement des composants quand on diminue toutes leurs dimensions d'un facteur. D'autre part, aujourd'hui, les industriels travaillent dans le consensus, dans un processus « coopétitif », en coopérant tout en restant des compétiteurs. Ce nouveau comportement, très typique de la nouvelle économie, vient de ce qu'ils se sont rendu compte qu'ils étaient tous gagnants s'ils définissaient ensemble comment l'industrie doit progresser en établissant des objectifs communs de progression, le « roadmap technologique ». Cela permet, en mettant toutes les ressources sur des objectifs techniques communs, de progresser plus rapidement et d'ouvrir de nouveaux marchés. Les lois d'échelle Les lois d'échelle sont appliquées lorsque toutes les dimensions ont été réduites d'un facteur α.(figure 7). Les composants sont alors plus rapides puisque les distances que parcourent les électrons sont plus petites. Leur densité surfacique augmente grâce à leur taille diminuée, mais comme chaque composant consomme moins, la puissance dissipée par unité de surface reste constante, ce qui est essentiel. Du coup, au global, la puissance logique a été multipliée par α 3, soit un facteur 1 000 pour une diminution de taille de 10. Même si la physique du composant, via les lois d'échelle, indique que la miniaturisation est possible, la course vers la réalisation de circuits de plus en plus denses n'en est pas moins difficile : la lithographie des motifs les plus petits à reproduire sur une puce représente une frontière technologique qui se déplace. Aujourd'hui, les lignes de production passent au standard 0,18 micron3. On est très proche des limites physiques de ce que l'optique peut faire, même si les optiques les plus performantes à l'heure actuelle sont de très loin celles qui sont utilisées en microélectronique. Un des verrous technologiques est l’épaisseur de l’isolant en silice située sous la grille : comme l’indiquent les lois d’échelle, il faut diminuer son épaisseur pour poursuivre la miniaturisation (fig.7). Cette épaisseur est de 40 Å aujourd’hui (13 couches atomiques). Pour des épaisseurs plus faibles, on observe à la fois des fluctuations d’épaisseur inacceptables (au moins une couche atomique) et une fonction isolante insuffisante, car des électrons peuvent franchir la barrière de potentiel créée par la silice par effet tunnel, un effet purement quantique. Du coup, un champ d’exploration actuel extrêmement active est celui portant sur la recherche d’isolants meilleurs que la silice (en l’occurrence avec une permittivité diélectrique plus élevée). Le consensus industriel : le « roadmap » Actuellement (mi-2000), un microprocesseur ordinaire contient 42 millions de transistors (Pentium IV), et les mémoires en production contiennent 256 Mégabits (fig.1), réalisés au standard de 0,18 microns. Compte tenu des progrès réalisés, le composant électronique individuel (le microprocesseur) a rattrapé les grands ordinateurs, ce qui a bouleversé l'industrie électronique. Notons, par exemple, que dès le début des années 90 un ordinateur personnel avait la puissance de calcul d'un Superordinateur CDC 6600 de 1965, interdit à l'exportation pour des raisons de non-prolifération, ce qui n'avait pas été sans causer quelques frictions entre Français et Américains et avait été une des raisons des plans calculs français. Ou va-t-on et à quel rythme ? le consensus industriel s'exprime par l’ « International Technology Roadmap for Semiconductors », le « roadmap », qui définit tous les deux ans4 l’évolution technique du domaine et les directions dans lesquelles les acteurs devraient s’engager. La dernière version, publiée à la fin de 1999, donne la vision jusqu’en 2014. Inutile de dire que s’il y a à court terme des solutions en vue pour la plupart des besoins, il y a 3 Les ordres de grandeur Les grandeurs habituelles ne sont pas bien adaptées à la description d'objets microscopiques. La taille typique de composants miniatures s'exprime en microns (millième de millimètre, cf. note 1). L'unité de charge, le coulomb, lié au courant et à son unité, l'ampère (1A = 1 Cb/s) est énorme par rapport à la charge e de l'électron : 1 e = 1,6 10-19 Cb. C'est pourquoi le nombre de bits que l'on peut coder avec 1 Cb, même en prenant 10 000 électrons par bit, est supérieur à l'ensemble des bits de la librairie du Congrès ! On a le même problème pour représenter les énergies : le Joule représente une énergie énorme comparée à celle qui stocke un bit : E = QV = 104. 1,6.10-19.3 = 5.10-15J, si les 10 000 électrons sont sous 3V. On préfère une autre unité, l'électron-Volt (eV), rapportée à celle de l'électron, pris sous 1 V. 1 eV = 1,6 10-19 Cb.1V =1,6.10-19 J. Dans ce cas, l'énergie pour stocker un bit est de 3.104 eV. Autre énergie intéressante : l'énergie d'agitation thermique de l'électron, kT, où k est la constante de Boltzmann et T la température absolue (T= 300K à l'ambiante) : kT = 0,025 eV. Bien entendu, kT représente une énergie minimum pour quantifier un bit, pour un système à l'équilibre thermique (ce que n'est pas un ordinateur quantique). 4 voir http://public.itrs.net/Files/1999_SIA_Roadmap/Home.htm beaucoup d’incertitude à plus long terme, à la fois sur le fonctionnement des circuits, les technologies de fabrication, les rendements et les coûts. Toutefois, la loi empirique de Moore (du nom de l'un des fondateurs d’Intel, qui l'a énoncée dès 1965), selon laquelle le nombre de transistors des circuits intégrés double tous les 18 mois, devrait rester valable pour une quinzaine d'années. Sur cette durée, le progrès est encore remarquable puisqu’en 2014 on commencera à produire en masse, avec des traits de 35 nm, des mémoires de 256 Gigabits et des microprocesseurs comportant 4,4 milliards de transistors ! Les limites de la miniaturisation À un moment, cette course à la miniaturisation doit s'arrêter : les dimensions deviendront tellement faibles que le transistor ne pourra plus fonctionner. Ces limites physiques à la miniaturisation changent avec le temps, à cause des progrès en composants, qui permettent de s'affranchir de certaines limites, en changeant la structure des transistors par exemple. On évalue cependant à 200 Angströms (un cinquantième de micron) la taille minimum de grille d'un transistor. À cette taille apparaissent un ensemble de limites sur différents paramètres, et les lois d'échelle ne s'appliquent plus. De telles dimensions seront atteintes vers 2020-25. Est-ce à dire que l'on ne continuera pas à miniaturiser après cette date ? Non, mais on pourrait s'orienter vers d'autres approches. Certains travaillent déjà sur des concepts de composants fonctionnant avec un seul électron, puisque l'extrapolation de la loi de Moore montre que cela sera la charge des composants vers 2025-30 (fig. 8). Bien évidemment, il ne s'agira pas de transistors au sens ou on l'entend aujourd'hui, ne serait-ce que parce que le composant ne pourra pas alimenter plusieurs autres composants : comment pourrait-on partager le seul électron entre ces composants ? Le progrès continuant sans doute, d'une manière ou d'une autre, on pourra acheter vers 2030 l'équivalent du cerveau humain (en termes de puissance de calcul) pour 1000 dollars!5. En dehors et au-delà du silicium On l'aura compris : le silicium s'est imposé comme le matériau de choix en microélectronique, à cause de ses nombreuses propriétés : bonne résistance mécanique, pureté extrême, possibilité de masquage par la Silice pendant les opérations de fabrication, excellentes propriétés d'isolation électrique de la silice, etc. Cependant, toute l'électronique semi-conductrice n'est pas basée sur le Silicium. Il faut distinguer entre les évolutions du Silicium, l'utilisation de matériaux autres que le Silicium le suppléant dans certaines fonctions qu'il remplit imparfaitement, et des solutions permettant de dépasser les limites physiques de l'électronique à semi-conducteurs telle que nous la connaissons aujourd'hui. L'évolution du silicium Elle consiste à aller un peu plus loin dans les limites du silicium en le structurant en couches minces avec d'autres matériaux; un exemple est le SOI (Silicon on Insulator, Silicium sur isolant, en fait sur Silice). Le fait d'utiliser une couche mince de silicium (une fraction de micron) reposant sur un isolant, la silice, permet d'avoir l'effet de désertion du canal (tel que décrit en figure 4) plus net, et avec une tension plus faible, que si l'on utilise du Silicium habituel épais. On gagne ainsi en rapidité et consommation, et la miniaturisation est facilitée par la faible dimension verticale. Une autre approche est liée à l'utilisation dans le canal de l'alliage Silicium-Germanium, dans lequel les électrons sont un peu plus mobiles. On gagne ainsi un facteur de l'ordre de 30 % sur la vitesse des circuits. 5 voir http://www.transhumanist.com/volume1/moravec.htm L'utilisation de nouveaux semi-conducteurs L'idée d'utiliser d'autres matériaux semi-conducteurs vient de la physique de base des semi-conducteurs. On s'est en effet rendu compte que les électrons pouvaient se déplacer plus rapidement dans l'Arséniure de Gallium que dans le Silicium. Du coup, ils sont très performants pour les circuits ultrarapides, comme en télécommunications. Ce même Arséniure de Gallium a de biens meilleures propriétés d'émission lumineuse que le Silicium. Si on y injecte des paires electron-trou par des contacts électriques on obtient, par la recombinaison d'un électron avec un trou, l'émission d'un photon et donc une conversion directe d'électricité en lumière. Ce phénomène est largement utilisé dans des lampes solides, appelées diodes émettrices de lumière (DEL). Il s'en produit une cinquantaine de milliards par an dans le monde. Avec les progrès récents pour générer de la lumière verte grâce au semiconducteur Nitrure de Gallium, on pense pouvoir remplacer les lampes classiques par des DELs à haut rendement et à longue durée de vie. Un autre domaine ayant des applications extrêmement importantes est celui des lasers à semi-conducteurs, très compacts, puisque leur surface typique est de 300x100 microns, utilisés largement dans les lecteurs optiques (compact-discs, DVD et CD-ROM), imprimantes laser, télécommunications... Les concepts nouveaux de traitement de l'information À long terme, on peut, et l’on doit commencer à envisager des alternatives au paradigme du Silicium, et des circuits et architectures actuelles des microprocesseurs et ordinateurs, en trouvant soit des matériaux et structures remplaçant le Silicium (électronique moléculaire par exemple), soit de nouveaux principes physiques de traitement de l'information (ordinateur quantique). Une des premières approches consiste à agir sur les limites actuelles : la connectique des puces devient un facteur limitant : il faut aujourd'hui plusieurs centaines de liaisons électriques pour entrer ou sortir les données d'un microprocesseur, demain plusieurs milliers. Alors que les connexions sur la puce sont très rapides et raisonnablement gourmandes en énergie, celles qui sortent de la puce sont beaucoup plus lentes (typiquement dix fois) et nécessitent de forts courants pour alimenter des lignes d'interconnexion parfois assez longues; On songe donc de plus en plus à transmettre les données optiquement, dans des architectures basées sur des interconnexions optiques. Une autre approche est de reconsidérer les architectures d'ordinateur. Par exemple, on utilise mal la performance des composants individuels : alors qu'un composant consomme une énergie de l'ordre du femtojoule pour commuter d'un état logique à un autre, un microprocesseur performant utilise de l'ordre de 10 millions de fois cette énergie pour une opération (microprocesseur faisant 1000 MOPS, millions d'opérations par seconde, consommant 10 watts). Bien entendu, une opération complexe sur 64 bits à la fois comporte de nombreuses opérations élémentaires (recherche en mémoire, opérations arithmétiques, retour en mémoire) mais il y a bien inefficacité de l'ensemble. C'est pourquoi on s'oriente vers de nouvelles architectures, classiques mais spécialisées (ensembles de portes logiques dédiés à une seule tâche) ou bien nouvelles, comme les architectures neuronales, bio mimétiques du cerveau. De fait, il existe d'autres systèmes faisant des opérations logiques dans la nature, bien plus efficaces que nos composants électroniques : le cerveau de l'abeille a une puissance de calcul évaluée à 10 teraopérations logiques élémentaires par seconde, soit, pour une puissance dissipée de 10 microwatts, un millième de femtojoule par opération (250 kT). La réplication d'une molécule-base d'ADN (le « bit » d’information en biologie) ne nécessite que 20 kT, pour une opération relativement complexe avec recherche de la base à copier, la copie, la mise en mémoire, le contrôle de l'opération et son irréversibilité (on veut copier l'ADN, et que celui-ci ne copie pas l'ARN). Une voie explorée aujourd’hui en alternative au silicium est celle d’un traitement de l’information avec des molécules d’ADN. On peut aussi songer à de nouveaux systèmes physiques permettant des fonctionnalités, similaires aux semi-conducteurs. L'approche la plus ambitieuse est celle de l'électronique moléculaire. Il s'agit de réaliser des fonctionnalités permettant de manipuler des bits d'information, codés par des paquets de charges électriques comme pour le silicium, par des molécules organiques. Les avantages sont bien sûr la compacité (la taille nécessaire pour un transistor ou mieux, une porte logique est, une molécule) et la facilité de fabrication (c'est la sélectivité de la synthèse organique qui procure une fabrication sans défaut à l'échelle atomique). Les obstacles à cette idée attrayante sont immenses : on n'a pas encore vraiment de molécules montrant un effet transistor, sauf celles qui sont basées sur des nanotubes en carbone. Les fonctionnalités établies sont plutôt celles de diodes. Or la mise en œuvre de circuits logiques complexes à partir de diodes pose des difficultés très fondamentales, rencontrées plusieurs fois au cours de l'histoire de la micro électronique, bien que les diodes, plus simples que les transistors et extrêmement rapides, puissent paraître être un meilleur composant actif. Même Shockley s'y est laissé prendre, en basant son entreprise sur un nouveau type de diode. Il a fait faillite, et les collaborateurs qui ne le suivaient pas dans cette voie, préférant le transistor, emmenés par Noyce, ont successivement fondé Fairchild, puis Intel, avec le succès que l'on sait. Robert Keyes, un pionnier de la microélectronique, a exposé à de nombreuses reprises les avantages subtils du transistor, qui mène à des architectures robustes et cascadables. Une autre approche part de la théorie de l'information en général, et plus particulièrement des limites physiques au traitement de l'information. La question de l'énergie minimum pour traiter l'information (l'énergie même de l'information) a beaucoup intéressé physiciens et informaticiens. La théorie de l'information de Shannon mène à une énergie minimum par bit d'information de kTLog2 (kT quantum d'énergie thermique). Le composant actuel, dissipant un femtojoule, est bien loin de cette limite, d'un facteur 200 000. En fait, on peut montrer que la manipulation de l'information ne nécessite pas de dissipation d'énergie si elle est effectuée de manière réversible, au sens de la thermodynamique. Stimulés par de telles considérations les physiciens se sont demandé comment coder plus efficacement l'information que par la charge électrique d'électrons, pour mieux la manipuler. La réponse est venue dans les années 80, avec la proposition de l'ordinateur quantique, dont les principes ont été démontrés à la fin des années 90. L'information est portée par la fonction d'onde d'un système quantique, ce sont les coordonnées quantiques qui représentent les « 0 » et « 1 » de la logique. Un ensemble de N atomes (ou électrons, ou molécules, ...peu importe la nature physique du système quantique) interagissant quantiquement entre eux (ils sont imbriqués au sens de la mécanique quantique) peut posséder 2N composantes, donc bits classiques. Pour seulement 20 atomes, cela représente déjà un million de bits classiques ! Faisant des opérations quantiques sur ces q-bits (quantum bits-bits quantiques), on manipule à la fois 2N bits classiques, réalisant donc une opération fort complexe en une seule manipulation du q-bit. C'est ce qu'on appelle le parallélisme quantique qui mène à une extraordinaire efficacité de l'ordinateur basé sur les q-bits. Encore faut-il qu'il y ait des problèmes dont la solution utilise le résultat des manipulations de q-bits, car les opérations quantiques ne sont efficaces que pour certaines classes de problèmes. Depuis quelques années, on a pu identifier quelques grands problèmes mathématiques, telle la décomposition de grands nombres en produits de nombres premiers, quasi-insolubles avec des ordinateurs classiques, même en tenant compte des progrès à venir, et qui seraient aisément solubles par un ordinateur quantique. Le problème est de le fabriquer. Il faudrait des q-bits portant sur quelques centaines d'éléments. On en est à cinq, et les difficultés s'accroissent très vite avec le nombre d'éléments. L'autre problème est la très grande sensibilité des q-bits à toute perturbation, qui leur fait perdre toute mémoire. L'ordinateur quantique n'en est pas moins fascinant par son implication de la mécanique quantique extrême, l'imbrication des fonctions d'onde, et par le retour aux sources qu'il implique, pour une informatique venue des semi-conducteurs, eux-mêmes nés de la mécanique quantique des années 30. Références –pour en savoir plus : Histoire et développement des semi-conducteurs et de la microélectronique Grâce au cinquantenaire du transistor en 1997, de nombreux livres et revues se sont ajoutés à une liste déjà importante d'ouvrages souvent excellents. Quelques titres : - Everett Rodgers et Judith Larsen, La fièvre de Silicon Valley, Londreys, 1985 - Michael Riordan and lilian Hoddeson, Crystal Fire, Norton, 1997 (ouvrage très complet sur l'histoire du transistor);"The Moses of Silicon Valley", Physics Today, dec;1997, p. 42. - Emmanuel Rosencher, La puce et l'ordinateur, Dominos Flammarion, 1995 (excellent ouvrage simple). - Jean-Philippe Dauvin, John Olliver et Didier Coulon, Les composants électroniques et leur industrie, Que sais-je, 1995 (ouvrage remarquable sur l'économie de la microélectronique). - Numéro spécial de Proceedings IEEE, vol. 86 No 1, January 1998, "Fiftieth anniversary of the transistor" (nombreux articles originaux, dont ceux de Brattain et Bardeen, ainsi que celui où Moore énonce sa fameuse "loi", ainsi que quelques perspectives historiques). - Numéro spécial des Comptes-rendus de l'Académie des Sciences, Série IV tome 1, No 7, septembre 2000, "Les défis de la microélectronique" - Numéro spécial Nature vol; 406, August 31st, 2000, "The future of microelectronics", pp. 1021-1054. - Numéro spécial de Bell Labs Technical Journal, vol; 2 No 4, Autumn 1997, "The Transistor" (accessible en ligne : http://www.lucent.com/minds/techjournal/common/arc_issues.html) - Scientific American, Microelectronics (september 1977), traduit en français : La microélectronique, Belin, 1980 (ouvrage ancien constituant cependant une remarquable introduction aux principes de la microélectronique). - Technologies futures de l'ordinateur, P. Chavel et N. de Beaucoudray eds., Editions Frontière, 1993 Quelques livres et articles plus spécialisés, mais élémentaires : - R.W. Keyes, Physics of Digital Devices, Rev. Mod. Phys. 61, 279 (1989) ;Physics of VLSI systems, Addison-Wesley, Reading 1985 ; Physical Limits in Information Processing dans "Advances in Electron Physics" vol. 70, Academic, New-York, 1988 ; Limits and Alternatives in Electronic Information Processing dans "Technologies Matérielles Futures de l'ordinateur", loc. cit. ; Limits and Challenges in microelectronics, Contemporary Physics, vol; 32, p; 403, 1991; L'avenir du transistor, Pour la science, Août 1993, p. 60. - Seth Lloyd, Les ordinateurs quantiques, Pour la Science, décembre 1995, p;44 - C. Bennett et Rolf Landauer, Les limites physiques du calcul, Pour la science, Septembre 1995, p. 18. - Mark Reed et James Tour, Les ordinateurs moléculaires, pour la science, Août 2000, p. 78. - Sur les alternatives au silicium, on pourra consulter le numéro de mars-avril de Technology Review, accessible sur le web http://www.techreview.com/past.htm (donne aussi de nombreux liens). 1G 1G Reseau de portes 100M 256M 64M 10M Pentium Pro MPU seul Pentium 80486 4M 1M 1M 80386 68020 80286 68000 256K 100K 1K 64K 4K 16K 1K 8080 4004 70 74 100 µ Pentium pro et mémoire 16M 10K Pentium IV 10 µ Reseau de portes 1µ 8086 8085 0,1 µ = Microprocesseurs et logique = Memoires (DRAM) 78 82 86 90 Année 94 98 02 06 Figure 1 : Courbe de progression des circuits intégrés, microprocesseurs (unités centrales d'ordinateurs) ou mémoires dynamiques à accès aléatoire (DRAM). Largeur de trait Nombre de transistors par puce Légendes des figures Energie des electrons 1 atome (a) 2 atomes 10 atomes N atomes v3 N places E3 v3 places E2 v2 places E1 v1 places (b) metal isolant semiconducteur bande de conduction bande interdite bande de valence Bandes d’energies permises états d’electrons possibles Etats occupés par les electrons Figure 2 : (a) Schéma de la formation de bandes d'énergie dans les solides à partir des niveaux d'énergie des atomes séparés. Un niveau atomique comportant v places pour des électrons donnera vN places pour N atomes.(b) Remplissage des places disponibles dans les bandes d'énergie dans les solides par les électrons disponibles, par énergies croissantes. Suivant les cas, les derniers électrons sont dans une bande non-pleine, ou pleine. Dans ce dernier cas, il n'y a pas de conductivité électrique, puisque les électrons ne peuvent pas prendre de vitesse ce qui leur confèrerait une énergie cinétique, et la nécessité d'occuper une place d'énergie immédiatement supérieure, ce qui n'est pas possible. On a un isolant. Dans le premier cas, comme quand les bandes se recouvrent (cas des bandes issues des niveaux 1 et 2 en (a)), il peut y avoir conduction électrique, métallique. Un semi-conducteur est un isolant à faible bande interdite : comme les derniers niveaux occupés sont proches énergétiquement des premiers niveaux vides, des électrons peuvent être excités thermiquement de la « bande de valence » vers la « bande de conduction », permettant ainsi une certaine conduction électrique (cf. infra fig.3). (a) (b) Métal (à electrons) Isolant (c) I Métal (à trous) V I (d) Semiconducteur non dopé (e) Semiconducteur dopé n Electrons et trous Thermiques (à donneurs) I V I I Semiconducteur dopé p (à accepteurs) V Atome donneur V (f) V I V Atome accepteur Figure 3 : Représentation de la conductivité électrique dans les solides : (a) : les électrons sont comme des voitures dans un parking à plusieurs étages. Si un étage est plein, il n'y a pas de possibilité de mouvement. (b) : S'il ne l'est pas, il peut y avoir mouvement.(c) : Noter que s'il est presque plein, le « trou » de voiture se déplace en sens inverse des voitures ! La conductivité des semi-conducteurs peut soit (d) provenir d'électrons et trous créés par l'excitation thermique d'un électron de l'étage plein du bas (laissant derrière lui un trou), soit (e) de charges créées par l'adjonction d'impuretés chimiques ayant un électron de plus (atomes donneurs, dopage de type n) ou de moins (f) que ceux du réseau (atomes accepteurs, dopage de type p). Vg = 0 canal conducteur isolant source Vg = —2V Vg = —5V drain e F Canal complètement déserté Zone désertée par les électrons electrodes 0V I -VG I “conduit” “fermé” “on” “ne conduit pas” “ouvert” “off” V (commande) Figure 4 : Principe de fonctionnement d'un transistor à effet de champ : on contrôle le passage de courant dans un « canal » conducteur par un champ électrique appliqué par une électrode (la « grille » placée au-dessus du canal. Ici, le canal est constitué de semiconducteur « dopé » n, avec des impuretés « donneuses » d'électrons (cf. fig. 3). Un champ électrique, créé par une tension négative appliquée sur la grille, repousse les électrons du canal qui se vide progressivement, jusqu'à être « déserté », non-conducteur. On a ainsi réalisé un interrupteur « solide ». Unité arithmétique (a) Principe d’architecture d’un ordinateur Horloge Entrées Entrées Mémoire de données Mémoire d’instructions Sorties Sorties (b) Porte logique “et” (c) Cellule de mémoire dram A.B A - 5 VOLTS B - 5 V= “1” Table de vérité A “0” ou “1” B “0” ou “1” S=A.B A B A.B 0 0 0 1 0 0 0 1 0 1 1 1 CANAL CONDENSATEUR DE STOCKAGE TRANSISTOR FONCTIONNANT COMME INTERRUPTEUR GRILLE LIGNE DE SELECTION (RANGÉE) LIGNE DE DONNÉE (COLONNE) Figure 5 : (a) Schéma de principe d'architecture d'un ordinateur, permettant d’effectuer les opérations sur des données et l'enchaînement des instructions provenant de la mémoire d’instruction, au rythme de l’horloge. Les deux fonctionnalités nécessaires au fonctionnement de l’ordinateur sont la mémoire et la logique combinatoire (qui permet les opérations arithmétiques sur des « bits », « 0 » ou « 1 », en pratique des tensions, respectivement 0 ou – 5V). (b) Logique combinatoire dans les ordinateurs grâce au transistor fonctionnant en interrupteur : En associant des transistors et des résistances, on peut créer des circuits créant des portes logiques, comme le « ET ». Pour ce faire, il faut un circuit qui donne la tension « 1 » (ici –5V) quand à la fois les entrées A et B sont au « 1 ». Dans tous les autres cas la sortie logique S doit être « 0 ». Pour réaliser la fonction, il suffit de mettre en série deux interrupteurs, qui ne laisseront passer du courant que s’ils sont tous les deux dans l’état « conducteur ». On représente tous les cas d’entrée et sortie par des tableaux dits “table de vérité”. Une propriété essentielle du transistor est clairement visible : la tension de sortie aux bornes de la résistance est directement liée à la tension d'alimentation et ne dépend pas des tensions de commande, tant que le transistor se comporte comme un interrupteur « parfait », sans résistance interne, ce qui est une bonne approximation. (c) Mémoire : on garde en mémoire une information (un bit) en chargeant un condensateur (niveau logique « 1 ») ou non (niveau logique « 0 ») à travers un transistor. Si l’on isole le condensateur (transistor “ouvert”) l’information reste stockée. Elle est inscrite en rendant le transistor conducteur (tension négative sur sa grille grâce à la ligne de « sélection ») et l’on charge le condensateur avec l'information « 0 » ou « 1 » suivant la tension que l'on applique sur la ligne de « données ». Inversement, on lit le « bit » d'information stocké en rendant conducteur le transistor, et en mesurant si le condensateur a été chargé lors de la séquence d'écriture. La mémoire est organisée en grande surface par des lignes et des colonnes, ce qui permet un accès « aléatoire » à l'information. C’est la mémoire dynamique DRAM, fort économique puisqu’elle ne nécessite qu’un transistor et un condensateur par bit d’information stocké. Ce condensateur joue un rôle dimensionnant en microélectronique : il contient de manière standard un million d'électrons. (b) RESISTANCE (a) TRANSISTOR isolant (Silice) (c) CONDENSATEUR grille métallique SiO2 isolant drain source +V e p p electrons p Silicium n silicium n (e) Dépôt (d) (f) de résine (polymère) photo sensible Substrat Silicium (g) Attaque chimique sélective (h) Attaque chimique sélective de la résine non-illuminée de la résine illuminée et de la couche de Silice Silicium p Lumière Masque Région transparente Région opaque Dépôt de Silice à graver (i) Dépot de métaux Image du masque opaque (j) ruban métallique désiré aprésattaque chimique sélective du masque de silice Figure 6 : Principes de fabrication des éléments des circuits intégrés; Comme on le voit sur les schémas de transistor (a), résistance (b), condensateur (c), et leurs éléments de liaison, il faut déposer suivant des motifs géométriques des impuretés dopantes n ou p, des isolants, des métaux. Pour faire, par exemple, un motif métallique, on éclaire localement un polymère photosensible (f) qui permet, par des attaques chimiques sélectives (f-h), de créer un « masque » en silice à travers lequel on déposera le métal. Il suffit ensuite d’effectuer une autre attaque chimique sélective pour enlever le masque de silice et obtenir le motif métallique en final (i-j). Transistor composant d’origine grille n+ source substrat p dopage NA composant à l’échelle α tox /α V/α V tox n+ drain n+ L/α xD L n+ dopage α NA Ligne d’interconnexion /α A h A/α2 plan à la masse dimensions x 1/α dopage champ électrique tension xα x1 x 1/α vitesse du composant x puissance dissipée (par composant) x 1/α 2 densité composants puissance dissipée (par unité de surface) x α2 x1 puissance de calcul (par unité de surface) capacité C (par unité de longueur) x α α3 x1 α2 résistance R (par unité de longueur) x délai de propagation RC (par unité de longueur) x α2 h/α Figure 7 : Lois d'échelle en microélectronique : comment varient les différentes grandeurs d'un circuit électronique quand on diminue toutes les dimensions d'un facteur α, en s'imposant de rester à vitesse des électrons constante, donc à champ électrique constant ? On note qu'une diminution de dimension de 10 (α = 10) entraîne une augmentation de 1000 de la puissance de calcul et une augmentation de vitesse de composant individuel de 10, mais que l'ensemble de la puce est ralenti si on ne résout pas le problème de l'augmentation des délais de propagation RC des conducteurs d'interconnexion (on utilise pour cela deux approches : d'une part on crée une hiérarchie des conducteurs sur la puce : les plus longs gardent une section indépendante de la loi d'échelle; d'autre part on utilise des matériaux de conductivité électrique de plus en plus élevée). 10 µm 1 µm 109 1 Kilby 21 ème siècle 1K 1M Micro electronique 1G 100 nm 10 nm 1 nm 105 Nano electronique? 1950 1970 1990 2010 1T 1 1P 2030 Nombre d’électrons par transistor Largeur de trait minimum 100 µm ? 2050 Année Figure 8 : Évolutions prévisibles de la largeur de trait, du nombre d'éléments actifs par puce, du nombre d'électrons par transistor, en supposant que l'on continue à progresser au rythme de la loi de Moore (doublement du nombre de composants par puce tous les 18 mois). Vers 2020-2025, des problèmes conceptuels surgissent alors que le transistor ne comporte qu'un seul électron.