Maquette ‹ flasher - Laboratoire de l`Accélérateur Linéaire
Transcription
Maquette ‹ flasher - Laboratoire de l`Accélérateur Linéaire
L l'actu a lité L du Bulletin d’information interne du Laboratoire de l’Accéléra Comité de rédaction : M.-A. Bizouard, F. Berny, F. Couchot, F. Fulda-Quenz er, teu r S. H en Liné ro t - d – B.P. 34 – 91898 Orsay Cedex Su risTél. 8410 E-mail : [email protected] a P a ir e – u. té dea UMR 8607, Universi Rou Vers il l é, H. K é . ur, P e Me rec, D. Lecomte, G. L N°37 automne 2001 Autour de BaBar et de la violation de CP Nous inaugurons une formule que nous espérons renouveler souvent : un numéro tout entier centré sur une expérience (ou un thème particulier), en relation directe avec la tenue d'une rencontre « Résonances, autour de...». Le 12 juin dernier, la rencontre était « autour de BaBar » avec Stéphane Plaszczynski. Le conférencier avait bien préparé son affaire et le dialogue a pu se développer dans une ambiance détendue. Le présent numéro de « L'Actualité du LAL » propose à ses lecteurs une version écrite de la conférence, offrant, à propos de BaBar, un panorama très accessible de l'état actuel de la physique des particules et plus spécialement des questions concernant la violation de CP. Le reste du numéro est composé autour de ces thèmes. Guy Wormser propose quelques éléments techniques sur le DIRC, partie du détecteur BaBar, pour laquelle la contribution du LAL est particulièrement importante. On verra que les résultats de BaBar concernent un certain triangle d'unitarité ; lequel triangle n'est pas apparu tout d'un coup, mais vient de loin : Patrick Roudeau essaie d'en retracer une histoire. Et enfin, pour en revenir à la rencontre du 12 juin dernier, on propose une réponse (ou plutôt, on le verra, une non-réponse) un peu développée à une question posée par un participant : « qu'est-ce que l'énergie ? ». Là-dessus, nous invitons tous nos lecteurs à la prochaine rencontre « Résonances, autour de ...Archeops et Planck » avec Sophie Henrot-Versillé, le mardi 27 novembre à 10h30. GUY LE MEUR BaBar ! La violation de CP avec BaBar Autour de %%% par Stéphane Plaszczynski D IRC "# Le DIRC par Guy Wormser Triangle "$ %%% BaBar et de la viola& tion de la symétrie CP% page 2 Petite histoire du triangle par Patrick Roudeau Energie "' Qu’est ce que l’énergie ? par Guy Le Meur La violation de CP avec BaBar BaBar Voici la version écrite, que Stéphane Plaszczynski a bien voulu réaliser pour nous, de la conférence qu'il présenta le 12 juin dernier, au LAL. On y retrouvera, bien sûr, l'essentiel de ce qu'il a exposé mais aussi un aperçu des récents résultats publiés par l'expérience BaBar, pendant l'été. Les transparents relatifs à la conférence sont visibles sur la toile (le web, site du LAL) et consultables en version papier à la bibliothèque ou à la cafétéria. La physique des particules Qui ne s’est extasié, par une nuit d’été, devant le spectacle sans fin des constellations? Qui ne s’est senti tout petit devant cet infini qui nous dépasse ?… Retournons notre lorgnette et scrutons notre monde. Nous découvrons un univers aussi fascinant : celui de l’infiniment petit, celui de la structure ultime de la matière et des lois qui la régissent ; c’est le domaine de la physique des particules, recherche fondamentale qui poursuit des siècles d’étude et de compréhension de notre univers. Pourquoi « physique des particules » ? On a longtemps cru que la matière était constituée de noyaux (photons + neutrons) autour desquels graviteraient des électrons pour former des atomes, qui se regrouperaient en molécules pour aboutir finalement à la matière observable. Or on a constaté qu’en concentrant une grande quantité d’énergie en un petit volume (par exemple en faisant se rencontrer des faisceaux de haute énergie) il arrive parfois que s’accomplisse un phénomène étonnant : on produit des particules qui ne sont ni des électrons, ni des protons, ni des neutrons. L’énergie est convertie en masse (E=mc2). Ces nouvelles particules ont souvent été baptisées en utilisant des lettres grecques (µ, Λ, π…). On ne les observe pas dans notre monde habituel car, ayant une masse plus élevée que les constituants des atomes, elles vont se désintégrer petit à petit en particules plus légères pour aboutir finalement à nos constituants stables. Ce temps caractéristique de désintégration est très variable, mais certaines de ces particules « vivent » suffisamment longtemps pour être observées dans nos détecteurs (trajectoires de plusieurs mètres). À vrai dire, ces centaines de particules ne sont pas toujours les constituants ultimes de la matière. Certaines oui : elles se nomment « leptons ». Il s’agit des « électrons » , « muons » et « taus » , chacune ayant un « neutrino » associé (c’est dire neutrino-e, neutrino-µ, neutrino-τ). Pour celles-ci, aucune sousstructure n’a été mise en évidence. page 3 BaBar La violation de CP avec BaBar Toutes les autres particules observées, qu’on nomme « hadrons », ont donné du fil à retordre aux théoriciens, de la découverte de particules au temps caractéristique très court (résonances) à la découverte de particules vivant au contraire très longtemps (baptisées « étranges »). En 1964, Gell-Mann proposa un modèle qui permit de classer toutes ces particules observées à partir d’un petit nombre de constituants élémentaires : les quarks. Dans ce modèle, tous les hadrons résultent simplement de la combinaison de trois quarks ou d’un quark et d’un anti-quark (nous reviendrons plus tard sur l’antimatière). Qu’en est-il de ces quarks ? On s’accorde à dire aujourd’hui qu’il en existe trois « paires », tout comme il existe trois types de leptons. Il s’agit des paires nommées (u,d), (c,s) (t,b). Pourquoi trois, et pas plus? Tout d’abord trois paires (ou familles) sont suffisantes pour expliquer toutes les particules observées (jusqu’à présent). De plus, 3 est un nombre « magique », car il permet d’introduire, comme nous le verrons, la violation de CP alors que 2 eût été insuffisant. Les expériences à LEP (au CERN) ont confirmé que, jusqu’à l’énergie qui était alors disponible, il n’existait que trois types de neutrinos. Pour avoir une quatrième famille, il faudrait alors imaginer un nouveau neutrino très lourd. Pourquoi cette différence avec les autres neutrinos ? L’hypothèse est peu vraissemblable. La nature adopte souvent un principe de simplicité… À la différence des leptons, un quark n’a jamais été observé à l’état libre. Pourquoi ? On ne le sait pas très bien. Alors on a camouflé notre ignorance sous des termes savants (« confinement ») et mathématisé le problème. Pourquoi y croire, alors ? Parce que le modèle des quarks arrive à classer toutes les particules observées (des centaines). Par ailleurs, des expériences de « sonde » du proton ont révélé que celui-ci a bien une structure granuleuse et non ponctuelle. On ne met plus en doute ce modèle aujourd’hui. Cette classification des particules selon trois familles de leptons et de quarks, et la description des interactions entre elles (dont nous ne traiterons pas ici) constitue ce qu’on appelle le modèle standard. Il s’agit, à vrai dire, plus d’une théorie ultime au sens où un modèle contient toujours une échelle à laquelle il est Q e νe(56) µ(47) νµ(61) τ(76) ντ(01) -1 0 (m=0) leptons u d c(74) s(64) t(94) b(77) +2/3 -1/3 quarks masse Figure 1 : les constituants élémentaires du modèle standard. Les chiffres entre parenthèses désignent (approximativement) la date de la mise en évidence expérimentale. «Q» désigne la charge électrique. page 4 La violation de CP avec BaBar BaBar applicable, alors qu’on cherche ici à décrire le monde sans échelle de l’infiniment petit. Ce modèle standard est incroyablement fructueux. Depuis des années (en particulier à LEP) il a été testé, poussé dans ses moindres retranchements, torturé, mais n’a jamais craqué. Le moindre soupçon de désaccord entre ses prédictions et les données expérimentales s’est toujours soldé par la mise en évidence de biais expérimentaux… Néanmoins les physiciens aimeraient en changer ; ou plutôt trouver un modèle plus général qui l’incorporerait. Pourquoi ? Parce que le modèle standard ne « ressemble » pas à une théorie ultime. En effet pourquoi tant de constituants élémentaires qui ne se distinguent que par leur masses différentes ? Ces masses ne sont pas prédites. On doit donc toutes les fixer. Il y en a 9 en tout (en supposant que les neutrinos aient une masse nulle, ce qui est remis en question de nos jours), ce qui paraît beaucoup sur 19 paramètres au total. On préfèrerait une théorie qui prédirait les masses des quarks/leptons. C’est le sens des prochaines expériences qui vont avoir lieu au CERN auprès d’un collisionneur à toujours plus haute énergie : le LHC (Large Hadron Collider). Par ailleurs, le modèle standard n’inclut pas de description de la gravitation « élémentaire », pour raisons d’incompatibilités majeures entre la compréhension actuelle de la gravitation (relativité générale) et du monde de l’infiniment petit (la mécanique quantique). Ce qui est intellectuellement frustrant… De plus les processus de gravitation à l’échelle des particules sont si faibles qu’il faudrait une énergie à tout jamais inaccessible (de l’ordre de celle des premiers instants de la création de l’univers) pour les étudier expérimentalement. Les efforts théoriques de conciliation de la gravité quantique n’offrent donc de sens que s’ils fournissent des prédictions à nos échelles d’énergie qui sont bien plus basses. Quoi qu’il en soit une grande partie de la communauté scientifique aujourd’hui est convaincue de l’existence de physique au-delà du modèle standard, et entre en effervescence dès que la moindre mesure ne coïncide pas avec les résultats attendus. On notera néanmoins que la conviction d’une « théorie du tout » descriptible en termes mathématiques ne repose que sur notre intuition. Il se pourrait aussi que le modèle standard représente notre compréhension ultime de l’univers. Antimatière et violation de CP L’un des aspects les plus fascinants de la physique des particules concerne l’antimatière. En 1930, Paul Dirac, célèbre théoricien qui cherchait à unir les deux grandes théories du moment (relativité restreinte et mécanique quantique), afin d’éviter de voir apparaître dans sa théorie des particules allant plus vite que la lumière dans le vide et des états d’énergie négative, prédit l’existence des antiparticules. À chaque particule doit correspondre une particule en tout point identique mais avec toutes ses charges (pas seulement électrique…) opposées. En 1932, des expérimentateurs, qui ne connaissaient pas la théorie de Dirac, observaient en effet un antiélectron, de charge électrique positive (appelé aussi positron). Les antiparticules sont désormais monnaie courante dans nos détecteurs. D’un point de vue théorique, une antiparticule allant dans un sens est équivalente à une particule se déplaçant dans l’autre sens et remontant le cours du temps. L’opération (de l’esprit) qui consiste à remplacer une particule par son antiparticule (C) est équivalente à l’opération de renversement d’une trajectoire dans un page 5 BaBar La violation de CP avec BaBar miroir (P) et à l’inversion du temps (T). On peut noter cela C = PT. Transformons encore une fois l’antiparticule par C, c’est-à-dire prenons l’antiparticule de l’anti-particule : on retombe sur l’état initial. Ce qui veut dire qu’en appliquant C à l’état déjà transformé PT on retombe sur le même système. 1 η 0.8 0.6 0.4 0.2 β 0 -1 -0.5 0 0.5 1 ρ Figure 2 : Le triangle d’unitarité. Les axes représentent deux quantités fondamentales du modèle standard qui expliquent la violation de CP. La zone rouge représente la zone dans laquelle on est sûr ajourd’hui que ces paramètres se situent, grâce aux mesures des côtés du triangle. Notez l’emplacement de l’angle β. Toute théorie physique qui décrit le comportement des particules (et antiparticules) doit donc respecter le fait qu’en appliquant C puis P puis T le système reste inchangé. Cette propriété essentielle de la « théorie quantique des champs » (union consommée de la relativité restreinte et de la mécanique quantique) s’appelle le « théorème CPT ». On a longtemps cru que cette invariance des lois de la physique était en fait observée individuellement par les transformations C, P et T (si bien que le produit des trois l’était automatiquement). Par exemple, si on observait le comportement d’une particule dans un champ, on déduisait les mêmes propriétés de ce champ que si on observait son anti-particule. Or, dans le modèle standard il n’en est rien, C et P ne sont pas conservés. Par exemple les neutrinos existent uniquement dans un état dit « gauche » ; si on applique l’opération P on obtient un neutrino « droit ». Or ceux-ci n’ont jamais été observés et n’existent pas dans le modèle standard. On parle de « violation de C et de P ». On a alors cru que les lois de la physique étaient invariantes d’une part sous CP, d’autre part sous T (rappelons qu’on doit à tout prix conserver l’invariance sous CPT). En 1964, des expérimentateurs ont démontré, que pour certaines particules appelées « mésons K », l’invariance sous CP n’était pas toujours respectée : il s’agit néanmoins d’un effet très fin (dont la mise en évidence leur valut un prix Nobel). Plus récemment les expériences NA48 et KTEV ont mis en évidence un nouvel page 6 La violation de CP avec BaBar BaBar effet fin de violation de CP en montrant que le nombre de mésons K se désintégrant en 2π n’est pas tout à fait égal à celui des anti-mésons K. On notera que, jusqu’à présent, la violation de CP n’a été observée qu’avec des mésons K ; or le modèle standard prédit également une violation de CP beaucoup plus importante à partir de mésons B°, composés des quarks (anti-b + d). Le but de BaBar (et de son expérience concurrente japonaise « Belle ») est de vérifier que le phénomène de violation de CP existe bien dans le secteur des particules contenant un quark b. Si ce phénomène existe, il s’agit de mesurer le plus précisément possible les paramètres qui lui sont associés. On espère également à partir de mesures de haute précision obtenir des pistes vers une éventuelle « nouvellephysique ». En effet le secteur de la violation de CP est un endroit sensible à des effets de nouvelle physique. BaBar Voyons maintenant un peu plus en détail quels sont les paramètres du modèle standard à mesurer pour caractériser la violation de CP. D’après les travaux des théoriciens Kobayashi et Maskawa (1973) ils sont au nombre de quatre appelés traditionnellement (λ, Α, ρ, η). Les deux premiers (λ, Α) sont déjà bien connus. On représente fréquemment la connaissance qu’on a des deux autres (ρ, η) sur une seule figure (Fig. 2) appelée « triangle d’unitarité ». Sur cette figure la zone en rouge correspond à la zone dans laquelle nous sommes sûrs aujourd’hui que ces paramètres (ρ, η) se trouvent (axe horizontal pour ρ, vertical pour η). On aime bien tracer un triangle entre les points (0,0), (0,1) et (ρ, η) car l’aire de ce triangle indique la «quantité de violation de CP» dans le modèle standard. On notera, pour la suite, où se situe l’angle β. La prédiction théorique pour les mésons B° est la suivante : pour certains états ( équivalents à leur anti-particule, notés simplement « f ») le nombre de B° qui se désintègrent en f n’est pas égal au nombre d’anti-B°s se désintégrant en anti-f=f (violation de CP). Par ailleurs si on considère un temps caractéristique « t », sur lequel nous reviendrons, on obtient une asymétrie par intervalle de temps t : N(B°—>f) - N(anti-B°—>f) a (t) = = sin(2β) . sin(∆m.t) N(B°—>f) + N(anti-B°—>f) où l’on retrouve le (mythique) « β » du triangle d’unitarité et ∆m est une quantité connue. Ainsi, si on arrive à obtenir ce temps caractéristique et qu’on mesure les nombres de B° et d’anti-B° se désintégrant en f, on peut obtenir une mesure de sin(2β). Pour la première fois en physique des particules on peut ainsi mesurer l’un des angles du triangle d’unitarité. Il ne s’agit pas que d’une différence de principe pour accéder à (ρ,η). En fait cette mesure est réellement d’une nouvelle nature et dans de nombreux scénarios de nouvelle physique, la mesure de cet angle pourrait ne pas coller avec la mesure des côtés (on devrait abandonner l’idée d’un triangle). On pourrait par exemple observer que β=0 et qu’il n’y a donc pas de violation de CP par les B°. Il s’agirait alors d’un coup sérieux porté au modèle standard (pour la plus grande joie de chacun). Pour mesurer cet angle (et faire d’autres mesures précises sur les quarks b), une collaboration internationale d’environ 500 personnes s’est mise en place et a pris pour nom « BaBar », dérivant approximativement de « B » et « B-barre » (pour anti-B), ce qui permet de dessiner des petits éléphants partout (à condition de respecter le copyright L. de Brunhoff !). Il s’agissait dans un premier temps de construire un détecteur avec les meilleures technologies actuelles, puis d’analyser les données enregistrées par des moyens informatiques. page 7 BaBar La violation de CP avec BaBar 3.1 GeV B0 9 GeV e- e+ B0 z Figure 3 : Schéma de principe montrant comment une paire de (B°, anti-B°) est produite dans BaBar, puis se désintègre en particules plus légères. Le temps caractéristique est obtenu à partir de z, distance de l’ordre de quelques dixièmes de millimètres. Ce détecteur entoure le point de collision de deux faisceaux, l’un d’électrons, l’autre de positrons, qui circulent dans un anneau nommé PEP-II situé sur le campus de l’Université de Stanford (à 50 km de SanFrancisco). On produit (parfois) à partir de la collision, une paire (B°, anti-B°) se désintégrant très vite. Le temps caractéristique est ici donné par la distance entre les désintégrations des deux B. Pour cela la paire ne doit pas être produite au repos, car les 2 B se désintégreraient au même point. On obtient un mouvement relatif du repère dans lequel sont produits les B, en utilisant des faisceaux qui n’ont pas la même énergie. Les électrons ont une énergie de 3.1 GeV et les positrons de 9 GeV. De cette manière, on obtient une distance entre les deux désintégrations, de l’ordre de quelques dixièmes de millimètres, mesurable grâce à l’extrême précision des détecteurs (figure 3). 1 η sin2β 0.8 0.6 0.4 0.2 β 0 -1 -0.5 0 0.5 ρ 1 Figure 4 : même figure qu’en 2, mais en rajoutant (en bleu) les contraintes apportées par la mesure des expériences BaBar et Belle. Les deux zones bleues indiquent la région où l’on attend β grâce à la mesure de BaBar. Elle recoupe bien la zone rouge obtenue à partir de la mesure des côtés. page 8 La violation de CP avec BaBar BaBar L’accélérateur et le détecteur BaBar fonctionnent maintenant depuis fin 1999 et ils sont en compétition avec une expérience similaire au Japon (« Belle »). Durant l’été 2001, les deux collaborations ont dévoilé leurs premières mesures à des conférences. En combinant les deux résultats on peut voir sur la figure 4, la zone du plan (ρ,η) permise par leurs mesure de sin(2β) (les deux zones bleues). Bien sûr, cette zone est encore large (telle un fromage elle va s’affiner avec le temps..) mais on peut déjà noter un aspect remarquable : la valeur zéro (c’est à dire la base du dessin) est exclue ; ce qui veut dire qu’on a prouvé l’existence de la violation de CP dans le système des B0 . De plus il s’agit de la première mesure des paramètres fondamentaux du modèle standard obtenue à partir des angles du triangle d’unitarité ; elle est (pour l’instant) compatible avec les mesures des côtés du triangle, ce qui apporte beaucoup de crédibilité à la compréhension de la violation de CP grâce au mécanisme de Kobayashi et Maskawa. Bien sûr, on le regrette quelque part… On se console en se disant que les années à venir vont apporter des mesures d’une précision toujours plus élevée jusqu’à (peut-être) révéler un jour des anomalies dans notre compréhension du modèle standard. STÉPHANE PLASZCZYNSKI page 9 D IRC Le DIRC Malgré la différence d’énergie entre les deux faisceaux de PEP-II, le détecteur BaBar ressemble à beaucoup de ses collègues installés sur les autres anneaux de collision ; il comporte du centre vers l'extérieur (voir figure 1) : un détecteur de vertex au silicium, une chambre à dérive, un système d'identification des particules chargées, le DIRC, sans oublier un calorimètre électromagnétique, un aimant supraconducteur et un retour de fer instrumenté. L'identification des particules est un point crucial pour BaBar. Dans le dispositif, un rôle majeur est joué par le DIRC dans lequel le LAL a pris des responsabilités importantes et cela justifie que l'on donne ci-après quelques informations détaillées sur cette partie du détecteur. Calorimètre électromagnétique DIRC e+ 3.1GeV e9 GeV Détecteur de vertex au silicium Chambre à dérive (traces chargées) Figure 1 : Le détecteur BaBar Pourquoi l’identification ? L’identification des particules a toujours joué un rôle important dans les expériences de physique des particules. La nature (pion, kaon, proton, électron ou muon) des traces produites dans les désintégrations est en effet riche d’enseignements pour la compréhension des événements observés. C’est particulièrement vrai dans le cas de BaBar pour deux raisons principales : d’une part, la charge des kaons produits dans les désintégrations de mésons beaux permet de savoir si son parent est une particule ou une antiparticule, une information cruciale pour la mesure de la violation de CP, d’autre part, BaBar a absolument besoin de pouvoir distinguer les deux canaux de désintégration B->ππ et B->Kπ pour la mesure de l’un des angles du triangle d’unitarité. Ces deux contraintes combinées nécessitent la meilleure séparation pion/kaon possible sur toute la gamme cinématique de 300 MeV à 4 GeV. Les méthodes d’identification À première vue, rien ne distingue un kaon d’un pion sinon la masse plus lourde du premier nommé (500 MeV contre 140 MeV). Il faut donc faire appel à des mécanismes où la masse intervient. La quantité d’énergie déposée par une particule chargée dans un gaz (appelée dE/dx) est l’un d’entre eux et est très souvent utilisée car l’information est disponible directement dans le dispositif de reconstruction des traces et ne nécessite donc pas de détecteur supplémentaire spécialisé. Cependant, dans notre cas, cette méthode ne permet une séparation qu’à très basse énergie (jusqu’à 500 MeV) et doit donc être complétée. On fait alors appel à l’effet Tchérenkov. Ce phénomène est analogue au bang supersonique : quand un objet se déplace dans un page 10 Le DIRC DIRC milieu plus rapidement que la vitesse de la lumière (ou du son) dans le milieu, une onde lumineuse (ou sonore) est émise selon un cône dont l’angle d’ouverture dépend de la vitesse de la particule incidente. La mesure de cet angle combinée avec celle de l’impulsion (produit de la masse par la vitesse) de la particule réalisée par la courbure de la trajectoire de la trace dans le champ magnétique du détecteur permet une mesure de la masse et donc la séparation pion/kaon. Le détecteur à effet Tchérenkov Un détecteur à effet Tchérenkov est composé de deux parties : un milieu où la lumière va être produite lorsqu’il sera traversé par une particule chargée, appelé radiateur et un système de mesure de l’angle d’émission des photons Tchérenkov. Un radiateur se caractérise par son indice n qui donne la vitesse de la lumière dans ce milieu v=c/n , sa transparence aux photons émis (il ne faut pas les réabsorber) et son épaisseur (la quantité de lumière émise lui est proportionnelle). Le choix de l’indice fixe la gamme cinématique dans lequel le détecteur Tchérenkov va fonctionner : en effet, si la vitesse de la particule est inférieure à c/n, aucune lumiè- Figure 2 : Principe de fonctionnement du DIRC. La lumière Tchérenkov produite dans la barre rebondit sur ses parois, est ainsi guidée jusqu’en bout de barre puis après un trajet de 1,2 m dans l’eau pour être détectée par une mosaïque de photomultiplicateurs. re ne sera émise. Pour BaBar, le bon indice est environ 1,5, ce qui fixe le choix du radiateur au quartz qui a une bonne transparence dans l’ultraviolet où la majorité des photons sont émis. Le dernier problème à résoudre est celui de la géométrie du radiateur. L’angle maximum d’ouverture du cône Tchérenkov est de 42 degrés, or la loi de Brewster interdit à la lumière de sortir d’un milieu à fort indice pour aller dans un milieu à faible indice comme l’air si l’angle d’incidence est supérieure à 43 degrés. Pour une trace inclinée, la plus grande partie de la lumière restera donc piégée dans le radiateur ! Ce phénomène bien connu a compliqué l’existence de tous les constructeurs de détecteurs Tchérenkov qui souhaitaient simplement mettre le détecteur de photons juste à la sortie du radiateur. Notre collègue B. Ratcliff a eu alors l’idée très élégante de pro- page 11 D IRC Le DIRC poser de mesurer non pas la lumière qui sort du radiateur mais celle qui y est piégée. Si l’on polit parfaitement toutes les faces du radiateur, celui-ci se comportera alors comme un guide de lumière et il suffira de mesurer l’angle de sortie des photons en bout de barre. C’est le principe du DIRC (Detection of Internally Reflected Cerenkov Light) illustré sur la figure 2. Pour éviter le piégeage des photons en bout de barre, l’espace entre la sortie des barres et le plan de détection est rempli d’eau, milieu dont l’indice intermédiaire de 1,33 permet la sortie de tous les photons de la barre. Les problèmes associés à la présence d’eau très pure pour garantir la meilleure transparence dans l’ultraviolet sont cependant multiples car l’eau pure est très corrosive. La difficulté principale de construction du DIRC est d’obtenir un polissage quasi parfait des 144 barres de quartz de 5m de long chacune ! Ce polissage a été réalisé avec une erreur locale de 0.5 millièmes de microns ! soit la qualité des meilleurs miroirs de téléscopes. Ceci permet de ne perdre au maximum qu’une quantité négligeable de lumière (5% environ) pour la lumière effectuant le plus grand trajet dans la barre (400 rebonds sur les parois environ) et de conserver ainsi l’angle de production des photons. Figure 3 : Différence entre l’angle mesuré du cône Tchérenkov produit par des muons et l’angle attendu. La résolution observée est de 2.5 mrad. Le détecteur de photons Celui se compose d’une mosaïque de tubes photomultiplicateurs immergés dans l’eau et placés à 1,2 mètres du bout des barres. Ceci permet de mesurer l’angle d’émission de chaque photon à 10 milliradians près. En faisant la moyenne de cet angle sur tous les photons du même anneau Tchérenkov (l’anneau Tchérenkov est l’image du cône Tchérenkov sur la mosaïque des photomultiplicateurs), on obtient la résolution souhaitée (voir figure 3). page 12 Le DIRC DIRC Sur cette photographie, on voit la cuve à eau du DIRC équipée de ses photomulticateurs et de ses paniers d’électronique. Le rôle du LAL Le LAL a joué un rôle majeur dans la construction et l’opération du DIRC. Tout d’abord, les physiciens du LAL ont beaucoup contribué aux succès des premiers tests des prototypes de DIRC sur un faisceau de particules en 1994-1995, d’abord à Saclay puis au CERN, en fournissant une bonne partie de l’infrastructure nécessaire tant mécanique qu’électronique et en analysant de façon très détaillée les données obtenues. Ceci a permis de démontrer la validité du concept du DIRC mais aussi de mettre en évidence plusieurs sources de lumière parasite certes minimes mais qu’il est important de bien contrôler. Ensuite, le LAL a obtenu de grosses responsabilités de construction pour le détecteur final : maîtrise d’œuvre de l’ensemble de l’électronique, réalisation de la majeure partie de cette électronique ( circuit intégré analogique, cartes de lecture, alimentations, refroidissement) supports mécaniques des tubes multiplicateurs devant garantir l’étanchéité, collage des tubes sur leur support, réflecteurs de lumière associés à chacun des 11000 tubes photomultiplicateurs, connectique et câblage, tests de résistance des matériaux à l’action de l’eau pure. Plusieurs innovations ont été nécessaires pour mener à bien ces travaux. Citons en particulier la sélection d’un plastique (l’Ultem) particulièrement adapté au séjour prolongé dans l’eau, le choix de microcâbles et microconnecteurs (en très bonne synergie avec ATLAS), le suivi rigoureux d’un processus d’assurance qualité pour la réalisation des 200 cartes d’électronique comprenant en particulier une étude de fiabilité des composants réalisés dans l’industrie et la mise au point de réflecteurs en rhodium déposé sur l’Ultem pour garantir une très bonne résistance à l’eau pure. Ceci a bien sûr mobilisé un personnel technique important (50 personnes ont participé au pot marquant la fin de la construction de BaBar au LAL au printemps 1998) et c’est avec plaisir que je saisis cette occasion pour les remercier encore de leur efficacité. page 13 D IRC Le DIRC Le groupe du LAL a également assuré la maîtrise d’œuvre de l’ensemble du software du DIRC pendant la période clé de son élaboration et continue encore de contribuer au raffinement des méthodes de reconstruction des photons. Une période clé où le LAL a encore joué un rôle décisif a été la mise en service du détecteur d’abord en dehors du faisceau puis intégré à BaBar en assurant la coordination de cette activité puis la coordination de l’ensemble du DIRC. Tous ces efforts ont été remarquablement récompensés car le fonctionnement du DIRC a été sans faille depuis le démarrage. Aucune des 10752 voies d’électronique n’est tombée en panne et le détecteur est si stable que la calibration électronique réalisée en Juin 1998 est toujours valable aujourd’hui ! Les performances du DIRC Les performances du DIRC sont Figure 4. Spectre de masse Kπ sans leDIRC ( à gauche) et avec la tout à fait conformes aux prévisions DIRC ( à droite). Le rapport du nombre de D trouvés dans ces deux cases initiales. La résolution sur l’angle est une mesure directe de l’efficacité du DIRC. Le spectre en bas à droiTchérenkov de 2,5 milliradians par te (DIRC Misld) correspond au cas où on demande que le kaon et le pion trace permet une séparation entre les soient tous deux indentifiés kaon dans le DIRC. Le nombre de D résiduels pions et les kaons jusqu’à l’énergie obtenu donne la probabilité d’erreur d’identification. maximale disponible. Une illustration de la qualité de cette séparation est indiquée sur la figure 4 où l’on porte la distribution de la masse des combinaisons formées par l’ensemble des candidats Kπ. Un pic correspondant au méson D0 est clairement visible. La qualité du signal est fortement augmentée lorsqu’on exige que le candidat kaon ait été reconnu comme tel par le DIRC. Inversement, le signal disparaît presque complètement, seul 1,5% subsiste lorsque le candidat pion a été identifié comme kaon. Le DIRC apporte donc la bonne réponse avec une efficacité d’environ 90% et un taux d’erreur de 1,5%. Conclusion L’expérience BaBar a choisi, comme système d’identification de particules, un détecteur de rayonnement Tchérenkov très innovant le DIRC. Ce choix s’est révélé très judicieux car les performances atteintes sont excellentes et le détecteur se montre extrêmement fiable. Le groupe du LAL a participé de façon majeure à toutes les étapes de cette aventure et a développé plusieurs innovations technologiques à cette occasion. Place maintenant à l’exploitation de la physique très riche de BaBar où le DIRC continuera de jouer un rôle déterminant. GUY WORMSER page 14 Petite histoire du triangle Triangle L'auteur des lignes qu'on va lire met en perspective historique les enjeux théoriques et expérimentaux liés à la détermination des paramètres du “ triangle d'unitarité ”. Il fait particulièrement sentir l'intrication nécessaire entre le perfectionnement des calculs théoriques et celui des conceptions expérimentales. Bien que la violation de la symétrie CP ait été observée en 1964 dans l'étude des mésons K et que la matrice CKM (voir l’exposé de Stéphane Plaszczynski) décrivant les couplages entre quarks de différentes saveurs date de 1973, ce n'est que plus récemment que l'on a parlé « du » triangle d'unitarité (1991). Avant la publication des premiers résultats des usines à beauté, des expériences, parmi lesquelles les collaborations LEP ont joué un rôle primordial, avaient fait plusieurs mesures permettant, lorsqu'on les combine avec les résultats sur la violation de CP observée avec les kaons, de vérifier si le modèle standard donnait une description cohérente des transitions entre quarks de différentes saveurs. De telles comparaisons avaient cependant une précision limitée et ne permettaient pas de dégager des certitudes. Les usines à beauté permettent depuis cette année d'affirmer que la violation de CP a été observée pour les mésons beaux. En comparant ce nouveau résultat, basé sur la mesure d'un angle du triangle, avec celui prédit à partir de l'ensemble des mesures précédentes, on obtient aussi un test nouveau du modèle standard. Comme il a été indiqué, quatre paramètres sont suffisants, dans le modèle standard, pour décrire l'ensemble des transitions entre quarks de différentes saveurs. Expérimentalement, on va vérifier si l'ensemble de ces réactions peut être expliqué par un même jeu de paramètres. Si l'on observe des incohérences, on sera enclin à les attribuer à de la physique non incluse dans le modèle standard. La mise en évidence de tels effets est le but de ces recherches. Malheureusement les choses ne sont pas aussi simples. Les paramètres intervenant dans le modèle standard sont en effet relatifs à des transitions entre quarks alors que les mesures se font sur des particules au sein desquelles le quark, qui subit une transition, est lié à d'autres constituants par l'interaction forte. Cette dernière introduit ainsi des « distorsions » entre les mesures et leur interprétation. Les progrès qui ont eu lieu ces dernières années sur la connaissance des quatre paramètres du modèle standard sont donc non seulement liés à l'obtention de nouveaux résultats expérimentaux mais aussi issus des progrès réalisés dans les calculs des effets de l'interaction forte. Le paramètre qui est connu de la manière la plus précise est λ grâce à l'utilisation de réactions particulières, obéissant à des lois de symétrie, qui permettent d'avoir un bon contrôle des effets issus de l'interaction forte. λ est mesuré à partir de transitions entre noyaux atomiques et de désintégrations de particules étranges avec une précision de 1,5%. Le paramètre A n'était connu qu'avec une précision de 25% en 1988, à la fois pour des raisons expérimentales et théoriques. Du point de vue expérimental, son étude nécessite l'utilisation des particules formées d'un quark de beauté qui n'ont été produites de manière notable et dans des conditions permettant leur étude qu'en Allemagne (ARGUS) et aux USA (CLEO) vers 1987. Du point de vue théorique, une nouvelle loi de symé- page 15 Nous avons représenté sur la figure 1 l'évolution de la zone que peuvent occuper les valeurs des paramètres ρ et η, afin que les estimations théoriques soient en accord avec les mesures. _ 0 -1 _ η Pour déterminer les valeurs des deux autres paramètres, ρ et η, avant le démarrage des usines à beauté, on disposait de quatre réactions : la violation de la symétrie CP pour les kaons, les désintégrations des mésons beaux du type b —> u et les oscillations particule-antiparticule dans les systèmes Bd-Bdo et Bs-Bso. Pour chacune de ces réactions, on a des résultats expérimentaux qui peuvent s'exprimer en fonction des valeurs des paramètres ρ et η et qui définissent une zone permise pour les valeurs de ces paramètres. Chaque expression théorique fait aussi intervenir d'autres quantités dont les valeurs sont liées à l'interaction forte et qui n'ont été connues, pour certaines d'entre elles, avec un précision raisonnable (de l'ordre de 10 à 15%), qu'à partir de 1995. 1 0.5 -0.5 0 0.5 -0.5 0 0.5 -0.5 0 0.5 _1 ρ 1 0.5 0 -1 _ trie, établie vers 1984 par des théoriciens russes a permis un contrôle assez satisfaisant des effets liés à l'interaction forte. Cette loi s'applique lorsqu'un quark lourd (b) se désintègre en un autre quark lourd (c). Comme, en pratique, ces deux quarks (et notamment le quark charmé) ne sont pas infiniment lourds, les violations de cette symétrie constituent la limite actuelle sur la précision, de l'ordre de 5%, avec laquelle on connaît A. η Petite histoire du triangle η Triangle _1 ρ 1 0.5 0 -1 _1 ρ Figure 1 :Évolution de la zone autorisée pour les valeurs des paramètres ρ et η de 1988 à 2000. Les deux contours, tracés sur chacune des figures, correspondent à des probabilités respectives de 68% et de 95% d'y trouver les vraies valeurs de ces paramètres. Avant 1988 il était pratiquement impossible de mettre des contraintes. En 1995 la situation s'était beaucoup améliorée grâce aux avancées expérimentales et théoriques. En 2000, la zone permise s'est encore restreinte. La différence, par rapport à 1995, provient notamment des études sur les oscillations des mésons B 0s effectuées à LEP et à SLD(USA) qui ont permis d'éliminer la zone correspondant à des valeurs négatives de ρ. En 2001 la situation est pratiquement identique à celle de l'année précédente. Les analyses expérimentales sont pratiquement achevées à LEP et les calculs théoriques relatifs à l'interaction forte marquent le pas. Une nouvelle génération de calculs (et de calculateurs) ayant une précision de quelques pourcents est attendue dans les deux ou trois prochaines années. page 16 Triangle Petite histoire du triangle _ η Cette année, lors des conférences de physique de l'été, les expériences BaBar et Belle ont présenté leurs nouveaux résultats qui, une fois combinés, permettent de sélectionner une région dans le plan (ρ et η) qui est indiquée sur la figure 2. Il convient de souligner que cette mesure fait partie des rares observations qui échappent aux distorsions induites par l'interaction forte, d'où son intérêt. La zone ainsi favorisée est comparée, sur cette même figure, à celle définie précédemment par l'ensemble des autres mesures. On constate 1 ∆md ∆ms/∆md 0.8 εK 0.6 0.4 |Vub| |Vcb| 0.2 0 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 P. Paganini, F. Parodi, A. Stocchi - P.R. 0.8 1 _ ρ Figure 2 : la zone circulaire sélectionnée précédemment est comparée à celle qui est obtenue à partir de la mesure de la violation de CP fournie par BaBar et Belle (secteurs hachurés où le rose correspond à 68% de probabilité et le bleu à 95%). Les deux résultats sont compatibles. Comme il est mentionné dans le texte, les deux secteurs roses correspondent aux deux solutions possibles lorsque l’on évalue (ρ, η) à partir de la mesure de sin(2β). que les deux zones se recouvrent et qu'il n'y a donc pas, actuellement, de désaccord entre les deux valeurs obtenues pour sin(2β). Bien que l'on soit convaincu que le modèle standard ne constitue pas la description finale de la nature, il a encore une fois résisté aux tests. On peut noter que les zones sélectionnées à partir des mesures directes et indirectes présentent des différences par rapport à celles indiquées sur la figure donnée dans l’exposé de Stéphane. Ceci provient de l'utilisation de méthodes différentes pour combiner l'ensemble des résultats expérimentaux et pour évaluer l'importance des incertitudes théoriques. Ces questions sont encore vivement débattues et il est trop tôt pour indiquer qui a raison dans le détail, les deux analyses conduisant à la même conclusion générale de validité du modèle standard. page 17 Triangle Petite histoire du triangle Dans les années qui viennent, les usines à beauté vont beaucoup améliorer la précision sur les mesures directes et indirectes de sin(2β), rendant le test décrit ci-dessus plus contraignant. On espère aussi une amélioration de nos connaissances sur les valeurs des paramètres liés à l'interaction forte et l'utilisation de nouveaux tests rendus possibles peut-être par des mesures des autres angles du triangle. Une étape importante doit être franchie également par le TeVatron (Fermilab) qui devrait mesurer la période d'oscillation particule-antiparticule dans le système Bos-Bso. La valeur attendue, à partir des mesures de LEP et de SLD, et des contraintes indiquées ci-dessus, est de (0,36±0,03)ps. Il sera très intéressant de voir si cette valeur correspond ou non à celle que mesureront les expériences dans les deux prochaines années. Si cette valeur est également confirmée, les possibilités de mettre en évidence de la physique nouvelle à partir des études du triangle d'unitarité, dans les dix prochaines années, seront plus difficiles et nécessiteront des mesures de précision des différents paramètres. Les expériences au LHC permettront, de ce point de vue, de franchir un nouveau pas. Sera-t-il suffisant? De toutes les manières, la compréhension de l'interaction forte, dans le domaine où il est actuellement difficile de faire des calculs précis, aura énormément progressé. PATRICK ROUDEAU page 18 Qu’est-ce-que l’énergie ? Energie Lors de la rencontre “ Résonances ” autour de BaBar, un participant a demandé “ Qu'est-ce que l'énergie? ”. Dans le temps imparti, la réponse du conférencier ne pouvait qu'être brève. Cependant, la question (peut-être faussement naïve) mérite à coup sûr des développements. L'auteur des lignes qui suivent saisit l'occasion pour proposer quelques éléments, à verser à un dossier ouvert pour longtemps... Les grandeurs fondamentales 1Si l'on excepte les grandeurs électromagnétiques qui nécessitent une quatrième grandeur fondamentale, la charge électrique ou bien l'intensité, par exemple. La physique moderne (qui commence avec Galilée) repose sur trois catégories : l'espace, le temps, la matière. L'espace et le temps constituent en quelque sorte une scène sur laquelle se déroule un scénario dont les personnages sont la matière et la lumière, scénario obéissant à des règles, les lois de la physique. A ces catégories de base sont associées des grandeurs physiques, susceptibles d'être mesurées : la longueur, la durée, la masse, que l'on désigne habituellement par les notations L, T, M. Ce sont là les trois seules1 grandeurs fondamentales qui fondent le choix des unités du système international SI (mètre, seconde, kilogramme). Les autres grandeurs physiques, dites dérivées, sont définies à partir des précédentes. La vitesse, par exemple, est une longueur divisée par une durée ; on dit que la vitesse a le contenu dimensionnel : [LT-1]. L'accélération (vitesse de la vitesse) a la dimension [LT-2]. La mécanique newtonienne, avec sa célèbre formule F = m γ, introduit la force comme masse multipliée par l'accélération ; cette force a donc le contenu dimensionnel : [ MLT-2]. De la force vive à l'énergie cinétique 2Rappelons qu'une force est un vecteur avec un point d'application, une direction et une intensité. Ainsi en est-il de l'attraction de pesanteur : elle s'applique au centre de gravité du corps considéré, dirigée vers le « bas » selon la verticale du lieu, son intensité est le poids. Une force «travaille» ou produit de l'énergie si elle déplace son point d'application2. Cela a un contenu intuitif : si je soulève un livre qui se trouve à terre pour le mettre sur mon bureau, je dépense une énergie qui sera d'autant plus grande que le poids du livre (force que je dois exercer pour vaincre la force de pesanteur) sera plus élevé et que la hauteur du bureau sera importante. Dans ce contexte, l'énergie (ou encore travail mécanique) peut donc être définie comme le produit (scalaire) du vecteur force par le vecteur déplacement ; elle a la dimension d'une force multipliée par une longueur, soit, d'après ce que nous avons précédemment énoncé : [ML2T-2]. Si le livre retombe au sol, et si j'ai laissé mon pied dessous, je constate des effets que je peux considérer comme ceux d'un autre type d'énergie, due au mouvement : l'énergie cinétique, égale au demi-produit de la masse par le carré de la vitesse acquise, ce qui, notons-le, a bien la dimension d'une énergie, telle qu'explicitée plus haut. Ainsi, quand il est sur mon bureau, le livre est en capacité d'acquérir une énergie cinétique, si, pour une raison ou une autre, il tombe : il possède une énergie potentielle (d'autant plus élevée que le plateau du bureau l'est, élevé), énergie potentielle qu'en fait, je lui avais fournie en le soulevant depuis le sol. Cela nous amène à la loi fondamentale de la conservation de l'énergie : l'énergie totale (cinétique + potentielle) d'un système isolé se conserve au cours de son évolution. page 19 Energie Qu’est-ce-que l’énergie ? Pour l'instant, nous n'avons parlé d'énergie qu'en relation avec le mouvement, le déplacement d'objets, c'est-à-dire l'énergie mécanique. Cela est conforme au processus historique. La physique s'est identifiée à la mécanique jusque vers le début du XIXe siècle. Le terme d'énergie3 n'a été introduit en physique qu'en 1807 par Young, dans un mouvement de remise en ordre terminologique, en remplacement de celui de « force vive » utilisé jusqu'alors pour désigner notre énergie cinétique4, dont la loi de conservation5, lors de chocs élastiques, avait été pressentie par Huygens (1669)et formalisée par Leibniz(1686). Cette «force vive» est la première forme historique de la notion d'énergie. Une entité protéiforme 3Le mot énergie vient du grec energeïa (dans lequel on trouve un autre mot grec, ergon, le travail, l'œuvre), utilisé par Aristote pour signifier «force en acte» par opposition à dynamis, «force en puissance». Pour Aristote, en effet, les choses sont “ en acte ” ou “ en puissance ” : la pierre est en acte en tant que pierre constituée, mais elle est en puissance la statue qu'elle peut devenir sous l'outil du sculpteur. Au début du XIXe siècle l'extension de l'usage de la machine à vapeur (connue depuis le milieu du XVIIIe siècle) est massive et il devient important d'évaluer le rapport entre la quantité de combustible dépensée et le travail mécanique obtenu. 4Le terme d'énergie potentielle sera introduit par Rankine,en 1853. En 1854, le premier principe de Carnot-Clausius établit que la chaleur n'est rien d'autre qu'une forme d'énergie qui est susceptible de se transformer en travail mécanique et réciproquement (sous certaines conditions précisées par le second principe). Ce principe d'équivalence amorce le formidable développement de la thermodynamique. 5Enjeu de la célèbre «querelle des forces vives» mettant aux prises cartésiens et leibniziens. Cette querelle fut tranchée définitivement par d'Alembert (17171783). L'énergie devient une entité capable de changer de forme mais toujours avec la loi de conservation de l'énergie totale (quelle que soit la forme qu'elle puisse prendre) d'un système isolé. En 1847, Helmoltz indiquait pour la première fois : “ tout processus physique doit alors être considéré comme la transformation d'une forme d'énergie dans une autre, l'énergie totale, correspondant à la somme des énergies de type particulier, devant rester constante [...]. En ce sens toute forme d'énergie possède toujours un équivalent mécanique : la quantité d'énergie mécanique obtenue en transformant l'énergie de la forme considérée en énergie mécanique.”. La notion d'énergie recouvre des formes multiples : mécanique, thermodynamique, électromagnétique, etc... Ainsi, la théorie cinétique des gaz (Boltzmann-Maxwell) établit une relation capitale entre la température absolue T, exprimée en kelvins, et l'énergie : E = kT. La température peut être considérée comme l'expression statistique de l'énergie moyenne des molécules d'un gaz6. La correspondance entre les deux notions (ou les deux théories : mécanique, statistique) est assurée par la constante de Boltzmann7, k. Où l'énergie devient une grandeur fondamentale La théorie de la Relativité restreinte (1905) naît de la nécessité de mettre en accord la mécanique galiléenne (théorie ayant pour objet des « corpuscules ») avec l'électromagnétisme (théorie de champ, traitant des « ondes » électromagnétiques) dans les situations où les deux théories ont à intervenir simultanément, en particulier quant à leurs comportements lors de changements de repères en mouvement relatif uniforme. Il n'est page 20 6À un facteur multiplicatif près dépendant du nombre de degrés de liberté de chaque molécule de gaz. 7Dans son livre «Les constantes universelles» (Hachette-1991) Gilles CohenTannoudji rappelle la relation, établie par Brillouin (18891969), partant de la théorie quantique, entre cette constante de Boltzmann et la théorie de l'information. Il propose d'interpréter la constante de Boltzmann comme un quantum d'information, avec la conséquence de faire apparaître le quantum d'action (voir la suite du texte) comme « le coût du quantum d'information », établissant par-là un rapport, bien qu'indirect, entre énergie et information. Qu’est-ce-que l’énergie ? 8En physique des particules, l'unité adaptée d'énergie est le GeV, Giga-électron-volt. C'est l'énergie communiquée à un électron par une différence de potentiel électrostatique de 1 GV (Giga-volt; 1 GV vaut 1 000 000 000 volts). De manière cohérente avec l'équivalence d'Einstein entre masse et énergie, une masse s'exprime en GeV/c2. 9En réalité, la Relativité restreinte enregistre le fait que, dans le vide, sont susceptibles de se manifester des interactions, par exemple l'interaction électromagnétique, dont les bosons messagers, selon la théorie quantique des champs, sont de masse nulle. La constante c est la vitesse de propagation de ces interactions et aucun objet, aucune énergie ne peut se propager plus vite. Energie donc pas étonnant (après-coup !) que ce « raccord » entre la théorie électromagnétique et les conceptions usuelles de la physique s'exprime au moyen de l'énergie et de la constante c, vitesse des ondes électromagnétiques dans le vide. D'où la trop célèbre formule E=mc2. Pour reprendre les termes d'Einstein : “ la masse inerte d'un système de corps peut même être considérée directement comme la mesure de son énergie ”. La masse et l'énergie, c'est la même chose ; la masse est une forme de l'énergie8. L'énergie se trouve du même coup promue au rang de grandeur fondamentale. L'équivalence est assurée par la constante c qui prend ainsi une valeur universelle. Si, historiquement, elle a été introduite comme vitesse de la lumière dans le vide, ce n'est pas là sa signification profonde9. Sa signification fondamentale est qu'elle représente une limite absolue à la vitesse de propagation d'énergie, quel qu'en soit son véhicule. Où intervient la discontinuité La théorie quantique apporte, comme on le sait, une modification considérable dans toutes les conceptions de la physique et, historiquement, c'est précisément autour de la notion d'énergie que la révolution a éclaté. Pour effectuer une mesure sur un système, il est nécessaire de le perturber un tant soit peu, c'està-dire en fin de compte d'échanger avec lui une quanBuste d’Aristote, tité d'énergie ∆E, aussi petite soit-elle, opération qui (Naples, musée national). s'effectue en une durée ∆t, aussi petite soit-elle. La physique antérieure considérait que ces quantités pouvaient (théoriquement) être rendues aussi petites que l'on veut et que, par conséquent la théorie pouvait ne pas en tenir compte ; et cela se trouvait justifié pour les objets (macroscopiques) qu'elle traitait. Pour les objets (microscopiques) de la physique quantique il n'est plus possible de tenir cet argument sans se heurter à des antinomies et à des désaccords profonds avec l'expérience. Un nouveau principe intervient qui indique que la quantité ∆A = ∆E . ∆t (qui est une « action ») ne peut pas, même dans l'idéal, être rendue arbitrairement petite, qu'elle est toujours au moins égale à une nouvelle constante universelle, la constante de Planck h, quantum d'action. C'est le principe d'incertitude de Heisenberg. Ce quantum d'action met en équivalence une énergie ∆E avec une durée temporelle ∆t = h/ ∆E. C'est cette équivalence que l'on retrouve dans la loi selon laquelle les échanges d'énergie faisant intervenir un rayonnement de fréquence ν se font obligatoirement par quanta discrets dont la valeur est donnée par relation quantique bien connue E = h ν (comme chacun sait, la fréquence est l'inverse d'une durée, la période). Cela conduit à une conception paradoxale de l'énergie. En effet, pour reprendre l'exemple du début, quand je soulève une livre depuis le sol jusque sur mon bureau, je repasse par toutes les hauteurs intermédiaires et person- page 21 Energie ne n'imagine qu'il puisse en être autrement. Heurtant en cela les convictions acquises, la physique quantique dit qu'un électron autour d'un noyau atomique, par exemple, peut passer directement d'un niveau d'énergie à un autre (selon la règle E = h ν ) et qu'il n'y a aucun sens à considérer pour cet électron le passage par des énergies intermédiaires, comme si mon livre pouvait se retrouver sur mon bureau sans être passé par les hauteurs intermédiaires. Mais on a toujours, bien entendu, le principe de conservation (voir encadré). Avec une précision cependant : la conservation de l'énergie peut, dans certaines conditions, être violée d'une quantité ∆E pourvu que cela ne soit pas pendant une durée plus longue que la valeur donnée par le principe de Heisenberg ∆t = h/ ∆E : ce phénomène est à la base des «fluctuations quantiques». Qu’est-ce-que l’énergie ? La conservation de l’énergie La loi de conservation de l'énergie est un principe fondamental dont l'absence ruinerait l'édifice conceptuel de la physique. Il est pourtant arrivé, dans des moments de crise, que ladite physique en vienne à se mettre elle-même en danger en jetant le doute sur la validité de la conservation de l'énergie. Par exemple, et ce n'est pas un hasard, lors des débuts de la mécanique quantique où l'on envisagea de n'admettre qu'une version statistique du principe de conservation (théorie BKS, Bohr, Kramers, Slater). Un autre exemple est encore fourni par la radioactivité bêta, pour laquelle le défaut d'énergie que l'on sait aujourd'hui représenter l'énergie d'un antineutrino inconnu à l'époque, a suggéré une mise en cause du principe. Mais chaque fois le principe de conservation est sorti intact à la faveur d'une nouvelle découverte. Il est d’ailleurs à remarquer que, selon un théorème de mathématiques, le principe de conservation de l’énergie revient à affirmer que la forme des lois de la physique ne dépend pas du temps : si je fais une expérience aujourd’hui, j’obtiendrais le même résultat que si je l’effectue, dans les mêmes conditions, demain ou plus tard. Ce qui est condition de possiblité de la physique. Des « régions de réalité » D’abord construite à partir de notions mécaniques, avec des représentations intuitives dans la réalité concrète, l'énergie devient petit à petit une notion très abstraite dont les seules propriétés permanentes sont son contenu dimensionnel et sa conservation au cours de l'évolution des processus physiques. Ce caractère abstrait est une contrepartie de la multiplicité des formes que l'énergie peut prendre : elle est à la fois toutes ces formes, mais ne s'identifie à aucune d'entre elles. C'est la même notion d'énergie qui est exprimée suivant l'une ou l'autre « région de réalité » (pour reprendre une expression de Heisenberg, qu'il reprenait déjà de Goethe...) : région de réalité relativiste, région de réalité quantique etc…, régions de réalité caractérisées par les constantes universelles, qui assurent les « correspondances » entre les différentes formes de l'énergie et dont le contenu dimensionnel est significatif : que l'espace relativiste soit caractérisé par une vitesse, ou bien la réalité quantique par une action a une lourde signification épistémologique. On en trouve, par exemple, confirmation dans les indications théoriques qu'un simple raisonnement dimensionnel sur ces constantes permet d'obtenir. Les théories cosmologiques des origines de l'Univers nécessitent, en effet, de prendre en compte à la fois11 la Relativité restreinte (constante c), la Relativité générale (constante de gravitation, de dimension [M-1L3T-1], la théorie quantique (constante h). Il est possible d'écrire, avec ces seules constantes, affectées d'exposants adéquats, multipliées ou divisées entre elles, une expression ayant la dimension d'une énergie : c'est l'énergie de Planck (de l'ordre de 1019 GeV), qui est, dès lors une unité « naturelle » d'énergie. Une longueur de Planck et un temps de Planck s'en déduisent par le jeu des mêmes constantes. On aboutit à ce qu'il n'y ait plus trois grandeurs fondamentales mais une seule dont les deux autres sont dérivées. page 22 Qu’est-ce-que l’énergie ? Energie Qu'est-ce que la vertu ? 11On ne sait toujours pas rendre compatibles la Relativité générale et la théorie quantique. Les théories de cordes et super cordes proposent de grandes avancées en ce domaine. Avons-nous répondu à la question « qu'est-ce que l'énergie ? » . Cela n'est pas certain. Certes, de ce que nous avons dit, plus ou moins adroitement, il ressort qu'il s'agit d’une quantité scalaire (c'est-à-dire un nombre) qui a un contenu dimensionnel permanent, quantité qui peut être prise comme grandeur fondamentale, et qui se conserve, en changeant éventuellement de forme (selon des règles) au cours des processus physiques. Mais au fond, il ne s'agit là que d'une sorte de mode d'emploi du concept d'énergie, de moyens de calcul, pour le physicien, mais pas d'une explicitation de l'essence de l'énergie. Alors, l'énergie, avec l'article défini, qu'est-ce que c'est ? La réponse semble se dérober. Il n'y a rien là que de très normal. Depuis Galilée, la science « exacte » n'est qu'un vaste effort pour éliminer les qualités au profit des quantités. C'est pourquoi, s'agissant de l'énergie, on est confronté à un nombre et des règles pour l'évaluer. Quant à savoir ce que c'est (quelles qualités cela a), c'est une question que la physique refuse d’aborder, par construction, si l'on ose dire. Elle ne connaît que l'identité et la différence (quantifiée). Si l'on y réfléchit bien et si l'on se place sur le plan d'une logique un peu formelle, à la question du type « Qu'est-ce que A? » il y a deux sortes de réponses possibles. Soit « A est A », ce qui n'avance guère. Soit « A est B », mais alors on dit que deux choses non identiques (A et B) sont les mêmes... la science, c'est sa nature, ne se confronte pas à ce genre de situation. Seule la philosophie (avec la poésie, selon d’autres modalités) en est capable. On pense alors à la question que Socrate propose à ses interlocuteurs : « qu'est-ce que la vertu ? ». Ces derniers se lancent dans l'énumération d'actions que chacun estime vertueuses... mais cela ne fait pas une définition de la vertu. L’impossibilité même d’une telle définition ouvre, avec Socrate, le champ de la philosophie, dont la science reste une des conditions. GUY LE MEUR page 23 Prochainement... Solution des mots croisés de S o p h i e (voir précédent numéro) page 24