Maquette ‹ flasher - Laboratoire de l`Accélérateur Linéaire

Transcription

Maquette ‹ flasher - Laboratoire de l`Accélérateur Linéaire
L
l'actu a lité
L
du
Bulletin d’information interne du Laboratoire de l’Accéléra
Comité de rédaction : M.-A. Bizouard, F. Berny, F. Couchot, F. Fulda-Quenz
er,
teu
r
S.
H en
Liné
ro t -
d – B.P. 34 – 91898 Orsay Cedex
Su
risTél. 8410 E-mail : [email protected]
a
P
a ir e –
u.
té
dea
UMR 8607, Universi
Rou
Vers
il l
é, H. K é
.
ur, P
e Me
rec, D. Lecomte, G. L
N°37
automne 2001
Autour de BaBar et de la violation de CP
Nous inaugurons une formule que nous espérons renouveler souvent : un numéro tout entier centré sur une expérience (ou un thème particulier), en relation directe avec la tenue d'une rencontre « Résonances, autour de...». Le
12 juin dernier, la rencontre était « autour de BaBar » avec Stéphane Plaszczynski. Le conférencier avait bien préparé son affaire et le dialogue a pu se développer dans une ambiance détendue. Le présent numéro de « L'Actualité
du LAL » propose à ses lecteurs une version écrite de la conférence, offrant, à propos de BaBar, un
panorama très accessible de l'état actuel de la physique des particules et plus spécialement des questions concernant la violation de CP.
Le reste du numéro est composé autour de ces thèmes. Guy Wormser propose quelques éléments
techniques sur le DIRC, partie du détecteur BaBar, pour laquelle la contribution du LAL est
particulièrement importante.
On verra que les résultats de BaBar concernent un certain triangle d'unitarité ; lequel triangle n'est pas apparu tout d'un coup, mais vient de loin : Patrick Roudeau essaie d'en retracer une histoire.
Et enfin, pour en revenir à la rencontre du 12 juin dernier, on propose une
réponse (ou plutôt, on le verra, une non-réponse) un peu développée à une question posée par un participant : « qu'est-ce que l'énergie ? ».
Là-dessus, nous invitons tous nos lecteurs à la prochaine rencontre
« Résonances, autour de ...Archeops et Planck » avec Sophie Henrot-Versillé, le
mardi 27 novembre à 10h30.
GUY LE MEUR
BaBar
!
La violation de
CP avec BaBar
Autour de %%%
par
Stéphane
Plaszczynski
D IRC
"#
Le DIRC
par
Guy Wormser
Triangle
"$
%%% BaBar et
de la viola&
tion de la
symétrie CP%
page 2
Petite histoire
du triangle
par
Patrick
Roudeau
Energie
"'
Qu’est ce que
l’énergie ?
par
Guy Le Meur
La violation de CP
avec BaBar
BaBar
Voici la version écrite, que Stéphane Plaszczynski a bien voulu réaliser pour nous, de la conférence
qu'il présenta le 12 juin dernier, au LAL. On y retrouvera, bien sûr, l'essentiel de ce qu'il a exposé mais
aussi un aperçu des récents résultats publiés par l'expérience BaBar, pendant l'été.
Les transparents relatifs à la conférence sont visibles sur la toile (le web, site du LAL) et consultables
en version papier à la bibliothèque ou à la cafétéria.
La physique des particules
Qui ne s’est extasié, par une nuit d’été, devant le spectacle sans fin des constellations? Qui ne s’est senti
tout petit devant cet infini qui nous dépasse ?…
Retournons notre lorgnette et scrutons notre
monde. Nous découvrons un univers aussi fascinant : celui de l’infiniment petit, celui de la structure ultime de la matière et des lois qui la régissent ;
c’est le domaine de la physique des particules,
recherche fondamentale qui poursuit des siècles
d’étude et de compréhension de notre univers.
Pourquoi « physique des particules » ? On a longtemps cru que la matière était constituée de noyaux
(photons + neutrons) autour desquels graviteraient
des électrons pour former des atomes, qui se
regrouperaient en molécules pour aboutir finalement à la matière observable. Or on a constaté
qu’en concentrant une grande quantité d’énergie en
un petit volume (par exemple en faisant se rencontrer des faisceaux de haute énergie) il arrive parfois
que s’accomplisse un phénomène étonnant : on
produit des particules qui ne sont ni des électrons,
ni des protons, ni des neutrons. L’énergie est convertie en masse (E=mc2). Ces
nouvelles particules ont souvent été baptisées en utilisant des lettres grecques (µ, Λ, π…). On ne les observe pas dans notre monde habituel car, ayant une masse plus élevée que les constituants des atomes, elles
vont se désintégrer petit à petit en particules plus légères pour aboutir finalement à nos constituants stables.
Ce temps caractéristique de désintégration est très variable, mais certaines de ces particules « vivent » suffisamment longtemps pour être observées dans nos détecteurs (trajectoires de plusieurs mètres).
À vrai dire, ces centaines de particules ne sont pas toujours les constituants ultimes de la matière.
Certaines oui : elles se nomment « leptons ». Il s’agit des « électrons » , « muons » et « taus » , chacune
ayant un « neutrino » associé (c’est dire neutrino-e, neutrino-µ, neutrino-τ). Pour celles-ci, aucune sousstructure n’a été mise en évidence.
page 3
BaBar
La violation de CP
avec BaBar
Toutes les autres particules observées, qu’on nomme « hadrons », ont donné du fil à retordre aux théoriciens, de la découverte de particules au temps caractéristique très court (résonances) à la découverte de
particules vivant au contraire très longtemps (baptisées « étranges »). En 1964, Gell-Mann proposa un
modèle qui permit de classer toutes ces particules observées à partir d’un petit nombre de constituants élémentaires : les quarks. Dans ce modèle, tous les hadrons résultent simplement de la combinaison de trois
quarks ou d’un quark et d’un anti-quark (nous reviendrons plus tard sur l’antimatière).
Qu’en est-il de ces quarks ? On s’accorde à dire aujourd’hui qu’il en existe trois « paires », tout comme
il existe trois types de leptons. Il s’agit des paires nommées (u,d), (c,s) (t,b). Pourquoi trois, et pas plus?
Tout d’abord trois paires (ou familles) sont suffisantes pour expliquer toutes les particules observées (jusqu’à présent). De plus, 3 est un nombre « magique », car il permet d’introduire, comme nous le verrons,
la violation de CP alors que 2 eût été insuffisant. Les expériences à LEP (au CERN) ont confirmé que, jusqu’à l’énergie qui était alors disponible, il n’existait que trois types de neutrinos. Pour avoir une quatrième famille, il faudrait alors imaginer un nouveau neutrino très lourd. Pourquoi cette différence avec les
autres neutrinos ? L’hypothèse est peu vraissemblable. La nature adopte souvent un principe de simplicité…
À la différence des leptons, un quark n’a jamais été observé à l’état libre. Pourquoi ? On ne le sait pas
très bien. Alors on a camouflé notre ignorance sous des termes savants (« confinement ») et mathématisé
le problème.
Pourquoi y croire, alors ? Parce que le modèle des quarks arrive à classer toutes les particules observées
(des centaines). Par ailleurs, des expériences de « sonde » du proton ont révélé que celui-ci a bien une
structure granuleuse et non ponctuelle. On ne met plus en doute ce modèle aujourd’hui.
Cette classification des particules selon trois familles de leptons et de quarks, et la description des interactions entre elles (dont nous ne traiterons pas ici) constitue ce qu’on appelle le modèle standard. Il s’agit,
à vrai dire, plus d’une théorie ultime au sens où un modèle contient toujours une échelle à laquelle il est
Q
e
νe(56)
µ(47)
νµ(61)
τ(76)
ντ(01)
-1
0 (m=0)
leptons
u
d
c(74)
s(64)
t(94)
b(77)
+2/3
-1/3
quarks
masse
Figure 1 : les constituants élémentaires du modèle standard. Les chiffres entre parenthèses désignent (approximativement) la date de la mise en évidence expérimentale. «Q» désigne la charge électrique.
page 4
La violation de CP
avec BaBar
BaBar
applicable, alors qu’on cherche ici à décrire le monde sans échelle de l’infiniment petit. Ce modèle
standard est incroyablement fructueux. Depuis des années (en particulier à LEP) il a été testé, poussé dans ses moindres retranchements, torturé, mais n’a jamais craqué. Le moindre soupçon de désaccord entre ses prédictions et les données expérimentales s’est toujours soldé par la mise en évidence de biais expérimentaux…
Néanmoins les physiciens aimeraient en changer ; ou plutôt trouver un modèle plus général qui
l’incorporerait. Pourquoi ? Parce que le modèle standard ne « ressemble » pas à une théorie ultime.
En effet pourquoi tant de constituants élémentaires qui ne se distinguent que par leur masses différentes ? Ces masses ne sont pas prédites. On doit donc toutes les fixer. Il y en a 9 en tout (en supposant que les neutrinos aient une masse nulle, ce qui est remis en question de nos jours), ce qui
paraît beaucoup sur 19 paramètres au total. On préfèrerait une théorie qui prédirait les masses des
quarks/leptons. C’est le sens des prochaines expériences qui vont avoir lieu au CERN auprès d’un
collisionneur à toujours plus haute énergie : le LHC (Large Hadron Collider).
Par ailleurs, le modèle standard n’inclut pas de description de la gravitation « élémentaire », pour
raisons d’incompatibilités majeures entre la compréhension actuelle de la gravitation (relativité
générale) et du monde de l’infiniment petit (la mécanique quantique). Ce qui est intellectuellement
frustrant… De plus les processus de gravitation à l’échelle des particules sont si faibles qu’il faudrait une énergie à tout jamais inaccessible (de l’ordre de celle des premiers instants de la création
de l’univers) pour les étudier expérimentalement. Les efforts théoriques de conciliation de la gravité quantique n’offrent donc de sens que s’ils fournissent des prédictions à nos échelles d’énergie qui
sont bien plus basses.
Quoi qu’il en soit une grande partie de la communauté scientifique aujourd’hui est convaincue de
l’existence de physique au-delà du modèle standard, et entre en effervescence dès que la moindre mesure ne coïncide pas avec les résultats attendus. On notera néanmoins que la conviction d’une « théorie
du tout » descriptible en termes mathématiques ne repose que sur
notre intuition. Il se pourrait aussi que le modèle standard représente
notre compréhension ultime de l’univers.
Antimatière et violation de CP
L’un des aspects les plus fascinants de la physique des particules
concerne l’antimatière.
En 1930, Paul Dirac, célèbre théoricien qui cherchait à unir les
deux grandes théories du moment (relativité restreinte et mécanique
quantique), afin d’éviter de voir apparaître dans sa théorie des particules allant plus vite que la
lumière dans le vide et des états d’énergie négative, prédit l’existence des antiparticules. À chaque
particule doit correspondre une particule en tout point identique mais avec toutes ses charges (pas
seulement électrique…) opposées.
En 1932, des expérimentateurs, qui ne connaissaient pas la théorie de Dirac, observaient en effet
un antiélectron, de charge électrique positive (appelé aussi positron).
Les antiparticules sont désormais monnaie courante dans nos détecteurs. D’un point de vue théorique, une antiparticule allant dans un sens est équivalente à une particule se déplaçant dans l’autre
sens et remontant le cours du temps. L’opération (de l’esprit) qui consiste à remplacer une particule par son antiparticule (C) est équivalente à l’opération de renversement d’une trajectoire dans un
page 5
BaBar
La violation de CP
avec BaBar
miroir (P) et à l’inversion du temps (T). On peut noter cela C = PT. Transformons encore une fois l’antiparticule par C, c’est-à-dire prenons l’antiparticule de l’anti-particule : on retombe sur l’état initial. Ce qui veut
dire qu’en appliquant C à l’état déjà transformé PT on retombe sur le même système.
1
η
0.8
0.6
0.4
0.2
β
0
-1
-0.5
0
0.5
1
ρ
Figure 2 : Le triangle d’unitarité. Les axes représentent deux quantités fondamentales du modèle standard qui expliquent la violation de CP. La zone rouge représente la zone dans laquelle on est sûr ajourd’hui que ces paramètres se situent, grâce
aux mesures des côtés du triangle. Notez l’emplacement de l’angle β.
Toute théorie physique qui décrit le comportement des particules (et antiparticules) doit donc respecter le
fait qu’en appliquant C puis P puis T le système reste inchangé. Cette propriété essentielle de la « théorie
quantique des champs » (union consommée de la relativité restreinte et de la mécanique quantique) s’appelle
le « théorème CPT ». On a longtemps cru que cette invariance des lois de la physique était en fait observée
individuellement par les transformations C, P et T (si bien que le produit des trois l’était automatiquement).
Par exemple, si on observait le comportement d’une particule dans un champ, on déduisait les mêmes propriétés de ce champ que si on observait son anti-particule. Or, dans le modèle standard il n’en est rien, C et P
ne sont pas conservés. Par exemple les neutrinos existent uniquement dans un état dit « gauche » ; si on
applique l’opération P on obtient un neutrino « droit ». Or ceux-ci n’ont jamais été observés et n’existent pas
dans le modèle standard. On parle de « violation de C et de P ».
On a alors cru que les lois de la physique étaient invariantes d’une part sous CP, d’autre part sous T (rappelons qu’on doit à tout prix conserver l’invariance sous CPT).
En 1964, des expérimentateurs ont démontré, que pour certaines particules appelées « mésons K », l’invariance sous CP n’était pas toujours respectée : il s’agit néanmoins d’un effet très fin (dont la mise en évidence leur valut un prix Nobel). Plus récemment les expériences NA48 et KTEV ont mis en évidence un nouvel
page 6
La violation de CP
avec BaBar
BaBar
effet fin de violation de CP en montrant que le nombre de mésons K se désintégrant en 2π n’est pas tout à fait
égal à celui des anti-mésons K. On notera que, jusqu’à présent, la violation de CP n’a été observée qu’avec des
mésons K ; or le modèle standard prédit également une violation de CP beaucoup plus importante à partir de
mésons B°, composés des quarks (anti-b + d).
Le but de BaBar (et de son expérience concurrente japonaise « Belle ») est de vérifier que le phénomène de
violation de CP existe bien dans le secteur des particules contenant un quark b.
Si ce phénomène existe, il s’agit de mesurer le plus précisément possible les paramètres qui lui sont associés.
On espère également à partir de mesures de haute précision obtenir des pistes vers une éventuelle « nouvellephysique ». En effet le secteur de la violation de CP est un endroit sensible à des effets de nouvelle physique.
BaBar
Voyons maintenant un peu plus en détail quels sont les paramètres du modèle standard à mesurer pour caractériser la violation de CP.
D’après les travaux des théoriciens Kobayashi et Maskawa (1973) ils sont au nombre de quatre appelés traditionnellement (λ, Α, ρ, η). Les deux premiers (λ, Α) sont déjà bien connus. On représente fréquemment la
connaissance qu’on a des deux autres (ρ, η) sur une seule figure (Fig. 2) appelée « triangle d’unitarité ».
Sur cette figure la zone en rouge correspond à la zone dans laquelle nous sommes sûrs aujourd’hui que ces
paramètres (ρ, η) se trouvent (axe horizontal pour ρ, vertical pour η). On aime bien tracer un triangle entre les
points (0,0), (0,1) et (ρ, η) car l’aire de ce triangle indique la «quantité de violation de CP» dans le modèle standard. On notera, pour la suite, où se situe l’angle β.
La prédiction théorique pour les mésons B° est la suivante : pour certains états ( équivalents à leur anti-particule, notés simplement « f ») le nombre de B° qui se désintègrent en f n’est pas égal au nombre d’anti-B°s se désintégrant en anti-f=f (violation de CP). Par ailleurs si on considère un temps caractéristique « t », sur lequel nous
reviendrons, on obtient une asymétrie par intervalle de temps t :
N(B°—>f) - N(anti-B°—>f)
a (t) =
= sin(2β) . sin(∆m.t)
N(B°—>f) + N(anti-B°—>f)
où l’on retrouve le (mythique) « β » du triangle d’unitarité et ∆m est une quantité connue.
Ainsi, si on arrive à obtenir ce temps caractéristique et qu’on mesure les nombres de B° et d’anti-B° se désintégrant en f, on peut obtenir une mesure de sin(2β). Pour la première fois en physique des particules on peut ainsi
mesurer l’un des angles du triangle d’unitarité. Il ne s’agit pas que d’une différence de principe pour accéder à
(ρ,η). En fait cette mesure est réellement d’une nouvelle nature et dans de nombreux scénarios de nouvelle physique, la mesure de cet angle pourrait ne pas coller avec la mesure des côtés (on devrait abandonner l’idée d’un
triangle). On pourrait par exemple observer que β=0 et qu’il n’y a donc pas de violation de CP par les B°. Il
s’agirait alors d’un coup sérieux porté au modèle standard (pour la plus grande joie de chacun).
Pour mesurer cet angle (et faire d’autres mesures précises sur les quarks b), une collaboration internationale
d’environ 500 personnes s’est mise en place et a pris pour nom « BaBar », dérivant approximativement de « B »
et « B-barre » (pour anti-B), ce qui permet de dessiner des petits éléphants partout (à condition de respecter le
copyright L. de Brunhoff !). Il s’agissait dans un premier temps de construire un détecteur avec les meilleures
technologies actuelles, puis d’analyser les données enregistrées par des moyens informatiques.
page 7
BaBar
La violation de CP
avec BaBar
3.1 GeV B0
9 GeV
e-
e+
B0
z
Figure 3 : Schéma de principe montrant comment une paire de (B°, anti-B°) est produite dans BaBar, puis se désintègre en particules plus légères. Le temps caractéristique est obtenu à partir de z, distance de l’ordre de quelques dixièmes de millimètres.
Ce détecteur entoure le point de collision de deux faisceaux, l’un d’électrons, l’autre de positrons, qui circulent dans un anneau nommé PEP-II situé sur le campus de l’Université de Stanford (à 50 km de SanFrancisco). On produit (parfois) à partir de la collision, une paire (B°, anti-B°) se désintégrant très vite. Le
temps caractéristique est ici donné par la distance entre les désintégrations des deux B. Pour cela la paire ne
doit pas être produite au repos, car les 2 B se désintégreraient au même point. On obtient un mouvement relatif du repère dans lequel sont produits les B, en utilisant des faisceaux qui n’ont pas la même énergie. Les
électrons ont une énergie de 3.1 GeV et les positrons de 9 GeV. De cette manière, on obtient une distance
entre les deux désintégrations, de l’ordre de quelques dixièmes de millimètres, mesurable grâce à l’extrême
précision des détecteurs (figure 3).
1
η
sin2β
0.8
0.6
0.4
0.2
β
0
-1
-0.5
0
0.5
ρ
1
Figure 4 : même figure qu’en 2, mais en rajoutant (en bleu) les contraintes apportées par la mesure des expériences BaBar et Belle. Les deux zones bleues indiquent la région où l’on attend β grâce
à la mesure de BaBar. Elle recoupe bien la zone rouge obtenue à partir de la mesure des côtés.
page 8
La violation de CP
avec BaBar
BaBar
L’accélérateur et le détecteur BaBar fonctionnent maintenant depuis fin 1999 et ils sont en compétition avec une expérience similaire au Japon (« Belle »). Durant l’été 2001, les deux collaborations ont
dévoilé leurs premières mesures à des conférences. En combinant les deux résultats on peut voir sur la
figure 4, la zone du plan (ρ,η) permise par leurs mesure de sin(2β) (les deux zones bleues). Bien sûr,
cette zone est encore large (telle un fromage elle va s’affiner avec le temps..) mais on peut déjà noter
un aspect remarquable : la valeur zéro (c’est à dire la base du dessin) est exclue ; ce qui veut dire qu’on
a prouvé l’existence de la violation de CP dans le système des B0 . De plus il s’agit de la première
mesure des paramètres fondamentaux du modèle standard obtenue à partir des angles du triangle d’unitarité ; elle est (pour l’instant) compatible avec les mesures des côtés du triangle, ce qui apporte beaucoup de crédibilité à la compréhension de la violation de CP grâce au mécanisme de Kobayashi et
Maskawa.
Bien sûr, on le regrette quelque part… On se console en se disant que les années à venir vont apporter des mesures d’une précision toujours plus élevée jusqu’à (peut-être) révéler un jour des anomalies
dans notre compréhension du modèle standard.
STÉPHANE PLASZCZYNSKI
page 9
D IRC
Le DIRC
Malgré la différence d’énergie entre les deux faisceaux de PEP-II, le détecteur BaBar ressemble à
beaucoup de ses collègues installés sur les autres anneaux de collision ; il comporte du centre vers
l'extérieur (voir figure 1) : un détecteur de vertex au silicium, une chambre à dérive, un système
d'identification des particules chargées, le DIRC, sans oublier un calorimètre électromagnétique, un
aimant supraconducteur et un retour de fer instrumenté. L'identification des particules est un point
crucial pour BaBar. Dans le dispositif, un rôle majeur est joué par le DIRC dans lequel le LAL a pris
des responsabilités importantes et cela justifie que l'on donne ci-après quelques informations
détaillées sur cette partie du détecteur.
Calorimètre
électromagnétique
DIRC
e+
3.1GeV
e9 GeV
Détecteur de
vertex au silicium
Chambre à dérive
(traces chargées)
Figure 1 : Le détecteur BaBar
Pourquoi l’identification ?
L’identification des particules a toujours joué un rôle important dans les expériences de physique des particules. La nature (pion, kaon, proton, électron ou muon) des traces produites dans les désintégrations est en
effet riche d’enseignements pour la compréhension des événements observés. C’est particulièrement vrai dans
le cas de BaBar pour deux raisons principales : d’une part, la charge des kaons produits dans les désintégrations de mésons beaux permet de savoir si son parent est une particule ou une antiparticule, une information
cruciale pour la mesure de la violation de CP, d’autre part, BaBar a absolument besoin de pouvoir distinguer
les deux canaux de désintégration B->ππ et B->Kπ pour la mesure de l’un des angles du triangle d’unitarité.
Ces deux contraintes combinées nécessitent la meilleure séparation pion/kaon possible sur toute la gamme
cinématique de 300 MeV à 4 GeV.
Les méthodes d’identification
À première vue, rien ne distingue un kaon d’un pion sinon la masse plus lourde du premier nommé
(500 MeV contre 140 MeV). Il faut donc faire appel à des mécanismes où la masse intervient. La quantité
d’énergie déposée par une particule chargée dans un gaz (appelée dE/dx) est l’un d’entre eux et est très souvent utilisée car l’information est disponible directement dans le dispositif de reconstruction des traces et ne
nécessite donc pas de détecteur supplémentaire spécialisé. Cependant, dans notre cas, cette méthode ne permet une séparation qu’à très basse énergie (jusqu’à 500 MeV) et doit donc être complétée. On fait alors appel
à l’effet Tchérenkov. Ce phénomène est analogue au bang supersonique : quand un objet se déplace dans un
page 10
Le DIRC
DIRC
milieu plus rapidement que la vitesse de la lumière (ou du son) dans le milieu, une onde lumineuse (ou sonore) est émise selon un cône dont l’angle d’ouverture dépend de la vitesse de la particule incidente. La mesure de cet angle combinée avec celle de l’impulsion (produit de la masse par la vitesse) de la particule réalisée
par la courbure de la trajectoire de la trace dans le champ magnétique du détecteur permet une mesure de la
masse et donc la séparation pion/kaon.
Le détecteur à effet Tchérenkov
Un détecteur à effet Tchérenkov est composé de deux parties : un milieu où la lumière va être produite lorsqu’il sera traversé par une particule chargée, appelé radiateur et un système de mesure de l’angle d’émission
des photons Tchérenkov. Un radiateur se caractérise par son indice n qui donne la vitesse de la lumière dans
ce milieu v=c/n , sa transparence aux photons émis (il ne faut pas les réabsorber) et son épaisseur (la quantité de lumière émise lui est proportionnelle). Le choix de l’indice fixe la gamme cinématique dans lequel le
détecteur Tchérenkov va fonctionner : en effet, si la vitesse de la particule est inférieure à c/n, aucune lumiè-
Figure 2 : Principe de fonctionnement du DIRC. La lumière Tchérenkov produite dans la barre
rebondit sur ses parois, est ainsi guidée jusqu’en bout de barre puis après un trajet de 1,2 m dans
l’eau pour être détectée par une mosaïque de photomultiplicateurs.
re ne sera émise. Pour BaBar, le bon indice est environ 1,5, ce qui fixe le choix du radiateur au quartz qui a
une bonne transparence dans l’ultraviolet où la majorité des photons sont émis. Le dernier problème à
résoudre est celui de la géométrie du radiateur. L’angle maximum d’ouverture du cône Tchérenkov est de 42
degrés, or la loi de Brewster interdit à la lumière de sortir d’un milieu à fort indice pour aller dans un milieu
à faible indice comme l’air si l’angle d’incidence est supérieure à 43 degrés. Pour une trace inclinée, la plus
grande partie de la lumière restera donc piégée dans le radiateur ! Ce phénomène bien connu a compliqué
l’existence de tous les constructeurs de détecteurs Tchérenkov qui souhaitaient simplement mettre le détecteur de photons juste à la sortie du radiateur. Notre collègue B. Ratcliff a eu alors l’idée très élégante de pro-
page 11
D IRC
Le DIRC
poser de mesurer non pas la lumière qui sort du radiateur mais celle qui y est piégée. Si l’on polit parfaitement toutes les faces du radiateur, celui-ci se comportera alors comme un guide de lumière et il suffira de
mesurer l’angle de sortie des photons en bout de barre. C’est le principe du DIRC (Detection of Internally
Reflected Cerenkov Light) illustré sur la figure 2. Pour éviter le piégeage des photons en bout de barre, l’espace entre la sortie des barres et le plan de détection est rempli d’eau, milieu dont l’indice intermédiaire de
1,33 permet la sortie de tous les photons de la barre. Les problèmes associés à la présence d’eau très pure pour
garantir la meilleure transparence dans l’ultraviolet sont cependant multiples car l’eau pure est très corrosive.
La difficulté principale de construction du DIRC est d’obtenir un polissage quasi parfait des 144 barres de
quartz de 5m de long chacune ! Ce polissage a été réalisé avec une erreur locale de 0.5 millièmes de microns !
soit la qualité des meilleurs miroirs de téléscopes. Ceci permet de ne perdre au maximum qu’une quantité
négligeable de lumière (5% environ) pour la lumière effectuant le plus grand trajet dans la barre (400 rebonds
sur les parois environ) et de conserver ainsi l’angle de production des photons.
Figure 3 : Différence entre l’angle mesuré du cône Tchérenkov produit par des muons et
l’angle attendu. La résolution observée est de 2.5 mrad.
Le détecteur de photons
Celui se compose d’une mosaïque de tubes photomultiplicateurs immergés dans l’eau et placés à 1,2 mètres
du bout des barres. Ceci permet de mesurer l’angle d’émission de chaque photon à 10 milliradians près. En
faisant la moyenne de cet angle sur tous les photons du même anneau Tchérenkov (l’anneau Tchérenkov est
l’image du cône Tchérenkov sur la mosaïque des photomultiplicateurs), on obtient la résolution souhaitée
(voir figure 3).
page 12
Le DIRC
DIRC
Sur cette photographie, on voit la cuve à eau du DIRC équipée de ses photomulticateurs et de ses paniers d’électronique.
Le rôle du LAL
Le LAL a joué un rôle majeur dans la construction et l’opération du DIRC. Tout d’abord, les physiciens du
LAL ont beaucoup contribué aux succès des premiers tests des prototypes de DIRC sur un faisceau de particules en 1994-1995, d’abord à Saclay puis au CERN, en fournissant une bonne partie de l’infrastructure nécessaire tant mécanique qu’électronique et en analysant de façon très détaillée les données obtenues. Ceci a permis de démontrer la validité du concept du DIRC mais aussi de mettre en évidence plusieurs sources de lumière parasite certes minimes mais qu’il est important de bien contrôler.
Ensuite, le LAL a obtenu de grosses responsabilités de construction pour le détecteur final : maîtrise d’œuvre
de l’ensemble de l’électronique, réalisation de la majeure partie de cette électronique ( circuit intégré analogique, cartes de lecture, alimentations, refroidissement) supports mécaniques des tubes multiplicateurs devant
garantir l’étanchéité, collage des tubes sur leur support, réflecteurs de lumière associés à chacun des 11000
tubes photomultiplicateurs, connectique et câblage, tests de résistance des matériaux à l’action de l’eau pure.
Plusieurs innovations ont été nécessaires pour mener à bien ces travaux. Citons en particulier la sélection
d’un plastique (l’Ultem) particulièrement adapté au séjour prolongé dans l’eau, le choix de microcâbles et
microconnecteurs (en très bonne synergie avec ATLAS), le suivi rigoureux d’un processus d’assurance qualité pour la réalisation des 200 cartes d’électronique comprenant en particulier une étude de fiabilité des composants réalisés dans l’industrie et la mise au point de réflecteurs en rhodium déposé sur l’Ultem pour garantir une très bonne résistance à l’eau pure. Ceci a bien sûr mobilisé un personnel technique important (50 personnes ont participé au pot marquant la fin de la construction de BaBar au LAL au printemps 1998) et c’est
avec plaisir que je saisis cette occasion pour les remercier encore de leur efficacité.
page 13
D IRC
Le DIRC
Le groupe du LAL a également
assuré la maîtrise d’œuvre de l’ensemble du software du DIRC pendant
la période clé de son élaboration et
continue encore de contribuer au raffinement des méthodes de reconstruction des photons. Une période clé où
le LAL a encore joué un rôle décisif a
été la mise en service du détecteur
d’abord en dehors du faisceau puis
intégré à BaBar en assurant la coordination de cette activité puis la coordination de l’ensemble du DIRC.
Tous ces efforts ont été remarquablement récompensés car le fonctionnement du DIRC a été sans faille
depuis le démarrage. Aucune des
10752 voies d’électronique n’est tombée en panne et le détecteur est si
stable que la calibration électronique
réalisée en Juin 1998 est toujours
valable aujourd’hui !
Les performances
du DIRC
Les performances du DIRC sont
Figure 4. Spectre de masse Kπ sans leDIRC ( à gauche) et avec la
tout à fait conformes aux prévisions
DIRC ( à droite). Le rapport du nombre de D trouvés dans ces deux cases
initiales. La résolution sur l’angle
est une mesure directe de l’efficacité du DIRC. Le spectre en bas à droiTchérenkov de 2,5 milliradians par
te (DIRC Misld) correspond au cas où on demande que le kaon et le pion
trace permet une séparation entre les
soient tous deux indentifiés kaon dans le DIRC. Le nombre de D résiduels
pions et les kaons jusqu’à l’énergie
obtenu donne la probabilité d’erreur d’identification.
maximale disponible. Une illustration
de la qualité de cette séparation est
indiquée sur la figure 4 où l’on porte
la distribution de la masse des combinaisons formées par l’ensemble des candidats Kπ. Un pic correspondant
au méson D0 est clairement visible. La qualité du signal est fortement augmentée lorsqu’on exige que le candidat kaon ait été reconnu comme tel par le DIRC. Inversement, le signal disparaît presque complètement, seul
1,5% subsiste lorsque le candidat pion a été identifié comme kaon. Le DIRC apporte donc la bonne réponse
avec une efficacité d’environ 90% et un taux d’erreur de 1,5%.
Conclusion
L’expérience BaBar a choisi, comme système d’identification de particules, un détecteur de rayonnement
Tchérenkov très innovant le DIRC. Ce choix s’est révélé très judicieux car les performances atteintes sont excellentes et le détecteur se montre extrêmement fiable. Le groupe du LAL a participé de façon majeure à toutes les
étapes de cette aventure et a développé plusieurs innovations technologiques à cette occasion. Place maintenant
à l’exploitation de la physique très riche de BaBar où le DIRC continuera de jouer un rôle déterminant.
GUY WORMSER
page 14
Petite histoire du
triangle
Triangle
L'auteur des lignes qu'on va lire met en perspective historique les enjeux théoriques et expérimentaux
liés à la détermination des paramètres du “ triangle d'unitarité ”. Il fait particulièrement sentir l'intrication nécessaire entre le perfectionnement des calculs théoriques et celui des conceptions expérimentales.
Bien que la violation de la symétrie CP ait été observée en 1964 dans l'étude des mésons K et que la matrice CKM (voir l’exposé de Stéphane Plaszczynski) décrivant les couplages entre quarks de différentes saveurs
date de 1973, ce n'est que plus récemment que l'on a parlé « du » triangle d'unitarité (1991).
Avant la publication des premiers résultats des usines à beauté, des expériences, parmi lesquelles les collaborations LEP ont joué un rôle primordial, avaient fait plusieurs mesures permettant, lorsqu'on les combine
avec les résultats sur la violation de CP observée avec les kaons, de vérifier si le modèle standard donnait une
description cohérente des transitions entre quarks de différentes saveurs. De telles comparaisons avaient
cependant une précision limitée et ne permettaient pas de dégager des certitudes. Les usines à beauté permettent depuis cette année d'affirmer que la violation de CP a été observée pour les mésons beaux. En comparant
ce nouveau résultat, basé sur la mesure d'un angle du triangle, avec celui prédit à partir de l'ensemble des
mesures précédentes, on obtient aussi un test nouveau du modèle standard.
Comme il a été indiqué, quatre paramètres sont suffisants, dans le modèle standard, pour décrire l'ensemble
des transitions entre quarks de différentes saveurs. Expérimentalement, on va vérifier si l'ensemble de ces
réactions peut être expliqué par un même jeu de paramètres. Si l'on observe des incohérences, on sera enclin
à les attribuer à de la physique non incluse dans le modèle standard. La mise en évidence de tels effets est le
but de ces recherches. Malheureusement les choses ne sont pas aussi simples. Les paramètres intervenant dans
le modèle standard sont en effet relatifs à des transitions entre quarks alors que les mesures se font sur des
particules au sein desquelles le quark, qui subit une transition, est lié à d'autres constituants par l'interaction
forte. Cette dernière introduit ainsi des « distorsions » entre les mesures et leur interprétation.
Les progrès qui ont eu lieu ces dernières années sur la connaissance des quatre paramètres du modèle standard sont donc non seulement liés à l'obtention de nouveaux résultats expérimentaux mais aussi issus des progrès réalisés dans les calculs des effets de l'interaction forte.
Le paramètre qui est connu de la manière la plus précise est λ grâce à l'utilisation de réactions particulières,
obéissant à des lois de symétrie, qui permettent d'avoir un bon contrôle des effets issus de l'interaction forte.
λ est mesuré à partir de transitions entre noyaux atomiques et de désintégrations de particules étranges avec
une précision de 1,5%.
Le paramètre A n'était connu qu'avec une précision de 25% en 1988, à la fois pour des raisons expérimentales et théoriques. Du point de vue expérimental, son étude nécessite l'utilisation des particules formées d'un
quark de beauté qui n'ont été produites de manière notable et dans des conditions permettant leur étude qu'en
Allemagne (ARGUS) et aux USA (CLEO) vers 1987. Du point de vue théorique, une nouvelle loi de symé-
page 15
Nous avons représenté sur la figure 1 l'évolution
de la zone que peuvent occuper les valeurs des
paramètres ρ et η, afin que les estimations théoriques soient en accord avec les mesures.
_
0
-1
_
η
Pour déterminer les valeurs des deux autres
paramètres, ρ et η, avant le démarrage des usines
à beauté, on disposait de quatre réactions : la violation de la symétrie CP pour les kaons, les désintégrations des mésons beaux du type b —> u et les
oscillations particule-antiparticule dans les systèmes Bd-Bdo et Bs-Bso. Pour chacune de ces réactions, on a des résultats expérimentaux qui peuvent
s'exprimer en fonction des valeurs des paramètres
ρ et η et qui définissent une zone permise pour les
valeurs de ces paramètres. Chaque expression
théorique fait aussi intervenir d'autres quantités
dont les valeurs sont liées à l'interaction forte et
qui n'ont été connues, pour certaines d'entre elles,
avec un précision raisonnable (de l'ordre de 10 à
15%), qu'à partir de 1995.
1
0.5
-0.5
0
0.5
-0.5
0
0.5
-0.5
0
0.5
_1
ρ
1
0.5
0
-1
_
trie, établie vers 1984 par des théoriciens russes a
permis un contrôle assez satisfaisant des effets liés
à l'interaction forte. Cette loi s'applique lorsqu'un
quark lourd (b) se désintègre en un autre quark
lourd (c). Comme, en pratique, ces deux quarks (et
notamment le quark charmé) ne sont pas infiniment lourds, les violations de cette symétrie
constituent la limite actuelle sur la précision, de
l'ordre de 5%, avec laquelle on connaît A.
η
Petite histoire du
triangle
η
Triangle
_1
ρ
1
0.5
0
-1
_1
ρ
Figure 1 :Évolution de la zone autorisée pour les
valeurs des paramètres ρ et η de 1988 à 2000. Les
deux contours, tracés sur chacune des figures, correspondent à des probabilités respectives de 68% et
de 95% d'y trouver les vraies valeurs de ces paramètres.
Avant 1988 il était pratiquement impossible de
mettre des contraintes. En 1995 la situation s'était
beaucoup améliorée grâce aux avancées expérimentales et théoriques. En 2000, la zone permise s'est encore restreinte. La différence, par rapport à 1995,
provient notamment des études sur les oscillations des mésons B 0s effectuées à LEP et à SLD(USA) qui ont
permis d'éliminer la zone correspondant à des valeurs négatives de ρ.
En 2001 la situation est pratiquement identique à celle de l'année précédente. Les analyses expérimentales
sont pratiquement achevées à LEP et les calculs théoriques relatifs à l'interaction forte marquent le pas. Une
nouvelle génération de calculs (et de calculateurs) ayant une précision de quelques pourcents est attendue
dans les deux ou trois prochaines années.
page 16
Triangle
Petite histoire du
triangle
_
η
Cette année, lors des conférences de physique de l'été, les expériences BaBar et Belle ont présenté leurs
nouveaux résultats qui, une fois combinés, permettent de sélectionner une région dans le plan (ρ et η) qui
est indiquée sur la figure 2. Il convient de souligner que cette mesure fait partie des rares observations qui
échappent aux distorsions induites par l'interaction forte, d'où son intérêt. La zone ainsi favorisée est comparée, sur cette même figure, à celle définie précédemment par l'ensemble des autres mesures. On constate
1
∆md
∆ms/∆md
0.8
εK
0.6
0.4
|Vub|
|Vcb|
0.2
0
-1
-0.8 -0.6 -0.4 -0.2
0
0.2
0.4
0.6
P. Paganini, F. Parodi, A. Stocchi - P.R.
0.8
1
_
ρ
Figure 2 : la zone circulaire sélectionnée précédemment est comparée à celle qui est obtenue à partir de la mesure de la violation de CP fournie par BaBar et Belle (secteurs hachurés où le rose correspond à 68% de probabilité et le bleu à 95%). Les deux résultats sont compatibles. Comme il est mentionné dans le texte, les deux secteurs roses correspondent aux deux solutions possibles lorsque l’on
évalue (ρ, η) à partir de la mesure de sin(2β).
que les deux zones se recouvrent et qu'il n'y a donc pas, actuellement, de désaccord entre les deux valeurs
obtenues pour sin(2β). Bien que l'on soit convaincu que le modèle standard ne constitue pas la description
finale de la nature, il a encore une fois résisté aux tests.
On peut noter que les zones sélectionnées à partir des mesures directes et indirectes présentent des différences par rapport à celles indiquées sur la figure donnée dans l’exposé de Stéphane. Ceci provient de l'utilisation de méthodes différentes pour combiner l'ensemble des résultats expérimentaux et pour évaluer l'importance des incertitudes théoriques. Ces questions sont encore vivement débattues et il est trop tôt pour
indiquer qui a raison dans le détail, les deux analyses conduisant à la même conclusion générale de validité
du modèle standard.
page 17
Triangle
Petite histoire du
triangle
Dans les années qui viennent, les usines à beauté vont beaucoup améliorer la précision sur les
mesures directes et indirectes de sin(2β), rendant le test décrit ci-dessus plus contraignant. On espère
aussi une amélioration de nos connaissances sur les valeurs des paramètres liés à l'interaction forte et
l'utilisation de nouveaux tests rendus possibles peut-être par des mesures des autres angles du triangle.
Une étape importante doit être franchie également par le TeVatron (Fermilab) qui devrait mesurer la
période d'oscillation particule-antiparticule dans le système Bos-Bso. La valeur attendue, à partir des
mesures de LEP et de SLD, et des contraintes indiquées ci-dessus, est de (0,36±0,03)ps. Il sera très
intéressant de voir si cette valeur correspond ou non à celle que mesureront les expériences dans les
deux prochaines années. Si cette valeur est également confirmée, les possibilités de mettre en évidence de la physique nouvelle à partir des études du triangle d'unitarité, dans les dix prochaines années,
seront plus difficiles et nécessiteront des mesures de précision des différents paramètres. Les expériences au LHC permettront, de ce point de vue, de franchir un nouveau pas. Sera-t-il suffisant? De
toutes les manières, la compréhension de l'interaction forte, dans le domaine où il est actuellement difficile de faire des calculs précis, aura énormément progressé.
PATRICK ROUDEAU
page 18
Qu’est-ce-que
l’énergie ?
Energie
Lors de la rencontre “ Résonances ” autour de BaBar, un participant a demandé “ Qu'est-ce que l'énergie? ”. Dans le temps imparti, la réponse du conférencier ne pouvait qu'être brève. Cependant, la question
(peut-être faussement naïve) mérite à coup sûr des développements. L'auteur des lignes qui suivent saisit
l'occasion pour proposer quelques éléments, à verser à un dossier ouvert pour longtemps...
Les grandeurs fondamentales
1Si l'on excepte les grandeurs électromagnétiques qui
nécessitent une quatrième
grandeur fondamentale, la
charge électrique ou bien l'intensité, par exemple.
La physique moderne (qui commence avec Galilée) repose sur trois catégories : l'espace,
le temps, la matière. L'espace et le temps constituent en quelque sorte une scène sur laquelle se déroule un scénario dont les personnages sont la matière et la lumière, scénario obéissant à des règles, les lois de la physique.
A ces catégories de base sont associées des grandeurs physiques, susceptibles d'être
mesurées : la longueur, la durée, la masse, que l'on désigne habituellement par les notations
L, T, M. Ce sont là les trois seules1 grandeurs fondamentales qui fondent le choix des unités du système international SI (mètre, seconde, kilogramme). Les autres grandeurs physiques, dites dérivées, sont définies à partir des précédentes. La vitesse, par exemple, est une
longueur divisée par une durée ; on dit que la vitesse a le contenu dimensionnel : [LT-1].
L'accélération (vitesse de la vitesse) a la dimension [LT-2]. La mécanique newtonienne,
avec sa célèbre formule F = m γ, introduit la force comme masse
multipliée par l'accélération ; cette force a donc le contenu dimensionnel : [ MLT-2].
De la force vive à l'énergie
cinétique
2Rappelons qu'une force
est un vecteur avec un point
d'application, une direction et
une intensité. Ainsi en est-il de
l'attraction de pesanteur : elle
s'applique au centre de gravité du corps considéré, dirigée
vers le « bas » selon la verticale du lieu, son intensité est
le poids.
Une force «travaille» ou produit de l'énergie si elle déplace son point d'application2. Cela
a un contenu intuitif : si je soulève un livre qui se trouve à terre pour le mettre sur mon
bureau, je dépense une énergie qui sera d'autant plus grande que le poids du livre (force que
je dois exercer pour vaincre la force de pesanteur) sera plus élevé et que la hauteur du
bureau sera importante. Dans ce contexte, l'énergie (ou encore travail mécanique) peut donc
être définie comme le produit (scalaire) du vecteur force par le vecteur déplacement ; elle
a la dimension d'une force multipliée par une longueur, soit, d'après ce que nous avons précédemment énoncé : [ML2T-2]. Si le livre retombe au sol, et si j'ai laissé mon pied dessous,
je constate des effets que je peux considérer comme ceux d'un autre type d'énergie, due au
mouvement : l'énergie cinétique, égale au demi-produit de la masse par le carré de la vitesse acquise, ce qui, notons-le, a bien la dimension d'une énergie, telle qu'explicitée plus haut.
Ainsi, quand il est sur mon bureau, le livre est en capacité d'acquérir une énergie cinétique,
si, pour une raison ou une autre, il tombe : il possède une énergie potentielle (d'autant plus
élevée que le plateau du bureau l'est, élevé), énergie potentielle qu'en fait, je lui avais fournie en le soulevant depuis le sol. Cela nous amène à la loi fondamentale de la conservation
de l'énergie : l'énergie totale (cinétique + potentielle) d'un système isolé se conserve au
cours de son évolution.
page 19
Energie
Qu’est-ce-que
l’énergie ?
Pour l'instant, nous n'avons parlé d'énergie qu'en relation avec le mouvement, le déplacement d'objets, c'est-à-dire l'énergie mécanique. Cela est conforme au processus historique. La physique s'est identifiée à la mécanique jusque vers le début du XIXe siècle. Le
terme d'énergie3 n'a été introduit en physique qu'en 1807 par Young, dans un mouvement
de remise en ordre terminologique, en remplacement de celui de « force vive » utilisé
jusqu'alors pour désigner notre énergie cinétique4, dont la loi de conservation5, lors de
chocs élastiques, avait été pressentie par Huygens (1669)et formalisée par
Leibniz(1686). Cette «force vive» est la première forme historique de la notion d'énergie.
Une entité protéiforme
3Le mot énergie vient du grec
energeïa (dans lequel on trouve
un autre mot grec, ergon, le travail, l'œuvre), utilisé par Aristote
pour signifier «force en acte» par
opposition à dynamis, «force en
puissance». Pour Aristote, en
effet, les choses sont “ en acte ”
ou “ en puissance ” : la pierre est
en acte en tant que pierre constituée, mais elle est en puissance la
statue qu'elle peut devenir sous
l'outil du sculpteur.
Au début du XIXe siècle l'extension de l'usage de la machine à vapeur (connue depuis
le milieu du XVIIIe siècle) est massive et il devient important d'évaluer le rapport entre
la quantité de combustible dépensée et le travail mécanique obtenu.
4Le terme d'énergie potentielle sera introduit par Rankine,en
1853.
En 1854, le premier principe de Carnot-Clausius établit que la chaleur n'est rien d'autre
qu'une forme d'énergie qui est susceptible de se transformer en travail mécanique et réciproquement (sous certaines conditions précisées par le second principe). Ce principe
d'équivalence amorce le formidable développement de la thermodynamique.
5Enjeu de la célèbre «querelle
des forces vives» mettant aux
prises cartésiens et leibniziens.
Cette querelle fut tranchée définitivement par d'Alembert (17171783).
L'énergie devient une entité capable de changer de forme mais toujours avec la loi de
conservation de l'énergie totale (quelle que soit la forme qu'elle puisse prendre) d'un système isolé. En 1847, Helmoltz indiquait pour la première fois : “ tout processus physique
doit alors être considéré comme la transformation d'une forme d'énergie dans une autre,
l'énergie totale, correspondant à la somme des énergies de type particulier, devant rester constante [...]. En ce sens toute forme d'énergie possède toujours un équivalent
mécanique : la quantité d'énergie mécanique obtenue en transformant l'énergie de la
forme considérée en énergie mécanique.”. La notion d'énergie recouvre des formes multiples : mécanique, thermodynamique, électromagnétique, etc... Ainsi, la théorie cinétique des gaz (Boltzmann-Maxwell) établit une relation capitale entre la température
absolue T, exprimée en kelvins, et l'énergie : E = kT. La température peut être considérée comme l'expression statistique de l'énergie moyenne des molécules d'un gaz6. La correspondance entre les deux notions (ou les deux théories : mécanique, statistique) est
assurée par la constante de Boltzmann7, k.
Où l'énergie devient une grandeur fondamentale
La théorie de la Relativité restreinte (1905) naît de la nécessité de mettre en accord la
mécanique galiléenne (théorie ayant pour objet des « corpuscules ») avec l'électromagnétisme (théorie de champ, traitant des « ondes » électromagnétiques) dans les situations où les deux théories ont à intervenir simultanément, en particulier quant à leurs
comportements lors de changements de repères en mouvement relatif uniforme. Il n'est
page 20
6À un facteur multiplicatif
près dépendant du nombre de
degrés de liberté de chaque molécule de gaz.
7Dans son livre «Les
constantes universelles» (Hachette-1991) Gilles CohenTannoudji rappelle la relation,
établie par Brillouin (18891969), partant de la théorie
quantique, entre cette constante
de Boltzmann et la théorie de l'information. Il propose d'interpréter la constante de Boltzmann
comme un quantum d'information, avec la conséquence de faire
apparaître le quantum d'action
(voir la suite du texte) comme « le
coût du quantum d'information »,
établissant par-là un rapport,
bien qu'indirect, entre énergie et
information.
Qu’est-ce-que
l’énergie ?
8En physique des particules,
l'unité adaptée d'énergie est le
GeV, Giga-électron-volt. C'est
l'énergie communiquée à un
électron par une différence de
potentiel électrostatique de
1 GV (Giga-volt; 1 GV vaut
1 000 000 000 volts). De manière cohérente avec l'équivalence
d'Einstein entre masse et énergie, une masse s'exprime en
GeV/c2.
9En réalité, la Relativité restreinte enregistre le fait que,
dans le vide, sont susceptibles
de se manifester des interactions, par exemple l'interaction
électromagnétique, dont les
bosons messagers, selon la théorie quantique des champs, sont
de masse nulle. La constante c
est la vitesse de propagation de
ces interactions et aucun objet,
aucune énergie ne peut se propager plus vite.
Energie
donc pas étonnant (après-coup !) que ce « raccord » entre la théorie électromagnétique et
les conceptions usuelles de la physique s'exprime au moyen de l'énergie et de la constante c, vitesse des ondes électromagnétiques dans le vide. D'où la trop célèbre formule
E=mc2. Pour reprendre les termes d'Einstein : “ la masse inerte d'un système de corps
peut même être considérée directement comme la mesure de son énergie ”. La masse et
l'énergie, c'est la même chose ; la masse est une forme de l'énergie8. L'énergie se trouve
du même coup promue au rang de grandeur fondamentale. L'équivalence est assurée par
la constante c qui prend ainsi une valeur universelle. Si, historiquement, elle a été introduite comme vitesse de la lumière dans le vide, ce n'est pas là sa signification profonde9.
Sa signification fondamentale est qu'elle représente une
limite absolue à la vitesse de propagation d'énergie,
quel qu'en soit son véhicule.
Où intervient la
discontinuité
La théorie quantique apporte,
comme on le sait, une modification
considérable dans toutes les conceptions de la physique et, historiquement,
c'est précisément autour de la notion
d'énergie que la révolution a éclaté.
Pour effectuer une mesure sur un système, il
est nécessaire de le perturber un tant soit peu, c'està-dire en fin de compte d'échanger avec lui une quanBuste d’Aristote,
tité d'énergie ∆E, aussi petite soit-elle, opération qui
(Naples, musée national).
s'effectue en une durée ∆t, aussi petite soit-elle. La
physique antérieure considérait que ces quantités
pouvaient (théoriquement) être rendues aussi petites
que l'on veut et que, par conséquent la théorie pouvait ne pas en tenir compte ; et cela se
trouvait justifié pour les objets (macroscopiques) qu'elle traitait. Pour les objets (microscopiques) de la physique quantique il n'est plus possible de tenir cet argument sans se
heurter à des antinomies et à des désaccords profonds avec l'expérience. Un nouveau
principe intervient qui indique que la quantité ∆A = ∆E . ∆t (qui est une « action ») ne
peut pas, même dans l'idéal, être rendue arbitrairement petite, qu'elle est toujours au
moins égale à une nouvelle constante universelle, la constante de Planck h, quantum
d'action. C'est le principe d'incertitude de Heisenberg. Ce quantum d'action met en équivalence une énergie ∆E avec une durée temporelle ∆t = h/ ∆E. C'est cette équivalence
que l'on retrouve dans la loi selon laquelle les échanges d'énergie faisant intervenir un
rayonnement de fréquence ν se font obligatoirement par quanta discrets dont la valeur
est donnée par relation quantique bien connue E = h ν (comme chacun sait, la fréquence est l'inverse d'une durée, la période). Cela conduit à une conception paradoxale de
l'énergie. En effet, pour reprendre l'exemple du début, quand je soulève une livre depuis
le sol jusque sur mon bureau, je repasse par toutes les hauteurs intermédiaires et person-
page 21
Energie
ne n'imagine qu'il puisse en être
autrement. Heurtant en cela les
convictions acquises, la physique
quantique dit qu'un électron autour
d'un noyau atomique, par exemple,
peut passer directement d'un
niveau d'énergie à un autre (selon
la règle E = h ν ) et qu'il n'y a
aucun sens à considérer pour cet
électron le passage par des énergies intermédiaires, comme si mon
livre pouvait se retrouver sur mon
bureau sans être passé par les hauteurs intermédiaires.
Mais on a toujours, bien entendu, le principe de conservation
(voir encadré). Avec une précision
cependant : la conservation de
l'énergie peut, dans certaines
conditions, être violée d'une quantité ∆E pourvu que cela ne soit pas
pendant une durée plus longue que
la valeur donnée par le principe de
Heisenberg ∆t = h/ ∆E : ce phénomène est à la base des «fluctuations quantiques».
Qu’est-ce-que
l’énergie ?
La conservation de l’énergie
La loi de conservation de l'énergie est un principe fondamental dont
l'absence ruinerait l'édifice conceptuel de la physique. Il est pourtant
arrivé, dans des moments de crise, que ladite physique en vienne à se
mettre elle-même en danger en jetant le doute sur la validité de la
conservation de l'énergie. Par exemple, et ce n'est pas un hasard, lors
des débuts de la mécanique quantique où l'on envisagea de n'admettre
qu'une version statistique du principe de conservation (théorie BKS,
Bohr, Kramers, Slater). Un autre exemple est encore fourni par la radioactivité bêta, pour laquelle le défaut d'énergie que l'on sait aujourd'hui
représenter l'énergie d'un antineutrino inconnu à l'époque, a suggéré
une mise en cause du principe. Mais chaque fois le principe de conservation est sorti intact à la faveur d'une nouvelle découverte. Il est
d’ailleurs à remarquer que, selon un théorème de mathématiques, le
principe de conservation de l’énergie revient à affirmer que la forme des
lois de la physique ne dépend pas du temps : si je fais une expérience
aujourd’hui, j’obtiendrais le même résultat que si je l’effectue, dans les
mêmes conditions, demain ou plus tard. Ce qui est condition de possiblité de la physique.
Des « régions de réalité »
D’abord construite à partir de notions mécaniques, avec des représentations intuitives dans la réalité concrète, l'énergie devient petit à petit une notion très abstraite dont les seules propriétés permanentes sont son contenu dimensionnel et sa conservation au cours de l'évolution des processus physiques. Ce caractère abstrait est
une contrepartie de la multiplicité des formes que l'énergie peut prendre : elle est à la fois toutes ces formes,
mais ne s'identifie à aucune d'entre elles. C'est la même notion d'énergie qui est exprimée suivant l'une ou
l'autre « région de réalité » (pour reprendre une expression de Heisenberg, qu'il reprenait déjà de Goethe...) :
région de réalité relativiste, région de réalité quantique etc…, régions de réalité caractérisées par les constantes
universelles, qui assurent les « correspondances » entre les différentes formes de l'énergie et dont le contenu
dimensionnel est significatif : que l'espace relativiste soit caractérisé par une vitesse, ou bien la réalité quantique par une action a une lourde signification épistémologique. On en trouve, par exemple, confirmation dans
les indications théoriques qu'un simple raisonnement dimensionnel sur ces constantes permet d'obtenir. Les
théories cosmologiques des origines de l'Univers nécessitent, en effet, de prendre en compte à la fois11 la
Relativité restreinte (constante c), la Relativité générale (constante de gravitation, de dimension [M-1L3T-1], la
théorie quantique (constante h). Il est possible d'écrire, avec ces seules constantes, affectées d'exposants adéquats, multipliées ou divisées entre elles, une expression ayant la dimension d'une énergie : c'est l'énergie de
Planck (de l'ordre de 1019 GeV), qui est, dès lors une unité « naturelle » d'énergie. Une longueur de Planck et
un temps de Planck s'en déduisent par le jeu des mêmes constantes. On aboutit à ce qu'il n'y ait plus trois grandeurs fondamentales mais une seule dont les deux autres sont dérivées.
page 22
Qu’est-ce-que
l’énergie ?
Energie
Qu'est-ce que la vertu ?
11On ne sait toujours
pas rendre compatibles la
Relativité générale et la
théorie quantique. Les
théories de cordes et super
cordes proposent de
grandes avancées en ce
domaine.
Avons-nous répondu à la question « qu'est-ce que l'énergie ? » . Cela n'est pas certain. Certes, de ce que nous avons dit, plus ou moins adroitement, il ressort qu'il s'agit
d’une quantité scalaire (c'est-à-dire un nombre) qui a un contenu dimensionnel permanent, quantité qui peut être prise comme grandeur fondamentale, et qui se conserve, en
changeant éventuellement de forme (selon des règles) au cours des processus physiques. Mais au fond, il ne s'agit là que d'une sorte de mode d'emploi du concept d'énergie, de moyens de calcul, pour le physicien, mais pas d'une explicitation de l'essence de
l'énergie. Alors, l'énergie, avec l'article défini, qu'est-ce que c'est ? La réponse semble
se dérober. Il n'y a rien là que de très normal. Depuis Galilée, la science « exacte » n'est
qu'un vaste effort pour éliminer les qualités au profit des quantités. C'est pourquoi,
s'agissant de l'énergie, on est confronté à un nombre et des règles pour l'évaluer. Quant
à savoir ce que c'est (quelles qualités cela a), c'est une question que la physique refuse
d’aborder, par construction, si l'on ose dire. Elle ne connaît que l'identité et la différence (quantifiée). Si l'on y réfléchit bien et si l'on se place sur le plan d'une logique un peu
formelle, à la question du type « Qu'est-ce que A? » il y a deux sortes de réponses possibles. Soit « A est A », ce qui n'avance guère. Soit « A est B », mais alors on dit que
deux choses non identiques (A et B) sont les mêmes... la science, c'est sa nature, ne se
confronte pas à ce genre de situation. Seule la philosophie (avec la poésie, selon
d’autres modalités) en est capable. On pense alors à la question que Socrate propose à
ses interlocuteurs : « qu'est-ce que la vertu ? ». Ces derniers se lancent dans l'énumération d'actions que chacun estime vertueuses... mais cela ne fait pas une définition de la
vertu. L’impossibilité même d’une telle définition ouvre, avec Socrate, le champ de la
philosophie, dont la science reste une des conditions.
GUY LE MEUR
page 23
Prochainement...
Solution des mots croisés de
S o p h i e (voir précédent numéro)
page 24