La physique des particules

Dossier : La physique au XXIe siècleMagazine N°604 Avril 2005
Par Bruno MANSOULIÉ (75)

La physique de l’élémentaire

La physique de l’élémentaire

Si l’ap­pel­la­tion “Physique des par­tic­ules” est tra­di­tion­nelle pour désign­er l’é­tude des con­sti­tu­ants de la matière, je lui préfère de beau­coup celle de “Physique de l’élé­men­taire”. À la ques­tion : “De quoi la matière est-elle faite et quelle est son orig­ine ?”, une longue tra­di­tion occi­den­tale tente en effet de répon­dre par une hiérar­chie de struc­tures, con­va­in­cue que la var­iété de la nature est obtenue par l’assem­blage de cor­pus­cules élé­men­taires d’un petit nom­bre de types. L’idée est sim­ple et forte, et encore de nos jours, la décou­verte d’une nou­velle “par­tic­ule” est un événe­ment aus­si bien pour le pub­lic que pour les chercheurs. Pour­tant, la physique mod­erne a élar­gi con­sid­érable­ment les con­cepts de con­sti­tu­ants et d’in­ter­ac­tions : la mécanique quan­tique nous indique en effet qu’une par­tic­ule est aus­si une onde, cepen­dant que dans la rel­a­tiv­ité générale, matière et espace-temps eux-mêmes appa­rais­sent comme des champs. Dans les théories récentes des super­cordes, les par­tic­ules per­dent même leur car­ac­tère ponctuel et sont décrites comme des cordes ou mem­branes en inter­ac­tion dans un espace à dix (ou peut-être onze…) dimensions.

L’im­age famil­ière du monde des par­tic­ules est donc ini­tiale­ment celle des poupées russ­es : dans la matière, des atom­es, dans un atome un noy­au (et des élec­trons), dans un noy­au, des pro­tons et des neu­trons, dans un pro­ton des quarks… Selon cette image, tout pro­grès de la dis­ci­pline serait lié à la décou­verte d’un nou­veau com­posant, plus petit. En fait, ce que les physi­ciens recherchent avant tout, ce sont des struc­tures élé­gantes, et la descrip­tion de la matière par un mod­èle sim­ple et cohérent.

Il est vrai que, par­fois, l’ex­pli­ca­tion de ces struc­tures, la sim­pli­fi­ca­tion du mod­èle vien­nent de l’in­tro­duc­tion d’une nou­velle échelle de com­posants. Le pre­mier exem­ple fut d’ex­pli­quer la var­iété des élé­ments chim­iques et la com­po­si­tion du tableau de Mendeleïev par la struc­ture des atom­es, et leur descrip­tion en pro­tons, neu­trons et élec­trons. Le sec­ond per­mit d’ex­pli­quer la nature des nom­breuses par­tic­ules décou­vertes dans les années 1960 auprès des accéléra­teurs, comme des assem­blages var­iés d’un petit nom­bre de com­posants : les quarks.

Pour autant, cette image sim­ple est trop lim­itée. L’am­bi­tion est en effet bien plus vaste : le mod­èle recher­ché doit en effet ren­dre compte de toutes les pro­priétés de la matière, naturelle ou arti­fi­cielle, à toutes les échelles de taille ou d’én­ergie, et à toutes les épo­ques, du big bang à nos jours. Le cœur de cette com­préhen­sion est le Mod­èle stan­dard, qui décrit avec rigueur et pré­ci­sion les con­sti­tu­ants de la matière et leurs inter­ac­tions. Toute nou­velle mesure, qu’elle provi­enne d’un accéléra­teur de par­tic­ules ou d’une obser­va­tion par satel­lite, est immé­di­ate­ment con­fron­tée au Mod­èle stan­dard. Aujour­d’hui, des mesures très pré­cis­es, effec­tuées sur des objets et dans des gammes d’én­er­gies très var­iés, con­fir­ment toutes le Mod­èle standard.

Mal­gré ses suc­cès, le Mod­èle stan­dard ne manque pas d’im­per­fec­tions : un grand nom­bre de paramètres libres, cer­taines struc­tures totale­ment inex­pliquées, et surtout une insuff­i­sance ontologique. On sait bien décrire les par­tic­ules et leur com­porte­ment, on sait mal ce qui fait qu’une par­tic­ule est une par­tic­ule. Pourquoi, à tel endroit, à tel instant, une con­cen­tra­tion d’én­ergie nous appa­raît-elle comme une par­tic­ule dotée d’une masse, d’une charge, ou d’un tout petit nom­bre d’autres caractéristiques ?

Ces insuff­i­sances de principe don­naient lieu depuis longtemps à d’in­tens­es spécu­la­tions sur de nou­veaux mod­èles théoriques, asso­ciés à de nom­breuses recherch­es de signes expéri­men­taux. Mais la sur­prise des dernières années est venue des mesures cos­mologiques : 95 % de la den­sité d’én­ergie de l’u­nivers est de nature incon­nue, dif­férente de la matière “ordi­naire” que décrit le Mod­èle stan­dard ! Un tiers env­i­ron est sans doute d’une nature “proche”, et pour­rait être décrite par cer­taines exten­sions du Mod­èle déjà envis­agées. Mais le reste, soit plus des deux tiers du con­tenu énergé­tique de l’u­nivers, échappe encore aujour­d’hui à toute descrip­tion microscopique.

Entre ces ques­tions, anci­ennes et nou­velles, on dis­tingue aujour­d’hui un réseau de liens qui touchent aux aspects les plus fon­da­men­taux de notre per­cep­tion du monde : grav­i­ta­tion, symétries, nature de l’espace-temps…

L’élaboration du Modèle standard

La notion d’un Mod­èle stan­dard, décrivant toutes les par­tic­ules et les inter­ac­tions de façon cohérente, n’ap­pa­raît qu’à la fin des années 1970. Mais les fonde­ments du mod­èle remon­tent directe­ment à la péri­ode mag­ique de l’aube du vingtième siè­cle qui, en moins de dix ans, voit l’ap­pari­tion des théories de la mécanique quan­tique et de la rel­a­tiv­ité, et les décou­vertes de l’élec­tron, du noy­au atom­ique et de la radioac­tiv­ité. À ce moment, la théorie quan­tique décrit l’é­ton­nant com­porte­ment micro­scopique des par­tic­ules, et la rel­a­tiv­ité (restreinte) admet le temps comme 4e dimen­sion, con­traig­nant la forme des inter­ac­tions (inter­dis­ant par exem­ple l’in­ter­ac­tion instan­ta­née à dis­tance, comme celle de New­ton), et mon­trant l’équiv­a­lence entre masse et énergie.

Il reste à mari­er ces deux con­cepts : c’est Dirac, en 1928, qui écrit la pre­mière théorie quan­tique rel­a­tiviste de l’élec­tron. Ce pas est essen­tiel pour com­pren­dre la puis­sance de descrip­tion des mod­èles actuels. Grâce aux effets quan­tiques et aux rela­tions d’in­cer­ti­tudes, il est pos­si­ble d’échap­per à la con­ser­va­tion de l’én­ergie pour une quan­tité ΔE, à con­di­tion que ce soit pour un temps Δt d’au­tant plus court que ΔE est grand : le pro­duit ΔE x Δt doit rester inférieur à h/4π, où h est la con­stante de Planck. La petitesse de h assure que le monde à l’échelle humaine est “clas­sique”, avec une énergie con­servée et un com­porte­ment raisonnable. À l’échelle des par­tic­ules, cette fenêtre quan­tique ouvre des hori­zons immenses : avec la rel­a­tiv­ité, la masse au repos d’une par­tic­ule, m, est équiv­a­lente à une énergie mc2. Il devient donc pos­si­ble d’en­vis­ager que, pen­dant un temps Δt, on ait une fluc­tu­a­tion d’én­ergie ΔE, qui s’ex­prime sous la forme d’une par­tic­ule de masse m = ΔE/c2. On par­le alors de par­tic­ule virtuelle. Quelle par­tic­ule ? N’im­porte laque­lle, à choisir dans toutes les par­tic­ules “exis­tantes”, con­nues ou inconnues !

La fig­ure 1 mon­tre, dans la descrip­tion en dia­grammes intro­duite bien plus tard par Feyn­man (vers 1960), la représen­ta­tion d’un élec­tron “habil­lé” par des cor­rec­tions quan­tiques rel­a­tivistes. La pre­mière pré­dic­tion de la théorie de Dirac est l’ex­is­tence d’une antipar­tic­ule pour l’élec­tron, le posi­ton ; il sera décou­vert en 1933 par Ander­son. Le vide lui-même prend un statut de pre­mier plan : le vide clas­sique est… vide. Le vide quan­tique rel­a­tiviste con­tient virtuelle­ment toute la physique exis­tante à toutes les échelles d’én­ergie ou de dis­tance ! La théorie quan­tique rel­a­tiviste des élec­trons et des pho­tons, l’élec­tro­dy­namique quan­tique, s’éla­bore depuis les années 1930 jusqu’aux années 1970. La sym­bol­i­sa­tion des cal­culs en dia­grammes, par Feyn­man, en rend la pra­tique aisée et acces­si­ble à (presque) tous.

Il y a cepen­dant un écueil de taille : la mul­ti­pli­ca­tion des pos­si­bil­ités virtuelles con­duit le plus sou­vent à des résul­tats de cal­culs… infi­nis ! Dans l’ex­em­ple de la fig­ure 1a, la som­ma­tion (l’in­té­gra­tion) sur toutes les éner­gies pos­si­bles du pho­ton virtuel don­nerait ain­si une masse infinie à l’élec­tron de départ.

Le prob­lème n’est pas vrai­ment nou­veau : il était déjà présent en élec­tro­dy­namique clas­sique, lorsqu’on se posait la ques­tion par exem­ple de la cohérence de l’élec­tron : si on décrit un élec­tron comme une boule uni­for­mé­ment chargée, pourquoi les par­ties de cette boule ne se repoussent-elles pas ? De façon assez sur­prenante, la théorie quan­tique, bien qu’elle autorise des effets virtuels infi­nis et com­plex­es, apporte la solu­tion, car elle per­met de hiérar­chis­er l’im­por­tance des cor­rec­tions virtuelles, et d’en pré­cis­er les effets. Ces cal­culs sont au début un arti­fice math­é­ma­tique quelque peu hési­tant, mais se trou­vent con­fir­més de façon écla­tante par les mesures de déplace­ment des niveaux atom­iques dus à la polar­i­sa­tion du vide (effet Lamb). Dans les années 1950–1970, cette approche devient un proces­sus étayé et cen­tral dans le mod­èle : la “renor­mal­i­sa­tion”. Aujour­d’hui la mesure la plus pré­cise dans ce domaine (le moment mag­né­tique anor­mal du muon) mon­tre un accord avec la théorie avec une pré­ci­sion impres­sion­nante de 11 décimales.

Forte de ses suc­cès, l’élec­tro­dy­namique quan­tique est de ce fait dev­enue le mod­èle à suiv­re pour toute théorie : quan­tique, rel­a­tiviste et “renor­mal­is­able”.

Au cours du XXe siè­cle sont mis­es en évi­dence, puis étudiées, deux autres inter­ac­tions entre par­tic­ules : les inter­ac­tions faibles, respon­s­ables d’une forme de radioac­tiv­ité (et pri­mor­diales dans le proces­sus de com­bus­tion du Soleil !), et les inter­ac­tions fortes, qui assurent la cohé­sion des noy­aux (s’ils n’é­taient soumis qu’à la seule inter­ac­tion élec­tro­mag­né­tique, les pro­tons de même charge tendraient à se sépar­er, et les neu­trons ne joueraient aucun rôle). En 1965, on en est là : l’in­ter­ac­tion élec­tro­mag­né­tique a sa théorie puis­sante, cohérente et pré­dic­tive. L’in­ter­ac­tion faible a été étudiée en détail par de nom­breuses mesures de pré­ci­sion, soit dans les dés­in­té­gra­tions radioac­tives, ou auprès d’ac­céléra­teurs, et elle est décrite par un mod­èle assez élé­gant, pré­dic­tif, mais dont on sait la valid­ité lim­itée aux bass­es éner­gies. L’in­ter­ac­tion forte, quant à elle, con­naît une foule de résul­tats expéri­men­taux, les réac­tions obtenues en envoy­ant un fais­ceau d’ac­céléra­teur sur une cible pro­duisant quan­tités de “nou­velles par­tic­ules” de mass­es et de pro­priétés divers­es ; les mod­èles qui ten­tent de décrire cette var­iété sont phénoménologiques, peu pré­dic­tifs, par­fois même un peu éton­nants sur le plan logique (l’un d’en­tre eux s’ap­pelle le boot-strap, faisant référence à l’idée qu’on pour­rait s’élever en se tirant par les lacets de ses pro­pres bottes !).

Le pro­grès décisif est alors de rechercher l’in­gré­di­ent qui per­met le fonc­tion­nement de la théorie élec­tro­mag­né­tique, et de l’ap­pli­quer aux deux autres, mal­gré les appar­entes dif­férences. Cet ingré­di­ent, c’est la “symétrie de jauge”. Depuis le début, le rôle des symétries est essen­tiel dans notre com­préhen­sion théorique. Par exem­ple, il est clair que les lois de la physique doivent être invari­antes par un change­ment de repère dans l’e­space ou le temps : cette invari­ance con­duit à la rel­a­tiv­ité restreinte. De nom­breuses autres symétries sont util­isées pour con­train­dre les lois physiques : invari­ance par rota­tion, invari­ance (ou pas !) par ren­verse­ment du sens du temps, par échange de con­sti­tu­ants, etc.

L’in­vari­ance de jauge est une invari­ance par rap­port à l’i­den­tité des par­tic­ules : si un élec­tron accom­pa­g­né d’un pho­ton se man­i­feste dans mon détecteur exacte­ment comme un élec­tron seul, pourquoi ne l’ap­pellerais-je pas un élec­tron ? On voit le lien avec la renor­mal­is­abil­ité : les pho­tons virtuels qui accom­pa­g­naient mon élec­tron risquaient de devenir trop nom­breux et ren­dre mes cal­culs infi­nis. Mais si c’est “tout cela” un élec­tron, plus de problème !

Appli­quer l’in­vari­ance de jauge à la théorie faible, et l’u­ni­fi­er avec l’in­ter­ac­tion élec­tro­mag­né­tique, ne peut pas se faire si facile­ment : la portée de l’in­ter­ac­tion élec­tro­mag­né­tique est infinie (c’est le poten­tiel de Coulomb, en 1/r), celle de l’in­ter­ac­tion faible est courte (très inférieure à la taille d’un pro­ton). Dans la théorie, ceci s’ex­prime par le fait que la par­tic­ule médi­atrice de l’in­ter­ac­tion élec­tro­mag­né­tique (le pho­ton) pos­sède une masse nulle, alors que celles médi­atri­ces des inter­ac­tions faibles (les W+, W- et Z0) ont une masse très élevée.

En 1967, Wein­berg et Salam, util­isant un résul­tat de Hig­gs, réalisent pour­tant cette uni­fi­ca­tion. Le mod­èle part d’une théorie com­mune où toutes les mass­es des par­tic­ules sont nulles. On intro­duit alors une par­tic­ule très spé­ciale, le “boson de Hig­gs”, dont la sim­ple présence donne une masse à toutes les par­tic­ules du mod­èle… sauf au photon.

La fameuse symétrie “de jauge” est donc brisée, mais d’une façon assez “douce” pour que ses pro­priétés soient con­servées. En 1974, t’Hooft mon­tre en effet que ce type de théorie est renormalisable.

À peu près en même temps, les expéri­ences ten­dent à mon­tr­er que les pro­tons et neu­trons seraient con­sti­tués d’ob­jets plus petits. Rapi­de­ment, on explique toutes les par­tic­ules pro­duites par inter­ac­tion forte à l’aide d’un petit nom­bre de con­sti­tu­ants, les quarks. Mais là aus­si, le pas décisif est de com­pren­dre que les quarks et leur inter­ac­tion forte peu­vent être décrits par une théorie “de jauge”, la chro­mo­dy­namique quan­tique (QCD).

Vers la fin des années soix­ante-dix, le Mod­èle stan­dard est enfin con­sti­tué, et sa con­cep­tion ne chang­era pas jusqu’à nos jours, mal­gré des mis­es à l’épreuve expéri­men­tales et théoriques aus­si var­iées que pré­cis­es. Seule la grav­i­ta­tion échappe à cette descrip­tion, car si nous en avons une excel­lente descrip­tion clas­sique (la rel­a­tiv­ité générale d’E­in­stein), nous n’en con­nais­sons pas de théorie quantique.

Les progrès expérimentaux et le Modèle standard aujourd’hui

Pen­dant la pre­mière moitié du XXe siè­cle, les phénomènes cor­pus­cu­laires sont d’abord observés à par­tir de sources naturelles, radioac­tiv­ité et rayons cos­miques, et des minus­cules accéléra­teurs d’élec­trons que sont les tubes cathodiques. À par­tir de la Deux­ième Guerre mon­di­ale se dévelop­pent les véri­ta­bles accéléra­teurs de par­tic­ules, de dimen­sions et d’én­ergie tou­jours crois­santes. En effet, la mécanique quan­tique nous indique que l’im­pul­sion trans­férée par une par­tic­ule sonde est inverse­ment pro­por­tion­nelle à la pré­ci­sion spa­tiale qu’elle per­met d’atteindre.


FIGURE 2
L’empreinte au sol du tun­nel du LEP au Cern (on aperçoit au sec­ond plan le lac Léman et, en arrière-plan, le Mont-Blanc). Le tun­nel lui-même est situé 100 m sous terre.

Des lab­o­ra­toires sont créés pour abrit­er spé­ci­fique­ment ces grands instru­ments, comme le CERN, fondé en 1954 près de Genève par l’ensem­ble des pays européens, DESY à Ham­bourg, Fer­mi­lab et SLAC aux USA, etc. À titre d’ex­em­ple, le pre­mier “gros” accéléra­teur con­stru­it au Cern en 1960 avait un diamètre de 72 m. Plusieurs généra­tions de machines plus tard, le LEP a fonc­tion­né de 1989 à 2000 dans un tun­nel de 9 km de diamètre situé à 100 m sous la cam­pagne genevoise. Ce tun­nel s’ap­prête main­tenant à recevoir le futur fleu­ron du Cern, le LHC, dont le démar­rage est prévu en 2007.

Les expéri­ences ont aus­si énor­mé­ment aug­men­té en taille, en com­plex­ité, et en durée : une expéri­ence auprès du LHC sera un com­plexe de 40 m de long, 30 m de diamètre, com­prenant des mil­lions de canaux élec­tron­iques, mis au point par une col­lab­o­ra­tion de plus d’un mil­li­er de physi­ciens et d’ingénieurs provenant de tous les pays dévelop­pés de la planète. Les expéri­ences (il y en aura 4) seront prob­a­ble­ment exploitées durant plus de quinze ans.

En par­al­lèle, d’autres méth­odes de recherche ont été pour­suiv­ies, comme l’ob­ser­va­tion des rayons cos­miques, en plein renou­veau actuelle­ment, ou cer­taines obser­va­tions astronomiques.

Durant les trente dernières années, le Mod­èle stan­dard a acquis une éton­nante solid­ité par un va-et-vient inces­sant entre pré­dic­tions théoriques et résul­tats expéri­men­taux, impos­si­bles à détailler ici, mais que le lecteur peut appréci­er de façon con­cise (et très réduc­trice !) par ce chiffre : 12 prix Nobel pour la dis­ci­pline depuis 1976 !

Tableau 1
Nom et Type d’interaction 3 familles
Quarks
(inter­ac­tions Forte et Electro-faible)
u c t
d s b
Lep­tons
(inter­ac­tions Electro-faible
e μ τ
νe νμ ντ

Le tableau 1 rassem­ble les par­tic­ules élé­men­taires de matière con­nues. Il com­porte trois colonnes, couram­ment appelées “familles” : la pre­mière famille com­prend les par­tic­ules qu’on trou­ve autour de nous : deux quarks (u et d), qui con­stituent les pro­tons et les neu­trons dans le noy­au des atom­es, un élec­tron, et un neu­tri­no dit “élec­tron­ique”, pour exprimer sa par­en­té avec l’élec­tron. Les deux­ième et troisième familles sont des répliques de la pre­mière, con­tenant des par­tic­ules observées dans des réac­tions de plus haute énergie, naturelles (rayons cos­miques) ou arti­fi­cielles (accéléra­teurs), dont les pro­priétés sont iden­tiques à leurs sœurs de la pre­mière colonne, si ce n’est leur masse plus élevée.

Toute par­tic­ule pos­sède son antipar­tic­ule, de même masse, mais avec toutes les “charges” opposées ; par exem­ple le posi­ton, antipar­tic­ule de l’élec­tron, de charge élec­trique + e.

Les dif­férentes “lignes” du tableau décrivent sim­ple­ment quelles par­tic­ules sont soumis­es à quelle(s) interaction(s) fon­da­men­tales : les neu­tri­nos ne con­nais­sent que l’in­ter­ac­tion faible, l’élec­tron (et ses parte­naires μ, τ ) est soumis aux inter­ac­tions faible et élec­tro­mag­né­tique, cepen­dant que les quarks ressen­tent les trois inter­ac­tions faible, élec­tro­mag­né­tique et forte. Comme on l’a vu, les inter­ac­tions élec­tro­mag­né­tiques et faibles sont con­sid­érées aujour­d’hui comme deux aspects d’une même inter­ac­tion électrofaible.

Toutes les par­tic­ules de ce tableau ont main­tenant été observées expéri­men­tale­ment. Mais la cohérence du mod­èle est telle que plusieurs d’en­tre elles avaient été prédites à par­tir de la théorie et de mesures indi­rectes, bien avant leur obser­va­tion directe.

Pour com­pléter le paysage, il faut ajouter deux remarques :

  • la présence de trois “familles” est absol­u­ment inex­pliquée. Mais on sait qu’elle est à l’o­rig­ine d’un phénomène très impor­tant d’asymétrie entre matière et antimatière ;
  • les neu­tri­nos ont une masse très faible, si faible qu’on la sup­po­sait nulle. Des mesures récentes, hors accéléra­teur, ont démon­tré que ces mass­es sont certes faibles, mais dif­férentes de zéro. Cela ouvre de nou­velles pos­si­bil­ités d’é­tude et de mise en cause du mod­èle, ain­si qu’un nou­v­el éclairage sur l’asymétrie matière antimatière.


Comme je l’ai dit plus haut, le fameux “boson de Hig­gs” n’en­tre pas dans la liste des par­tic­ules de matière, ni dans la liste des mes­sagers des inter­ac­tions fon­da­men­tales. C’est aus­si à ce jour la seule par­tic­ule du Mod­èle stan­dard non observée, mal­gré les efforts des expéri­men­ta­teurs. Le lecteur atten­tif de La Jaune et la Rouge se sou­vient peut-être de la polémique sus­citée par l’ar­rêt de l’ac­céléra­teur LEP du Cern, en 2000, alors qu’une des qua­tre grandes expéri­ences annonçait avoir vu les pre­mières indi­ca­tions de l’ex­is­tence d’un Hig­gs (fig­ure 3). Depuis, la prob­a­bil­ité que ce “sig­nal” soit en fait dû à du “bruit de fond” a été réé­val­uée à une valeur de 8 %, bien trop élevée pour pré­ten­dre une décou­verte (on exige en général une prob­a­bil­ité inférieure à 1 pour 10 000 pour pren­dre en con­sid­éra­tion une reven­di­ca­tion de découverte).

La recherche du Hig­gs reste donc le tout pre­mier but des physi­ciens, et c’est essen­tielle­ment ce qui a jus­ti­fié la con­struc­tion du LHC. En effet ces cal­culs, et les sim­u­la­tions effec­tuées pour la con­cep­tion des expéri­ences au LHC, lais­sent penser que ces dernières pour­ront décou­vrir cette clé de voûte du mod­èle quelle que soit sa masse. Le LHC, instal­lé au Cern dans le tun­nel de 27 km, pro­duira des col­li­sions entre deux fais­ceaux de pro­tons de cha­cun 7 000 GeV d’én­ergie, soit 7 fois plus que l’ac­céléra­teur actuel du même type (Fer­mi­lab, USA), et avec des inten­sités de fais­ceau 100 fois supérieures. La con­cep­tion de l’ac­céléra­teur et des expéri­ences a néces­sité des développe­ments tech­nologiques très impor­tants : aimants supra­con­duc­teurs, détecteurs ultra­ra­pi­des, élec­tron­iques rapi­des, puis­santes et bon marché, traite­ment de quan­tités colos­sales de don­nées. Tout le pro­gramme est actuelle­ment en pleine con­struc­tion, pour une mise en ser­vice prévue en 2007.

Au-delà du Modèle standard

Mal­gré son incroy­able puis­sance pré­dic­tive pour le monde des par­tic­ules, le Mod­èle stan­dard est loin d’être sat­is­faisant. En pre­mier lieu, parce qu’il con­tient encore beau­coup de paramètres inex­pliqués. Les trois familles de cha­cune 4 par­tic­ules, asso­ciées à 27 paramètres libres (dont toutes les mass­es des par­tic­ules de matière), font quelque peu ressem­bler le Mod­èle stan­dard à la table de Mendeleïev avant la décou­verte de la struc­ture atom­ique. Par ailleurs, cer­tains aspects tech­niques man­quent de cohérence, en par­ti­c­uli­er en ce qui con­cerne la nature spé­ciale du Higgs.

Un des événements enregistrés par une expérience à LEP, et reconstruit par informatique.
FIGURE 3
Un des événe­ments enreg­istrés par une expéri­ence à LEP, et recon­stru­it par informatique.
Les fais­ceaux d’électrons et de posi­tons sont per­pen­dic­u­laires à la fig­ure et se croisent au cen­tre du détecteur. Les traces col­orées représen­tent les par­tic­ules issues de la col­li­sion e+ — e-.

Enfin et surtout, nous com­mençons à abor­der le domaine qui relie les par­tic­ules élé­men­taires à l’u­nivers dans son ensem­ble. Les mys­tères sont alors nom­breux car nous n’avons pas encore aujour­d’hui de théorie quan­tique de la grav­i­ta­tion. Les mesures cos­mologiques nous indiquent qu’en­v­i­ron 70 % de la den­sité d’én­ergie de l’u­nivers (son con­tenu, au sens le plus général du terme) sont sous une forme incon­nue et incom­prise, qui s’ap­par­ente à une con­stante cos­mologique, énergie répul­sive du vide qu’avait intro­duite Ein­stein pour ten­ter de ren­dre l’u­nivers sta­tique. Les ten­ta­tives d’ex­pli­ca­tion de cette forme à par­tir de la physique du Mod­èle stan­dard se heur­tent à une incom­pat­i­bil­ité numérique de plus de 100 ordres de grandeur, une indi­ca­tion très claire qu’un élé­ment essen­tiel nous manque. Pour le reste, 26 % seraient con­sti­tués d’une matière de type encore incon­nu, mais que l’on peut mod­élis­er et com­pren­dre dans des exten­sions assez naturelles du Mod­èle standard.

De fait la con­fronta­tion microscopique/univers entier est rude : le Mod­èle stan­dard dont nous sommes si fiers ne s’ap­plique qu’à 4 % du con­tenu de l’univers !

Pour dépass­er le Mod­èle stan­dard, et résoudre tout ou par­tie de ces prob­lèmes, plusieurs théories sont envis­agées, basées sur des change­ments de principes physiques hardis, voire rad­i­caux. La théorie la plus pop­u­laire chez les chercheurs, la super­symétrie, pos­tule l’ex­is­tence d’un monde de par­tic­ules entière­ment nou­veau, reflet de nos par­tic­ules con­nues. La plus légère d’en­tre elles pour­rait con­stituer les 26 % de matière “non conventionnelle”.

Des expéri­ences hors accéléra­teurs sont actuelle­ment en cours pour rechercher directe­ment cette “matière noire”, et pour­raient dès les prochaines années tester l’hy­pothèse de la super­symétrie. Les accéléra­teurs de haute énergie actuels et futurs recherchent tout aus­si active­ment des signes de cette nou­velle physique.

Une autre pos­si­bil­ité, apparue récem­ment, évoque l’ex­is­tence de dimen­sions sup­plé­men­taires de l’e­space-temps (en plus des 4 habituelles), acces­si­bles dès l’én­ergie du LHC. On ver­rait ain­si des par­tic­ules pro­duites dans les col­li­sions, dis­paraître dans une 5e ou 6è dimension !

Conclusion

La recherche de “l’élé­men­taire” est un sujet en pleine forme. L’ap­proche du démar­rage de LHC, les rap­proche­ments avec la cos­molo­gie, les nou­velles per­spec­tives dans le domaine des neu­tri­nos nous promet­tent une décen­nie riche de décou­vertes expéri­men­tales et d’a­vancées intel­lectuelles. Si le but de cette recherche est avant tout l’ac­croisse­ment des con­nais­sances, les développe­ments tech­nologiques qui l’ac­com­pa­g­nent (dont le plus reten­tis­sant est l’in­ven­tion du Web au Cern) sont aus­si un apport immé­di­at à la société.

Poster un commentaire