Histoire de l’univers – Partie 3 : QED… Vous avez dit QED ?

richard-feynmanLe prix Nobel Richard Feynman, l’un des pères de la QED

L’article précédent a présenté les bases pour comprendre la physique des particules. En particulier, la représentation des interactions basée sur les diagrammes de Feynman a été introduite [1].

L’ElectroDynamique Quantique ou QED (acronyme anglo-saxon) est la branche de la physique des particules la plus aboutie avec plus de 50 années de mise au point.
Elle concerne les interactions électrons/photons et uniquement ces dernières.
Ces interactions permettent d’expliquer tous les phénomènes lumineux, magnétiques et électriques rencontrés dans la nature.

Les électrons font partie de la famille des fermions (spin 1/2 entier) et les photons de celle des bosons (spin entier).

3 séquences de base qui expliquent tout
Toute la QED est basée sur seulement 3 séquences de base très simples [2] :
. S1 : Un photon va d’un point A à un point B.
. S2 : Un électron va d’un point A à un point B
. S3 : Un électron absorbe ou émet un photon : cela se nomme un couplage

3-diag_Feynman 2Fig. 1 : Les 3 séquences de base de la QED sous forme de diagrammes de Feynman

La physique quantique est ainsi faite [3] que le comportement d’une particule ne peut être prédit d’une manière déterministe. La modélisation des électrons et des photons en termes de déplacements et d’interactions est donc de type probabiliste.

Les calculs sont possibles dans des cas simples
Il est clair que pour les phénomènes situés à notre échelle, au vu du nombre considérables d’électrons et de photons en jeu, tout calcul est impossible car la complexité de ce dernier serait démentielle.
La QED permet cependant dans des cas simples (*) de déterminer complètement les comportements correspondants par le calcul puis de vérifier ces derniers avec des expériences.

(*) Même dans les cas simples, les calculs sont très complexes.

Le principe de base de la QED
La théorie de l’électrodynamique quantique nous dit que pour un phénomène donné mettant en jeu des électrons et des photons, tous les cas envisageables peuvent se produire et qu’à chaque cas correspond une amplitude de probabilité.
Par exemple le chemin pour qu’un électron aille d’un point A à un point B peut être en ligne droite de A à B, mais les cas où ce dernier zigzague doivent également être pris en compte.
Le principe du calcul consiste à envisager tous les cas de figure possibles puis à calculer les amplitudes de probabilité de chacun d’entre eux.
La somme de toutes ces amplitudes de probabilité est bien entendu égale à 100%.

Les grandeurs et paramètres fondamentaux
Pour comprendre l’esprit de la QED sans entrer dans le détail des calculs, il faut citer 4 paramètres importants.
Deux d’entres eux sont des paramètres physiques mesurables (m,e) et les deux autres sont des paramètres théoriques utilisés dans les calculs (n,j).

Paramètres mesurables
Les paramètres (m,e) mesurés dans les laboratoires ne sont pas calculables. Ils résultent du comportement de la nature qui inclut la totalité des cas possibles comme indiqué dans les principes de base de la QED :
m : masse de l’électron
e : charge de l’électron

Un autre paramètre sans dimension équivalent à la charge e appelé « constante de structure fine » (symbole = α) représente sensiblement la même chose au niveau physique.
Une formule simple relie ces 2 paramètres (α = e2/hc), cette constante serait plus fondamentale que la charge à condition que la vitesse de la lumière soit bien constante dans tout l’univers.

α : constante de structure fine (valeur 1/α ~ 137)

On utilise d’ailleurs plutôt dans les calculs la constante de structure fine.

Paramètres nécessaires aux calculs (non observables)
Les paramètres utilisés dans les calculs ne concernent qu’un seul cas à la fois, c’est à dire 1 seul diagramme de Feynman. Leur signification physique est par ailleurs assez difficile à expliciter :
j : amplitude ou constante de couplage électron/photon (valeur ~ -0.1)
n : « pseudo masse » unitaire de l’électron

Ces derniers ne sont pas mesurables car liés à la théorie.

Lien avec les 3 séquences de base de la QED
– Séquence S1 (photon seul) : amplitude de probabilité liée uniquement aux positions du photon à chaque instant
– Séquence S2 (électron seul) : masse m de l’électron et paramètre n
– séquence S3 (photon + électron) : charge électrique e de l’électron ou constante de structure fine α et amplitude de couplage j

Illustration par un exemple
La présentation des concepts de la QED sera basée sur un cas simple concernant le moment magnétique de l’électron.
Concrètement, ce cas de figure est rencontré lorsqu’un électron est soumis à un champ magnétique externe comme celui produit par un aimant.
Ce champ magnétique étant constitué d’une « mer de photons », l’électron est donc immergés dans cette dernière.

Aimant-Electron

Le champ magnétique produit par l’aimant est constitué d’une pluie de photons qui vont (ou ne vont pas) interagir avec notre électron.

Moment magnétique de l’électron
Le moment magnétique représente la réponse d’un électron à un champ magnétique externe, cet électron se comporte comme un minuscule aimant.
Le moment magnétique est caractérisé par la masse m de l’électron, sa charge e ainsi que par un nombre sans dimension appelé facteur de Landé nommé g.

=> g = facteur de Landé

La masse et la charge de l’électron étant connues, le moment magnétique est donc proportionnel au facteur de Landé. Il suffit alors de déterminer ce paramètre pour connaître la valeur du moment magnétique d’une particule.

=> Moment magnétique = f(g)

Le paramètre g est en plus mesurable expérimentalement, il est donc possible de vérifier la validité de la QED en comparant le calcul et l’expérience.

Premier calcul effectué par Dirac
En 1928, Paul Dirac effectue le premier calcul du moment magnétique de l’électron en établissant la célèbre équation qui porte son nom.

Paul DiracPaul Dirac

Ce calcul fut basé sur l’étude d’un couplage direct entre l’électron et le photon. Même si à l’époque les diagrammes de Feynman n’existaient pas encore, ce couplage peut néanmoins être illustré par le suivant :

Diag Feynman - MMe- ordre 0Fig. 2 : Couplage direct : 1 interaction électron/photon (ordre 0)

Dans son équation, Dirac introduit la notion de « constante de couplage » entre l’électron et le photon. Ce paramètre est lié à la constante de structure fine α précédemment citée.
Il caractérise la probabilité d’absorption ou d’émission d’un photon par un électron.

Le résultat du calcul de Dirac indique une valeur exactement égale à 2 pour le facteur de Landé.

=> Calcul de Dirac : g = 2

Or les premières mesures du moment magnétique effectuées en 1948 montrent une valeur du facteur de Landé égale à 2.002

=> g mesuré en 1948 = 2.002

Le problème de la différence entre les 2 valeurs est connu sous le terme moment magnétique anomal

Cette différence semble insignifiante, mais comme cela s’est déjà vu en physique, un problème qui semble anodin nécessite la construction complète d’une nouvelle théorie.
Pour expliquer le moment magnétique anomal de l’électron, il fallu développer la QED qui nécessita plusieurs dizaines d’années de recherche.

Application de la QED au calcul du moment magnétique
Le problème consiste donc à calculer un terme correctif au facteur de Landé établit par Dirac.
Selon la QED, le calcul exact d’une interaction électromagnétique doit prendre en compte tous les cas possibles d’interactions compatibles avec les « règles de Feynman » [4] :
– conservation de l’énergie
– conservation de la charge
– application de la constante de couplage j à chaque vertex (*)

Le principe du calcul consiste à prendre en compte toutes les possibilités de couplages en s’aidant de la représentation des diagrammes de Feynman.

(*) Un vertex est un point de couplage électron/photon (Fig. 1)

Principe des perturbations
Le calcul est ensuite organisé en appliquant la théorie des perturbations.
Cette approche consiste à partir d’une valeur proche de la valeur que l’on recherche (ex : valeur de Dirac) puis à calculer progressivement des termes correctifs afin de converger vers la valeur réelle recherchée.

Il s’agit donc de calculer un terme correctif ou anomalie « a » au facteur de Landé :
g = 2(1 + a) équivalent à : g = 2 +2a (le 2 étant la valeur calculée par Dirac)

Ce terme est lui même divisé en termes successifs dépendant de la constante de structure fine calculés les uns après les autres :

a = A1*α + A2*α2 + A3*α3 + ….

Les facteurs correctifs d’ordres successifs (A1, A2…) sont logiquement classés dans l’ordre décroissants du plus grand au plus petit, ceci afin de prioriser les efforts de calculs sur les termes les plus contributeurs au résultat final.

Le chemin direct qui induit la principale contribution au résultat a donc comme on l’a vu d’abord été calculé par Dirac.

A chaque calcul de l’un de ces facteurs, la précision du résultat global pour la détermination du facteur de Landé g augmente. Cela se traduisant par l’apparition de nouvelles décimales après la virgule.

Puisque en parallèle, la précision des mesures s’améliore au fil du temps, la comparaison calcul/expérience permet de valider la théorie de l’électrodynamique quantique.

Si un jour ces comparaisons divergent, alors la QED sera en danger…

Des calculs étalés sur plusieurs dizaines d’années !

Julian SchwingerJulian Schwinger

Correction d’ordre 1
Le premier terme correctif fut calculé par Julian Schwinger (*), un physicien surdoué qui obtint en 1948 un facteur de Landé corrigé à l’ordre 1 avec A1 = 1/2 [2].

Diag Feynman - MMe- ordre 1Fig. 3 : Correctif ordre 1 : +2 interactions électron/photon supplémentaires

=> g calculé par Schwinger en 1948 = 2.00232

Ce résultat est très proche de la valeur mesurée de l’époque !

(*) Prix Nobel de physique en 1965 avec Feynman et Tomonaga.

Correction d’ordre 2
La correction d’ordre 2 fait intervenir quatre couplages supplémentaires et sept diagrammes de Feynman possibles, la fig. 4 présente les quatre premiers.
Il a fallu trois ans à deux équipes de physiciens pour terminer ce calcul [2].

Diag Feynman - MMe- ordre 2Fig. 4 : Correctif ordre 2 : +4 interactions e-/photon supplémentaires

Au fur et à mesure que l’on étudie les contributions d’ordre plus élevé, les calculs deviennent de plus en plus complexes car le nombre de diagrammes se multiplie par la prise en compte d’un nombre d’interactions possibles toujours plus élevé.

A titre d’exemple, la correction avec six couplages a mis vingt ans pour être calculée !

Situation en 1990
=> En 1990, les valeurs du facteur de Landé g étaient les suivantes :
Calculé = 2.002 319 304 280
Mesuré = 2.002 319 304 386

La dernière mesure de cette constante g date de 2006 et la valeur la plus récente se trouve ici.

La QED est donc jusqu’à présent très bien vérifiée !

Une difficulté supplémentaire
Une difficulté importante est cependant apparue lors de l’élaboration des premiers calculs. En effet, dans certains cas, ces derniers ont fait apparaitre des valeurs infinies [2][6] pour le calcul des diagrammes en boucles…

Apparition de valeurs infinies
Il existe 3 cas possibles de diagrammes de Feynman en boucles (fig. 5).

Diags_Feynman 3cas-infinisFig. 5 : Les 3 cas d’apparition des infinis dans le calcul

Les calculs correspondants contiennent des intégrales qui doivent être effectuées jusqu’à une distance nulle pour inclure toutes les possibilités.
Si l’on stoppe les calculs à une distance finie, non nulle, alors les intégrales convergent vers une valeur finie.
Mais dès que l’on « pousse » le calcul jusqu’à zéro, alors des divergences apparaissent sous la forme de résultats infinis, ce qui ne correspond pas bien entendu avec les expériences.
Ce problème a mis vingt ans pour être résolu à l’aide d’une méthode appelée « renormalisation » mise au point par Feynman, Schwinger et Tomonaga.

La méthode controversée de renormalisation
L’idée de base de cette méthode consiste à écrire les équations de la QED en isolant au préalable les parties divergentes. Ces parties divergentes sont alors écrites en faisant apparaitre certaines valeurs physiquement mesurables telles que la masse m ou la charge électrique e [5].

Les parties divergentes des équations sont alors isolées et écrites en fonction de ces valeurs mesurables (*).

Les équations sont alors modifiées d’une manière ad hoc afin que les valeurs limites convergent non plus vers l’infini mais vers des valeurs liées aux grandeurs mesurées.
Cette méthode de renormalisation fixe en particulier la valeur numérique des paramètres j et n cités précédemment.

Il s’agit en fait d’une technique mathématique dite « de raccordement » dans la zone où les équations ne marchent plus, ce raccordement est réalisé à partir des données expérimentales mesurées.
En gros, la renormalisation vise à faire disparaitre des infinis « gênants » en leur retranchant des infinis !
Et au final grâce à cette méthode, les infinis disparaissent des résultats du calcul (**).

(*) Ces constantes ne sont d’ailleurs pas calculables et doivent donc être mesurées avant d’être utilisées dans les calculs. On note dans ce cas un exemple typique de la « cuisine » que peut être la physique dans certains domaines.

(**) Il reste en fait un semblant de problème lié aux infinis. En effet, la constante de structure fine tend toujours vers l’infini aux distances proches de zéro, cela correspond cette fois à une réalité physique car lors de mesures à hautes énergies, cette constante semble augmenter.
L’interprétation correspondante appelée pôle de Landau est qu’un couplage photon/électron n’a jamais lieu à distance nulle, mais plus ce couplage est proche de zéro, plus l’énergie nécessaire augmente [6].

Commentaire
Cette méthode de renormalisation ne fonctionne pas systématiquement car elle n’est pas applicable à tous types d’équations. En effet, dans le cas de l’interaction faible, la théorie de Fermi élaborée pour modéliser cette dernière n’est pas renormalisable sauf si les particules sont de masse nulle, c’est la raison pour laquelle on a introduit la notion de champs de Higgs pour expliquer l’apparition de la masse [7].

Dans le cas de la QED, par chance cette méthode a fonctionné, on dit que cette théorie est renormalisable.

Cette méthode a été critiquée par ses propres concepteurs comme Richard Feynman qui considéraient que pour que les équations de la QED fonctionnent totalement, il a fallu recourir à une « cuisine infâme » (sic) dont la validité mathématique est douteuse.

Le débat reste ouvert même si les équations renormalisées continuent à donner des résultats jamais démentis par l’expérience jusqu’à aujourd’hui.
En effet, dès 1983 [2] la valeur mesurée du moment magnétique concorde jusqu’au 11e chiffre après la virgule par rapport à la valeur calculée, cela correspond à estimer la distance Paris/New-York à 1 cheveu près…

Conclusion
La QED ou électrodynamique quantique est une théorie destinée à concilier l’électromagnétisme avec la mécanique quantique.
Elle est basée sur l’idée simple que les particules chargées interagissent par échange de photons.
Sa genèse fut longue et difficile car elle fait appel à des mathématiques complexes basées sur la puissante notion de Lagrangien.
Une difficulté particulière est apparue lors de son développement avec l’apparition de valeurs infinies dans certains cas de figure.
La méthode controversée (même parmi ses concepteurs) de renormalisation a permis de résoudre ces problèmes. Le résultat fut l’obtention d’une précision sans précédent dans les calculs corroborée par l’expérience.

Cette théorie est aujourd’hui considérée comme l’une des plus robustes, du moins jusqu’à ce qu’elle soit un jour prise en défaut et détrônée par une théorie plus globale.

Reste la question du rapport entre cette théorie et la réalité déjà abordée au sens large ici.
Certains épistémologues comme par exemple Aimé Michel estiment qu’il est secondaire qu’une théorie représente ou pas le réel pourvu qu’elle soit prédictive [8].

Dans le cas de la QED, l’existence des électrons, des photons et de leurs interactions est avérée.
Il ne reste que la question de l’approche de type probabiliste fondée sur la philosophie de la physique quantique.
Jusqu’à présent, personne n’a été capable de faire mieux et de proposer une théorie déterministe, Einstein y a consacré le reste de son existence sans succès.

Et enfin, au sujet de la constante de structure fine, deux choses sont à remarquer :
. elle fait partie de la vingtaine de constantes fondamentales de la physique des particules
. si sa valeur était différente de seulement 4%, alors la cohésion des atomes de carbone serait impossible et l’univers que l’on connait ne pourrait pas exister…

Liens et références
[1] Histoire de l’univers – Partie 2 : Introduction à la physique fondamentale (pour les nuls !) (sur ce site)
[2] « Lumière et matière » – Richard Feynman (Ed. Française 1992)
[3] Le mur de la Quantique (sur ce site)
[4] Diagramme et rêgles de FeynmanYves SCHUTZ (PDF ici)
[5] Site Université de Laval – Luc Marleau (Si lien cassé : PDF ici).
[6] Voyage vers l’infiniment petit – Source : Ecole Normale Supérieure (ENS)
[7] « La physique et l’énigme du réel… » – Marceau Felden
[8] « La clarté au cœur du labyrinthe » Aimé Michel (« Auguste Comte et le père Noël » – 1971)

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s