Le mur de la quantique

« Si un physicien prétend comprendre quelque chose aux phénomènes quantiques alors c’est un menteur ! »
Richard Feynman (Prix Nobel de physique 1965)

Lorsqu’il faisait passer les épreuves orales de physique aux élèves de l’école polytechnique, le grand mathématicien et physicien Français Henry Poincaré faisait régner la terreur !
Dès lors où un élève avait brillamment terminé sa démonstration purement mathématique, Poincaré lui demandait d’exprimer en termes simples et compréhensibles les concepts utilisés sur le sujet donné.
Et si l’élève se montrait incapable de synthétiser en langage de tous les jours, c’était le zéro assuré.

Ce brillant esprit qui soit dit en passant fut reconnu comme l’un des pères de la relativité restreinte avait compris à l’époque l’importance de la capacité des scientifiques à faire comprendre à tout un chacun les idées de base qui déterminent les visions conceptuelles de la science.

Disparu prématurément en 1912, comment Poincaré aurait il réagit à la théorie quantique ?
Théorie purement descriptive où les meilleurs cerveaux du monde tentent vainement depuis presque un siècle de trouver une explication sur ce qui se passe là dessous…

800px-Solvay_conference_1927Congrès de Solvay en 1927 : l’An 01 de la théorie quantique

A. INTRODUCTION
Depuis sa genèse, la démarche scientifique a remplacé les anciennes croyances primitives pour avancer à pas de géants dans la compréhension de notre monde.
L’accélération de la science contemporaine depuis la fin du XVIIe siècle a permis des progrès fulgurants dans tous les domaines et en particulier dans celui de l’étude de la matière.

Aux deux extrémités de l’échelle, on distingue d’abord la cosmologie qui est l’étude de l’univers dans son ensemble puis celle de ses constituants les plus petits que l’on a longtemps cru être de petits grains de matière unitaires, les fameux atomes crochus imaginés par les Grecs du Vième siècle avant notre ère, Grecs qui ont posé les fondations de la science et de la logique contemporaine avec Aristote.

Le 20ième siècle a d’abord vu l’éclatante victoire acquise par Einstein sur notre vision de l’univers avec sa théorie de la relativité générale dont les concepts sont clairement établis avant toute considération mathématique.

A l’autre extrémité de l’échelle, à savoir dans le domaine des particules élémentaires, une autre théorie appelée physique quantique fut élaborée avec succès mais seulement en termes de modélisation mathématique.

Cette théorie n’est pas le fruit d’un génie isolé comme a pu l’être la relativité générale.
Pas moins d’une vingtaine de physiciens prestigieux dont les noms parsèment cet article ont contribué à son élaboration.
Hélas, un mur conceptuel est là, devant nous, dans les briques de base qui constituent toute la matière de l’univers car si l’on sait mathématiquement maitriser le comportement très inhabituel des « quantons » à l’échelle subatomique, l’explication causale pour comprendre ce qui se passe là dessous reste un très grand mystère : c’est le mur de la quantique !

Le phénomène qui a mis le feu au poudres est l’un de ceux qui nous sont le plus familier, il s’agit de…la lumière.

B. LA DESTRUCTION DE LA PHYSIQUE DU 19e SIÈCLE

19ième siècle : le rêve d’une science presque achevée
Au 19ième siècle, tout semblait aller pour le mieux dans le domaine de la physique.
En effet, deux théories se partageaient l’ensemble des phénomènes constatés dans la nature :
– l’électromagnétisme de Maxwell ou mécanique ondulatoire
– la mécanique des solides de Newton

Il restait certes quelques phénomènes inexpliqués mais il ne faisait aucun doute que ces derniers allaient vite être résolus dans le cadre des théories connues.
Dans le cas de la lumière, les choses étaient claires: il s’agissait d’une onde !

La lumière est une onde
Dès le 17e siècle, Christian Huygens postulait une nature ondulatoire de la lumière qui entrait en concurrence avec l’approche de Newton qui défendait quand à lui une origine particulaire.
En 1801 la célèbre expérience des fentes d’Young (Thomas Young et Augustin Fresnel) mit fin à la controverse en faveur de la nature ondulatoire de la lumière.
Cette expérience conduisit à l’interprétation « classique » de la lumière avec une fréquence (couleur), une intensité et une propagation ondulatoire. James Maxwell finalisa cette approche à la fin du 19e siècle en associant ses équations à la propagation de la lumière.

Le grain de sable
Deux phénomènes résistaient cependant à la théorie de Maxwell :

1. L’effet photoélectrique
Une expérience réalisée en 1839 par Becquerel montra un comportement inexplicable de la lumière : l’effet photo-électrique (EPE).
Cet effet montre une émission d’électrons par un matériau soumis à la lumière, la théorie en cours était incapable d’expliquer ce phénomène.

2. La catastrophe ultraviolette
Vers 1880, l’étude du corps noir chauffé montre une émission lumineuse dont la fréquence dépend de la température. L’exemple de l’acier qui est dit chauffé « au rouge » puis « au blanc » illustre ce que l’on constate.
Si l’on applique la théorie ondulatoire pour de courtes longueurs d’ondes, alors le calcul proposé par le britannique Lord John Rayleigh indique des résultats aberrants avec des températures qui tendent vers l’infini…
Cette problématique fut appelé la « catastrophe ultraviolette » par le physicien autrichien Paul Ehrenfest.

20ième siècle : le rêve s’écroule
En 1900, pour tenter de résoudre le problème du corps noir, Max Planck émet l’idée que l’énergie émise ou absorbée par un oscillateur se fait non pas d’une manière continue mais par paquets appelés « quantas » faisant ainsi apparaitre la notion de discontinuité en physique.

La lumière est une particule : le photon
A partir des travaux de Planck, Einstein monte en 1905 une théorie complète expliquant l’effet photoélectrique en formalisant cette notion de particule lumineuse appelée photon.
Cette découverte lui valut le prix Nobel de physique en 1921.
Alors la lumière, onde ou particule ?

Cette question qui taraudait les physiciens du début du 20e siècle a conduit à remettre en question tout l’édifice de la physique de l’époque par l’élaboration progressive de la théorie quantique.

Premier modèle quantique de l’atome
Le modèle quantique de l’atome proposé en 1913 par le prix Nobel de physique Niels Bohr est une bonne illustration de cette discontinuité découverte en physique.

photon

L’atome est formé d’un noyau central constitué de nucléons autour duquel gravitent des électrons, ces derniers ne peuvent cependant occuper qu’un nombre fini d’orbites correspondant à des niveaux d’énergie, pas question pour les électrons d’occuper une orbite intermédiaire.
L’analogie planétaire pour la description de l’atome s’écroule…

Si un photon (ou quanta de lumière) possédant une énergie suffisante vient frapper l’atome, alors celui-ci l’absorbe en faisant sauter un de ses électrons d’une orbite basse vers une orbite plus haute.
Pour retrouver son équilibre, l’électron va revenir sur son orbite en réémettant un nouveau photon vers l’extérieur.

C. LA GENÈSE DE LA THÉORIE ET L’EXPÉRIENCE

30 ans de recherches
En synthèse, la théorie quantique (TQ) fut élaborée sur une période de 30 ans environ pour en arriver au formalisme de Schrödinger et de Dirac à la fin des années 20.
Nous avons vu que tout a commencé avec l’introduction de la discontinuité qui seule pouvait expliquer certains mystères posés par la lumière :
cette dualité continu/discontinu est une autre façon de caractériser la dualité onde/particule.
Dans sa thèse de 1923, Louis De Broglie généralise à toute la matière la dualité onde/particule en énonçant une formule de correspondance entre la masse et une longueur d’onde.
Ces idées étant posées, il fallait les transformer en modèle mathématique afin de pouvoir les manipuler.
Schrödinger et Dirac se sont attelés à cette tache et leurs travaux finirent par converger vers la célèbre fonction d’onde de Schrödinger encore utilisée aujourd’hui.
Cette fonction d’onde a non seulement permis d’expliquer les fameux « grains de sable » en changeant complètement les bases issues de l’ancienne physique mais elle a également été prédictive sur un certain nombre de choses qui ont été vérifiées par l’expérience dès que la technologie a pu le permettre.

Toutefois, cette formulation mathématique étant abstraite, de nombreux physiciens ont tenté de lui donner une interprétation concrète.
Malheureusement, aucun consensus n’a pu se dégager car comme nous le verrons plus loin, le problème est très complexe.

La date de naissance de la physique quantique peut être établie en 1927 à l’occasion du congrès de Solvays qui réunit la majeure partie des physiciens qui contribuèrent à l’élaboration de cette théorie.
Cette date marque également le début des discussions concernant les problèmes ontologiques induits par les implications de la TQ, discussions loin d’être achevées et qui se poursuivent encore de nos jours.

Le congrès de Solvay de 1927
Solvay était un chimiste Belge qui organisa tous les 3 ans à partir de 1911 un congrès réunissant la crème des scientifiques de l’époque.
Le congrès de 1927 à Bruxelles est particulièrement célèbre car il rassembla les principaux physiciens qui travaillaient sur la physique quantique tels que Dirac, Einstein, Schrodinger, Born, Pauli, Heisenberg, Planck, De Broglie, Ehrenfest, etc…
Pas moins de 17 d’entre eux allaient devenir lauréats du Nobel.

Ci-dessous une vidéo exceptionnelle filmée à Bruxelles en 1927 qui montre les plus grands physiciens du 20ième siècle :

Congrès de Solvay 1927 à Bruxelles

On considère que ce congrès historique fut l’acte de naissance de la théorie quantique.

Les observations : le cœur du problème
Pour commencer à comprendre les mystères du monde quantique, nous allons décrire des expériences d’interférométrie réalisées en laboratoire et qui donnent comme on va le constater des résultats surprenants.

Des expériences de 2 types vont êtres présentées :
– interférométrie à 1 particule (Young, Mach-Zender)
– interférométrie à 2 particules (Franson)

Un interféromètre est un dispositif dans lequel on envoie de la lumière qui est soit réfléchie soit transmise. L’objectif étant de faire des tests d’interférences lumineuses en faisant varier les chemins possibles que peut emprunter la lumière puis d’observer les résultats.

1. Interféromètre d’Young
L’interféromètre d’Young déjà cité est historiquement la plus ancienne expérience qui a induit l’interprétation ondulatoire de la lumière.

fentes-young

Expérience 1 : les fentes d’Young
Un faisceau lumineux est envoyé sur une plaque dans laquelle on a percé 2 fentes rectangulaires.
Le résultat est la détection de franges d’interférence sur l’écran de droite.
Cette célèbre expérience a démontré dès 1801 le comportement ondulatoire de la lumière qui seule peut expliquer les franges, ces franges sont issues de l’addition des 2 ondes qui sortent des 2 fentes.

Expérience 2 : les fentes d’Young photon par photon
Dès lors où la technologie a pu le permettre, l’expérience a été réalisée en envoyant les photons un par un sur les fentes, et o surprise des franges d’interférences sont également détectées sur la plaque après l’envoi d’un grand nombre de photons.

Commentaire :
C’est là l’un des premiers effets quantiques typique constaté expérimentalement. Un seul photon pourrait il passer par les 2 fentes en même temps et interférer avec lui même ?

2. Interféromètre de Mach-Zehnder à 1 particule

Avant de décrire l’interféromètre de Mach Zender, examinons d’abord le cas simple d’un miroir semi réfléchissant.

Semi-R

Un photon envoyé sur le miroir est soit transmis soit réfléchi.
Cependant, pour un photon particulier, il est impossible de prévoir s’il sera transmis ou réfléchi.
Par contre plus le nombre de photons envoyés sera grand, plus on se rapprochera de la répartition 50/50. Nous sommes donc dans un comportement statistique ou probabiliste.

Expérience 3 : miroirs semi-réfléchissants sur 2 étages

Semi-R-2x etages

Cette expérience intermédiaire permettra de mieux comprendre la suite.
A la sortie du 1ier miroir, la moitié des photons est transmise et l’autre moitié réfléchie. Ces photons sont alors à nouveau envoyés sur un miroir semi-réfléchissant, il n’y a donc qu’un seul chemin permettant d’arriver à chaque détecteur.
Comme on peut s’y attendre, on détecte 25% des photons émis au départ sur chaque détecteur.

Les bases sont maintenant posées pour comprendre l’interférométrie à une particule.

Expérience 4 : Mach-Zehnder équilibré

mach_équilibréxy

Dans l’interféromètre de Mach Zender équilibré, la lumière peut emprunter 2 chemins A et B de longueur égale pour arriver sur 2 sorties possibles où sont placés 2 détecteurs.
Une source de lumière émet des photons sur un premier miroir semi-réfléchissant puis les 2 flux sont renvoyés sur un second miroir identique avec 2 détecteurs en sortie.

Avant de réaliser l’expérience, examinons le résultat que l’on attend en toute logique :

Mach_zender-expected

Tous les photons (100%) sont envoyés sur BS1, donc 50% empruntent le chemin A et 50% le B.
Sur BS2, on s’attend à ce que le flux issu de A soit à nouveau moitié transmis et moitié réfléchit, donc 25% des photons du chemin A doivent être détectés sur Dx et 25% sur Dy.
Idem pour le flux de B.

Après réalisation de l’expérience, le résultat est le suivant :

Mach_zender-reality

100% des photons sont détectés sur Dx !!

Commentaire :
On ne s’attendait pas à ça !

Expérience 5 : Mach-Zehnder déséquilibré

mach_déséquilibréDans cette expérience, la longueur de l’un des 2 chemins est modifiée.

Résultat :
En fonction de l’augmentation de la longueur du chemin, des photons commencent à être détectés sur DY et pour une longueur critique, ils sont tous détectés sur DY. Puis si on continue à augmenter la longueur, le phénomène recommence à s’inverser.

Commentaire :
Dans l’expérience 3, il n’y a qu’un seul chemin possible pour arriver à chaque détecteur. Dans la 4 et la 5, ce n’est plus vrai, un photon qui arrive sur un détecteur peut être passé par plusieurs chemins. On dit que le chemin qui arrive au détecteur est indiscernable.
Le phénomène observé est appelé « interférences quantiques ».

Ici, une information fracassante :
Les physiciens ont renoncé à expliquer les interférences quantiques.

Continuons les expériences :

3. Interféromètre de Franson à 2 particules
Après le cas d’une particule, examinons les expériences d’interférométrie à 2 particules.

L’interféromètre de Franson est constitué d’un émetteur qui envoie simultanément 2 particules suivant 2 chemins symétriques constitués de miroirs semi et 100% réfléchissants et de détecteurs à chaque extrémité.

franson_eq00

Expérience 5 : Franson équilibré
La première expérience est réalisée avec émission de photons sur un interféromètre dit équilibré , dans ce cas les 2 chemins sont de longueur identiques.

franson_eq

L’expérience consiste à envoyer simultanément des 2 cotés de l’interféromètre des paires de photons.

Résultat :
Si l’on n’observe que l’un des 2 cotés, alors on constate que les photons sont soit détectés en D1 soit en D2, ce qui est logique.
En revanche, le fait extraordinaire est si un photon est détecté sur le détecteur D1 (respectivement D2) d’un coté, alors le second sera détecté systématiquement sur D1 (respectivement D2) de l’autre coté également.

On parle alors de « corrélation déterministe sur un état intriqué ».
L’état intriqué signifie que les 2 photons sont liés entre eux au départ, et la corrélation est déterministe car elle est vraie dans 100% des cas.

Commentaire :
Cette corrélation est inattendue car en toute logique les 2 photons devraient après leur départ vivre leur existence de manière indépendante.

Expérience 6 : Franson déséquilibré

La longueur L1 de l’un des 2 chemins est alors modifié.

franson_desequilibré

Résultat :
Progressivement et en fonction de l’augmentation de la longueur L1, la corrélation s’inverse et pour une certaine longueur, elle est parfaitement inversée, c’est à dire que si les photons sont détectés en D2 à gauche, alors ceux de droite seront détectés en D1.
Le comportement corrélé et déterministe est donc toujours exact, seul le ratio de corrélation varie.
Mais le plus extraordinaire est que si on fait varier le chemin 1 après le départ des photons, alors le ratio de corrélation est conservée.

Commentaire :
La portée de cette expérience donne le vertige. En effet, comment expliquer que le photon N°2 soit instantanément au courant de ce qui arrive au photon N°1 ?
D’après la relativité restreinte, aucune information ne peut être transmise à une vitesse supérieure à la lumière.
Si les 2 photons ne peuvent en aucun cas communiquer, alors doit on remettre en cause la notion d’espace ? Ou est ce la notion de temps qu’il faut revoir ?

Cette expérience a également été réalisée en 1998 à Genève par Zeilinger sur une grande distance d’environ 30 km en utilisant le réseau de télécommunications Suisse, les mêmes résultats furent obtenus.

Quelles sont les limites du comportement quantique ?
Les objets à l’échelle humaine ne semblent pas obéir aux lois de la physique quantique, en effet, les voitures qui proviennent d’un rond point ne rentrent pas en interférence !
C’est ce qu’indique Niels Bohr avec son principe de correspondance, la question sous-jacente étant de déterminer la limite d’échelle à laquelle les effets quantiques disparaissent.

Cette question fait l’objet de recherches en cours sur des objets de plus en plus gros où des interférences ont été détectées :

1. Electrons
Expérience de Claus Jönsson en 1961 de type fentes d’Young appliquée sur des électrons unitaires.

2. Neutrons
L’expérience de Rauch a permis de tester en 1975 à Grenoble le comportement interférométrique sur des neutrons (Interférométrie de Mach Zender).

3. Atomes
Des interférences sur de gros atomes de néon constitués de 10 protons, 10 neutrons et 10 électrons ont également été démontrées par une équipe japonaise de l’université de Tokyo en 1992.

4. Molécules
Enfin, l’expérience la plus avancée en terme d’interférences quantiques fut réalisée en 1999 par des chercheurs de l’université de Vienne sur des molécules de fullerène constituées de pas moins de 60 à 70 atomes de carbone (C60, C70). [Anton Zeilinger]

D. LES BASES DE LA THÉORIE QUANTIQUE

Comme déjà évoqué tout au long de cet article, la théorie quantique ne peut s’énoncer simplement. Elle peut cependant se résumer en terme de principes descriptifs et d’une mathématique associée.

Principes descriptifs

Principe indiscernabilité
Le principe d’indiscernabilité a été établi sur la base des observations interférométriques :
« Les interférences quantiques apparaissent lorsqu’une particule peut emprunter plusieurs chemins pour arriver au même détecteur et que ces chemins sont indiscernables après la détection (Scarani) »
[1] p.13

Principe d’indétermination de Heisenberg
Toute tentative de mesure intermédiaire d’un quanton perturbe son comportement et change le résultat final qui serait différent en l’absence de mesure (Heisenberg 1927).

Principe de complémentarité de Bohr
Bohr énonce que la dualité onde/particule, ne correspond en fait qu’à l’observation sous 2 aspects différents d’une même réalité à laquelle nous n’avons pas accès directement (Bohr 1927).
Le principe de complémentarité indique qu’un objet quantique ne peut se présenter que sous un seul de ces 2 aspects à la fois.

L’analogie avec l’exemple suivant permet de comprendre ce concept :

mecanique_quantique3

Le cylindre projeté suivant un axe est détecté comme un rectangle et lorsqu’il est projeté suivant un axe perpendiculaire, on discerne un cercle. Le cylindre n’est cependant ni un cercle ni un rectangle.

Principe de correspondance de Bohr
Quand le nombre de particules/quantons atteint un certain seuil, le résultat de la MQ rejoint celui de la théorie classique, en ce sens, la théorie classique devient un cas aux limites de la TQ (Bohr 1923).

Principe d’exclusion de Pauli
Le principe d’exclusion (Pauli 1925) exprime que les fermions (électrons, protons, neutrons,…) ne peuvent pas se trouver au même endroit dans le même état quantique.
Cependant, la notion de localisation étant floue en physique quantique, cette rêgle fixe par exemple le nombre d’électrons maximum possible par orbite autour du noyau.
Nota : les photons n’étant pas des fermions, ils ne sont pas concernés par ce principe.

Modélisation mathématique

Fonction d’onde de De Broglie, Schrödinger et Dirac
Louis De Broglie (prix Nobel 1929) dans le cadre de sa thèse de 1924 proposa de généraliser la dualité Einsteinienne onde/particule de la lumière à toutes les particules en posant l’équivalence :
mc2 = hf (m = masse, c = vitesse de la lumière, h = constante de Planck, f = fréquence)
Cette équation sera la seule de l’article mais elle est aussi simple et fondamentale que la célèbre équation d’Einstein sur l’équivalence masse/énergie.

L’intérêt de cette notion est d’associer à tout élément matériel une longueur d’onde inversement proportionnelle à sa masse.
Un objet massif aura une très courte longueur d’onde qui annihilera les effets quantiques (onde stationnaire ?).
Les recherches d’Ervin Schrödinger et Paul Dirac ont conduit en 1925 à la la célèbre fonction d’onde qui formalise l’approche de De Broglie aux particules massives non-relativistes.
Cette équation a la forme d’un nombre complexe fonction de la position et du temps, elle ne peut être résolue que dans des cas simples, mais le calcul numérique sur ordinateur permet de traiter les cas plus généraux.
Notons que le prix Nobel de Physique fut attribué en 1933 conjointement à Schrödinger et à Dirac pour leurs travaux théoriques.

Pour être complet, citons également les travaux de Von Neuman sur la formalisation mathématique de la TQ, cette dernière présente une alternative rigoureuse à la formulation de Dirac/Schrödinger mais elle ne fut pas retenue par la communauté des physiciens.

L’interprétation de la fonction d’onde
L’interprétation de la fonction d’onde de Schrödinger ne fut donné qu’en 1926 par Max Born.
Avant toute détection, la particule n’est pas matérielle mais elle se présente sous la forme d’un paquet d’ondes probabilistes composé de l’ensemble de tous ses états possibles « superposés ».
Lors d’une mesure, elle se transforme en son état de probabilité la plus forte, on dit que la mesure résoud la fonction d’onde de Schrödinger en fixant ses variables à une valeur fixe (position, vitesse, spin, …).
Lorsque 2 particules interagissent, la théorie indique qu’une fonction d’onde résultante unique décrit le comportement de l’ensemble de ces 2 particules qui sont donc liées, cette déduction prédit dès 1926 le comportement intriqué démontré ultérieurement par l’expérience de l’Interféromètre de Franson.
Dans le cas d’un solide, celui-ci possède également une fonction d’onde mais extrêmement complexe.

Cette interprétation a fait en particulier évoluer le modèle d’atome quantique de Bohr présenté plus haut.

Modèle d’atome quantique moderne
Les composants de l’atome (protons, neutrons et électrons) ne sont plus localisés dans une position précise mais « partout en même temps » dans une zone spatiale donnée.
Les électrons ne sont plus en orbite autour du noyau atomique mais présents « quelque part » sur une orbitale.

Atome_helium4

L’atome d’Hélium 4 de l’exemple simple ci-dessus est constitué d’un noyau (2 protons + 2 neutrons) et de 2 électrons périphériques.
Cette représentation montre l’orbitale des électrons sous la forme d’un nuage et le zoom sur le noyau montre les zones d’espace où sont localisés les protons en rouge et les neutrons en mauve.

La guerre des physiciens
Le congrès de Solvay en 1927 (op. cit.) a permis aux physiciens quantiques du monde entier de se rencontrer et d’échanger leurs points de vue.
En particulier c’est à cette date que fut initié le schisme entre les tenants de ce que l’on a appelé plus tard l’école de Copenhague (Bohr, Heisenberg, Born,…) et les physiciens déterministes comme Einstein pour qui « Dieu ne joue pas aux dés ».

D. L’INTERPRÉTATION DE LA THÉORIE QUANTIQUE : 1 SIÈCLE D’ÉCHEC

Tentatives acharnées (et vaines) d’explications « classiques »

Paradoxe EPR
Einstein associé à d’autres physiciens n’a jamais admis le caractère probabiliste de la théorie quantique, il considérait que cette dernière était incomplète.
C’est pourquoi un célèbre article intitulé « Paradoxe EPR » a été publié en 1935 par Einstein, Podolsky et Rosen.
D’après cet article, la seule façon d’expliquer les interférences quantiques et en particulier la corrélation à 2 particules réside en la présence de variables cachées qui fixent au départ des 2 particules leur comportement ultérieur, la TQ serait donc incomplète.
En effet sans variables cachées, la théorie de la relativité restreinte serait violée car une information serait transmise d’une particule vers l’autre instantanément et donc à une vitesse infinie, hors la relativité restreinte rappelons le indique que rien ne peut dépasser la vitesse de la lumière.
On peut remarquer en passant que le grand Albert craignait peut être que la TQ ne remette en cause sa relativité restreinte, ce qui pourrait expliquer en partie son rejet de cette théorie.

Cependant, le paradoxe EPR est resté très longtemps sans réponse jusqu’à l’expérience d’Aspect en 1982.

Inégalités de Bell et Expérience d’Aspect

. Inégalités de Bell
En 1964, le physicien irlandais John Stewart Bell réussit à concevoir une procédure permettant de trancher au sujet du paradoxe EPR.
Il s’agit des fameuses inégalités de Bell (appelé aussi théoréme de Bell) qui sont des relations quantitatives basées sur la théorie des ensembles que doivent vérifier les corrélations de mesures entre systèmes qui respectent totalement la relativité restreinte.
Si ces inégalités sont violées, alors il faut admettre des influences instantanées à distance.

. Expérience d’Aspect
La technologie permit enfin en 1981 de monter une expérience au laboratoire d’Alain Aspect à Orsay pour vérifier le théorème de Bell.

Résultat :
L’inégalité de Bell a été violée, donc les hypothèses de départ, à savoir la présence de variables cachées est erronée. Cette expérience a été confirmée par Zeilinger en 1998 (op. cit.) sur une distance de 30 km.

Non localité
Ce résultat fondamental conduit comme nous l’avons déjà brièvement évoqué à de très profondes remises en cause de notre vision de la structure de l’espace temps, en particulier la notion d’espace pourrait être illusoire.
Dit autrement, les particules quantiques distantes se comportent bien comme si la distance n’existait pas, d’où la notion de non localité.
Toutefois, une limitation importante est à noter, en effet il est impossible de transmettre un message instantané en exploitant cette non localité à cause du principe d’indétermination d’Heisenberg, cette non localité ne concerne que la corrélation des particules.
C’est peut être cette limitation qui sauve la théorie de la relativité restreinte !

Principe d’incertitude d’Heisenberg
Le célèbre principe d’incertitude (appelé aussi d’indétermination) a eu 2 interprétations avant que l’expérience de Constance en 1988 ne tranche en faveur de la plus dérangeante.

L’interprétation intuitive ou classique est la suivante :
. Si on mesure une propriété d’une particule comme la vitesse, puisque le système de mesure est à l’échelle de cette dernière, alors la mesure va perturber le comportement de la particule. Un peu comme si pour mesurer la vitesse et la direction d’une boule de bowling, on la frappait avec une autre boule de bowling, on comprend bien que la boule mesurée risque fort de dévier de sa trajectoire initiale.

Le seconde interprétation est plus vicieuse :
. Le fait d’effectuer une mesure sur une particule même si l’effet de la mesure est négligeable pour la particule, alors la mesure va changer son comportement.

. L’expérience de Constance
L’expérience de Constance avait pour but de trancher entre ces 2 interprétations.
Elle a été réalisée sur des atomes de rubidium dans un interféromètre de Mach Zender.
Cette dernière a consisté à introduire de la discernabilité dans le montage sur l’un des 2 chemins en changeant un paramètre particulier des électrons de l’atome à l’aide d’un champ magnétique de faible intensité. Ce paramètre s’appelle le spin, ce spin peut être représenté par l’axe de rotation de l’électron.
Le champ magnétique impose donc la direction de cet axe qui peut alors être mesuré par les capteurs de sortie. Il est important de noter que ce champ magnétique ne peut en aucun cas être considéré comme une perturbation au sens de l’interprétation classique du principe d’Heisenberg.

Le résultat tombe :
Les interférences quantiques disparaissent !

Conclusion : l’interprétation classique est fausse, seul reste valable le principe d’indiscernabilité qui semble montrer que le fait d’agir même légèrement sur la particule (un simple regard !) résout la fonction d’onde et change son comportement.

L’interprétation de Copenhague
L’interprétation de Copenhague défendue par Bohr, Heisenberg, Jordan et Born considère que puisque toutes les tentatives d’explications classiques se sont effondrées, il ne reste qu’à admettre les phénomènes quantiques pour ce qu’ils sont sans se poser plus de questions.
Cette interprétation indique que la fonction d’onde est valide jusqu’à preuve du contraire mais que le fait qu’elle représente ou pas la réalité importe peu vu que le formalisme permet de travailler et de faire de la physique !

E. CONSÉQUENCES DE CETTE THÉORIE

Aspect ontologique
Notre vision du monde matériel est remise en cause avec la fin de l’idée intuitive des atomes de matière.
Les notions d’espace, de temps ainsi que certaines théories bien implantées comme la relativité sont ébranlées.
Cette théorie a également conduit à la remise en cause des axiomes de la logique (logos) que l’on utilise tous les jours sans le savoir. En effet, le principe de superposition est en contradiction flagrante avec l’axiome Aristotélicien de « non contradiction » ainsi qu’avec celui du « tiers exclus ».

Que l’on se rassure cependant, les effets quantiques disparaissent à notre échelle à condition de ne pas regarder de trop près…

Applications pratiques
Au delà de ces aspects philosophiques et ontologiques, de nombreuses applications pratiques ayant changé notre mode de vie ont été issues de la TQ :
– chimie quantique
– microscopes électroniques
– transistors
– cellules photoélectriques (énergie solaire, capteurs appareils photos,…)
– lasers
– cryptographie quantique
– bombe atomique (hélas)
– etc…

D. CONCLUSION

Questions
Près d’un siècle après l’établissement de la physique quantique, les mécanismes sous-jacents au comportement des particules restent inconnus.
Si l’on tente d’appliquer brutalement le modèle mathématique aujourd’hui admis à la réalité, alors le monde matériel serait constitué d’une soupe quantique indéterminée qui ne prendrait forme que lors d’une détection ou dit autrement d’une observation. Le monde n’existerait donc pas en l’absence d’observateurs ?
Cette étrange vision a fait dire à René Thom que la physique quantique est la plus grande imposture intellectuelle du XXième siècle.

Croyances
Ce qu’oublient la plupart de ces physiciens, c’est que comme le souligne très justement Jean Pierre Petit, le système de pensée des scientifiques est basée sur un ensemble de croyances.
La première d’entre elles consiste d’abord à considérer que la réalité existe indépendamment de l’observateur, ce concept a d’ailleurs été inventé d’après Paul Jorion dans l’Europe du 16ième siècle [3].
La seconde croyance est que la théorie la plus récente représente la réalité des choses, alors qu’elle n’en est qu’une représentation au pire mathématique, au mieux conceptuelle.
L’épistémologie nous apprend sur le long terme que toute théorie est condamnée à disparaitre au profit d’une autre dès lors où une simple expérience aura infirmé la théorie précédente.

Et maintenant ?
Une des grandes questions est bien entendu de savoir si la théorie ultime du tout – le Graal de la science – est accessible et décrira la réalité vraie de la nature.
N’oublions pas que la limitation intrinsèque des mathématiques démontrée par le théorème de Godel nous interdit à jamais toute représentation exacte de notre univers.
Pour la théorie quantique nous possédons une mathématique dont on sait parfaitement que malgré ses succès elle ne représente pas la réalité.

Ce mur d’incompréhension peut il être dépassé ?

La pire des chose serait que nous ayons buté sur les limites de notre intellect et de nos capacités d’abstraction, à moins que la nature ai posé une barrière infranchissable.
Einstein a consacré la fin de sa vie à tenter de monter une théorie « compréhensible » et il a échoué.

A ce jour, il ne semble malheureusement y avoir aucune piste d’investigation sérieuse pour résoudre cette énigme.
Il ne reste qu’à attendre un hypothétique nouveau génie de la physique qui fasse table rase en introduisant un nouveau paradigme !

Bibliographie
[1] « Initiation à la physique quantique » Valerio Scarani
[2] « Le cantique des quantiques: Le Monde existe-t’il ? » Jean-Pierre Pharabod & Sven Ortoli
[3] « Comment la vérité et la réalité furent inventées » Paul Jorion

Liens
Lumière sur le photon
Historique TQ
Chronique livre V. Scarani

Physiciens
Albert Einstein, Henry Poincaré, Niels Bohr, Max Planck, Werner Heisenberg, Erwin Schrödinger, Henry Becquerel , Wolfgang Pauli, Thomas Young, Augustin Fresnel, James Maxwell, John Rayleigh, Max Born, Paul Ehrenfest, Boris Podolsky, Nathan Rosen, Richard Feynman, Paul Dirac, René Thom, John Stewart Bell, Alain Aspect, Valerio Scarani, John Von Neuman, Pascual Jordan…

Une réflexion sur “Le mur de la quantique

  1. Pingback: Article 5 la renaissance du temps Partie II chap. 12 (la mécanique quantique et la libération de l’atome) | Thomassonjeanmicl's Blog

Laisser un commentaire