Aliénation quantique. Première partie
On s'est dèjà penché plusieurs fois dans ce blog sur les paradoxes entraînés par la physique quantique, notamment à propos du poisson soluble, du chat de Schrödinger et de la non-séparabilité. Je désire revenir sur ces notions en les revisitant dans l’optique des changements de paradigmes propres au XXIe siècle et de leur signification (s’il elle existe) qu’elle revêt pour notre compréhension du monde .
Un changement de paradigme non assimilé.Une première remarque est que plus d’un siècle après, le changement de paradigme induit par la révolution quantique n’a toujours pas été digéré. On continue de faire, de vivre, de penser, comme s’il appartenait à un monde à part, disjoint du réel, en quelque sorte, aliéné. Cela nous rassure, car si ce n’est pas le théoricien quantique qui est aliéné, et que ses concepts traduisent bien le réel, c’est que c’est nous qui le sommes ! Quelle que soit la manière dont en l’envisage, on retombe toujours sur une aliénation quantique. D’ailleurs Niels Bohr exprimait bien ce sentiment quand il déclarait :
Quiconque n’est pas choqué par la mécanique quantique quand il la découvre, ne l’a certainement pas comprise.
En ce qui me concerne la réciproque n’est malheureusement pas vraie, puisque je suis choquée par les implications de la révolution quantique, sans pour autant comprendre la théorie qui la sous-tend. C’est pourquoi je vais m’efforcer d’un peu mieux saisir à quoi pourraient correspondre les concepts quantiques dans mon propos essentiellement tourné vers le sens de notre existence et la quête d’une spiritualité en accord avec le siècle qui commence.
Une résistance passéiste aux nouveaux paradigmes scientifiques en corrélation avec la résistance au changement du début du XXe siècle
Cette correspondance entre la révolution initiée par le paradigme quantique et celle qui aujourd’hui bouleverse notre perception du monde, est révélée d’une manière frappante par la pensée dogmatique de Lord Kelvin, à l’orée du XIXe siècle. Pendant que la physique classique enregistrait ses premières secousses dévastatrices, Kelvin s’accrochait à un matérialisme étroit qui perdure encore aujourd’hui. Il était persuadé que rien de nouveau, ni d’important ne pourrait survenir dans notre conception du monde et que le seul progrès que pourraient enregistrer les physiciens, serait une précision accrue dans les mesures des phénomènes. Il déclarait d’ailleurs « tout ce qui est scientifique est mesurable » et on ne peut que souligner l’importance de ce dogme dans notre monde actuel, qui cherche son sens dans les statistiques, les mesures, des chiffres, qui en tant qu’humains ne nous parlent plus.
Le rayonnement du corps noir et la notion de discontinuité
Les premiers ébranlements commencèrent par les problèmes conceptuels posés par le rayonnement du corps noir. Nous savons tous que lorsqu’on réchauffe une tige de fer, elle émet un rayonnement infra-rouge que nous ressentons en approchant notre main, puis entre 600° et 1000° une lumière qui va du rouge à l’ultraviolet en remontant les degrés du spectre. C’est d’ailleurs le principe des lampes à incandescence. Or le bon sens nous dictait que le passage d’une nuance du spectre à une autre, était continue alors qu’un spectrographe montra qu’il n’en était rien. Le spectre coloré, était fissuré de discontinuités, ou mieux, il était composé de bandes brillantes colorées de couleur monochromatique, et en chauffant la tige, on passait brutalement d’une bande à la suivante par sauts. Planck en déduisit qu’on ne passait pas d’un niveau d’énergie (correspondant à un rayonnement donné) à un autre par des transitions continues mais par de véritables sauts qu’il appela des quanta d’énergie.
L'intuition prophétique de Newton. Ondes et particules
Newton pensait que la lumière était composée de particules, mais cette conception fut ruinée par les expériences des fentes de Young. Au début du siècle dernier, il était admis que la lumière était composée de vibrations qui se transmettaient comme des ondes, dans l’espace. Une comparaison était classique pour illustrer cette notion : un caillou lancé dans une mare produit des ondes concentriques qui se propagent en s’élargissant à partir du point d’impact. Les amateurs de Hi Fi éprouvent de phénomène en approchant leur main d’un haut parleur de basses en pleine activité. Les vibrations de la membrane émettent un véritable courant d’air et les ondes sonores à basse fréquence se propagent dans toute la salle, parviennent à notre tympan, qui a son tour vibre provoquant la perception d’une note basse. De même, pensait-on qu’à l’instar d’un son, la lumière provenait d’un train d’ondes qui baignait l’espace, encore que l’on ne connût pas la nature du fluide vibrant, puisqu’elle se propageait –contrairement au son, dans le vide.
Les ondes, une notion populaire mais floue
Cette notion d’ondes baignant notre univers et transmettant l’information, a été popularisée par la radio, (les ondes hertziennes qui nous environnent), et même dans la culture populaire, lorsqu’on dit qu’un personne émet des ondes de sympathie ou qu’une maison dégage de mauvaises ondes. Même la télépathie était expliquée de cette manière : des ondes non matérielles transmettant par des voies inconnues la connaissance entre un émetteur (la source) et un récepteur (un écran).
Diffraction et interférences
Cette hypothèse fut étayée par deux notions fondamentales : la diffraction et les interférences. Lorsque nous projetons un faisceau de lumière solaire à travers un écran percé d’un trou circulaire, sur un mur, l’image du cercle apparaît nette et brillante. Mais si on réduit le diamètre du trou, non seulement la luminosité baisse, mais les bords du cercle s’effrangent, le cercle lumineux se disperse sur la surface de l’écran, comme si le fait de passer par un orifice étroit, brisait les rayons, et les fragmentaient en les faisant partir dans tous les sens. C’est le phénomène de diffraction.
Si l’on jette dans une mare non plus un caillou mais deux, les ondes concentriques interfèrent et produisent des figures composées de « creux » et de « bosses ». Il en est de même pour la membrane du haut parleur de basses. Il émet à la fois un train d’ondes avant, et en déplaçant l’air qui se trouve derrière la membrane il émet un train d’ondes arrière qui forment une deuxième source sonore. L’interférence entre les ondes émises par l’avant de la membrane et celles par l’arrière, fait que l’on trouve de zones noires où le son s’éteint et des zones claires, où il est renforcé. C’est pour éviter ce résultat catastrophique que l’on essaie d’éliminer l’onde arrière en enfermant le haut-parleur de basses dans un lourd caisson étanche.
Dans le cas de la lumière, on se trouve dans une situation incompréhensible su l’on adhère aux anciennes visions du monde.
Admettons que nous ayons un émetteur d’électrons qui bombarde un écran percé d’une fente, et situé au devant d’un mur. Les électrons émis se comportent comme une onde. Ils passent à travers la fente et au lieu de former une image ponctuelle sur le mur, couvrent tout l’écran, phénomène classique de diffraction.
Les fentes de Young
Perçons dans l’écran une seconde fente. Les électrons vont dans la théorie classique passer par les deux fentes, le débit va donc doubler et la densité lumineuse du mur va doubler. Mais ce n’est pas du tout ce qui se passe. En effet les deux sources de diffraction correspondant à chaque fente, vont interférer entre elles et la moitié de l’écran va être couverte par les électrons, l’autre, dépourvue de tout électron. En effet les figures d’interférence présentent des bandes claires et des bandes sombres, comme dans le cas du haut parleur de basses, elles produisent des aires très sonores et des aires silencieuses.
La réduction du paquet d'ondes
Essayons maintenant d’interposer devant chacune des fentes de l’écran un détecteur qui permette d’observer la particule au moment où elle entre en contact avec l’écran. Le seul fait de l’observer va la faire passer de l’état d’onde à celle de particule discontinue. (C’est la réduction du paquet d’ondes, ou train d’ondes). Elle devra alors passer soit par une fente soit par l’autre. Mais une fois qu’elle aura franchi le point d’observation, au-delà de l’écran, échappant à nouveau aux regards, elle redeviendra onde et elle couvrira le mur d’une zone de diffraction qui le couvrira d’une manière homogène comme s’il n’y avait qu’une seule fente.
En effet toute interférence productrice de bandes claires et sombres est impossible puisque au-delà de l’écran l’onde proviendra soit d’une fente, soit de l’autre.
Cette expérience sur les fentes de Young, démontre expérimentalement le double statut d’un électron : lorsqu’on l’observe il se réduit à l’état d’un point minuscule, dont la trajectoire est aléatoire prise individuellement, bien que prévisible en masse. Il suffit de ne pas l’observer pour qu’il devienne onde sujette à diffraction et à interférence. Rien n’est plus troublant que d’imaginer cette double réalité, sinon de découvrir qu’elle n’est pas seulement propre aux particules élémentaires, mais même aux atomes. Il n’est pas exagéré de déclarer que toute notre vision de la nature se trouve anéantie.
L'atome-galaxie : une vision discréditée mais une image tenace
Le CERN avait pris comme logo une figure qui est solidement implantée dans nos cerveaux, celle d’un atome-galaxie. Alors qu’au XIXe siècle l’atome était considéré comme une particule insécable, dernière frontière de la matière minuscule, la révolution de Rutherford anéantit cette vision pour la remplacer par celle d’un noyau central, autour duquel gravitent des électrons occupant des orbites bien déterminées, tout cela dans un océan de vide. On connaît tous l’image d’un pépin situé au centre de la place de la Concorde autour duquel tournent des astres minuscules, les électrons. Nous nous sommes tous imprégnés de cette image, qui nous laisse supposer que l’infiniment petit est à l’image de l’infiniment grand et nous sommes fiers d’avoir dépassé l’ancien paradigme victorien. Pour ce dernier, la matière est formée de particules solides, stables, inertes. Dorénavant, à l’image du XXe siècle, tout devient mouvement, et la matière devient énergie, particules matérielles en constante rotation, échangeant, expulsant, attirant d’autres particules matérielles, obéissant aux rassurantes lois sur la matière énergie et sur la localité ( une particule est là et pas ailleurs ).
Mais dès 1927 cette image a été totalement ruinée, remplacée par une autre qui ne commence que lentement s’imposer dans les esprits du XXIe siècle : la matière n’est pas constituée de matière-énergie en mouvement, elle est constituée de non-matière, d’ondes immaterielles, de particules imprévisibles. Un electron, un atome n’ont plus de position définie dans l’univers, il ne sont pas logés dans une localité quelconque, comme les transnationales qui nous régentent, comme les sites de l’Internet qui nous informent, il sont partout et nulle part à la fois. Il suffit certes de les observer, cet électron, ou cet atome, pour qu’ils se matérialisent sous nos yeux. Mais nous ne pouvons définir exactement leur comportement frappé par l’aléa. On fit remarquer aux designers du CERN leur erreur grossière et on dut renoncer au logo, qui cependant continue de marque les esprits.
La plus grande dispute du XXe siècle: 1927, Congrès Solvay
C’est un dispositif expérimental de Bell, affiné par Bernard d’Espagnat et réalisé par Aspect en 1982 à Orsay, qui a permis de résoudre la plus grande dispute de l’histoire des sciences au XXe siècle. Les protagonistes ont été Einstein d’une part, Plank et Bohr de l’autre. Il est essentiel de rappeler succinctement l’enjeu du débat.
La théorie des quanta prédit qu’on ne peut à la fois prédire la position et la vitesse d’une particule élémentaire. Il existe un élément d’indétermination. Einstein assisté de deux colla borateurs Boris Podolsky et Nathan Rosen, répondit par le fameux paradoxe EPR. Il imagina que deux particules jumelles A et B, éjectées par le bombardement d’un atome et dotées de propriétés semblables, s’éloignent l’une de l’autre à la vitesse de la lumière. Puisque elles ont les mêmes propriétés on peut à la fois en mesurant la vitesse de la première et la position de la seconde, en déduire la position de la première et la vitesse de la seconde, ce qui est contraire à la théorie quantique. Certes, il y a une faille dans le raisonnement, car le fait de mesurer la vitesse de la première particule la modifierait, et la seconde particule devrait en accord avec la théorie se modifier également ; autrement dit la mesure de A devrait perturber également celle de B, mais c’est impossible puisque les deux particules s’éloignent à la vitesse de la lumière et ne peuvent donc pas communiquer. Niels Bohr répondit par une énormité : quelle que soit la position des deux particules dans l’univers, la modification de l’une doit entraîner une modification de l’autre. Einstein répondit que ce l’était possible qu’à condition que les deux particules communiquent télépathiquement entre elles (sans matière ni énergie) ou alors qu’elles ne sont qu’une seule et même particule, ce qui est impensable.
Deux dates cruciales : Bell 1965, Aspect 1982
Deux dates sont cruciales pour notre conception du monde. En 1965, Bell imagina un dispositif expérimental où une atome bombardé donne naissance à deux particules jumelles qui s’éloignent l’une de l’autre à la vitesse de la lumière dans un tube métallique. Chacune tourne autour d’elle-même en un sens inverse de l’autre, comme lorsque nous nous voyons dans une glace, les mouvements sont symétriques. C’est ce que l’on nomme le spin. On peut modifier le spin d’une particule par des verres polarisants. Si l’on guette à l’aide d’une horloge électronique, le passage des deux particules, on peut en modifiant le spin de l’une, voir si la seconde a un spin modifié, donc inversés ou au contraire conforme à celui d’origine. S’il est modifié cela signifie qu’il y a eu une communication d’information entre A et B. Mais si l’horloge est assez précise, et la distance assez grande, on peut mesurer B avant que la lumière provenant de A puisse l’atteindre. C’est ce qu’Alain Aspect a réalisé en 1982 à Orsay, sur un protocole de Bernard d’Espagnat. Le physicien était convaincu que le résultat donnerait raison à Einstein. Le dispositif était le suivant : les mesures étaient prises aux extrémités d’un tuyau de 12 mètres, et l’horloge enregistrait le passage de la particule, avec la précision d’un milliardième de seconde. Il fallait 40 milliardièmes de seconde pour que la lumière parcoure les 12 mètres. Si une influence exercée sur le spin de A était enregistrée sur le spin de B, au bout d’un milliardième de seconde, on devait exclure toute communication matérielle, car la vitesse de l’information aurait été 40 fois celle de la lumière.
Fin du postulat de localité
En 1982 le verdict tomba, implacable : en agissant sur le spin de A, celui de B changeait également, le principe de localité tombait en éclat. De deux choses l’une où les particules communiquaient sans énergie ni matière, télépathiquement, soit elles étaient la même particule et en bougeant A, B bougeait en sens inverse. Quand nous tournons notre main devant une glace, son reflet tourne instantanément, non parce qu’il communique avec nous, mais parce qu’il est nous. On en arrive à la conclusion que les deux particules, ne sont qu’une situées à la fois dans deux localités différentes, délocalisées… C’est le principe de non-séparabilité.
On imagine les conséquences incalculables, religieuses, métaphysiques, cosmologiques, cuturelles d’une telle révolution. Aspect espérait conforter son matérialisme de bon communiste. Son honnêteté de scientifique lui commanda d’admettre un résultat qui choquait profondément ses convictions. Mais tous ne purent ingurgiter le sens profond de cette horreur conceptuelle, farce atroce de la nature. Aspect n’eut pas le prix Nobel ! Pas plus que d’Espagnat qui réalisa le protocole instrumental.
La non-séparabilité
On est loin de mesurer l’impact de la non-séparabilité sur notre conception du monde, de la réalité, des rapports entre le psychisme et la nature. En effet l’univers mental de l’homme repose sur des réactions au niveau quantique : émissions de neurocepteurs, d’hormones etc… Les matérialistes naïfs ou intégristes comme J.P. Changeux et les tenant des neurosciences, ont raison de prétendre que le cerveau est déterminant pour les états mentaux et qu’il conditionne au moins en grande partie l’esprit, mais ce qui est gênant est que leur conception des mécanismes neuronaux date du début du XXème siècle, quand ce n’est par de l’époque victorienne ou napoléonienne. L’idée que les émissions d’hormones qu’ils considèrent comme des déterminants de notre vie mentale, puissent relever de la physique quantique, n’effleure même pas leur esprit. Ils n’ont que faire de la mécanique quantique, ses concepts et ses découvertes ne font pas partie de leur spécialité ! Ils utilisent le microscope, le bistouri et les éprouvettes et non les équations mystérieuses et paradoxales qui définissent le réel.
La resistance archaïque des réductionnistes
Par ailleurs il y a une autre raison, inavouée, celle-là qui les plonge dans un état de stupidité artificielle. Elle est dogmatique, presque religieuse, et analogue à celle qui retarda si longtemps la prise de conscience de la découverte de Copernic. Le fait d’admettre la non-séparabilité, risquait de renforcer la position de leurs ennemis jurés : les parapsychologues, les tenants d’une approche holistique de l’être, l’intérêt pour les concepts bouddhistes, la mise en accusation du réductionnisme radical propre aux esprits forts et aux hyperrationnalistes nostalgique de l’époque de Lord Kelvin.
J’essaierai dans un prochain billet d’explorer ces conséquences sur notre vision du monde et la spiritualité. Je recommande d’ici là la lecture de l’ouvrage magistral de Jean Staune, à qui je dois beaucoup et que de très nombreuses discussions ont été à l’origine de ce billet.
« Notre existence a-t-elle un sens ? Une enquête scientifique et philosophique. Jean Staune, Presses de la Renaissance, Paris 2007. »