AU CŒUR DE L’INFINI LABYRINTHE, UNE OBSCURE CLARTÉ - France Catholique
Edit Template
Saint Benoît, un patron pour l'Europe
Edit Template

AU CŒUR DE L’INFINI LABYRINTHE, UNE OBSCURE CLARTÉ

Chronique n° 342 parue dans F.C.-E. – N° 1808 – 7 août 1981

Copier le lien
labyrinthe2.jpg
Que la Lumière soit ! Et la lumière fut, comme on sait, et ce fut le premier jour. Ce fut aussi (que le Très-Haut me pardonne) sa première excellente blague dans un univers qui en compte une infinité, destinée sans doute à exercer notre présomption, à nous faire comprendre que si nous fûmes créés à l’image de Dieu, nous restons à une incommensurable distance de pénétrer ses arcanes. Qui nous éclairera sur la lumière ? Car la lumière créée en premier lieu (la physique parle ici comme l’Écriture), la lumière, synonyme pour nous de raison, de compréhension, la lumière qui éclata dans la pensée d’Archimède lorsqu’il s’écria Eureka et dans celle de Newton quand il vit tomber la pomme, comme dans celle de tout homme qui soudain comprend, la lumière porte en elle, clair, c’est le cas de le dire, comme le jour, le plus grand des mystères de la science. Comprendre je ne dis pas ce mystère (évidemment !), mais en quoi il consiste, c’est pénétrer au cœur le plus profond de la science moderne, car, comme le dit Feynman à qui nous en devons les exposés les plus clairs (a), « tout est là ». Essayons de comprendre ce qui est « là ». On peut dire d’abord, comme je l’ai fait dans de précédentes chroniques, que « la lumière se propage comme une onde et se manifeste comme un corpuscule » (le photon)1 et de là tirer la formule passe-partout, sans cesse répétée, que l’on a affaire à « deux réalités complémentaires ». Les deux mots « réalités complémentaires », devenus lieux communs jusque dans la politique et la publicité, viennent de la physique. Seulement, en physique, ils masquent tout simplement un échec de notre entendement. Ils le masquent en lui donnant un nom2. Suivons, en effet, les phénomènes successifs par lesquels la lumière est émise, se propage, et est reçue. Comme on le sait (ou comme on croit le savoir, car ce n’est là qu’une trompeuse image), tout atome est entouré de son cortège d’électrons qu’il est commode de considérer comme des corpuscules tournant sur des orbites autour du noyau. Chacun de ces « corpuscules » est chargé d’une quantité d’énergie en rapport avec le diamètre de l’orbite : plus l’électron tourne « loin du noyau », plus il est chargé d’énergie. Cet électron peut changer d’orbite. S’il tombe sur une orbite plus courte (plus proche du noyau), il perd de l’énergie. Nous y revoilà : cette énergie est émise sous forme de lumière. On dit que l’électron a émis un photon, lequel est très exactement chargé de l’énergie perdue. On dit cela, mais c’est faux : la lumière émise n’est pas un photon, c’est un petit paquet d’ondes, sans aucun corpuscule. Une onde, c’est (croit-on) quelque chose qui vibre. Qu’est-ce donc qui vibre alors que le paquet d’ondes s’éloigne à la vitesse de 300 000 kilomètres à la seconde ? L’éther ? Non ! On sait depuis la fin du siècle dernier (b) que l’éther n’existe pas3. L’imagination donne sa langue au chat Qu’est-ce donc qui vibre ? Rien ! Selon l’expression d’un physicien humoriste mais pertinent, « on a perdu le sujet du verbe onduler ». Alors qu’est-ce au juste que cette onde ? Une onde, vous dis-je. On le sait par une infinité d’expériences et d’applications, par toute l’optique, la radio, la TV, le laser, on le sait par la réfraction, la diffraction, les interférences, par tous les phénomènes qu’une onde peut produire, et que la lumière produit en effet. C’est donc une onde, et nous allons la recevoir et l’enregistrer, au terme de son trajet, comme une onde ? Non, pas du tout. Si l’on émet une lumière assez faible pour que chaque paquet d’ondes cesse d’être noyé parmi les autres paquets d’ondes et si l’on dispose un récepteur assez sensible et sophistiqué pour nous dire comment le paquet d’ondes arrive, on constate que ce qui se manifeste dans le récepteur, ce n’est pas une onde mais un corpuscule4. Soit, direz-vous, c’est donc que l’onde, en arrivant, se transforme en corpuscule ? Impossible, cent expériences faites depuis le début du siècle de toutes les façons le prouvent de cent façons différentes : ce qui est perçu est bel et bien un corpuscule. Et c’est ici qu’il faut faire un peu marcher son imagination pour bien saisir ce qu’il y a d’énorme, d’inconcevable, peut-être d’infiniment humiliant dans ce phénomène élémentaire, élémentaire, oui, car on sait par d’autres voies qu’il est impossible de le décomposer en phénomènes plus simples (ce fut là l’espoir dit « des variables cachées », démenti par les expériences)5. Faisons-la donc marcher comme elle peut, notre imagination. Nous allons ici toucher sa limite infranchissable. Une onde, cela occupe une portion d’espace. On peut calculer, dans chaque expérience déterminée, la portion d’espace qu’elle occupe. C’est en un seul point de cet espace que le récepteur l’enregistre, et toute l’énergie de l’onde est présente en ce lieu au moment de la réception. Comment donc, et l’énergie dispersée dans l’amplitude de l’onde, où est-elle passée ? Elle est, vous dis-je, tout entière reçue en un seul point. Comment expliquer cela ? Eh bien, puisque le phénomène que j’essaie de décrire est élémentaire (donc impossible à décomposer en séquences où mon esprit retrouverait ce dont il a besoin pour comprendre), me voilà renvoyé à l’idée d’explication. Ce phénomène élémentaire que je ne peux en aucune façon imaginer, est-il, oui ou non, expliqué ? Que chacun fasse ce qu’il voudra de la réponse : ce phénomène est parfaitement calculable. Si l’on s’en tient au calcul, il ne laisse rien à désirer. Mais ce calcul comporte les fameuses indéterminations de Heisenberg qui acceptent comme un fait l’impossibilité pour l’imagination, et aussi pour le calcul, d’aller plus loin6. Peut-être le lecteur saisira-t-il mieux de quoi est faite cette impossibilité s’il essaie quand même de la transgresser : il va tomber sur l’infinie absurdité (pour notre esprit) du phénomène. La bombe à retardement d’Einstein Revenons à l’onde. C’est une portion d’espace. Supposons qu’un point de cet espace arrive le premier sur l’enregistreur. Alors, du fait (dûment constaté) que toute l’énergie du paquet d’ondes se trouve instantanément localisé dans ce point, il faudrait admettre qu’en un instant de durée nulle, tous les autres points, en nombre infini, qui ne sont pas encore arrivés sur l’enregistreur, sont avertis de cet événement et transportent instantanément leur énergie sur le premier point arrivé. C’est-à-dire qu’il faut attribuer à tous les points de l’onde, en nombre infini, la double capacité de savoir à distance instantanément et d’agir à distance instantanément. Dès 1935, Einstein et deux de ses assistants avaient clairement identifié et dénoncé cette absurdité (sous une autre forme)7. Ils avaient publié leur démonstration, auquel nul ne prêta attention. Comme l’écrivait tout récemment Jean-Pierre Vigier, de l’institut Henri-Poincaré, cette petite publication était une bombe à retardement déposée par Einstein dans les fondements de la physique. La bombe est en train d’exploser et la physique tout entière est menacée d’effondrement, non, certes, dans ses connaissances, mais dans leur interprétation. Les types d’interprétation proposés, dont nul n’est à même d’évaluer les conséquences, sont encore bien plus éloignés du « bon sens » que tout ce que j’ai essayé d’exposer dans ces chroniques. La prière du Petit Poucet Nous essaierons ultérieurement de pénétrer un peu plus dans cet effrayant labyrinthe en répétant avec ferveur : « Que la lumière soit ! » Car si la science nous apprend quelque chose sur l’Ordre d’où tout sortit, c’est que nous devons, comme le Petit Poucet perdu dans sa forêt, le répéter ainsi qu’une prière8. Aimé MICHEL (a) Richard Feynman : La nature des lois physiques (Laffont, Paris 1970, surtout le ch. 6, qui peut être lu séparément) ; Feynman : Cours de physique, vol. III : Mécanique quantique, Chap. 1 (Interéditions Paris 1979) ; Andrade e Silva et G. Lochak : Quanta, Grains et Champs (Hachette 1969, pp. 187 et suiv.). (b) Depuis l’expérience de Michelson. Chronique n° 342 parue dans F.C.-E. – N° 1808 – 7 août 1981 [|Capture_d_e_cran_2014-11-10_a_12-28-10.png|]
Notes de Jean-Pierre ROSPARS du 16 novembre 2015

 

  1. Dans la chronique n° 285, La dernière serrure – Un monde en dehors de l’espace et du temps (20.01.2014), Aimé Michel écrivait : « Un phénomène est quantique quand il se propage comme une onde mais se manifeste comme corpuscule, dès qu’on l’observe. Sa relation avec l’appareil est celle d’un corpuscule. Son devenir quand il n’entre en relation avec rien est celui d’une onde. » C’est là le fondement de la théorie standard de la physique quantique, dite interprétation de Copenhague.
  2. Aimé Michel avait déjà exprimé son scepticisme quant à l’intérêt de ce « principe de complémentarité » dans la chronique n° 285 citée dans la note précédente. Il y écrivait : « Cette double nature a été excessivement vulgarisée, elle a donné lieu dans le jargon pseudo-scientifique à l’expression de “réalités complémentaires”, qui maintenant sert même dans les discours politiques et les interviews d’idoles, sans parler de la philosophie. » J’avais cité à cette occasion l’avis concordant du physicien Bernard d’Espagnat : « au sein de la communauté physicienne la notion de complémentarité n’a, en définitive, reçu qu’un accueil assez mitigé. Souvent saluée de manière formelle, elle n’a été que rarement utilisée et, en particulier, les théoriciens qui se sont intéressés au problème de la mesure n’y ont quasiment jamais eu recours. » Toutefois, on peut distinguer deux types de complémentarité en physique quantique. Le premier type porte sur les observables incompatibles en raison de la non-commutativité de certaines opérations, ce qui veut dire que l’ordre des opérations importe : il n’est pas équivalent de faire l’opération A d’abord suivie de B ou l’inverse. (voir note d de la chronique n° 16, Le grand Mardouk : comment peut-on être savant et sans angoisse ? 28.09.2009 et la note 6 ci-dessous ; cette non-commutativité n’a rien d’exceptionnel ; à titre de comparaison l’addition et la multiplication sont commutatives puisque 2 + 3 = 3 + 2 et 2 × 3 = 3 × 2 mais deux rotations successives autour de deux axes distincts ne le sont pas). C’est de cette non-commutativité que naissent toutes les propriétés quantiques comme les superpositions, l’indéterminisme, les relations d’indétermination et la violation des inégalités de Bell. Le second type porte sur des questions plus conceptuelles comme justement la complémentarité onde-particule. « Deux descriptions sont complémentaires si elles s’excluent mutuellement l’une l’autre mais sont toutes deux nécessaires pour décrire complètement une situation. La complémentarité en ce sens s’applique à des aspects incompatibles qui ne peuvent pas se combiner en une seule description fondée sur une logique purement booléenne. » (H. Atmanspacher). C’est ce second type qui suscite le scepticisme d’A. Michel et de B. d’Espagnat. Il n’en reste pas moins que l’extension de la notion de « réalités complémentaires » est due à Niels Bohr lui-même, le grand physicien danois, pionnier de la physique quantique et auteur principal de son interprétation courante dite de Copenhague. Bohr a proposé plusieurs exemples d’application possible de ce « principe de complémentarité » dans son livre Physique atomique et connaissance humaine (1958, Folio essais n° 157). L’un des exemples qu’il donne, sans doute le plus intriguant mais qu’il ne détaille pas, est la complémentarité des aspects physique et psychologique de l’existence. Il offre donc une esquisse de solution au difficile problème des relations entre l’esprit et la matière (ou entre la conscience et le cerveau comme on préfère dire aujourd’hui), objet de tant de débats. Le physicien Wolfgang Pauli et le psychologue Carl Jung se sont également intéressés à cette solution. Harald Atmanspacher de l’Institut des domaines frontières de la psychologie de Fribourg y a consacré plusieurs articles. Pauli et Jung ont discuté des relations entre l’esprit et la matière dès leur rencontre en 1932 mais surtout de 1946 à la mort de Pauli en 1958. Pour ce dernier « ce serait très satisfaisant si le physique et la psyché pouvaient être vus comme deux aspects complémentaires de la même réalité » (1955, avec Jung). Pour autant, selon Nikolaus von Stillfried, de l’Institut des sciences de la santé environnementale de Fribourg également, l’idée d’une complémentarité de l’esprit et de la matière n’a pas reçu beaucoup d’attention de la part des philosophes parce qu’elle n’offre pas une réponse qui puisse les satisfaire. En effet la plupart d’entre eux voudraient une solution rationnellement compréhensible offrant une description unitaire de la réalité. Or, selon la thèse de la complémentarité, une description complète de nos observations de la réalité requiert deux descriptions mutuellement exclusives : « les descriptions les plus fondamentales auxquelles on puisse parvenir sont des paradoxes. (…) En nous confrontant à un paradoxe inévitable à la fois au fondement même de la réalité physique et en ce qui concerne notre expérience la plus intime, [le principe de complémentarité] indique très clairement une limite absolue de la rationalité comme moyen ultime d’atteindre une compréhension ultime de nous-mêmes et de l’univers. » Mentionnons au passage que ces auteurs tout comme Pauli et Jung étendent leurs réflexions aux « expériences humaines exceptionnelles » telles que la synchronicité et les expériences mystiques. Références : H. Atmanspacher, « Dual-Aspect Monism à la Pauli and Jung », J. Consciousness Studies 19: 1-22, 2012 (http://www.informationphilosopher.com/presentations/Milan/papers/Dual-aspect-Atmanspacher.pdf). N. von Stillfried, « Hard problems in philosophy of mind and physics: Do they point to spirituality as a solution? », in H. Walach, S. Schmidt et W. Jonas, ed., Neuroscience, Consciousness and Spirituality, Springer, Berlin, 2011 (https://www.researchgate.net/profile/Nikolaus_Von_Stillfried/publication/227058241_Hard_Problems_in_Philosophy_of_Mind_and_Physics_Do_They_Point_to_Spirituality_as_a_Solution/links/0f31753b147e74b473000000.pdf).
  3. Cette preuve de l’inexistence de l’éther luminifère a été apportée en 1887 par l’expérience de Michelson et Morley. Le raisonnement des physiciens de l’époque était le suivant : puisque toutes les ondes connues se propagent dans un milieu matériel, dans l’eau ou dans l’air par exemple, il doit en aller de même pour la lumière ; ils appelèrent éther luminifère (c’est-à-dire porteur de lumière) ce milieu hypothétique et cherchèrent à le mettre en évidence. Pour ce faire, le physicien américain Albert A. Michelson (né en 1852 à Strelno alors en Prusse, aujourd’hui en Pologne, mort à Pasadena en 1931) proposa une expérience fondée sur deux faits : (i) si l’éther remplit l’univers et qu’il est immobile dans l’espace absolu, alors un courant (ou vent) d’éther doit balayer la Terre dans son mouvement orbital autour du Soleil ; (ii) traverser une rivière d’une rive à l’autre et revenir prend moins de temps que de la descendre dans le sens du courant sur la même distance puis de remonter au point de départ. Par conséquent, en comparant le temps mis par la lumière provenant d’une étoile pour parcourir une certaine distance dans la direction du courant (dans le sens est-ouest du mouvement orbital puis à contre-sens) à celui mis pour parcourir la même distance en travers du courant (aller puis retour perpendiculairement au mouvement de la Terre en direction nord-sud) on doit pouvoir mettre l’éther en évidence et mesurer à quelle vitesse la Terre s’y déplace. L’idée intuitive sous-jacente est celle de l’addition des vitesses : si vous lancez une balle (la lumière) à 6 m/s dans le sens de marche d’un véhicule (la Terre) se déplaçant à 10 m/s sa vitesse par rapport au sol (l’éther) sera de 16 m/s (ou de 4 m/s si vous la lancez dans le sens contraire). La difficulté de l’expérience tient à la petitesse de l’effet à mettre en évidence sachant que la vitesse de la lumière est d’environ 300 000 km par seconde et celle de la Terre sur son orbite dix mille fois plus petite (30 km/s), si bien qu’aucune mesure directe ne peut atteindre une précision suffisante. Pour tourner cette difficulté, Michelson eut recourt à une propriété de la lumière : les interférences. Deux ondes lumineuses issues de la même source interfèrent et produisent des franges noires quand leur différence de marche vaut une demi-longueur d’onde et des franges lumineuses quand elle vaut une longueur d’onde. Si on modifie le chemin suivi par l’une ou l’autre des ondes, les franges se déplacent. Par exemple, avec un allongement d’une demi-longueur d’onde (0,2 µm pour la lumière violette) une frange claire prend la place d’une frange sombre, ce qui est aisément repérable. Pour réaliser son expérience Michelson conçut un interféromètre qui porte son nom. Il comporte deux bras orthogonaux terminés par des miroirs, avec une lame semi-réfléchissante en son centre ; le faisceau lumineux issu de l’étoile est divisé par la lame en deux parties qui se réfléchissent sur les miroirs, se recombinent et interfèrent ce qui permet de mesurer la très petite différence des distances qu’elles parcourent suivant le bras emprunté. Michelson l’utilisa une première fois en 1881 à Berlin et Postdam puis avec plus de précision en 1884 à Cleveland avec Edward W. Morley. Ils eurent la surprise de ne trouver aucune différence ni par rotation de 90° de l’instrument (monté sur un support de grès flottant sur un bain de mercure), ni au cours de l’année. Certes il aurait pu se faire qu’à un moment la Terre et l’appareil se trouvent, par hasard, au repos par rapport à l’éther mais dans ce cas ils n’auraient pas pu l’être six mois plus tard quand la Terre circulait en sens contraire. Il fallait conclure contre toute intuition que la vitesse de la lumière provenant d’une étoile ne change pas lorsque la Terre s’approche ou s’éloigne de celle-ci ! Michelson fut très dépité de ne pouvoir détecter le vent d’éther, ce qu’il ressentit comme un échec cuisant ; il alla même jusqu’à imaginer que tout l’éther de l’Univers est entraîné par la Terre ! En 1887, alors à Chicago, il abandonna les expériences en cours au bout de cinq jours (https://www.aip.org/history/gap/PDF/michelson.pdf) puis s’empressa de penser à autre chose en cherchant d’autres emplois plus gratifiants de son instrument. Les théoriciens ne renoncèrent pas. En 1899, l’Irlandais G. F. Fiztgerald montra que le résultat négatif de l’expérience pouvait s’interpréter si on admettait que les bras de l’interféromètre se contractent dans la direction du mouvement. L’idée fut reprise de manière indépendante et plus générale par le Hollandais H. A. Lorentz en 1904 puis le Français H. Poincaré. Mais il faudra attendre l’année suivante pour que les postulats de Lorentz soient compris et intégrés dans l’élégante théorie de la relativité restreinte d’A. Einstein. Un pas considérable fut alors franchi : on comprenait d’une part que l’éther n’existait pas (ou plus exactement devenait une notion « superflue ») et d’autre part que la vitesse de la lumière dans le vide était une constante indépendante de la vitesse de la source de lumière (la loi d’addition vectorielle des vitesses ne s’applique pas à la lumière). La physique, et le monde avec elle, entraient dans une nouvelle ère…
  4. Les deux notions d’onde et de corpuscule sont en complète opposition. Une onde est étendue, existe en de multiples points et peut interférer avec elle-même tandis qu’une particule est localisée en un point et ne peut pas produire d’interférences. Werner Heisenberg le résume ainsi : « Les deux images sont évidemment mutuellement incompatibles puisqu’une certaine chose ne peut pas être à la fois une particule (c’est-à-dire une substance confinée à un très petit volume) et une onde (c’est-à-dire un champ étendu sur un grand espace) » (Physique et philosophie, Albin Michel, 1971). Voir à ce propos la chronique qu’Aimé Michel publia une semaine avant celle-ci, n° 341, Les mésaventures de l’onde et du corpuscule – Les troublantes expériences quantiques d’Alain Aspect (17.08.2015).
  5. En physique quantique on appelle variables cachées des paramètres hypothétiques qui ne sont pas pris en compte par la mécanique quantique « standard », dite « interprétation de Copenhague », la seule utilisée en pratique dans les laboratoires, l’enseignement et les applications parce qu’elle est conforme à l’expérience, mathématiquement la plus simple et la seule qui ait conduit à de nouvelles découvertes et applications. La principale théorie à variable cachée est celle proposée par Louis de Broglie (1927) et redécouverte par David Bohm (1952), dans laquelle la variable cachée est la particule en mouvement, localisée à chaque instant et distincte de l’onde qui la guide, laquelle peut exister également sous forme d’une onde « vide » (sans particule). La principale motivation d’une telle théorie est de défendre le réalisme en physique, c’est-à-dire l’idée qu’il existe une réalité indépendante de nous et évoluant de manière déterministe. Elle présente aussi l’avantage de traiter tous les systèmes de la même façon, qu’ils soient microscopiques ou macroscopiques. Selon cette vue, la physique devrait s’efforcer de décrire cette réalité dans le détail au lieu de se contenter, comme la physique quantique standard, de prédire les résultats des expériences (ce qui introduit un observateur humain) en postulant un indéterminisme fondamental. En 1935, Einstein, Podolsky et Rosen (EPR) ont pensé démontrer l’existence de variables cachées en se fondant sur des définitions précises et des raisonnements rigoureux et ont proposé une expérience pour vérifier leur thèse. Réfléchissant à cette expérience, John Bell a pu démontrer en 1964 des inégalités qui doivent être vérifiées si des variables cachées locales au sens défini par Einstein existent, et violées si elles n’existent pas. Mais il a fallu attendre le début des années 1980 pour que l’expérience puisse être faite : elle montra que les inégalités de Bell étaient violées, conformément aux prédictions de la mécanique quantique standard (voir note 5). Ainsi se sont trouvées définitivement écartées les théories à variables cachées locales : il fallait dorénavant admettre des influences à distance se propageant plus vite que la vitesse de la lumière (influences dites non locales). En outre, en 2002, les expériences relativistes « avant-avant » d’Antoine Suarez, Nicolas Gisin et leurs collaborateurs ont exclu que dans les expériences EPR l’un des photons arrivait avant l’autre et l’influençait (j’en ai déjà dit deux mots dans la chronique n° 310, Le nouveau « paradoxe du comédien » – L’interprétation philosophique de la physique quantique, 02.06.2014, note 5). Quelles ont été les conséquences de ces avancées théoriques et expérimentales pour l’interprétation à variable cachée de Bohm ? On peut en distinguer deux. La première, d’un point de vue scientifique, est qu’elles ont permis d’écarter cette interprétation telle que formulée en 1952. En effet, bien qu’elle fasse usage d’un potentiel quantique non local qui lui permet de rendre compte de l’expérience d’Aspect, elle ne peut rendre compte de l’expérience relativiste de Suarez et Gisin. La seconde conséquence est plus philosophique ; comme l’écrit Bernard d’Espagnat « même en admettant l’existence d’influences supraluminales on est bien en peine d’expliquer cette corrélation [dans l’expérience de Suarez et Gisin] au moyen d’une description de ce qui “se passe réellement”, indépendamment de nous, dans la réalité extérieure. » (B. d’Espagnat et C. Saliceti, Candide et le physicien, Fayard, Paris, 2008, p. 315). Ces avancées ont ruiné toute conception simple, intuitive et claire de la réalité « extérieure » fondée sur une multitude de particules séparées tout simplement parce que l’onde pilote supposée guider ces particules, elle, n’est pas localisée (et ne peut pas l’être pour demeurer en accord avec l’expérience). Notons toutefois que le développement ultérieur de la théorie (Bohm et Hiley, 1993) fondé sur une nouvelle conception de l’espace-temps échappe à la première objection (mais non à la seconde). Ainsi, l’avantage de l’interprétation de Bohm (1952) qui était de se passer complètement de l’observateur et de la conscience se trouve perdu dans la version de 1993 où le physique et le psychique émergent d’une réalité indivise plus fondamentale. On trouvera une critique plus élaborée de l’approche Broglie-Bohm dans le Traité de physique et de philosophie de Bernard d’Espagnat (Fayard, Paris, 2008, pp. 228-236) et dans les articles d’Antoine Suarez de 2014 (« Le potentiel quantique de Bohm peut être considéré comme réfuté par l’expérience », http://arxiv.org/abs/1410.2014) et de Nicolas Gisin de 2015 (http://arxiv.org/abs/1509.00767v1). Malgré tout il est peu probable que les tenants de l’interprétation bohmienne l’abandonnent bientôt comme le montre une correspondance échangée entre Sheldon Goldstein et Steven Weinberg (http://inference-review.com/article/on-bohmian-mechanics). Golstein trouve la théorie de Bohm plus simple dans ses fondements que la version de Copenhague, ne la croit pas attachée à un déterminisme absolu et ne désespère pas de la voir évoluer pour devenir compatible avec la relativité et la création de particules. On reconnaît là une situation classique en science où les partisans d’une théorie essayent de l’adapter tant qu’ils le peuvent.
  6. Le principe d’indétermination énoncé en 1927 par Werner Heisenberg au tout début de la mécanique quantique stipule qu’il faut renoncer à connaître avec précision, et simultanément, toutes les grandeurs associées à une « particule ». Aujourd’hui ce n’est plus un principe mais un théorème que l’on démontre à partir des postulats fondamentaux de la physique quantique. Il permet de distinguer deux catégories de paires de grandeurs physiques, celles qui obéissent à la relation de Heisenberg (on dit qu’elles ne commutent pas) et celles qui n’y obéissent pas (elles commutent, voir note 2). Ainsi on peut caractériser une particule (plus exactement le paquet d’onde qui lui est associé) à un instant t par sa position x, son impulsion p (produit de la masse de la particule par sa vitesse), son énergie E, toutes grandeurs affectées d’une certaine incertitude (notées Δt, Δx, Δp, ΔE). Les paires de grandeurs (x, E) et (t, p) commutent. Par contre les paires (x, p) et (E, t) ne commutent pas ; elles obéissent donc aux relations de Heisenberg qui s’écrivent Δx × Δpħ et ΔE × Δtħħ est la constante de Planck h divisée par 2π, ħ = 1,055 × 10−34 joule × seconde, quantité certes très petite mais non nulle, totalement négligeable en mécanique classique mais non en mécanique quantique. Ces relations signifient, par exemple, qu’on ne peut pas déterminer exactement et simultanément la position et la vitesse d’une particule mais qu’on peut le faire pour sa position et son énergie. Prenons garde toutefois au vocabulaire utilisé dans cette présentation et à l’interprétation de ces relations. Selon la physique quantique standard, d’une part cette « particule » n’existe pas en tant que telle (c’est une onde étendue) et d’autre part les relations de Heisenberg ne portent pas sur une ignorance subjective des grandeurs par l’observateur mais sur l’impossibilité objective de les déterminer. Aimé Michel a bien exprimé cela à propos de l’électron dans une autre chronique : « Est-ce à dire que ce qui est probable, c’est, compte tenu de notre ignorance de là où il est vraiment, que nous le trouvions ici plutôt que là ? Non ! l’incertitude de Heisenberg n’exprime pas notre ignorance, mais bien un état de la nature correspondant à une inconcevable dégradation de l’objet-électron ou, plus simplement peut-être, de son être. » (chronique n° 119, Heisenberg ou le non représentable, 10.06.2010).
  7. En fait c’est dès 1927, à la cinquième conférence Solvay, qu’Einstein avait souligné que le passage de l’onde à la particule dans l’interprétation standard de la mécanique quantique (voir note 1) suppose une étrange coordination où tout point de l’onde sait à distance instantanément et agit à distance instantanément selon l’élégante expression d’Aimé Michel. Aux yeux d’Einstein c’était une grave difficulté de la théorie ; il continua d’y réfléchir les années suivantes mais ne parvint à formuler rigoureusement ses objections qu’en 1935 avec l’aide de ses assistants Podolsky et Rosen. Toutefois au lieu de porter sur une onde-particule unique comme en 1927 la démonstration de 1935 portait sur une entité formée de deux particules intriquées (voir la chronique n° 336, Cactus dans la physique : et si le temps était réversible ? – Théorème d’Einstein-Podolsky-Rosen et problèmes irrésolus en physique, 15.06.2015). Les discussions se focalisèrent sur cette situation qui fut donc la première soumise au test expérimental (la première expérience complète fut faite à Orsay en 1981 par Alain Aspect et ses collaborateurs, voir la chronique Les mésaventures de l’onde et du corpuscule citée ci-dessus). Il a fallu attendre 2010 pour qu’un test expérimental applicable au cas plus simple de la particule unique d’Einstein (1927) soit proposé par Antoine Suarez (« Démonstration unifiée de la non localité à la détection et du résultat de Michelson-Morley par une expérience à photons uniques », http://arxiv.org/pdf/1008.3847.pdf) puis 2012 pour qu’il soit mis en œuvre par l’équipe de l’université de Genève autour de Nicolas Gisin et Antoine Suarez (T. Guerreiro, B. Sanguinetti, H. Zbinden, N. Gisin et A. Suarez, « Photons uniques sans regroupement du genre espace », Physics Letters A, 376: 2174–2177, 2012). Dans cette expérience la plaque photographique et ses multiples grains d’argent détectant les photons sont remplacés par deux détecteurs seulement, D1 et D2, situés à l’extrémité libre (sans miroir) des deux bras d’un interféromètre de Michelson-Morley. En utilisant une lumière d’intensité suffisamment faible on peut n’avoir qu’un seul photon à la fois dans l’appareil et le faire interférer avec lui-même. L’attrait de ce dispositif est qu’il permet de réaliser soit une expérience quantique démontrant la non localité (comme dans l’expérience d’Aspect) soit une expérience relativiste démontrant l’inexistence de l’éther (comme dans l’expérience de Michelson-Morley) et ainsi exclure la localité et l’éther avec la même fiabilité. Selon la théorie quantique standard, lors de la détection, l’énergie répartie dans l’onde étendue correspondant au photon se trouve soudainement concentrée en un seul point. Par conséquent elle prédit pour l’expérience de Genève que si un photon est détecté en D1 il ne le sera pas en D2 et réciproquement, et cela même si les détecteurs D1 et D2 sont situés si loin l’un de l’autre qu’aucun signal voyageant à la plus grande vitesse possible (celle de la lumière) ne pourra coordonner les deux détecteurs pendant le temps que dure une détection. Mais que se passerait-t-il si la théorie quantique standard était fausse, s’il n’y avait pas de coordination non locale ? Dans ce cas on s’attendrait à ce qu’une fois sur quatre l’unique onde envoyée produise deux détections (une dans D1 et l’autre dans D2), une fois sur quatre aucune détection (ni dans D1 ni dans D2) et une fois sur deux une seule détection (soit dans D1, soit dans D2). Dans ce cas, l’énergie ne serait conservée qu’en moyenne mais pas dans les processus individuels. Ce serait certainement un résultat bizarre mais, à dire vrai, pas plus que la coordination non-locale ! L’expérience a donc été faite pour en avoir le cœur net : ses résultats se sont révélés conformes aux prédictions de la physique quantique standard : à chaque essai un seul détecteur clique. « En résumé, écrit Antoine Suarez, l’expérience de Genève 2012 démontre que : primo, le principe le plus fondamental gouvernant le monde matériel, la conservation de l’énergie, ne marcherait pas sans une coordination non locale (non matérielle) venant d’en dehors de l’espace-temps ; secundo, la non localité est déjà présente dans des expériences impliquant une seule particule et, en ce sens, gouverne tous les phénomènes quantiques et pas seulement ceux qui impliquent deux particules “intriquées” ou plus (la non localité à la détection est plus fondamentale que la non localité de Bell) ; tertio, puisque la non localité à la détection est au cœur de tout phénomène d’interférence, les expériences de base de la relativité comme celle de Michelson-Morley requièrent la non localité quantique, l’incertitude et même la liberté de l’expérimentateur ; finalement puisqu’une réflexion partielle de la lumière se produit partout dans le monde (sur une fenêtre, une table en verre, un plan d’eau etc.) la non localité se produit aussi partout. » (https://www.bigquestionsonline.com/content/what-does-quantum-physics-have-do-free-will).
  8. Le labyrinthe et la clarté évoquée dans cette conclusion et dans le titre de la chronique m’ont suggéré le titre du recueil d’une partie des articles d’Aimé Michel, La clarté au cœur du labyrinthe. Ce titre résume sa conception du monde : nous vivons dans un univers labyrinthique mais nous devons conserver le cœur plein d’espérance.