SUR L’ÉMINENTE DIGNITÉ DE CERTAINES « DÉPENSES INUTILES » - France Catholique
Edit Template
L'amour du travail bien fait avec saint Joseph artisan
Edit Template

SUR L’ÉMINENTE DIGNITÉ DE CERTAINES « DÉPENSES INUTILES »

Chronique n° 484 parue initialement dans France Catholique – N° 2305 – 03 mai 1991

Copier le lien
L'Observatoire Compton à rayons gamma quitte la navette Atlantis le 7 avril 1991.

L'Observatoire Compton à rayons gamma quitte la navette Atlantis le 7 avril 1991.

NASA/Ken Cameron

L’univers est inhumain. Longtemps les astronomes n’ont visé qu’à construire des télescopes capables de multiplier les capacités de l’œil. Dans « télescopes » il y a deux racines grecques signifiant « regarder au loin ». L’observatoire largué dans l’espace par la navette américaine il y a quelques semaines a définitivement rompu avec cette tradition anthropomorphique de l’observation astronomique : c’est le premier observatoire qui va scruter le ciel uniquement à l’aide de sens dont l’homme ne dispose pas. Il ne comporte aucun instrument à proprement parler optique1. Ce qu’il va découvrir, on n’en a à peu près aucune idée. Cependant on sait d’avance d’une certitude à peu près absolue que les phénomènes nouveaux dont il informera les savants s’inscriront dans une logique déjà connue, celle de la physique quantique. C’est une certitude métaphysique portant sur la physique. Tout cela semble paradoxal. En fait c’est d’une limpide rationalité. Ces paradoxes donnent simplement la mesure de notre étrangeté dans ce monde. Si pour observer les monstruosités de l’espace il nous faut des appareils ayant définitivement renoncé aux sens qui nous sont indispensables sur terre, c’est que la terre notre domaine est une sorte de havre, de cocon bien protégé contre les violences inimaginables qui sont la loi de l’univers extérieur. Le nouvel observatoire enregistre les événements qui surviennent à notre insu dans cet espace en quatre domaines : les ondes radio, l’infra-rouge, l’ultra-violet, les rayons gamma. Dans les quatre cas il s’agit d’ondes au sens quantique, c’est-à-dire d’événements qui peuvent se manifester selon la façon dont nous les observons, soit sous forme d’ondes soit sous celle de particules2. Il est plus aisé d’observer les « ondes » radio sous forme d’ondes et les rayons gamma sous forme de particules. Déjà ce fait nous permet de sentir combien l’univers que nous appelons extérieur diffère du nôtre. En apparence ! Car il n’y a pas d’univers « extérieur », il n’y en a qu’un, celui où s’écoule notre vie. Mais dans ce petit coin où nous vivons, il s’abstient miséricordieusement de manifester sa violence. Grâce à quoi nous vivons, non seulement l’homme mais la terre entière où s’accomplit sa destinée. Exemple : les rayons gamma. Sur terre, il n’y a pas de rayons gamma, pas plus qu’il n’y a de rayons X. Pour les découvrir il a fallu les produire artificiellement (les gamma sont des X plus courts). Ils permettent toutes sortes d’expériences intéressantes mais leur « dureté » détruit les liaisons chimiques. Autrement dit, si vous recevez une décharge de rayons gamma vous mourez cuit. Tchernobyl, c’est, entre autres choses, une émission de rayons gamma dans l’environnement proche ou moins proche3. Or des appareils envoyés précédemment dans l’espace pour d’autres missions ont découvert que celui-ci est traversé d’émissions gamma courtes et fréquentes, assez semblables aux explosions d’un feu d’artifice illuminant par saccades un ciel brumeux. Découverte intéressante, car on n’a pas la moindre idée de leur origine. Ou, ce qui revient au même, les théoriciens disposent de vingt explications dont aucune n’est vérifiable depuis le sol. Ces rayons gamma confirment la violence cosmique dont je parlais plus haut4. On connaît dès maintenant cette violence par plusieurs voies guère plus gratifiantes que l’étude de la Bibliothèque Nationale lorgnée à travers trois ou quatre trous de serrure5. Le nouvel observatoire ne voit rien, mais il a franchi les trous de serrure et peut procéder de l’intérieur à des mesures qu’il transmet à la terre par radio sous la forme d’une infinité de 0 et de 1, ou peut-être de courbes semblables à celles d’un électrocardiogramme. Hasard d’ignorance et hasard d’absolu On a dit et écrit qu’Hipparcos, le précédent observatoire qui, lui, voit, mais mal, aurait dû multiplier par mille nos connaissances sur l’espace6. C’est vrai, et c’est encore vrai avec le nouvel observatoire. Cependant, personne n’imagine sérieusement qu’il puisse remettre en cause aucune connaissance précédemment établie. Il multipliera nos connaissances actuelles, mais dans le cadre quantique auquel pour le moment aucune alternative n’est connue. J’ai pensé qu’il était important d’y réfléchir un peu, car le fondement de la physique quantique est le hasard absolu. Quelle peut être la place d’un être spirituel comme l’homme dans un monde d’absolu hasard ? C’est-à-dire de désordre total ? Notons d’abord qu’il n’y a nulle contradiction entre une physique aux lois rigoureuses et le hasard. C’est une des grandes nouveautés de la science récente, d’une nouveauté telle qu’elle eût été tenue pour un paradoxe, voire une sottise, par les savants du siècle dernier : s’il y a ordre, et dans la mesure où il y a ordre, le hasard recule. C’est cela qu’exprimait une phrase fameuse de Laplace, toujours citée, et dont le sens est : quelqu’un qui connaîtrait tout du monde tel qu’il est à un moment donné pourrait prédire le comportement de la moindre goutte d’eau dans mille milliards d’années7. Le sous-entendu de cette affirmation est l’impossibilité du monde spirituel, et qu’il est absurde d’en supposer un, car même à supposer qu’il existe il ne pourrait en aucune façon modifier le moindre de nos gestes. La philosophie immédiatement déduite de la physique du temps de Laplace est en effet le déterminisme universel et absolu8. Quand un grand esprit comme Laplace énonce une idée avec une clarté telle que son seul énoncé ressemble à une preuve, c’est le signe qu’il l’a longuement mûrie, donc qu’il a laborieusement exploré les idées contraires dont il ne parle pas. Et en effet Laplace est un des pères fondateurs de la science du hasard, ou statistique. Seulement, il y a au moins deux sortes de hasards. Il y a d’abord celui, conforme au déterminisme, qui résulte de notre ignorance. Par exemple on ne peut pas prédire le temps quinze jours à l’avance parce qu’on ignore trop de données dans la description du temps qu’il fait en ce moment-même : le temps est déterminé, mais les faits qui le déterminent sont trop mal connus. Autre exemple plus frappant de hasard réel mais absolument déterminé : la suite des décimales des nombres dits irrationnels, comme la racine carrée de deux (1,4142136… à l’infini), de trois (1,7320508… à l’infini). Ces décimales se succèdent sans ordre et cependant on n’en peut changer aucune, fût-ce la mille-milliardième. De ce hasard (absolu, je le répète) on peut cependant tirer d’innombrables lois. Par exemple que la moyenne de ces décimales est 4,5. Tout cela était connu de Laplace. Mais il existe un autre hasard découvert par la nouvelle physique : c’est celui de l’indétermination, que, justement, on croyait naguère avoir effacé de l’horizon philosophique. Cette indétermination, nous dit-on, est fondamentale, elle est au cœur des choses9. Pour en sortir il faudrait pouvoir isoler une particule, puis, l’ayant perdue de vue, la retrouver. Et voilà justement ce qui est impossible, car la connaissance d’une particule la transforme d’une façon que rien ne peut déterminer (Bohr, Heisenberg, Bohm…). Encore la vérité est-elle plus obscure et lointaine, car la particule n’est pas une vraie particule, elle est aussi une onde…10 Où la métaphysique précède la physique Ce sont ces particules qui sont aussi des ondes que les appareils du nouvel observatoire vont étudier sous des formes inexistantes sur terre, ou n’existant que par artifice, en laboratoire, ou sur d’étroites bandes d’ondes. Les appareils sont conçus dans ce but. Ils ne peuvent être conçus que dans ce but, puisqu’on n’en connaît point d’autre. Voilà pourquoi, sans précisément savoir ce que l’on va découvrir, on peut être physiquement sûr que toute nouveauté trouvera sagement sa place dans le cadre de nos connaissances actuelles. C’est un cas de figure exceptionnel. Mais non pas définitif. Déjà on pense à d’autres expériences plus audacieuses11. Cela coûte des milliards de dollars. J’aime mieux ces dépenses que les dépenses militaires, mieux que le gaspillage d’État, mieux que le gâchis du chômage12. Aimé MICHEL Chronique n° 484 parue initialement dans France Catholique – N° 2305 – 03 mai 1991. Capture_d_e_cran_2014-11-10_a_12-28-10.png
Notes de Jean-Pierre ROSPARS du 3 février 2020

 

  1. La précédente chronique sur ce sujet, la n° 476, Questions sur l’observatoire spatial – N’est-il pas déraisonnable de dépenser des milliards pour cela ?, publiée un an auparavant, le 11 mai 1990, traitait du célèbre télescope spatial Hubble mis en orbite le 24 avril 1990 et toujours en service. La présente chronique s’intéresse à un autre instrument satellisé, moins célèbre, appelé Observatoire Compton à rayons gamma (Compton Gamma-Ray Observatory). Mis en orbite par la navette Atlantis le 5 avril 1991, soit un an après Hubble, ce satellite de 17 tonnes (contre 11 tonnes pour Hubble) était à l’époque le plus gros satellite scientifique jamais lancé, comme quoi la célébrité n’est pas qu’une question de masse ! Bien que prévu pour une durée de vie de 2 ou 3 ans seulement, il a été opérationnel pendant 9 ans. La défaillance d’un de ses trois gyroscopes a contraint de mettre un terme à son activité. Pendant cinq mois, les ingénieurs ont étudiés plusieurs scénarios pour le faire retomber sur Terre avec précision. À partir du 30 mai 2000, les fusées de contrôle d’attitude ont été utilisées pour le freiner. Le désorbitage s’est achevé le 4 juin 2000 par une chute des débris du satellite dans l’océan Pacifique. Cet observatoire spatial a été nommé en l’honneur du physicien américain Arthur Compton (1892-1962), découvreur de l’effet Compton (voir note 10). Il aurait pu aussi bien être nommé Paul Villard en l’honneur de ce chimiste et physicien français (1860-1934) qui, en 1900, découvrit le rayonnement gamma produit par la désintégration du radium. (Villard est un de ces scientifiques envers lequel la postérité se montre injuste, voir l’article de B. Lelong, « Paul Villard, J.-J. Thomson et la composition des rayons cathodiques », Revue d’histoire des sciences, tome 50, pp. 89-130, 1997, disponible sur Internet).
  2. À ma connaissance, comme son nom l’indique, l’Observatoire Compton à rayons gamma n’enregistrait que dans le domaine des rayons gamma, pas dans les domaines de l’ultraviolet, de l’infrarouge et des ondes radio. Les rayons gamma sont, comme la lumière visible, des ondes électromagnétiques (voir note 4 de n° 476). Ces ondes se caractérisent par leur célérité qui est la même pour toutes (300 000 km par seconde dans le vide, notée c), leur longueur d’onde (la distance de crête à crête, notée λ) et leur fréquence (le nombre de crêtes par seconde, notée ν). Plus la longueur d’onde est courte, plus la fréquence est grande (car λν = c). La longueur d’onde des rayons gamma est très courte, inférieure à un picomètre (milliardième de millimètre), alors que celle des rayons de lumière est d’environ 500 nanomètres (millionièmes de millimètre, nous voyons vert-bleu la couleur de cette lumière). Quant à la fréquence, elle est supérieure à 3×1020 Hz pour les gamma et d’environ 6×1014 Hz pour la lumière. Comme le rappelle A. Michel, ces ondes se manifestent également comme des particules (ou grains d’énergie) appelées photons. Les deux descriptions, ondulatoire et corpusculaire, sont liées par une équations fort simple, E = hν, proposée par Einstein en 1905 : l’énergie E du photon est proportionnelle à la fréquence ν de l’onde associée. Le facteur de proportionnalité n’est autre que la constante de Planck h découverte en 1900 par Max Planck (sur cette importante découverte, voir la note 3 de n° 314, et les compléments en notes 8 de n° 466 et 3 de n° 437). L’énergie d’un photon gamma est donc au moins 10 millions de fois plus élevée que celle d’un photon de lumière. Plus généralement, les photons des rayons gamma, X et ultraviolets (par ordre d’énergie décroissante) ont une énergie supérieure aux photons de la lumière visible, tandis que les photons des rayons infrarouges, des micro-ondes et des ondes radio ont une énergie inférieure.
  3. Les diverses ondes électromagnétiques sont produites par des mécanismes différents. Les rayons gamma, les plus énergétiques, sont produits par les noyaux des atomes lorsqu’ils se désintègrent (avec transformation d’un neutron en proton ou, inversement, d’un proton en neutron) ou capturent un nucléon (neutron ou proton) : le noyau excité en retournant à son état de repos (dit fondamental) libère l’énergie en excès sous forme d’un photon gamma. Ainsi, des neutrons et des photons gamma sont produits par désintégration de l’uranium au cœur des centrales nucléaires ; ils sont arrêtés entre autres par l’enceinte de béton qui entoure le cœur, sauf en cas d’échappement de gaz radioactif ou d’explosion comme à Tchernobyl en 1986 et à Fukushima en 2011. Un photon X est émis lorsqu’un électron d’une couche profonde au sein d’un atome libère de l’énergie en passant d’un état excité à son état fondamental. Le mécanisme est le même pour les rayons ultraviolets (UV) et la lumière visible, sauf qu’il met en jeu des électrons superficiels dont les transitions libèrent moins d’énergie. Les rayons infrarouges (IR) peuvent être produits de la même façon mais également par la vibration des molécules. Les micro-ondes proviennent de la rotation des molécules ou de l’oscillation d’électrons dans un conducteur. Enfin, les ondes radioélectriques (dites aussi hertziennes) proviennent également d’oscillations d’électrons dans des conducteurs (antennes). Les effets de ces diverses ondes sur les atomes et les molécules dépendent de leur énergie. Les plus énergétiques (gamma, X, UV) sont capables d’arracher des électrons aux atomes (qu’ils transforment ainsi en ions, d’où leur nom de radiations ionisantes) et de briser les liaisons entre atomes d’une molécule. Ces effets sont dangereux pour les êtres vivants car ils peuvent provoquer des cancers lorsque l’ADN est atteint et n’est pas réparé par les cellules lésées. Le danger est d’autant plus grand que l’exposition à ces rayons ne produit aucune sensation. La lumière visible n’a pas assez d’énergie pour casser les liaisons chimiques mais est capable de déplacer les électrons superficiels des atomes. Cette excitation des atomes est mise à profit par les êtres vivants pour provoquer les réactions chimiques de la photosynthèse (source d’énergie principale de la vie) et celles des photorécepteurs de la rétine. Les photons IR ne peuvent pas exciter les atomes mais peuvent faire vibrer les liaisons qui les unissent, ce qui donne une sensation de chaleur sur la peau. Les micro-ondes modifient la rotation des molécules et font osciller les molécules chargées comme l’eau (propriété utilisée dans les fours à micro-onde pour chauffer les aliments). Quant aux ondes radio, elles n’ont guère d’effet sur les atomes et les molécules. Au total, on voit que les effets des ondes sont inverses des mécanismes qui leur ont donné naissance, en ce sens qu’un photon émis par un noyau d’atome (rayon gamma) exercera son action sur un autre noyau, tandis qu’un photon émis par les couches d’électrons (profondes ou superficielles) agira sur les mêmes couches d’un autre atome.
  4. Les sursauts gamma sont des émissions puissantes, brèves et aléatoires dans le temps, de rayons gamma provenant de l’espace cosmique. Ils résultent d’explosions qui sont les plus brillantes et les plus violentes qu’on puisse observer dans l’univers. Ils ont été découverts en 1967 par des satellites américains chargés de vérifier l’interdiction des explosions atomiques dans l’atmosphère car ils étaient équipés pour cette raison de détecteurs de rayons X et gamma. Il faut attendre 1991 et l’Observatoire Compton à rayons gamma (OCRG, voir note 1) pour que des progrès substantiels dans l’étude des sursauts gamma soient effectués, grâce notamment aux détecteurs efficaces enfin mis au point à cette époque. La principale découverte de l’OCRG est que les sursauts gamma proviennent de tous les points de la voute céleste, ce qui exclut que leurs sources se trouvent dans notre galaxie car celle-ci ayant la forme d’un disque, on s’attendrait à ce que la plupart des sources soient dans le plan du disque. Cette découverte est surprenante parce les sources extragalactiques sont beaucoup plus lointaines ce qui implique qu’elles dégagent une énergie énorme (bien trop pour certains astrophysiciens qui ont longtemps soutenu que ces sources étaient dans le halo sphérique de notre galaxie, la Voie Lactée). En février 1997, l’observatoire italo-néerlandais Beppo-SAX découvre un sursaut gamma puis, quelques heures après, dans la même direction une source de rayons X. Un des télescopes terrestres pointés dans cette direction y trouve une source dans le visible. Le télescope spatial Hubble pointé à son tour montre une tâche bleue qui parait bien être une galaxie lointaine. En avril, Beppo-SAX détecte un second sursaut dont la contrepartie visible est analysée par le plus puissant télescope terrestre de l’époque, ce qui permet de déterminer son décalage vers le rouge et par conséquent sa distance : six milliards d’années-lumière (sur ce décalage ou redshift, voir n° 316). Cette fois l’origine extragalactique ne fait plus de doute. En janvier 1999, l’observatoire OCRG détecte à son tour un sursaut gamma, ce qui permet à un télescope terrestre de repérer son « rémanent optique » 22 secondes plus tard seulement, grâce aux procédures mises en place pour transmettre rapidement les données. La source se trouve à 9 milliards d’années-lumière. Elle émet dans un faisceau étroit une énergie un million de fois plus grande que notre galaxie tout entière. Par la suite, plus d’un millier de sursauts gamma sont analysés grâce aux détections précises des télescopes spatiaux HETE (2000-2006) et Swift (depuis 2004) et à la rapidité de leur couplage aux autres observatoires terrestres et spatiaux. Les théoriciens en déduisent qu’ils sont produits soit par une étoile géante qui s’effondre sur elle-même après avoir épuisé son combustible nucléaire (ce qui donne naissance à une étoile à neutrons ou à un trou noir, nous reviendrons sur ce point dans la prochaine chronique, n° 485), soit par deux étoiles à neutrons ou deux trous noirs qui gravitent autour de leur centre de gravité commun de plus en plus près l’un de l’autre jusqu’à la collision finale.
  5. L’atmosphère n’est transparente aux ondes électromagnétiques que pour certaines bandes de longueurs d’onde qu’on appelle « fenêtres atmosphériques » et qu’Aimé Michel qualifie judicieusement de « trous de serrure ». En effet, l’atmosphère est opaque aux rayons gamma et X, ainsi qu’à une grande partie des UV, IR et ondes radios (voir note 4 de n° 476). C’est grâce à son atmosphère et à son champ magnétique que la Terre est ce havre de paix, ce « cocon bien protégé contre les violences inimaginables qui sont la loi de l’univers extérieur » dont parle A. Michel. Elle est aidée en cela par la modération de notre étoile, le Soleil, qui émet très peu de radiations ionisantes. De plus, l’atmosphère arrête la plus grande partie des rayons UV du Soleil mais laisse passer la lumière visible. Ces diverses caractéristiques rendent possible la vie terrestre qui se trouve protégée des rayons destructeurs tout en étant alimentée en énergie lumineuse. Par ailleurs, le Soleil émet peu d’ondes radios ce qui rend possible leur usage sans brouillage pour les communications terrestres et extraterrestres (avec les divers satellites et sondes que nous envoyons). En contrepartie, pour voir l’univers à toutes les longueurs d’onde il faut sortir de l’atmosphère terrestre. Malgré tout, l’atmosphère n’est pas un bouclier absolu. Si un sursaut gamma se produisait pas trop loin de nous dans la Galaxie, cela pourrait avoir de fâcheuses conséquences. Un sursaut de ce genre pourrait expliquer l’extinction de l’Ordovicien supérieur, il y a 445 millions d’années et, plus près de nous, la brusque augmentation du carbone 14 atmosphérique au VIIIe siècle (découverte dans les cernes d’arbres datés de 774-775). Pour une réflexion sur la signification métaphysique et religieuse des catastrophes cosmiques, voir la note 10 de la chronique n° 453.
  6. Hipparcos est un télescope spatial de l’Agence spatiale européenne. En 1967, Pierre Lacroute, un astronome français, propose au CNES de réaliser un satellite capable de mesurer la position des étoiles avec une bien meilleure précision que les observatoires terrestres de l’époque qui sont gênés par l’atmosphère. En raison du coût de ce projet, le CNES sollicite l’ESA en 1977 qui accepte de le financer en 1980. Hipparcos (du nom de l’astronome grec Hipparque) est lancé de Kourou en août 1989 et mis sur une orbite très elliptique que la défaillance de son moteur empêche de circulariser. Malgré cette difficulté, la mission atteint ses objectifs scientifiques et elle est arrêtée en août 1993. Trois ans de calculs intensifs sont nécessaires pour exploiter les données recueillies. Les premiers résultats sont publiés par l’ESA en juin 1997 puis affinés en 2000 : ils donnent notamment la distance et le mouvement propre de plus de deux millions et demi d’étoiles (dont 100 000 avec une précision d’une milliseconde d’arc), ce qui a permis de réviser la taille et l’âge de l’univers visible dans son ensemble. Le successeur d’Hipparcos, Gaia, a été lancé en 2000 et est toujours en opération. Il est en orbite autour du point de Lagrange L2 du système Terre-Soleil (comme le futur télescope spatial américain James Webb, voir note 3 de n° 476). Il vise à faire des mesures sur plus d’un milliard d’objets célestes avec une précision supérieure à une demi-milliseconde d’arc. Les 50 giga-octets de données qu’il envoie chaque jour nécessitent des calculs qui sont à la limite des capacités de traitement informatique actuels ; 300 personnes y travaillent. La publication des résultats par l’ESA commencée en 2016 devrait s’achever en 2022.
  7. Voici cette célèbre phrase de Laplace : « Une intelligence qui, à un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était suffisamment vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome ; rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. » Elle est extraite de son non moins fameux Essai philosophique sur les probabilités de 1840 (voir note 2 de n° 476). On est revenu de cette belle certitude pour au moins deux raisons. La première est l’indétermination quantique, qui fait que, par exemple, on ne peut prévoir ni à quel moment un atome radioactif se désintègrera (voir n° 247 et 413) ni en quel point d’un écran un photon se manifestera (voir note 3 de n° 341). La seconde est le chaos déterministe (voir note 3 de n° 149 et note 4 de n° 388).
  8. L’existence du monde spirituel est tenu par beaucoup pour une impossibilité au nom de la science et de sa méthode. Ceux-là pensent qu’en dehors du temps et de l’espace il n’y a rien et que la notion même de liberté n’a guère de sens dans un monde où la science ne connait que le déterminisme et le hasard. Dans une précédente chronique (n° 344), Aimé Michel s’insurgeait contre cette vue : « Il y a (…) une pétition de principe grossière dans l’idée que la science prouve l’inexistence des réalités spirituelles. C’est comme si l’on disait : croyez-moi, je suis un spécialiste du voyage et de l’exploration, j’ai parcouru des millions de kilomètres en train, à cheval, à trottinette et à pied, et je n’ai jamais vu de baleine, cette histoire de bonne femme. Pour voir la baleine, il est conseillé de jeter un coup d’œil sur la mer, où l’on ne va guère à trottinette. Le principe de Descartes – tout expliquer par l’espace et le mouvement – exclut d’avance de son champ de vision tout ce qui n’est ni espace ni temps, tout ce qui concerne l’âme et Dieu. » Il poursuivait en montrant que la science elle-même étant parvenue au bord de l’Océan avait sapé les certitudes classiques de Laplace et ses successeurs fondées sur le temps, l’espace et le déterminisme absolu (voir note 11), idée qu’il reprend ici. Reste que le meilleur indice d’existence du monde spirituel est notre conscience elle-même, idée qui est développée par exemple dans la chronique n° 434 et les notes qui l’accompagnent. Un livre récent du philosophe Jean-Marc Ferry, dont la pensée sur bien des points est, de façon surprenante, très proche de celle d’Aimé Michel, ajoute de l’eau à ce moulin. Il s’agit de Qu’est-ce que le réel ? (éditions Le bord de l’eau, Lormont, 2019). Malheureusement, l’auteur alterne presque sans transition des passages écrits en langue commune et d’autres formulés dans une langue technique qui ne peut être comprise que des seuls philosophes professionnels. Malgré tout, les passages « en clair » sont suffisamment nombreux pour que tout lecteur attentif puisse bénéficier de leurs interrogations et arguments. En particulier, le chapitre II présente, sous forme de dialogues socratiques, l’impossibilité logique où l’homme se trouve de nier qu’il est un être conscient, libre et muni de la notion de vérité. En effet, « La liberté, la vérité, l’esprit ne sont pas que des Idées. Leur réalité se laisse attester par l’expérience de la contradiction dite “performative” : il nous est logiquement impossible de contester la réalité de ces Idées sans devoir la présupposer ». L’auteur a résumé une partie de sa pensée dans une interview par Étienne Klein sur France-Culture, à écouter sur https://www.franceculture.fr/emissions/la-conversation-scientifique/quest-ce-que-le-reel.
  9. A. Michel revient ici sur les trois hasards qu’il a déjà développés dans une chronique publiée en juin 1986, n° 419, Une idée nouvelle : la Providence… – Les quatre paradigmes et les trois formes de hasard, idée « qu’il l’a longuement mûrie » elle aussi. J’en ai déjà parlé plusieurs fois (note 2 de n° 452, note 10 de n° 453, note 10 de n° 459, note 6 de n° 475, note 2 de n° 479) tant je la crois importante pour se faire une idée correcte de l’univers dans lequel nous sommes. Il est assez troublant de remarquer que déterminisme et hasard ne s’oppose pas de manière aussi tranchée qu’on pourrait le croire. Ainsi, les décimales du nombre π se calculent par un algorithme et sont donc strictement déterminées. Pourtant, un ensemble quelconque de ces décimales paraitra complètement aléatoire à l’observateur qui en ignore l’origine.
  10. Cette dualité de l’onde et du corpuscule est un des apports les plus troublants de la physique quantique car elle concilie deux descriptions opposées (on en trouvera une présentation, par exemple, dans la chronique n° 285 et les notes de n° 342). La théorie corpusculaire du rayonnement électromagnétique proposée par Planck en 1900 (note 3 de n° 314) et Einstein en 1905 (note 3 de n° 432) fut d’abord accueillie avec scepticisme et ne fut acceptée par la majorité des physiciens qu’en 1922 à la suite des expériences d’Arthur Compton. Ces expériences montrèrent que la lumière diffusée par les électrons se comporte effectivement comme un faisceau de particules dont l’énergie est proportionnelle à la fréquence. Cette dualité fut généralisée aux corpuscules par Louis de Broglie (note 3 de n° 437). D’autres aspects troublants de la physique quantique sont l’indétermination (mentionnée plus haut, note 7), ainsi que la non localité, qui fait que la nature entière, au niveau quantique, ne peut être divisé en entités séparées (voir par ex., n° 341 et n° 342).
  11. Je ne sais pas à quelles expériences A. Michel fait allusion.
  12. Aimé Michel n’a jamais varié sur « l’éminente dignité » (expression utilisée dans le titre de la chronique) des dépenses faites pour explorer l’espace, dépenses qui ne sont inutiles qu’en apparence. Toutefois, on peut relever la différence de ton et d’arguments entre la chronique de juillet 1969 (qui fut aussi sa première publiée dans F.C.), où le premier homme sur la Lune est envisagé dans la longue durée de l’histoire de la vie, et la présente chronique, écrite presque vingt-deux ans plus tard, n’offrant qu’une justification terre à terre et par défaut. En fait, comme je l’ai souligné plusieurs fois (voir par exemple la note 10 de n° 443), le réalisme d’A. Michel, d’inspiration pascalienne, comporte toujours ces deux éléments : à la fois les risques, les échecs, les souffrances du coupe-gorge où nous vivons, associés au lyrisme cosmique d’un avenir sans limite. L’histoire de plus de soixante années d’exploration de l’Espace offre une belle illustration de ces contradictions par l’inextricable mélange de médiocrité et de grandeur qui caractérise les entreprises humaines. On se souvient que l’exploration de l’Espace est née des efforts déployés par l’URSS et les États-Unis pour disposer de missiles balistiques intercontinentaux capables de porter des ogives nucléaires jusqu’au cœur du pays ennemi. Ces fusées permettaient d’accéder à l’Espace et certains esprits clairvoyants ont vu le bénéfice qu’ils pouvaient en tirer pour la plus grande gloire de leur système politico-économique. C’est ainsi que l’URSS de Khrouchtchev dama le pion aux E.-U. d’Eisenhower qui n’avaient en vue que les aspects militaires, avant que Kennedy ne remette les pendules à l’heure avec les vols lunaires Apollo. Le budget de la NASA (créée en 1958, juste après le choc du premier Spoutnik) témoigne de l’effort consenti par les Américains pour restaurer leur fierté : de 0,1% du budget fédéral en 1958, il grimpe exponentiellement à un pharaonique 4,4% en 1966 pour retomber à 0,75% en 1986. Il connait une embellie, atteint plus de 1% en 1991, mais diminue à nouveau ensuite et, depuis 2012, il oscille autour de 0,5% chaque année. Au-delà de ces fluctuations du budget, les vicissitudes techniques et politiques ne sont pas moins remarquables. Sa mission de prestige accomplie, le programme Apollo se voit aussitôt amputé dans l’indifférence générale de ses trois derniers vols prévus. Les efforts sont redirigés vers la navette spatiale mais c’est un demi-échec : non seulement elle ne parvient pas à remplir son objectif économique (abaisser le coût des lancements) mais deux accidents avec perte d’équipage (en 1986 et 1991) conduisent d’abord à en restreindre l’usage puis à l’abandonner complètement en 2011. Depuis lors, les États-Unis n’ont plus de véhicule pour envoyer des hommes dans l’Espace. Pourtant les projets n’ont pas manqué pour rendre au pays son lustre spatial d’antan. Le plus ambitieux a été le programme Constellation, lancé en 2005 par George W. Bush, qui prévoyait la desserte de la Station Spatiale internationale (SSI), le retour de l’homme sur la Lune « pas plus tard que 2020 » et le vol habité vers Mars à la suite. Mais en 2009, un comité d’évaluation juge que le programme a pris du retard et que son budget est insuffisant pour atteindre ses objectifs. Résultat : Barak Obama supprime le programme ! En 2019, à l’instigation de Donald Trump, il renait sous le nom d’Artemis (la sœur jumelle d’Apollon) avec la Lune pour objectif en 2024. Pour cela il faudra mettre au point un lanceur lourd (SLS), une station relai en orbite lunaire, un vaisseau (Orion) pour atteindre la station, un vaisseau (HLS) pour l’aller-retour station-Lune, des ravitailleurs automatiques, une astromobile et deux combinaisons spatiales. Cet ambitieux programme sera-t-il réalisé ? Difficile d’en être certain : le lanceur SLS développé par Boeing depuis 2011, bien qu’il réutilise des éléments de la navette, a déjà pris un retard considérable et dépassé le budget alloué ; les Américains qui soutiennent ces projets sont minoritaires et le Congrès pourrait bien, comme l’an passé, bloquer à nouveau le budget fédéral. Cela signifierait-il un complet renoncement aux vols habités ? Peut-être pas, car le secteur spatial traditionnel né de la Guerre Froide a été pris de surprise, il y a quelques années, par l’arrivée de nouveaux acteurs, comme l’explique Xavier Pasco, spécialiste de la politique spatiale américaine, dans Le nouvel âge spatial. De la Guerre froide au New Space (CNRS éditions, Paris, 2017). Elon Musk est un éminent représentant de ce New Space qui entend rompre avec la grisaille et les atermoiements de l’Old Space. Co-fondateur de PayPal, devenu milliardaire après sa revente, le Sud-Africain Musk fonde la société Space X en 2002, moins pour offrir des solutions aux grands problèmes de l’humanité que pour conquérir des mondes nouveaux : « Le but fondamental de Space X, déclare-t-il en 2012, est et a toujours été de créer la technologie nécessaire pour implanter la vie sur Mars ». Dix ans plus tôt cette déclaration aurait prêté à sourire mais, en 2006, SpaceX remporte (ainsi qu’une autre société privée), l’appel d’offres lancé par la NASA pour la desserte de la SSI que ses navettes ne vont plus pouvoir assurer. Elle met au point son lanceur Falcon 9 pour moins de 400 M$ (millions de dollars) alors que la NASA reconnait qu’il lui aurait fallu 4000 M$ pour obtenir le même résultat (https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/20170008895.pdf) ! En 2015, suite au procès qu’elle intente au gouvernement américain, SpaceX se voit accorder le droit de répondre aux appels d’offres militaires qui étaient depuis 1995 la chasse gardée de Boeing et Lockheed. Dans la foulée, elle décroche son premier lancement militaire au prix de 82 M$, contre 370 M$ pour son concurrent ULA (Boeing-Lockheed). Le choc est rude pour ULA qui doit licencier 800 personnes (le quart de son personnel). Rude aussi pour l’Europe qui doit refondre son secteur des lancements pour en améliorer la compétitivité. De discussions difficiles entre partenaires européens naissent un nouveau lanceur, Ariane 6, mais non récupérable contrairement aux Falcon, au coût de production 40% inférieur à celui d’Ariane 5 (seulement 40% !), et une nouvelle société (Airbus Safran Launchers ASL) qui devient le principal actionnaire d’Arianespace par acquisition des parts détenues par le CNES. L’avenir est incertain d’autant que les pays européens ne jouent pas toujours le jeu et n’hésitent pas à recourir à la concurrence, même pour leurs lancements étatiques. L’avenir spatial pourrait sembler écartelé entre l’attitude utilitariste à court-terme des gestionnaires et l’esprit d’exploration à long-terme des visionnaires s’il n’y avait la voie moyenne de l’exploration par robots interposés prônée par la majorité des scientifiques. En fait, ni les programmes « utilitaristes », ni les programmes scientifiques ne sont en question, seule l’exploration humaine directe est soumise aux fluctuations de l’opinion publique, qui, au moins aux États-Unis et en Europe, s’est mise à douter de son intérêt. Reste à savoir ce que seront les ambitions et réalisations de la Chine, de l’Inde, de la Russie ou d’autres en ce domaine, et quel sera l’effet de ces aiguillons sur les États-Unis (et dans une moindre mesure de l’Europe qui s’est retirée des avant-postes en ce domaine). Mais, quelles que soient les hésitations et les difficultés, on peut être sûr que les visionnaires utiliseront toutes les occasions pour réaliser leur rêve : voyager dans l’Espace et vivre sur Mars, et même y mourir, comme le souhaite Elon Musk, mais bien sûr « pas en s’y écrasant », comme il le précise lui-même !