Parcours

Fermer Parcours lévinassien

Fermer Parcours axiologique

Fermer Parcours cartésien

Fermer Parcours hellénique

Fermer Parcours ricordien

Fermer Parcours spinoziste

Fermer Parcours habermassien

Fermer Parcours deleuzien

Fermer Parcours bergsonien

Fermer Parcours augustinien

Fermer Parcours braguien

Fermer Parcours boutangien

Fermer Glossématique

Fermer Synthèses

Fermer Ouvrages publiés

Fermer Suivi des progrès aux USA

Fermer Parcours psychophysique

Fermer L'art et la science

Fermer Parcours nietzschéen

Fermer Philosophies médiévales

Autres perspectives

Fermer Archéologie

Fermer Economie

Fermer Sciences politiques

Fermer Sociologie

Fermer Poésie

Fermer Théologie 1

Fermer Théologie 2

Fermer Théologie 3

Fermer Psychanalyse générale

Fermer Points d’histoire revisités

Fermer Edification morale par les fables

Fermer Histoire

Fermer La numérisation du monde

Fermer Phénoménologie

Fermer Philosophie et science

Mises à jour du site

04/11/2017 ajout :
Parcours ricordien :
La pensée de Paul Ricoeur chez E. Macron

04/11/2017 ajout :
Economie
- Marchand, non marchand
Sociologie
- Une sociologie délivrée de l'héritage bourdieusien

01/10/2017 ajout :
Parcours ricordien
- L'image de Dieu et l'épopée humaine
- Ricoeur philosophe et théologien

24/09/2017 ajout :
La numérisation du monde
- La vie algorithmique

09/09//2017 ajout :
La numérisation du monde
- Philosophie de la donnée
- La siliconisation du monde

27/08/2017 ajout :
La numérisation du monde
- Les objets connectés du futur

Liens Wikipédia
Visites

   visiteurs

   visiteurs en ligne

Philosophie et science - Les idées rectrices de la physique formelle

Lire cet article au format PDF

 

––1/ LES IDÉES RECTRICES DE LA PHYSIQUE FORMELLE

 

Le siècle de la physique formelle

À la fin du XIXe siècle, la physique classique aboutissait, avec MAXWELL, à un profond renversement de sa nature. On voyait s’effacer le rôle primordial des anciens concepts visuels tels que ceux de position, de vitesse ou de force, dont l’expression mathématique avait pu sembler n’apporter jusqu’alors que davantage de précision, sans réviser leur sens intuitif premier. Cette claire vision avait dû céder la place en partie à des concepts incomparablement plus abstraits comme le champ électrique ou magnétique, dont l’expression mathématique n’était plus simplement une traduction de l’intuition, mais la seule forme parfaitement explicite qu’on pût leur donner. Les lois de cette nouvelle physique devenaient par la même occasion des relations mathématiques entre ces quantités, certaines les reliant les unes aux autres et d’autres exprimant leur dynamisme, c’est-à-dire la manière dont elles évoluent au cours du temps. Si la pensée du physicien continuait à sauvegarder le plus possible ce qui restait d’intuition, elle était à présent entrée dans une phase nouvelle, celle d’une conception où la forme mathématique des notions physiques et des lois prime sur toute autre manière de comprendre[1].

Toute la physique repose désormais sur des bases plus formelles qui échappent à toute intuition, quand elles ne vont pas jusqu’à heurter de front le sens commun ou ce qui se croit tel.  

La relativité

En dépit de ses côtés formels, l'électrodynamique de la fin du XIXe siècle conservait du passé une idée forte et une idée simple qui, toutes deux ensemble, menaient à une idée fixe.

  • L’idée forte était le caractère absolu de l'espace et du temps.
  • L'idée simple était que le caractère vibratoire de la lumière suppose un support matériel concret : quelque chose qui vibre et qu'on appelait l'éther.
  • L'idée fixe était de mettre en évidence l'existence de l’éther au moyen de l'expérience.

On a perdu aujourd'hui en partie la mémoire des cogitations, des théories et des tentatives auxquelles a conduit cette quête de l’éther. La somme en est considérable, et les historiens de la science sont à peu près les seuls à en savoir l'étendue. N’en retenons que les traits essentiels : il était naturel de supposer que l’éther, milieu en quelque sorte matériel qui vibre au passage de la lumière, devait se trouver présent partout où la lumière se propage, en particulier dans le vide intersidéral que traverse la lumière des astres. Il devait donc matérialiser l’espace absolu postulé par NEWTON.

Cette idée n’était pas une pure spéculation, mais elle reposait au contraire sur des remarques tout à fait sensées qu’il est bon de rappeler. La première a trait à la composition des vitesses. L’existence d’un espace et d’un temps absolus a en effet pour conséquence une règle simple qui donne la vitesse d’un mouvement quand l'expérimentateur qui l'observe est lui-même animé d'un autre mouvement par rapport à l’espace absolu. Ainsi, si un signal lumineux se propage avec une certaine vitesse dans l'espace absolu, un observateur qui, lui aussi, se déplace, devrait constater que la vitesse qu'il mesure est la différence (vectorielle) entre la vitesse absolue de la lumière et la sienne propre. La vitesse observée de la lumière devrait donc se ressentir du mouvement du laboratoire où on la mesure, lequel est emporté par la Terre dans sa révolution autour du Soleil. Or il se trouve que les équations de 1’électrodynamique de MAXWELL prédisent une vitesse de la lumière parfaitement définie, qu'on désigne par c, sans aucune marge de liberté. Il était donc raisonnable de penser que les équations de MAXWELL représentaient les lois de la physique telles qu’elles s'expriment dans un milieu matériel unique, l’éther, ce milieu étant lui-même au repos par rapport à l'espace absolu.

Ce qu'on vient de dire à propos de la composition des vitesses montre que cette idée pouvait être mise, en principe, à l'épreuve en mesurant la vitesse de la lumière avec assez de précision. En effet, la vitesse de la Terre par rapport au Soleil est dirigée dans des directions opposées à six mois d'intervalle, et cela devrait pouvoir se constater. Il n'est même pas nécessaire d’attendre six mois, car la vitesse de la Terre à un moment donné a une direction bien définie par rapport à l’espace absolu, et cela entraîne pour conséquence qu’une mesure de la vitesse de la lumière ne devrait pas donner la même valeur selon que la lumière se propage dans cette direction privilégiée ou dans une autre, par exemple perpendiculaire. Malheureusement, le rapport V/c entre la vitesse de la Terre et celle de la lumière est très petit, de l'ordre de un dix-millième, et les moyens dont on disposait ne permettaient pas de réaliser les mesures avec assez de précision.

On chercha donc d'autres effets qu'on pût atteindre par l'expérience. Les phénomènes d'interférences étaient particulièrement prometteurs, car la position exacte des franges d’interférences offre le moyen l'amplifier fortement les variations supposées de la vitesse de la lumière. Il est vrai que les effets attendus étaient du second ordre, en fonction de la quantité très petite V/c, c'est-à-dire proportionnels à son carré, et donc de l'ordre de un cent-millionième. Quoi qu'il en soit, l'amplification attendue les rendait accessibles à la condition que l'on utilise un interféromètre assez grand et suffisamment stable. C'est donc grâce aux progrès techniques qu'il avait réalisés dans la conception et utilisation des interféromètres que le physicien américain ALBERT MICHELSON, avec son collaborateur EDWARD MORLEY, put enfin mesurer le « vent d’éther » en 1887.

IdeesRectricesFig1.png

C'est un interféromètre à division d'amplitude composé de 2 miroirs M1 et M2 , d'une lame semi-transparente S  ou lame séparatrice et d'une lame transparente C ou compensatrice. On éclaire le dispositif avec une source S . Un détecteur permet l'étude de la figure d'interférence. La lame compensatrice a même épaisseur, même indice et même inclinaison que la lame compensatrice, ce qui permet de réaliser l'égalité des chemins optiques des rayons lumineux allant vers les miroirs M1 et M2  et issus d'un même rayon incident sur la lame séparatrice.

Le résultat fut bien différent de ce qu'on attendait. On ne constatait aucune manifestation de la vitesse du laboratoire par rapport à l'éther, et toutes les vérifications faites conduisaient à la même conclusion : la vitesse de la lumière ne dépend aucunement du mouvement du laboratoire où on la mesure.

Bien des idées qu'on croyait acquises se trouvaient renversées par cette découverte, et on chercha par tous les moyens quelle pouvait en être l'explication. Celle que l'Irlandais GEORGE FITZGERALD proposa en 1893 était Ï la fois séduisante et étrange : se pourrait-il que tous es corps matériels, par exemple le mètre étalon, voient leur taille modifiée sous l'effet de leur mouvement par rapport à l’éther ? La longueur d'un mètre serait diminuée lorsqu’il se déplace dans sa propre direction et inchangée quand sa vitesse lui est perpendiculaire, une expression explicite de cette modification étant proposée par FITZGERALD. Le Néerlandais HENDRIK LORENTZ, déjà auteur d'une théorie détaillée de l'électrodynamique dans la matière, pensa pouvoir attribuer cet effet à une modification des forces qui lient les atomes dans la matière des étalons de longueur (et bien évidemment dans tout autre corps). Il montra aussi, en 1903, que cet effet devait s'accompagner d'un changement du rythme des mouvements périodiques dans les atomes et, à plus grande échelle, de celui des horloges, les deux effets étant conjugués dans la célèbre transformation de LORENTZ, qui donne la modification des longueurs et des temps lorsque deux observateurs en mouvement relatif comparent leurs mesures respectives.

En 1905, ALBERT EINSTEIN proposa une révision conceptuelle d'une tout autre ampleur. Au lieu d’admettre que le mouvement par rapport à l’éther est la cause des contractions de FITZGERALD, il veut en voir l'origine dans la nature même de l’espace et du temps. Le même mètre étalon a toujours exactement la même longueur pour l'observateur qui le tient en main, et l'aiguille de la montre qu'il porte en son gousset tourne toujours au même rythme. Cet observateur repère l'espace à l'aide de son mètre, et il mesure les temps avec sa montre. Un autre observateur qui se déplace par rapport au premier à une vitesse constante peut faire de même, mais les mesures qu'ils font tous deux d'un même événement n'ont aucune raison de coïncider. Il n'y a pas, en d'autres termes, d'espace ni de temps absolus, mais des mesures de distance et de temps qui dépendent du mouvement de l'observateur. La manière dont ces mesures se comparent entre deux observateurs ne fait intervenir que la vitesse du mouvement de chacun deux par rapport à l'autre, c'est-à-dire leur mouvement relatif.

La révolution conceptuelle ainsi introduite peut être particulièrement bien appréciée si on la rapproche des jugements synthétiques a priori de Kant sur l'espace et le temps. On peut toujours admettre, si l'on veut, que ce sont des idées innées par lesquelles notre représentation, notre visualisation du monde doit nécessairement passer, mais il faut reconnaître que ces catégories de pensée ne s'accordent pas avec la nature, sauf les cas (d'ailleurs de loin les plus fréquents) où tous les mouvements sont lents par rapport à la vitesse de la lumière. L'espace et le temps continuent d’être représentables pour notre vision mentale, mais ce n'est qu'approximatif, et, au bout du compte, la formulation mathématique de la correspondance entre les observations est la seule qui soit fiable. Elle n'est pas descriptible par d'autres moyens que ceux de l'algèbre, quand bien même on parvient à apprivoiser son caractère abrupt par la familiarité. Avec la relativité, la théorie de la connaissance a cessé, sans doute à jamais, de se couler dans la représentation intuitive, pour ne plus se fonder que sur des concepts dont la seule formulation digne de foi passe par un formalisme mathématique.

Peut-on dire cependant que les conceptions d’EINSTEIN sur l'espace et le temps allaient suffire à entraîner l'adhésion ? On pouvait se le demander en les comparant à celles de LORENTZ, combien plus proches des idées classiques. Aussi n'est-ce pas de ces considérations générales que la confirmation devait venir, mais de l'application qu’EINSTEIN en fit à la dynamique. Les principes de la dynamique de NEWTON étaient en effet incompatibles avec la nouvelle théorie. Il fallait, pour les réconcilier, réviser la manière dont l'impulsion et l’énergie cinétique s’expriment en fonction de la vitesse des corps en mouvement. Il fallait donc réécrire les équations de NEWTON d’une manière nouvelle, qui ne différait significativement de l'ancienne que lorsque les vitesses mises en jeu ne sont pas négligeables devant celle de la lumière. C'est ce que fit EINSTEIN, avec le résultat extraordinaire qu’on connaît : il existe une énergie qui ne provient que de la masse et qui est donnée par la célèbre formule E = mc2.

L’existence de cette énergie de masse devait se révéler plus tard en physique nucléaire, où l’énergie de liaison des protons et des neutrons dans le noyau se traduit par une diminution parfaitement mesurable de la masse totale. Ce n’est évidemment pas là la seule confirmation expérimentale de la théorie de la relativité, et on en connaît à présent une multitude. Nous n’essaierons pas cependant de les recenser, car elles ont davantage leur place dans des ouvrages spécialisés. Voyons plutôt la suite.

La théorie relativiste de la gravitation

En dépit de ses succès, la théorie de la relativité laissait encore deux problèmes ouverts : savoir comment l’appliquer quand un observateur a un mouvement accéléré ; faire entrer la théorie de la gravitation de NEWTON dans le nouveau cadre.

Il restait comme un relent de l’espace et du temps absolus, dans la première théorie d'EINSTEIN. En effet, les transformations de LORENTZ qu’elle utilise ne sont applicables qu’à deux observateurs animés l’un par rapport à l’autre d’un mouvement à vitesse constante, sans accélération relative. Or on se souvient que les principes de la dynamique de NEWTON ne sont valables sous leur forme la plus simple que lorsqu’on les écrit dans l’espace absolu avec un temps absolu. En fait, ils conservent la même forme dans tout système de référence (tout laboratoire de mesure) dont la vitesse est constante par rapport à l’espace absolu. Ces systèmes de référence privilégiés sont appelés les référentiels galiléens parce que ce sont ceux où le principe d’inertie de GALILEE s'applique, c'est-à-dire ceux où un corps qui n’est soumis à aucune force se déplace d’un mouvement rectiligne uniforme.

La théorie de la relativité restreinte conservait la notion de référentiel galiléen. Ce n’est que dans un tel référentiel que la nouvelle formulation de la dynamique avait la forme simple qu’ EINSTEIN supposait. Ainsi, bien qu’il n’y eût plus d'espace ni de temps absolus, il n'en restait pas moins une catégorie de référentiels privilégiés dont la famille conservait un caractère unique. En plagiant GEORGE ORWELL, on pourrait dire que, parmi tous les systèmes de référence, ou toutes les manières de décrire l'espace et le temps, certains étaient plus égaux que d’autres. Il y avait là de quoi s'interroger.

L'autre problème était celui de la gravitation. On se souvient de la perplexité que ressentait NEWTON lui-même devant l’existence de forces de gravitation agissant immédiatement à distance[2] . La difficulté devenait plus aiguë dans la nouvelle théorie relativiste. Cette dernière prévoit en effet qu'aucun effet physique ne peut se propager plus vite que la vitesse de la lumière. En voici la raison : supposons qu'il y ait une cause A à un effet qu'on va supposer gravitationnel pour les besoins de la cause – c'est par exemple l'éjection d'une certaine masse de matière par le Soleil, phénomène détecté par un observateur. Cette cause produit un effet B à quelque distance, par exemple un effet de marée sur la Terre. L'observateur peut-il alors admettre que l'effet se produit à l'instant même où la cause a lieu ? Certainement pas, car on peut montrer que, en vertu des transformations de LORENTZ, il existerait alors d'autres observateurs, en mouvement par rapport au premier, qui verraient, dans ces conditions, l'effet précéder la cause. Les difficultés des interactions à distance ne sont donc plus une simple démangeaison métaphysique, comme au temps de NEWTON, mais elles entraînent une véritable contradiction interne. Par là même, en revanche, le problème qu’elles posent devient accessible à l’analyse, et c’est à quoi EINSTEIN va s atteler entre1911 et 1916.

Il est donc en présence de deux questions apparemment très différentes : la première est de reformuler les lois de la dynamique dans un système de référence quelconque et, en particulier, dans un référentiel accéléré ; la seconde est de trouver une théorie de la gravitation où les forces ne s’exercent pas instantanément à distance.

Ces deux problèmes sont liés, comme il s en convainc très vite. On sait qu’une accélération se manifeste par des forces d’inertie : c’est la force apparente, c’est-à-dire sans intermédiaire concret mais très manifeste, que 1’on ressent dans les entrailles quand on monte sur des         « montagnes russes » ou celle qu’un aviateur constate lors d’une forte accélération. On peut également en sentir l’effet dans un ascenseur rapide. Or, remarque EINSTEIN, il m’est absolument impossible, lorsque je suis enfermé dans une cage d’ascenseur, de savoir si l’impression de pesanteur que je ressens est due à une accélération de la cage ou à une véritable force de pesanteur, ou encore à une combinaison des deux. Aucune mesure faite localement, c est-à-dire sans sortir de la cage ni regarder au-dehors, ne me permet de trancher. La raison en tient à une identité mystérieuse que NEWTON avait soulignée, 1’égalité de la masse inertielle (qui détermine la réaction à 1’accélération) et de la masse gravitationnelle (qui détermine la force d attraction créée par d’autres masses).

Si donc on parvient à reformuler les lois de la dynamique dans un système de référence quelconque, on peut espérer comprendre la forme que doivent prendre les lois de la gravitation dans un contexte relativiste. EINSTEIN va alors faire une remarque essentielle, en reparcourant en sens inverse le chemin qu’il avait suivi pour passer des propriétés relativistes de l'espace et du temps à la dynamique, car il va éclairer la dynamique telle qu’elle s’exprime dans un référentiel accéléré en approfondissant, cette fois, la géométrie de l'espace telle qu’elle est vue dans un tel système.

L'exemple qu’il donne est suffisamment simple pour qu’on le rapporte ici : imaginons que nous soyons placés sur un manège qui tourne, assez vite pour que les effets de relativité y soient sensibles. On y ressent une accélération (sauf sur l’axe de la plate-forme) dont la force d'inertie n’est autre que la force centrifuge. Mais est-ce bien tout ce qui s'y passe ? Munissons-nous d’une règle et mesurons un rayon de la plate-forme, supposée circulaire. Comme la vitesse est partout perpendiculaire au rayon, notre règle ne subit pas de contraction de FITZGERALD, et nous trouvons ainsi une certaine valeur du rayon. Mesurons alors la circonférence de la plate-forme en plaçant plusieurs règles identiques bout à bout. Cette fois, la vitesse est partout parallèle à ces règles, et elles vont donc subir un effet de contraction relativiste. Quand on compare la longueur de la circonférence au rayon, on va donc trouver un nombre qui n’est plus 2π, comme on s’y attendrait, mais qui dépend du rayon et de la vitesse de rotation sur la circonférence. Voilà de quoi nous laisser ébahis : notre espace n’est plus euclidien !

Ainsi donc, la géométrie de l’espace dans un référentiel accéléré n’apparaît plus comme euclidienne. Des considérations analogues permettent de montrer que l'écoulement du temps mesuré par des horloges est lui aussi sensible aux effets d'accélération et qu'il n'est pas le même selon que les horloges, supposées identiques, sont placées au centre ou à la périphérie de la plateforme tournante.

Mais qu’est-ce donc qu’un espace qui n’est pas euclidien ? La question est facile quand il s’agit d’un espace à deux dimensions : il suffit, par exemple, de comparer un plan avec une sphère ou avec la surface d’une pomme de terre. Le plan est euclidien : le chemin le plus court d’un point à un autre est une droite, et la somme des angles d'un triangle est égale à π. Des êtres à deux dimensions qui vivraient sur la surface de la pomme de terre pourraient aussi s’accorder à appeler ligne droite le plus court chemin d’un point à un autre : c'est ce que les mathématiciens appellent une géodésique (dont le nom rappelle que c’est précisément le plus court chemin entre deux points de la surface de la Terre). Cela étant, nos êtres à deux dimensions constateraient qu’ils ne vivent pas dans un espace euclidien, car la somme des angles d’un triangle sur une sphère ou une pomme de terre n’est pas égale à π. L’espace a une courbure, comme on le voit manifestement dans l’exemple de la sphère.

Soit, dira-t-on, mais la pomme de terre est placée dans l’espace ordinaire, qui a trois dimensions, et celui-là est euclidien. Admettons-le, mais que pensera-t-on si l’on constate, comme dans l’exemple du manège, que l'espace à trois dimensions n’est pas euclidien ? Allons-nous le supposer plongé dans un espace imaginaire à quatre, cinq dimensions ou plus ? Notre respect et notre admiration pour EUCLIDE doivent-ils aller jusque-là ?

Il est beaucoup plus simple, en suivant EINSTEIN, de se limiter à l'espace tel qu'un observateur peut le voir et le mesurer: à trois dimensions, certes, mais non euclidien. Les mathématiciens nous ont appris, depuis GAUSS, à le décrire en lui-même sans avoir à le supposer plongé dans un espace euclidien de dimension plus élevée, et il suffit d’appliquer leurs techniques. Encore une fois, donc, des concepts qui ne s'expriment qu’au moyen des mathématiques et qui échappent à l’intuition vont devoir être invoqués.

On voit dès lors dans quelle direction aller : il faut faire se rejoindre d’abord les considérations qui concernent l’espace et celles qui ont trait au temps en joignant ceux-là dans un seul objet formel à quatre dimensions, l’espace-temps*. C’est lui qui va être considéré comme un espace géométrique de nature transcendante et qui présente une courbure. Un premier résultat s'impose alors : il n’est plus besoin de faire appel à des référentiels galiléens pour formuler les lois de la physique, et on peut les écrire dans n’importe quel référentiel, en rompant ainsi complètement avec les derniers lambeaux de l’enveloppe newtonienne. Le principe d’inertie cesse de privilégier les référentiels galiléens, et il englobe à présent l'effet des forces de gravitation : un corps qui n’est soumis à aucune force autre que gravitationnelle parcourt une géodésique de l'espace- temps.

Reste encore à trouver par quoi il faut remplacer la force de gravitation de NEWTON. Puisque le nouveau principe d’inertie inclut l’effet de la gravitation, il n’est plus besoin de parler de force, car il suffit de savoir trouver les géodésiques de l’espace-temps. Or il suffit pour cela de connaître sa géométrie, ce qui revient à déterminer sa courbure. Toute la théorie relativiste de la gravitation revient donc à trouver comment la courbure de l'espace-temps est déterminée par son contenu en masse (ou plutôt en énergie). Mais par quelles équations ?

Ce dernier obstacle retiendra longtemps les efforts d’EINSTEIN, car les méthodes mathématiques auxquelles il lui faut recourir sont encore inconnues à l'époque de tous les physiciens. Il y parvient enfin, en même temps que HILBERT, qu'il avait réussi à intéresser à ses recherches, et ce seront les célèbres équations d’EINSTEIN, qu’il ne saurait être question de décrire ici. On raconte à ce propos une anecdote qui remet en perspective l’image d’Einstein, qui fut le mathématicien pour le grand public, alors qu’il était bien davantage un physicien attentif aux principes et peu porté aux calculs trop complexes, qu’il savait au contraire éviter. HILBERT ne disait-il pas en effet que « HERR EINSTEIN veut remplacer la physique par la géométrie, mais tout le monde dans les rues de Gôttingen sait plus de géométrie que lui » ? Il faut croire que « tout le monde », pour HILBERT, s’appliquait à ses propres élèves, il est vrai fort nombreux. Cette historiette un peu acide sera prétexte à ROLAND OMNES pour ne pas approfondir davantage le formalisme de la théorie relativiste de la gravitation, car qui prétendrait dire avec des mots ce qui fut pour EINSTEIN une si pénible épreuve ? Il ne dira rien non plus des applications fascinantes de cette théorie aux trous noirs ou à une science enfin rendue légitime, la cosmologie, c’est-à-dire la théorie de l'espace-temps dans son ensemble ou, si l'on préfère, l’histoire de l’univers. Mieux vaut en effet réserver nos efforts à la dernière théorie formelle de la physique, la mécanique quantique, dont le champ est encore plus vaste et les conséquences plus importantes pour la théorie de la connaissance.

La préhistoire des atomes

On va se tourner à présent vers les constituants microscopiques de la matière et du rayonnement, et tout d'abord vers les atomes. Les atomes sont présents dans la nature de toute éternité, ou du moins sont-ils apparus un million d’années après la naissance de l'univers. Passons cependant sur ces milliards d’années où ils se préparaient à entrer en nous et à nous constituer, et venons-en tout de suite, encore une fois, à l’illumination grecque. Leucippe, un homme appartenant à la génération précédant celle de Socrate et dont nous ne savons presque rien, conçut l’étrange idée des atomes – par quelle étonnante envolée de l’esprit qui nous laisse pantois ? Son disciple Démocrite, puis Épicure et enfin Lucrèce (un vulgarisateur brillant en vers de dix pieds) en tirèrent des conséquences que la postérité ne devait jamais plus oublier. Mais ne nous y arrêtons pas et allons au plus court. Jetons seulement un regard au passage sur les atomes de Descartes : ils sont crochus pour s’arrimer les uns aux autres. Rien de bien neuf là-dedans, mais voici qui semble plus intéressant : au XVIIIe siècle, DANIEL BERNOULLI montre que, si les gaz sont formés d’atomes, alors la pression est due aux chocs que ces derniers exercent sur les parois, et cela permet de comprendre comment la pression dépend de la température. Il faut supposer pour cela que les atomes sont animés d’une sorte de mouvement perpétuel, semblable à celui que le botaniste ROBERT BROWN avait observé lorsqu’il constatait que des grains de pollen, dans une goutte d’eau vue au microscope, sont sans cesse en agitation. Mais passons encore.

Pendant tout le cours du XIXe siècle, l’idée d'atome va prendre corps peu à peu, grâce surtout aux travaux des chimistes. On avait établi à la fin du siècle précédent la distinction entre les corps simples et composés. Puis DALTON et GAY-LUSSAC constatent que les réactions chimiques mettent toujours en jeu des masses de corps simples (ou des volumes de gaz) qui sont dans des proportions fixes, des nombres entiers dont l’occurrence pourrait s'expliquer si les corps simples ne contenaient qu’une seule espèce d’atome et si les corps composés étaient constitués de molécules formées de quelques atomes. Ainsi, cahin-caha, en dépit de sévères objections, l’idée allait faire son chemin au travers d’avancées parfois fulgurantes et de résistances persistantes. Les tenants de l’hypothèse atomique se sentirent confortés par la découverte des lois de 1’électrolyse et, plus tard, par l'explication de multiples phénomènes de la chimie organique. On commençait à voir quelle forme les molécules devaient avoir dans l’espace. On ne pouvait cependant se dissimuler des problèmes difficiles, car comment comprendre que des atomes puissent se repousser, comme on le constate quand on essaie de comprimer la matière, tout en étant également capables de se lier les uns aux autres pour former des molécules ? D’autres propriétés étranges, dites de mésomérie ou de résonance, offraient aussi matière à critique aux nombreux incrédules.

Les choses semblèrent se compliquer encore davantage vers la fin du siècle, quand on s’aperçut que les atomes ne constituent pas la limite de petitesse extrême de la matière. En effet, J. J. THOMSON découvrit en 1897 des particules très légères de charge négative qu’il appela « électrons ». Elles sont émises par la cathode dans un tube à rayons X, et d’autres particules beaucoup plus lourdes, des ions, sortent de l’autre côté, par l'anode. Se pourrait-il donc que les atomes (dont le nom, rappelons-le, signifie « ce qui ne peut être scindé ») soient en fait formés de particules plus petites et qu'ils contiennent en particulier des électrons ? L'idée était séduisante, car LORENTZ montra qu'elle apporte une explication claire de nombreuses propriétés électriques et magnétiques de la matière. Malheureusement, là encore, un obstacle majeur semblait se présenter, car on ne voyait pas en quoi se distinguent un corps conducteur et un isolant.

On peut également mentionner, pour la beauté de la chose, que RAYLEIGH interpréta en 1899 la couleur bleue du ciel comme une diffusion de la lumière du Soleil par les molécules de l'atmosphère. La suite vaut aussi d’être contée : du fait de cette diffusion qui ôte de l’énergie à la lumière directe du Soleil pour la renvoyer dans toutes les directions et qui privilégie la partie bleue du spectre, l'énergie de la composante bleue de la lumière se trouve en partie perdue à mesure que les rayons du soleil pénètrent plus loin dans l’atmosphère. Si cette épaisseur est assez grande, c'est ensuite le tour du vert de disparaître, puis celui du jaune. Quand l'épaisseur d'atmosphère traversée est très grande, comme c'est le cas pour les rayons du soleil à son coucher ou à son lever, il ne reste qu’un flamboiement de rouge et d'orangé. Oui, direz-vous, cela va sans dire. Attendez, l'histoire ne s'arrête pas là. Un jour qu'il se trouvait dans les contreforts de l’Himalaya, à Darjeeling, où les sahibs anglais aimaient à se remettre des rigueurs de l'été, lord Rayleigh remarqua que les pentes glacées de l'Everest, distantes de quelques centaines de kilomètres, avaient une couleur tirant sur le vert. De l'épaisseur d'atmosphère que la lumière avait dû traverser, il déduisit alors la valeur du nombre d'AVOGADRO, c'est-à-dire le nombre d'atomes dans une masse donnée, par exemple le nombre d'atomes d’hydrogène dans 1 gramme de ce gaz ou d'atomes d'oxygène dans 8 grammes d'oxygène gazeux. C'est un nombre de vingt-quatre chiffres, ce qui montre à quel point les atomes sont petits, puisque cela signifie que leur taille est de l'ordre d'une unité de longueur spéciale qu’on appelle l’angstrôm et qui vaut un dix-milliardième de mètre.

EINSTEIN, encore lui, allait reprendre en 1905 la question du mouvement brownien, cette agitation déjà mentionnée des grains de pollen dans une goutte d’eau. Ce mouvement est dû, dit-il, aux multiples chocs que les molécules d'eau impriment au grain de pollen ou à toute autre poussière minuscule. Il poussa l'idée jusqu’à ses conséquences quantitatives, et put ainsi prédire quel chemin une poussière doit parcourir en moyenne au bout d'un certain temps. Cette prédiction fut bientôt confirmée par les mesures qu'effectua JEAN PERRIN, et l’on a coutume de dire que c’est de là que date la reconnaissance universelle de l’existence des atomes.

On allait apprendre bien davantage, en 1911, sur la nature des atomes, grâce à ERNEST RUTHERFORD. Il s’intéressa à des expériences dans lesquelles des particules alpha issues de la désintégration du radium traversaient une mince feuille de métal. Les particules étaient légèrement déviées de leur chemin initial. Or les particules alpha sont chargées, et on peut donc supposer que l’effet est dû à des forces électriques. Les électrons des atomes, trop légers, ne peuvent en être tenus pour responsables, car ils ne produiraient qu’une déviation négligeable. RUTHERFORD analysa les données et montra quelles ne pouvaient être comprises qu’en admettant la présence au centre de chaque atome d'un « noyau » chargé positivement où presque toute la masse est concentrée. On obtenait ainsi le premier modèle satisfaisant de l’atome : un noyau entouré d’électrons. Or le noyau exerce une force électrique attractive sur les électrons qui ressemble trait pour trait dans sa forme, sinon dans sa grandeur, à une force gravitationnelle. On avait ainsi une description de l’atome où le vide tenait de loin la plus grande place, les électrons y gravitant autour du noyau et le tout paraissant parfaitement accessible aux méthodes connues de la mécanique.

Comme c’est beau ! Comme c’est simple ! Aurait-on pu dire. Mais on allait déchanter bien vite. L’histoire des atomes n’a été longtemps faite que d’apparitions de nouveaux problèmes chaque fois qu’un progrès semblait en vue. Ainsi le modèle de RUTHERFORD n'apportait-il aucune lueur sur les propriétés chimiques des molécules, mais le pire était ailleurs. Il se trouve en effet qu'un électron gravitant autour d’un noyau est accéléré. Or on sait depuis HERTZ qu’une particule chargée émet des ondes électromagnétiques quand elle est accélérée, et ce devait donc être le cas pour l’électron dans l’atome. L'effet devait même être particulièrement fort, car les accélérations qu'un électron subit dans l’atome sont énormes, sa masse étant très petite et les forces électriques considérables. Le calcul, aisé à faire, conduisait à une véritable catastrophe, puisqu'en une fraction de seconde l’électron devait rayonner désespérément vite, en se rapprochant à toute allure du noyau pour compenser l’énergie perdue. L'atome semblait donc devoir s’effondrer sur lui-même presque immédiatement. On s’interroge. Où est l’erreur ? Aucune trace. À moins... à moins de supposer que les lois de la physique que l’on connaît cessent d’être valables à l’échelle de l’atome.

Ce n’était pas là une hypothèse invraisemblable, car quelque chose d’analogue s’était déjà produit une dizaine d’années auparavant. Il s’agissait alors d’un tout autre problème : le spectre du rayonnement du corps noir. Ce qu’on appelle un corps noir est simplement un objet quelconque de couleur noire (qui n'a aucune qualité propre d’émission optique) qui se trouve porté à une certaine température. On constate qu’il émet un rayonnement dont la couleur, c'est-à-dire le spectre, ne dépend que de la température. C'est ainsi qu'un métal ou un bloc de charbon rougeoient quand ils sont portés à quelques centaines de degrés et deviennent d'un blanc éclatant à quelques milliers de degrés. Ce qu'on appelle le spectre du rayonnement n'est autre que la répartition de l'énergie lumineuse émise en fonction de la fréquence (ou de la longueur d'onde). Là aussi, on se croyait en principe capable de résoudre théoriquement le problème et de calculer le spectre en s’appuyant sur les lois connues de la thermodynamique. Mais on s'aperçut que cela conduisait à une aberration, c'est-à- dire, dans ce cas, que l'intensité lumineuse totale émise par un bloc de charbon devait être infinie !

En 1900, MAX PLANCK avait trouvé ce que nous nous permettrons d'appeler irrévérencieusement un « truc », ou une « astuce », pour tourner la difficulté. Il supposait que les atomes du charbon ne rayonnent pas de manière continue, comme on s'y attendrait d’après l’électrodynamique, mais qu’ils projettent des « bouffées », des quanta[3] de rayonnement, l’énergie émise dans chaque bouffée étant proportionnelle à la fréquence. Il supposait, plus précisément, que l'énergie ainsi émise était le produit de la fréquence par un nombre qu’on appelle la constante de PLANCK et qui est évidemment très petit à notre échelle. C’est un fait remarquable que cette hypothèse très simple, quoique parfaitement incompréhensible à première vue, conduit à un accord excellent avec tout ce qu’on peut observer et mesurer.

Comme le précédent de PLANCK avait permis de surmonter une difficulté qui avait trait, elle aussi, au rayonnement, il n’était pas interdit d'espérer que des idées analogues puissent avoir raison de l'emballement du rayonnement dans l'atome de Rutherford. Restait à trouver par où la constante de PLANCK allait pouvoir s'y introduire.

La physique classique en corset

La solution allait être trouvée par NIELS BOHR, un jeune Danois qui travaillait alors auprès de RUTHERFORD. Il sut faire le rapprochement entre les résultats de ce dernier et ceux de PLANCK, et il proposa en 1913 une nouvelle dynamique de l’atome destinée à devenir célèbre. C'est un modèle prudent, en ce sens qu'il modifie le moins possible la physique déjà connue – en fait, il en préserve intégralement les lois en n'y ajoutant ii une condition supplémentaire. BOHR concentra sa ¿flexion sur l’exemple de l’atome d’hydrogène à cause de sa simplicité : cet atome ne possède qu'un seul électron, qui doit donc « graviter » autour du noyau, comme le prédisent les lois de KEPLER, en parcourant une ellipse. Pour éviter l’effondrement, Bohr supposa que certaines seulement des ellipses peuvent être réellement parcourues et que l’électron est dans l'impossibilité de rayonner quand celle sur laquelle il se trouve est plus petite. Quand l'électron rayonne, il émet une bouffée, un quantum d'énergie lumineuse.

Comment sélectionner les ellipses permises ? C’est assez simple, puisqu’il s'agit seulement d'introduire une condition où ne devrait figurer comme donnée nouvelle que la constante de PLANCK. Disons, sans écrire aucune formule, qu'il n'y a essentiellement qu'une règle possible et que BOHR la postule. En somme, il ajoute une loi de plus à la théorie purement classique de l’atome, dans laquelle figure la constante de PLANCK. Le résultat qu'il obtient ainsi est spectaculaire : chaque trajectoire elliptique permise correspond nécessairement à une énergie bien définie, dans l'expression de laquelle interviennent la masse de l’électron, sa charge et la constante de PLANCK, ainsi qu'un nombre entier, dit nombre quantique, qui numérote les ellipses successives en partant de la plus petite. BOHR suppose en outre que l'électron, pour rayonner, doit passer soudainement d’une ellipse une autre d’énergie plus basse (ce sont les fameux sauts quantiques) et que l'énergie ainsi dégagée est reliée par la relation de PLANCK à la fréquence de la lumière émise. Il peut ainsi prédire quelles fréquences de rayonnement l’atome d’hydrogène peut émettre spontanément. Ces fréquences constituent ce qu'on appelle le spectre du rayonnement atomique, déjà observé et mesuré depuis longtemps à l’époque de BOHR. L’accord du modèle avec les mesures est très bon.

Nombreux furent ceux qui se tinrent pour ravis de ce beau résultat, et en premier lieu EINSTEIN. La direction générale qui semblait ainsi se dégager était bien pour lui plaire : on préservait les avantages de la physique connue en leur ajoutant une acquisition nouvelle, une condition capable de sélectionner les états possibles de l'atome en conservant l’essentiel de l’image que l’on peut s'en faire. On augmentait en somme la liste des lois connues sans modifier l'image, la représentation qu'on se faisait des choses. C'est cette idée d'une physique connue soumise à des contraintes nouvelles qu'on peut qualifier de manière un peu cavalière de physique classique en corset.

Suivit alors une période de recherche intense où dominèrent les contributions de BOHR et d’ARNOLD SOMMERFELD. On s’y efforçait d’étendre à des atomes plus complexes ce qui avait eu un tel succès pour l’hydrogène. Les résultats ne se montrèrent malheureusement pas à la hauteur des espérances, et, à mesure que l’on raffinait la théorie et qu’on accumulait les expériences, on devait constater davantage de reculs que de progrès. Ainsi, l’effet d'un champ magnétique sur les fréquences d'un spectre atomique (effet Zeeman) ou celui d'un champ électrique (effet Stark) conduisaient à la pire des situations possible, puisqu’on obtenait des résultats satisfaisants pour certaines raies de certains atomes et complètement faux pour d’autres, sans qu’on pût en comprendre la raison. Quant à la relation avec la chimie, qu’on attendait toujours, elle était tout aussi élusive, et, si on arrivait en partie à comprendre la classification des atomes dans la table de MENDELEÏEV, il n’y avait toujours aucune indication de ce qui contrôlait les propriétés chimiques. En somme, on piétinait, autant pour le grand public que pour les philosophes, qui peuvent avoir de la peine à s'orienter, d’autant plus que des physiciens honorablement connus se risquent à cet exercice. Ils font sans doute œuvre utile quand ils montrent les pistes que la recherche suit aujourd’hui, mais la difficulté commence quand on ne marque plus assez qu’il s’agit de pistes à l’aboutissement incertain. La relativité générale a en effet la particularité de permettre au chercheur de jouer avec des modèles mathématiques surprenants, souvent fascinants (bébés univers, wormholes ou univers communicants, univers soumis à une expansion catastrophique dite inflationniste, trous blancs). Il n’est pas impossible que ces essais suggèrent quelque chose à propos de la réalité, et le fait que la mathématique y soit conduite avec soin leur confère une apparence de qualité scientifique, respectable certes, mais néanmoins bien insuffisante pour ceux qui n’admettent en science que les démonstrations de l'expérience et de l'observation. Ainsi le meilleur de ces livres est-il dans les questions qu'ils posent davantage que dans les réponses qu’ils tentent. ROLAND OMNES s’en tiendra donc encore à la physique quantique, et, même ainsi, il restera bref, car on verra en 3/ et 4/ comment des progrès récents de la théorie renouvellent certaines de ses conséquences épistémiques. On ne retiendra pour l’instant que ce qui est le plus communément admis, en mettant en lumière les points saillants de la doctrine magistrale de NIELS BOHR. Il est vrai que ce sera dans une optique un peu particulière, car il voudrait montrer que BOHR ne pouvait faire autrement que de poser ce cadre au moment où il le fit, c'est-à-dire aux débuts de la théorie, et qu'il fut amené ainsi à imposer des règles de pensée sévères et très restrictives. Les redoutables interdictions qu’il promulgua furent bénéfiques aux physiciens, car elles leur donnèrent les moyens de mettre entre parenthèses des questions qui les auraient peut-être autrement arrêtés (on œuvre mieux sous des règles strictes, tout auteur de sonnet vous le dira). Elles eurent aussi, malheureusement, pour conséquence d’entraîner une grande confusion philosophique.

On distingue mieux aujourd'hui ce qu'il convient de préserver dans l'œuvre de BOHR et ce qu’on peut réviser. Peu de choses sont à y modifier tant qu’on s'en tient à la pratique du physicien, mais beaucoup en revanche du point de vue du philosophe. L'œuvre de BOHR n'en reste pas moins une référence trop connue pour qu'on ne consacre pas un chapitre à en faire le tour, ne serait-ce que pour comprendre pourquoi elle fut construite ainsi.

On assassine la physique classique

Il faut que la physique passe ou se casse. Il faut une théorie, qu’elle soit claire ou non, simple ou pas, mais qu’elle tienne compte des faits, de tous les faits.

En voici les promoteurs : LOUIS DE BROGLIE, en premier, saisi par le démon de la physique au contacte de son frère Maurice, spécialiste des rayons X. Son œuvre commence quand il a trente et un an. Voici WERNER HEISENBERG, un passionné de physique formé par des études à l’allemande où le grec avait particulièrement ses faveurs. Il commence son œuvre majeure à peine âgé de vingt deux ans. Avec lui s’avance son ami autrichien, WOLFGANG PAULI, un génie précoce qui a déjà écrit un article de synthèse magistrale sur la théorie de la relativité à   moins de vingt ans. Voici également l'Anglais PAUL DIRAC. Il a le même âge que les précédents et il porte les espoirs de la vieille université de Cambridge. Il faut citer encore leurs aînés d’une dizaine d’années : l’Allemand MAX BORN un physicien universel, qui fut assistant de Hilbert à Gôttingen au temps où ce dernier s'intéressait à la physique; l’Autrichien ERWIN SCHRODINGER, un élève de Sommerfeld qui n'a pas encore vraiment trouvé sa voie, mais dont les solides connaissances mathématiques vont pouvoir s'employer. Les voici qui entrent dans l’arène, sous les yeux attentifs d’Einstein et de Bohr, prêts à les encourager autant qu’à les reprendre s’il le faut.

C’est HEISENBERG qui commence

Nous allons le suivre un instant. Il n’hésite pas à remettre en question les fondements de la physique classique en mettant la plupart de ses concepts en doute. Est-on certain, se demande-t-il, que les notions de position et de vitesse soient applicables dans le cas d’un objet tel que l’électron ? Quand un électron se trouve à l’intérieur d’un atome, il est impossible de savoir où il se situe exactement, car il faudrait faire usage pour cela d’une sonde quelconque qui ne pourrait que détruire l’atome. Se pourrait-il alors que non seulement on soit dans l'impossibilité de connaître cette position, mais que les lois de la physique interdisent en outre d'en concevoir l'idée, que l'on n'ait le droit d'employer que des concepts concrétisables par une expérience ? En posant cette dernière question, il pense s'inspirer des voies ouvertes par EINSTEIN dans sa remise en question des conceptions anciennes de l’espace et du temps, quand il ne retenait pour valable que ce qu'on peut mesurer dans un laboratoire avec des règles et des horloges.

Mais s’il faut mettre en doute les conceptions classiques de position et de vitesse, par quoi peut-on les remplacer? se demande HEISENBERG. Comme il doit renoncer à l'appui de l’intuition visuelle, il va chercher recours dans des concepts formels, et d’abord trouver quels nouveaux objets mathématiques doivent remplacer les notions habituelles. Il se livre alors à une réflexion où il nous serait difficile de le suivre sans tout un appareil technique, mais que l'on peut esquisser ainsi : l’accélération d’un électron qui va engendrer un rayonnement ne se manifeste qu’au moment d'un saut entre deux états quantiques d’un atome. L’objet « accélération » n’est donc certainement pas un nombre, comme on le pense d’ordinaire, mais il dépend de l'état initial et de l’état final entre lesquels l’atome transite à l’instant même où le saut a lieu, et il n'a vraiment de sens qu’à cet instant. Si donc on numérote les états possibles de l’atome comme le faisait BOHR avec ses « nombres quantiques » étiquetant les niveaux d'énergie, l'accélération est une quantité qui dépend du numéro de l'état initial et de celui de l'état final. L’accélération est ainsi remplacée par un tableau de nombres à double entrée indiquant l’état initial et l'état final. HEISENBERG est alors amené à des considérations analogues pour la position et pour la vitesse, qu'il remplace à chaque fois par des tableaux de nombres. Et il parvient à reformuler l’essentiel des lois de la mécanique à l’aide de ces tableaux. En 1924, MAX BORN, à qui il s'ouvre de ses trouvailles et de ses perplexités, l'encourage à publier ses résultats après lui avoir révélé que ses tableaux sont appelés des matrices par les mathématiciens. Avec l’aide de PASCUAL JORDAN, une recrue précieuse par sa connaissance poussée de ces objets mathématiques encore peu pratiqués, il met rapidement au point une version quasi complète d'une mécanique nouvelle, enrichie d’un grand nombre de prédictions et de résultats, tous aussi riches que convaincants. On parle alors de cette nouvelle théorie comme de la mécanique matricielle.

Peu de temps auparavant, en 1923, LOUIS DE BROGLIE avait publié une idée tout à fait différente

Nous ne la citons qu’en second, car elle n’allait porter ses premiers fruits qu’après la publication des résultats de HEISENBERG, et c’est dans cet ordre que les discussions de l'époque les considérèrent. Cette idée se fondait sur des travaux antérieurs d’Einstein, qui avait interprété les quanta d’énergie lumineuse de Planck ainsi que les caractéristiques de l’effet photoélectrique (où des électrons sont émis par un métal sous l'action de la lumière) comme étant dus à l’existence de grains de lumière : les photons. Einstein remettait ainsi à l'ordre du jour la vieille idée de la nature corpusculaire de la lumière, et il parvenait à montrer, encore tant bien que mal, que l’existence des photons ne contredisait pas la manifestation des interférences. La lumière, qui se manifeste d’ordinaire comme une onde, est composée de particules. Pourquoi, se dit DE BROGLIE, ne pas renverser et généraliser cette idée en supposant que tout objet élémentaire, par exemple un électron, qui se manifeste souvent en tant que particule, est associé à une onde que nous n’avons pas encore perçue, à une fonction d’onde* que nous n’imaginons pas ?

Il allait falloir attendre quelques années avant que cette idée fût confirmée expérimentalement par des effets de diffraction, c’est-à-dire des effets purement ondulatoires analogues aux interférences, produits par des électrons traversant un cristal. L’idée de LOUIS DE BROGLIE était venue auparavant à la connaissance d'EINSTEIN, qui en parla à SOMMERFELD, lequel posa alors à son disciple SCHRÖDINGER le problème suivant : comment calculer l’onde de LOUIS DE BROGLIE dans le cas d'un électron placé dans un atome et comment formuler la dynamique de cette onde, c’est-à-dire la manière dont elle varie au cours du temps ?

Presque aussitôt, en cette année 1926, SCHRÖDINGER trouve une solution au problème

Il propose une équation pour la dynamique de l’onde qui gardera son nom. Il peut la justifier en recalculant à son tour le spectre de l'atome d’hydrogène pour retrouver les résultats de BOHR et rendre compte d'un bon nombre de phénomènes plus subtils devant lesquels les méthodes de BOHR et SOMMERFELD étaient restées impuissantes. Il réobtient en particulier les résultats de HEISENBERG.

Peut-on exprimer par des mots ce que recèle cette magique équation de SCHRÖDINGER* ? Il semble hélas que non, et on est encore une fois plongé dans une physique formelle. Il est impossible de dire, comme Voltaire le disait pour la mécanique de NEWTON : voici, l'accélération est le rapport de la force à la masse, et tout le reste n'est qu'affaire de calcul. On peut dire seulement que l’équation de SCHRÖDINGER fait intervenir l'énergie d'interaction électrique entre le noyau et les électrons ainsi que des électrons entre eux. On y voit évidemment figurer la masse de l’électron et celle du noyau, laquelle joue d'ailleurs un moindre rôle. C'est une équation assez peu engageante à première vue, bien que riche en propriétés subtiles, une équation aux dérivées partielles qui n'est pas sans quelque analogie lointaine avec les équations de MAXWELL. Qu’en dire de plus ? Rien, sans doute, sinon l'écrire, ce qu'il n’est pas question de faire ici.

La nouvelle mécanique allait aussitôt conduire à une moisson de résultats plantureuse, presque toujours en plein accord avec les expériences et jamais en désaccord pour longtemps. La malédiction qui avait troublé si longtemps l'enfance de la physique nouvelle était enfin conjurée, et le temps n'était plus où chaque progrès accompli engendrait des difficultés nouvelles. Cette fois, chaque difficulté rencontrée allait être bien vite la source d'un progrès apportant l’explication de nombreux autres phénomènes. Partout, d'un même pas, la mécanique ondulatoire de SCHRÖDINGER et LOUIS DE BROGLIE et la mécanique des matrices de HEISENBERG faisaient place nette, avec des résultats identiques.

Tout paraissait pourtant les séparer, ne serait-ce que le fait qu’il n’y avait pas de matrices chez SCHRÖDINGER et pas d'ondes chez HEISENBERG. Laquelle allait donc l'emporter ? Chose étonnante, aucune des deux n’eut à céder le pas.

SCHRÖDINGER et DIRAC, en cette année 1926, purent établir l'un et l’autre que les deux mécaniques en apparence si étrangères ne sont en fait qu’une seule et même théorie

De sorte que l’on peut passer de l'une à l’autre par de simples manipulations mathématiques. On décida dès lors de ne pas privilégier une forme plutôt que l'autre et d'appeler mécanique quantique la théorie synthétique qu'on avait obtenue. À l'heure actuelle, on préfère le plus souvent s’appuyer sur une version plus abstraite que l’on doit principalement à DIRAC et à VON NEUMANN, mais il n’est pas nécessaire d'en parler à présent, car son intérêt est surtout technique et ne comporte pas de principes essentiellement différents. Une autre version encore de la théorie devait être proposée au début des années cinquante par l'Américain RICHARD FEYNMAN, elle est encore équivalente aux précédentes, et elle apporte à son tour des lumières nouvelles. Mais les nuances de ces différentes traductions de la Bible de la nature n'intéressent vraiment que les hébraïstes de la physique.

 

Résumé du chapitre

Dès le début de la recherche d’une nouvelle théorie qui puisse tenir compte des faits et de tous les faits, entre en scène un groupe de jeunes chercheurs en physique qui ont pour nom, DE BROGLIE, HEISENBERG, PAULI et DIRAC et d’autres plus spécialement doués en mathématiques,  SCHRÖDINGER, BORN et JORDAN..

C’est HEISENBERG qui intervient en premier et se voit aboutir à la performance de remplacer la notion habituelle d’accélération de l’électron par un tableau de nombres à double entrée indiquant son état initial et son état final.

En 1924, BORN et JORDAN, ayant été placés devant cet état de fait, ont mis rapidement au point une version nouvelle, enrichie d’un grand nombre de prédictions et de résultats qui constituent une nouvelle représentation sous forme de mécanique matricielle.

Peu de temps auparavant (1923), DE BROGLIE avait publié une idée tout à fait nouvelle qui résultait de la réflexion suivante : si la lumière qui d’ordinaire se manifeste comme une onde est composée de particules[4] (les photons), pourquoi ne pas renverser et généraliser cette idée que tout objet élémentaire, par exemple un électron qui se manifeste en tant que particule ne serait pas associé à une onde que nous n’avons pas encore perçue, à une fonction d’onde[5] que nous n’imaginons pas.

Il fallut attendre quelques années avant que cette idée fût confirmée expérimentalement par des effets de diffraction, c’est-à-dire des effets purement ondulatoires analogues aux interférences, produits par des électrons traversant un cristal. L’idée de LOUIS DE BROGLIE était venue auparavant à la connaissance d'EINSTEIN, qui en parla à Sommerfeld, lequel posa alors à son disciple SCHRÖDINGER le problème suivant : comment calculer l’onde de LOUIS DE BROGLIE dans le cas d'un électron placé dans un atome et comment formuler la dynamique de cette onde, c’est-à-dire la manière dont elle varie au cours du temps ?

Presque aussitôt, en cette année 1926, SCHRÖDINGER trouve une solution au problème ; il  

propose une équation pour la dynamique de l’onde[6] qui gardera son nom. Il peut la justifier en recalculant à son tour le spectre de l'atome d’hydrogène pour retrouver les résultats de Bohr et rendre compte d'un bon nombre de phénomènes jusque-là non éclaircis.

SCHRÖDINGER et DIRAC, en cette même année, purent établir l'un et l’autre que les deux mécaniques en apparence si étrangères ne sont en fait qu’une seule et même théorie. De sorte que l’on peut passer de l'une à l’autre par de simples manipulations mathématiques. On décida dès lors de ne pas privilégier une forme plutôt que l'autre et d'appeler mécanique quantique la théorie synthétique qu'on avait obtenue. 

La moisson des résultats

Avant de préciser les principes de la théorie quantique et leurs répercussions en philosophie de la connaissance, il peut être utile de donner une idée de son étendue et de sa fécondité, ne serait-ce que pour justifier l'importance qu'on lui accorde. On va donc recenser rapidement et très faiblement l'immense moisson de ses résultats. On le fera sans souci d’ordre ni de dates, car toutes les applications se mirent à progresser parallèlement à partir de l'année 1927, où la théorie venait de trouver sa maturité, pour rester pratiquement inchangée jusqu’à l’heure actuelle.

Commençons par la chimie

Elle qui avait été, somme toute, à l’origine de l'histoire. Puisque l'équation de SCHRÖDINGER permet de connaître la fonction d'onde des électrons dans n'importe quel atome ou n’importe quelle molécule (à vrai dire au prix de calculs difficiles qui ne devaient prendre toute leur ampleur qu'à l’ère des ordinateurs), on peut calculer les états d'énergie possibles d une molécule et déterminer lesquels peuvent exister quand deux atomes ou davantage sont liés. On peut également trouver quelles positions ces atomes vont prendre dans la molécule, et, depuis que les ordinateurs le permettent, on peut même dans bien des cas calculer la nature, l'efficacité et la vitesse des réactions chimiques. Toute la chimie pouvait donc s'offrir : d'abord, évidemment, par la justification et la compréhension intime de la table de MENDELEÏEV, mais aussi par celles des propriétés chimiques et de la structure des molécules (par exemple la structure en hélice de l'A.D.N.). Les phénomènes auparavant surprenants de la mésomérie et les changements de forme de certaines molécules devinrent clairs, quand bien même leur raison d'être reste plongée dans les buissons du formalisme et intraduisible par des images simples. On en est à présent au point de calculer les propriétés qu'on attend d'une molécule nouvelle avant de la fabriquer et de ne vérifier ces propriétés par l’expérience qu'après coup. Si la chimie a connu de la sorte un nouvel essor sans rien perdre de son originalité et de ses techniques propres, il n'en reste pas moins que ses fondations sont à présent entièrement confondues avec celles de la physique.

La physique de la matière ordinaire

Elle a été elle aussi profondément transformée et particulièrement celle des corps solides.

La mécanique quantique

En ce qu’elle permit enfin de comprendre d’où vient la différence entre les corps conducteurs de l'électricité et les isolants. Il en est de même pour les propriétés liées à la chaleur (capacité calorifique, transition de phases, conduction de la chaleur), les propriétés optiques (transparence, couleur, indice de réfraction), les propriétés magnétiques (comme celles du fer des électroaimants), les propriétés mécaniques (dureté, plasticité). On peut marquer avec l'explication des phénomènes de supraconductivité obtenue en 1958 la fin de l’époque héroïque où, selon le mot de PAULI, le plomb se transformait en or jusque sous des doigts sales. Cette indication d’une limite dans le temps ne signifie évidemment pas que des progrès notables ne continuent pas de s’accomplir chaque année, mais ils se tournent davantage à présent vers l’exploitation systématique et le raffinement des résultats déjà obtenus, auxquels s’ajoute l'étude de phénomènes plus complexes (cristaux liquides, phénomènes de surface). Parmi les résultats pratiques les plus marquants, on peut citer l'invention et la mise au point des transistors, qui permit l'essor des ordinateurs et la découverte récente de matériaux supraconducteurs à relativement haute température.

L'optique

Quant à elle, a beaucoup bénéficié pour sa part de l'invention du laser, dont le principe repose sur un phénomène purement quantique. Il se trouve en effet que la présence préalable de photons autour d'un atome peut stimuler l'émission, de sa part, de nouveaux photons. D'un point de vue plus fondamental, l'optique est parvenue également très tôt à réconcilier le caractère ondulatoire de la lumière avec l'existence des photons, bien qu’il s'agisse, là encore, de travaux qu’on ne peut expliquer au moyen des mots.

Les retombées de la mécanique ondulatoire

Particulièrement celle des corps solides, allaient encore se faire sentir lors de l'apparition de deux branches entièrement nouvelles de la physique qui s'intéressent respectivement

  • aux noyaux des atomes (physique nucléaire)
  • et aux particules élémentaires.

Toutes deux ont connu un développement foudroyant, la première à partir des années trente et la seconde surtout à partir des années cinquante. ROLAND OMNES n’en dira cependant rien, car il n'est pas question de tout recenser et de tout développer ici. Disons seulement que, en dépit des efforts mis en jeu pour la prendre en défaut, la mécanique quantique est toujours sortie triomphante de toutes les épreuves et qu’on peut la tenir aujourd’hui pour parfaitement valable lorsqu'on sonde la matière jusqu'à des distances entre particules de un milliardième d'angstrôm ou des énergies de plusieurs milliers de fois l'énergie de masse du proton. L'accord entre la théorie et l'expérience va dans certains cas jusqu'à plus de dix chiffres significatifs, ce qui reste sans précédent dans tous les domaines de la science.

En fait, les résultats qu’on vient d'indiquer ne peuvent donner qu’une faible idée de la richesse des apports de cette théorie prodigieuse. C'est en fait, directement ou par voie de conséquence, toute la physique et toute la chimie qui en dépendent et, en filigrane, tout ce que recèle la nature. C'est un véritable trésor d'Aladin, et ROLAND OMNES montrera plus loin quel génie se dissimule dans sa lampe. Une chose est sûre en tout cas : la langue qu'il parle est formelle et n’est pas la nôtre.

 

 


[1]  Michel Serres décrit le monde des mathématiques comme un monde de miracles : outil de décryptage de la nature, les mathématiques sont à la fois totalement abstraites et totalement concrètes puisqu'elles contiennent les secrets du monde, de l'infiniment petit à l'infiniment grand. Voir à titre anecdotique : lepoint.fr/science et liberation.fr/sciences

[2] En fait NEWTON et ses contemporains étaient surtout préoccupés du fait que la gravitation puisse se transmettre au travers du vide, et la question de sa transmission instantanée est plus tardiveoland Omnès doit cette mise au point à Louis Verlet.

[3] Le mot de « quantum » , d’origine latine, signifie simplement  « une certaine quantité mesurée par un nombre entier ».

[4] Résultat des travanx antérieurs d’EINSTEIN.

[5] Quantité formelle  contenant et permettant d’exprimer tout ce qui peut être affirmé à propos d’un système physique à un instant donné.

[6] Nous la donnons ici à titre indicatif, en précisant qu’elle nécessite la puissancc de calcul de l’ordinateur :

 

 


Date de création : 21/03/2016 @ 18:31
Dernière modification : 21/03/2016 @ 18:44
Catégorie : Philosophie et science
Page lue 1748 fois


Imprimer l'article Imprimer l'article


Réactions à cet article

Personne n'a encore laissé de commentaire.
Soyez donc le premier !


^ Haut ^