Parcours

Fermer Parcours lévinassien

Fermer Parcours axiologique

Fermer Parcours cartésien

Fermer Parcours hellénique

Fermer Parcours ricordien

Fermer Parcours spinoziste

Fermer Parcours habermassien

Fermer Parcours deleuzien

Fermer Parcours bergsonien

Fermer Parcours augustinien

Fermer Parcours braguien

Fermer Parcours boutangien

Fermer Glossématique

Fermer Synthèses

Fermer Ouvrages publiés

Fermer Suivi des progrès aux USA

Fermer Parcours psychophysique

Fermer L'art et la science

Fermer Parcours nietzschéen

Fermer Philosophies médiévales

Autres perspectives

Fermer Archéologie

Fermer Economie

Fermer Sciences politiques

Fermer Sociologie

Fermer Poésie

Fermer Théologie 1

Fermer Théologie 2

Fermer Théologie 3

Fermer Psychanalyse générale

Fermer Points d’histoire revisités

Fermer Edification morale par les fables

Fermer Histoire

Fermer Phénoménologie

Fermer Philosophie et science

Mises à jour du site
Liens Wikipédia
Visites

   visiteurs

   visiteurs en ligne

Synthèses - Une brève sur le monde quantique(2)




UNE BRÈVE SUR LE MONDE QUANTIQUE(2)
 
 
 
 
 
5/ L’INTRICATION QUANTIQUE
 
(89-90) L’idée de localité des objets va de soi. Toute chose nous apparaît située en une zone précise de l’espace et lorsque deux objets se trouvent en des lieux différents, nous sommes convaincus que les effets de l’un sur l’autre décroissent avec la distance. C’est donc sans réticence que nous nous croyons autorisés à oublier, lorsque nous étudions un de ces objets, l’existence de l’autre : nous pensons que des évènements lointains ne peuvent exercer d’influence que s’il y a entre eux une médiation, de quelque ordre qu’elle soit. Voilà pourquoi, lorsque nous avons affaire à une paire de particules nous considérons qu’un tel système est séparable, au sens où nous estimons être en droit de parler séparément de chacune des particules qui forment cette paire. Elles représentent l’une et l’autre une entité physique à part entière, au même titre que le système global qu’elles constituent à elles deux. Le tout n’est-il pas la somme de ses parties ? Sans doute, mais la physique quantique nous a-t-elle pas appris à nous méfier des idées les plus évidentes. Déjà un vecteur d’état étant généralement étalé dans l’espace, il se pourrait que le caractère absolu de l’idée de localité telle qu’elle vient d’être évoquée ne soit par lui mis à mal.
 
Des particules qui s’entremêlent
 
(91-92) Imaginons deux particules arrivant l’une vers l’autre et entrant en collision. Avant le choc, chacune d’entre elles est décrite par un certain vecteur d’état. Mais comment décrire la paire qu’elles forment ? Une vision classique des choses nous porterait à former la somme des deux vecteurs d’état individuels comme s’il s’agissait de combiner deux phénomènes ondulatoires. Mais ce n’est pas ce qu’indique la règle quantique qui décrit la paire de particules par le produit et non par la somme des deux vecteurs d’état individuels. Autrement dit il faut opérer exactement comme lorsqu’il s’est agi de combiner l’état interne d’une particule et sa localisation.
Que devient ce produit après la collision ? Il s’écrit en effet comme une somme de deux produits qui semble les « mélanger » : on ne peut plus dire que dans l’état final chaque particule a son vecteur d’état bien à elle. Seule la paire, c-à-d le système global et non ses éléments, en possède un qui soit bien défini. Mais cette paire semble « étalée » dans l’espace. De plus, son vecteur d’état a comme entremêlé les deux particules. Ce phénomène a été dit d’« intrication » par Schrödinger quand il l’a découvert en 1930.   
 
Le tout n’est plus la somme des parties
 
(93 à 95) Afin de saisir toute la portée de ce concept d’intrication, regardons les choses de plus près. Soit deux électrons produits ensemble à partir d’une source et s’éloignant dans deux directions opposées. Appelons-les : particule 1 celle partant vers la gauche et particule 2 celle partant vers la droite.
Chacune d’elles est caractérisée par sa localisation et son état interne qui est soit a soit b. Supposons que les conditions de production aboutissent à deux particules corrélées c-à-d que si l’une est dans l’état a, l’autre est dans l’état b et réciproquement. 
Les vecteurs d’état étant fréquemment notés par la lettre Ψ (psy), on conviendra que Ψ1(a)représente la particule 1 dans l’état a et que Ψ2(b) représente la particule 2 dans l’état b.
Transcription du vecteur d’état de la paire dans le premier cas : particule 1 dans l’état a
Ψ12 = Ψ1(a)x Ψ2(b)
Transcription du vecteur d’état de la paire dans le deuxième cas : particule 1 dans l’état b
Ψ21 = Ψ2(a)x Ψ1(b)
Les deux situations étant également possibles, la difficulté est de savoir a priori laquelle des deux se réalise.
En vertu du principe de superposition de la physique quantique, on doit écrire que le véritable vecteur d’état de la paire est la somme des vecteurs d’état correspondant à chacune des possibilités :
Ψpaire =Ψ12 + Ψ21
Etant constitué d’une somme irréductible, le vecteur d’état de la paire peut donner lieu, comme dans le cas des deux fentes à des interférences de sorte que la description du tout n’implique plus celle de ses parties, c-à-d des deux particules qui la composent. On parle dans ce cas de « corrélations quantiques ». Réciproquement, la description précise des parties telle celle fournie par les vecteurs d’état Ψ12 etΨ21pris isolément, ne donne pas accès à celle du tout puisqu’elle omet de prendre en compte la possibilité qu’il y ait des corrélations quantiques au sein de la paire.
Conclusion : en physique quantique, la connaissance des parties, si loin qu’elle soit poussée semble insuffisante à fournir une connaissance du tout. Rien d’analogue n’existe en physique classique.   
Tout en se méfiant des analogies, force est de constater qu’il se passe, en quelque sorte, la même chose avec certaines formations de musiciens qui est autre que la somme des musiciens qui les composent.
 
6/ LA NON-SÉPARABILITÉ
 
Une expérience de pensée qui ambitionne de montrer que la théorie quantique est incomplète
 
(100-101) Cette expérience intitulée EPR (Einstein, Podolsky, Rosen) comporte trois hypothèses de départ :
– (a) Les prédictions de la physique quantique sont justes.
        (b) Aucune influence ne peut se propager plus vite que la lumière (prise en compte de la relativité). Cette hypothèse implique qu’il existe des cas dans lesquels on peut être certain que , de deux évènements aucun n’influence l’autre : lorsque ces deux évènements sont si lointains dans l’espace et si rapprochés dans le temps que la lumière n’a pas le temps de les relier. Chacun reste dans son coin : cette hypothèse s’appelle le principe de localité d’Einstein.
        (c)Si, en ne perturbant aucunement un système, on peut prédire avec certitude (c-à-d avec une probabilité égale à 1) la valeur d’une quantité physique, c’est qu’il existe un élément de réalité physique correspondant à cette quantité physique. Cette hypothèse est conforme au bon sens : si je peux prédire le résultat de la mesure d’une propriété physique donnée et si ma prédiction est juste à tous coups, j’ai tout lieu de penser que la valeur trouvée pour cette propriété correspond nécessairement à une réalité. Le formalisme, lui, doit être capable d’intégrer cet élément de réalité, que ce dernier fasse ou non l’objet d’une mesure. C’est à cette seule condition qu’une théorie physique peut, selon Einstein être présentée comme complète[1].
 
Le paradoxe EPR
 
(102 à 104) Einstein établit ensuite que l’ensemble des hypothèses (a) (b) et (c), lorsqu’on les applique à une certaine expérience de pensée qui ne sera pas décrite ici, conduit à attribuer aux sous-systèmes – par exemple, les éléments d’une paire de particules, pour reprendre le cas traité plus haut – des propriétés dans le formalisme quantique ne rend pas compte. Ce dernier est donc pris en flagrant délit d’incomplétude. Et Einstein de conclure qu’il doit exister un niveau de description plus fin de la réalité que celui proposé par la physique quantique, niveau qui reste à découvrir.
Quelques semaines plus tard, dans sa réponse à l’article EPR, Niels Bohr s’oppose à cette conclusion d’Einstein au motif qu’on doit se garder de tout raisonnement sur la réalité même des choses, notamment que l’hypothèse (b) n’est pas totalement acceptable du fait, par exemple, que la vitesse d’une particule est une propriété partagée entre la particule et l’instrument de mesure. Selon lui, la seule chose qu’une théorie puisse décrire, ce ne sont donc des phénomènes incluant dans leur définition le contexte expérimental qui rend ces phénomènes manifestes et non une réalité prétendument objective. Or, cela, la physique quantique le fait parfaitement, au sens où elle épuise les possibilités de prédiction dans toutes les situations expérimentales permettant l’apparition d’un phénomène. Elle est donc prédictivement complète, et c’est le mieux que l’on puisse exiger d’une théorie physique.
Cette controverse fameuse entre Bohr et Einstein avait une envergure philosophique puisqu’elle touchait à la conception que l’on doit se faire du monde physique, à l’idée que s’en fait l’homme, au rôle des théories qui tentent de le décrire. Mais elle était aussi du ressort de la physique, du moins dans les termes où la formulait Einstein. Celui-ci tenait en effet que le caractère à ses yeux incomplets impliquait l’apparition dans l’avenir d’une théorie « meilleure ». Or c’est en celà que les espoirs des inventeurs du paradoxe EPR furent finalement déçus.
L’affaire fut élucidée en deux temps : d’abord par une découverte théorique de grande portée faite en 1964 par le physicien nord-irlandais John Bell, ensuite par plusieurs confirmations expérimentales.
 
Le théorème de Bell
 
(104-105)Le formalisme quantique devant être soit remplacé, soit complété, John Belle physicien « réaliste »comme Einstein, était a priori porté à partager l’avis d’Einstein selon lequel les évènements surviennent d’eux-mêmes indépendamment du contexte expérimental de leur manifestation. Mais il remarqua cependant quelque chose de fort curieux : toutes les théories bâties dans le but de compléter la physique quantique grâce à l’introduction de paramètres supplémentaires, notamment celle de Louis de Broglie de 1959 (celui de la non-localisation) ne parvenaient à satisfaire aux hypothèses (a) et (c) qu’en violant l’hypothèse de localité (b). Autrement dit, ces théories étaient « non locales ». A sa grande surprise et à son corps défendant, il put démontrer de façon formelle que n’importe quelle théorie prétendant décrire la réalité entraînerait cette singularité.
De plus il put prouver que toute théorie réaliste qui satisfaisait aux trois hypothèses d’Einstein entraînait des « restrictions » portant sur les résultats prévus pour certaines mesures. Ces restrictions qui peuvent être écrites sous forme d’inégalités, s’appellent justement les « inégalités de Bell ». Comme la physique quantique n’est pas une théorie réaliste au sens d’Einstein, il doit être possible d’imaginer des situations particulières dans lesquelles ses prédictions entrent en conflit avec les inégalités de Bell (qui ne contraignent que les prédictions des théories satisfaisant aux trois critères EPR).
Par exemple la physique quantique prédit que les corrélations entre des photons émis en cascade par le même atome sont plus fortes que ce qu’indiquent les théories à variables cachées. Une vérification expérimentale devenait alors possible qui devait soit mettre en défaut la physique quantique et sa description presque fantomatique, soit exclure l’existence, derrière elle, d’une théorie qui rendrait compte d’une réalité localement définie.
 
Le verdict sans appel de l’expérience
 
(107 à 109) C’est seulement au début des années 1980 qu’une équipe de l’Institut d’optique d’Orsay dirigée par Alain Aspect, mena à bien une série d’expériences montrant de façon irréfutable tant la violation des inégalités de Bell que la confirmation des prédictions quantiques ? Qu’était-ce à dire ? Que dans certaines situations très particulières deux photons qui ont interagi dans le passé ont des propriétés que leur distance mutuelle , aussi grande soit-elle, ne suffit pas à séparer. Ils constituent un tout inséparable même lorsqu’ils sont très éloignés l’un de l’autre : ce qui arrive à l’un des deux, où qu’il soit dans l’univers est irrémédiablement intriqué avec ce qui arrive à l’autre photon dans un autre lieu de l’univers comme si un lien quantique, immatériel et instantané les tenait ensemble. On parle dans ce cas de « corrélation forte ». Le comportement global que les deux photons manifeste alors met à mal l’explication selon laquelle les particules possèdent en propre, à l’avance, la propriété qu’on a décidé de mesurer (mais attention ces résultats ne sont pas applicables à toutes les paires de photons : ils ne sont applicables que si les photons produits sont fortement corrélés). Que conclure de tout cela ? Qu’il faut définitivement renoncer à interpréter la physique quantique dans le sens des idées d’Einstein : les prémisses« localité einsteinienne » et « critère einsteinien de réalité » ne peuvent être toutes les deux vraies. En particulier, il n’existe aucun espoir de pouvoir compléter la physique quantique en construisant une théorie de locale à variables cachées. La non-séparabilité ou pour dire mieux avec Jean-Marc Lévy-Leblond, l’« implexité », doit être considérée comme une propriété fondamentale de la nature. Mais son statut épistémologique, objet d’incessantes discussions demeure encore obscur. Une chose toutefois est certaine : cette non-séparabilité qui choquait tant Einstein, ne viole nullement le principe de causalité. Cela signifie qu’on ne peut se servir des corrélations de type EPR pour transmettre de l’information, instantanément entre deux points séparés de l’espace. 
 
7/ UNE AFFAIRE D’INTERPRÉTATION
 
(133) Il a été dit dès le début que la physique quantique ne se fonde pas que sur un formalisme (mathématique) mais également sur ce qu’on appelle une interprétation. Car cette nouvelle physique, aux yeux de ses pères fondateurs avait quelque chose de particulier du fait qu’elle remettait en cause le couple « sujet-objet » ; elle était véritablement « sans précédent » (comme tous l’écrivirent, chacun à sa manière[2]). En effet, jamais une autre science n’avait jusqu’à ce point exigé une autre discipline spécifique, l’interprétation, pour pouvoir être comprise et appliquée. De par sa structure même, la physique quantique interroge la relation entre le monde et sa représentation.
 
Ce qui a véritablement changé
 
(134 à 136) Globalement, dans la physique classique l’outil théorique restait en relative correspondance avec l’intuition physique. Ce confort intellectuel était encore augmenté par le fait qu’elle avait un « engagement ontologique fort »vis-à-vis des propriétés physiques : à tout système elle attachait des propriétés qui appartenaient en propre à ce système. Cette conception avait germé dès la naissance de la physique moderne, notamment dans l’esprit de Galilée, qui croyait au « réalisme des accidents » : les propriétés contingentes des choses, c-à-d leurs « accidents » comme leurs formes, leurs positions, leurs vitesses (ce qu’on appelle aujourd’hui leurs propriétés dynamiques) sont considérées comme réelles,   c-à-d comme indépendantes de notre connaissance et de nos représentations. Dans ce contexte l’interprétation du formalisme classique pouvait se contenter d’une formulation minimaliste et presque directe : elle revenait à dire que toute grandeur de la théorie avait une contre-partie dans la réalité physique, que cette grandeur soit mesurée ou pas.
Avec la physique quantique, les choses devinrent très différentes,
         d’une part parce qu’aucune forme d’intuition sensible ne se rattachait vraiment aux « matrices » et aux « opérateurs » qui ont pris la place des variables dynamiques,
        d’autre part parce que son formalisme, pris au pied de la lettre, reste dépourvu de signification : il exige des règles sémantiques pour être mis en correspondance avec les données empiriques ; règles dont l’origine pose problème. Sont-elles externes au formalisme lui-même ou en sont-elles extraites ?
L’interprétation ne serait-elle pas une « sous-théorie » à l’intérieur même de la physique quantique comme certains physiciens le pensent aujourd’hui ? ou doit-elle consister en un commentaire inspiré des thèses philosophiques préalables[3] comme le pensaient la plupart des pères fondateurs ?
Heureusement, la palette des interprétations viables est aujourd’hui plus retreinte qu’au temps des pères fondateurs. Mais aucune d’elles n’a prévalu. Une certaine liberté de choix subsiste. Une certaine confusion néanmoins demeure également, qui provient en partie du fait que nous avons tendance à mélanger ce qui revient en propre au formalisme et ce que nous sommes tentés d’y rajouter pour qu’il corresponde à notre vision du monde. Bien que nous ne sachions pas par avance sur quoi porte le formalisme quantique, nous rechignons à mettre à part l’efficacité qu’il confère à nos actions dans le monde et ce que nous croyons être le tableau qu’il offre de ce monde.
 
Deux sortes d’objectivité
 
(137 à 140) Il a été dit que, lorsque l’état d’une particule est décrit par un vecteur d’état qui est lui-même la superposition (la somme) de plusieurs termes, les propriétés de cette particule ne sont pas bien définies. Seule une mesure faite sur la particule peut les préciser par le biais d’une réduction du paquet d’ondes. Tant qu’aucune mesure n’est effectuée, les propriétés de la particule ne sont connues que par la probabilité qu’une éventuelle mesure donne telle ou telle valeur. La conséquence d’un tel énoncé est qu’il devient impossible que les objets quantiques soient constamment dotés de toutes leurs propriétés mesurables. En particulier, si l’on considère que la physique quantique est une théorie complète, des particules décrites par le même vecteur d’état sont absolument identiques à tous égards, et seule une opération de mesure est capable d’introduire après coup (d’une manière aléatoire) des différences entre ces particules.
L’opération de mesure se voit ainsi dotée d’un statut très spécial et tout à fait inédit puisque l’objet physique perd les attributs de pleine permanence qu’il possédait en physique classique. L’objectivité traditionnelle est donc mise en cause. Quand la physique classique dit que « deux charges électriques de même signe se repoussent » elle tient un discours qui porte sur les choses elles-mêmes indépendamment de notre rapport à elles. À ses yeux, les objets sont des « choses en soi » au sens où elles existent d’une façon intrinsèque. Reprenant une suggestion de Bernard d’Espagnat, cette objectivité peut être qualifiée de « forte » du fait qu’elle caractérise tous les énoncés de la physique classique. La physique quantique, elle, ne semble pas s’accorder avec une telle vision des choses. Son formalisme faisant directement appel à la notion de mesure, on ne peut pas en donner une formulation dans laquelle il ne serait nulle part question d’instruments de mesure. À son propos, nous parlerons donc plutôt d’objectivité « faible » (toujours selon Bernard d’Espagnat).
Le concept d’objectivité faible invite donc à poser la question de savoir s’il existe une autre sorte de réel « sous » ou « derrière » le réel empirique (réel observé). Faut-il invoquer un monde qui serait, lui, le monde réel et qui se situer    ait dans un certain « ailleurs » par rapport au monde apparent ? En d’autres termes devons-nous adopter une attitude platonicienne[4] à l’égard des concepts mathématiques qui fondent l’efficacité de la physique quantique ? Cette question est précisément celle du réalisme physique.
 

La question du réalisme physique

 

(141-142) La fonction première d'une théorie est-elle simplement de classifier, d'organiser et de prédire, ou bien doit-elle de surcroît dévoiler, par le biais de son propre contenu, une véritable ontologie ? Les réalistes sont évidemment partisans de la seconde alternative. Selon leurs adversaires, les empiristes, notre aspiration devrait se limiter, selon la formule consacrée, à « sauver les phénomènes », c'est-à-dire à décrire correctement ce qui est observable. Accepter une théorie scientifique, ajoutent-ils, n'oblige donc nullement à croire qu'elle est vraie et que les entités qu'elle décrit sont réelles. Il suffit en effet, pour qu'une théorie soit acceptable à leurs yeux, qu'elle puisse être considérée comme empiriquement adéquate.
Même s'il continue de représenter une position très répandue dans la communauté scientifique, le réalisme scientifique est aujourd'hui critiqué par de nombreux philosophes des sciences (et aussi par des scientifiques...), qui voient en lui une survivance que l'évolution des sciences a rendue anachronique et intenable. Le point important pour nous est que, dans la liste de leurs arguments, on retrouve presque toujours une évocation des débats concernant l'interprétation de la physique quantique ; selon eux, la philosophie non réaliste de Bohr a fini par prendre le dessus sur le réalisme passionné d'Einstein, de sorte que le seul problème à résoudre serait désormais : quel successeur au réalisme opiniâtre et dépassé du père de la relativité doit-on choisir ?
 
L’indéterminisme quantique
 

(143) Selon l'interprétation orthodoxe de la physique quantique, les probabilités qu'utilise cette dernière sont intrinsèques, au sens où elles ne sont pas dues à notre ignorance d'éventuels mécanismes sous-jacents. Reprenons l'expérience des deux canaux A et B décrite dans la première partie. Que dit l'école de Copenhague ? Que même un démon qui, par hypothèse, connaîtrait absolument tout de l'état initial de la particule ne saurait dire avec certitude dans quel canal elle sera finalement détectée, ni donner les raisons qui font qu'on la trouve dans l'un plutôt que dans l'autre.

L'idée selon laquelle la physique quantique est complète invite donc à une remise en question du déterminisme au sens classique du terme. Cette remise en question n'est pas radicale, car les équations de la physique quantique sont tout ce qu'il y a de plus déterministes : l'évolution temporelle des états d'un système est toujours gouvernée par des équations différentielles qui, étant donné une condition initiale, déterminent sans ambiguïté l'état final. Un indéterminisme n'apparaît que lorsqu'il s’agit d’établir une connexion entre ces équations et les faits expérimentaux.

Le déterminisme quantique demeure donc bel et bien incompatible avec le déterminisme classique (de type laplacien[5]), au sens où ce ne sont pas les mêmes grandeurs qui, dans l'un et l'autre cas, se voient déterminées.
 
Les principales interprétations de la physique quantique
 
(144 à 155) Nous l’avons déjà évoqué, une controverse essentielle a divisé les physiciens modernes : les attributs que l'on est endroit d'accorder au réel ne sont en effet pas les mêmes selon que l'on considère la physique comme complète ou comme incomplète. On se fie à Einstein ou à Bohr (interprétation de Copenhague). Elle se diversifie en plusieurs controverses d'ordre technique : quelle est la correspondance entre le monde quantique et le monde classique ? Si la matière est intégralement régie par des lois quantiques, comment est-il possible que les effets quantiques soient inobservables à notre échelle?

Pourquoi les objets y apparaissent-ils toujours localisés ? Et comment se fait-il que, pour nous, les ondes ne soient pas des corpuscules et les corpuscules des ondes ? Comment concilier le probabilisme quantique et le déterminisme classique ?

Il arrive que ces questions techniques se trouvent« sublimées » en questions plus philosophiques : quel est le rôle de l'observateur dans l'appréhension du réel ? Que peut-on dire de la réalité non observée ? Qu'est-ce qu'une mesure ? Quelle est la part de réel qui nous est accessible ?
Les diverses réponses proposées entre 1930 et 1960 se répartissent schématiquement en un petit nombre de catégories.
        La première attitude, dite positiviste, est celle défendue par les tenants de l'école de Copenhague, que nous avons déjà évoquée. Ces derniers, essentiellement Heisenberg, Bohr et Pauli, défendent l'idée que le mot réalité n'a pas de sens en lui-même et ils refusent d'aborder les discussions qui portent sur son contenu au motif qu'elles sont immanquablement vaines. La physique quantique est efficace et, selon eux, c'est le maximum que l'on puisse lui demander. Il n'y a donc pas lieu d'exiger de sa part une portée cognitive plus profonde.

        La deuxième attitude relève de ce qu'on pourrait appeler un malaise constructif. Pour un certain nombre de physiciens, l'embarras philosophique dans lequel nous plonge la physique quantique est le signe qu'elle n'est qu'une théorie approchée. Le problème de la mesure, la réduction du paquet d'ondes, le renoncement au déterminisme strict (c'est-à-dire de type laplacien) sont pour eux autant d’impérities. Aux dires de ces physiciens, la seule solution consiste à modifier la théorie quantique elle-même. Mais leurs contre-propositions éventuelles doivent relever un redoutable défi : faire aussi bien que le formalisme quantique (qui, du point de vue des résultats qu'il permet d'atteindre, fonctionne parfaitement), mais avec des fondements différents de ceux qu'il utilise. La gageure est de taille, surtout depuis que la non-séparabilité quantique a été expérimentalement démontrée au début des années 1980 (par la mise en évidence, évoquée plus haut, de la violation des inégalités de Bell). En effet, depuis lors, on ne peut plus espérer remplacer la physique quantique par une théorie qui la compléterait par l'adjonction de« variables cachées locales ». Toute contre-proposition doit donc être « non locale » pour espérer être crédible.C'est par exemple le cas de la théorie de David Bohm. Établie entre 1952 et 1959, elle constitue l'archétype des théories « à variables cachées non locales ». Grâce à certaines modifications du formalisme quantique, elle parvient à reproduire correctement les prédictions de la physique quantique orthodoxe, et même celles de la physique quantique relativiste (appelée la « théorie quantique des champs* »). Du point de vue ontologique, elle est proche de la physique classique. Elle permet à tout le moins de retrouver une objectivité forte (les particules y possèdent des propriétés bien déterminées,  même en l'absence de toute mesure) et un déterminisme strict. Mais en quoi consiste-t-elle ? Comme le suggérait déjà Louis de Broglie avec sa théorie de l'onde pilote, David Bohm admet que les particules sont d'authentiques corpuscules, mais que ces derniers sont guidés dans leur mouvement par une « onde de guidage ». Celle-ci joue le rôle d'un champ d'information qui impose au corpuscule sa trajectoire, un peu comme un message radio intimant à un avion l'ordre de changer de direction. Dans cette théorie, la position du corpuscule est toujours bien définie, quoique pas toujours connue. Nul hasard n'intervient puisque des lois déterministes explicites sont introduites pour expliquer comment les ondes gouvernent les corpuscules. Rappelons-nous l'expérience des deux fentes. Selon David Bohm, l'onde qui pilote l'électron explore tous les trajets possibles. Elle est donc différente selon que les deux fentes sont ouvertes ou que l'une seulement l'est (c'est en ce sens que la théorieest « non locale »). Moyennant certaines hypothèses, il est alors possible de démontrer que la formation des franges d'interférences a bien lieu dans le premier cas (les électrons se répartissent à l'arrivée selon un schéma dicté par les interférences de leur onde pilote), et non dans le second. Cette théorie permet donc d'éviter certaines difficultés associées à la superposition quantique tout en reproduisant les prédictions de la physique quantique orthodoxe, mais cela n'empêche pas beaucoup de physiciens de rester sceptiques à son égard, car elle conduit aussi à des difficultés[6]. Reste que le fait même qu'elle ait pu être construite doit être pris en compte chaque fois qu'on prétend aborder les conséquences philosophiques qu'il convient de tirer de la physique quantique.

        La troisième attitude possible consiste à proposer une autre lecture de la physique quantique. Certains physiciens acceptent tel quel le formalisme quantique, mais contestent l'interprétation de Copenhague, jugée trop minimaliste ou trop timide. Eugène Wigner a ainsi prétendu à une époque (en1967) que la réduction du paquet d'ondes lors d'une mesure obligeait à admettre une influence active de la conscience sur la réalité physique. De même qu'un pavé lancé sur un crâne non casqué peut modifier les états de conscience de la personne, Wigner imagine que, au nom du principe de l'opposition de l'action et de la réaction[7] , la conscience peut en retour agir sur la matière. Le problème de cette thèse à connotation spiritualiste, empêche la majorité des physiciens d’y souscrire.
On peut citer une autre réinterprétation de la physique quantique qui a été développée par quelques physiciens versés dans la cosmologie : celle des univers parallèles. On en doit la première version à Hugh Everett, qui la proposa en 1957. Cette théorie, qui n'hésite pas à postuler l'existence de mondes inconnaissables par principe, paraît aussi extravagante que celle de Wigner, mais, chose troublante, il est aussi difficile de la réfuter que d'y souscrire[8]. Nous retiendrons seulement qu'ayant été conçue dans le seul but d'apporter une réponse détournée au problème de la mesure en physique quantique, elle illustre parfaitement l'embarras dans lequel ce problème a pu mettre certains esprits.
 
La théorie de la décohérence et les approches contemporaines
 
Ces dernières années, de nouvelles approches ont été rendues possibles grâce à trois phénomènes. D'abord, nous bénéficions aujourd'hui de la lente décantation des concepts quantiques depuis plus d'une soixantaine d'années. Le débat initial avait probablement été trop marqué par les prises de position des pères fondateurs, qui l'avaient peut-être trop rapidement « encarté » dans des systèmes philosophiques préexistants. Or, comme l'a justement écrit Roland Omnès, « on est sans doute plus fidèle à leur esprit en rafraîchissant leurs dires qu'on ne l'est en les pérennisant[9] ».
Ensuite, les récents progrès de la technologie ont permis de réaliser des versions simples des expériences de pensée qui avaient été imaginées par les fondateurs de la théorie : on peut maintenant piéger des photons ou des atomes un à un dans une cavité électromagnétique, les observer de manière continue, les intriquer même ; on sait également les manipuler pour ainsi dire in vivo, à l'aide de faisceaux laser, et construire des objets relativement complexes obéissant à la logique quantique. Cela permet d'aborder à nouveau, mais cette fois de façon expérimentale, l'étude des fondements mêmes de la théorie.
Enfin, la frontière floue qui sépare le monde quantique du monde classique est aujourd'hui mieux comprise. Par exemple, des théoriciens ont essayé de montrer que la réduction du paquet d'ondes, loin d'être une recette transcendante venue d'on ne sait où, relève d'un mécanisme que la physique quantique peut elle-même décrire. C'est en tout cas ce qu'indique la théorie « de la décohérence » développée par Wojciech Zureck[10], James Hartle, Hans Dieter Zeh, Roland Omnès, Murray Gellmann et d'autres encore.
Cette théorie tente d'expliquer pourquoi les objets macroscopiques ont un comportement classique, tandis que les objets microscopiques, atomes et autres particules, ont un comportement quantique. En d'autres termes, elle vise à apporter une solution au lancinant paradoxe du chat de Schrödinger. Les équations de la physique quantique impliquent une présence universelle d'états superposés, donc des effets d'interférences.
Or nous ne voyons pas ces effets d'interférences au niveau macroscopique. Comment lever cette contradiction ? il suffit que quelques molécules ou quelques photons aient interagi avec lui pour que la décohérence devienne manifeste[11]. Voilà pourquoi le chat de Schrödinger est soit mort, soit vivant, mais pas les deux à la fois. Bien que très bref, ce processus de décohérence a pu être saisi au vol : plusieurs expériences récentes, très astucieuses, ont permis d'explorer, pour la première fois, la transition entre comportements quantique et classique, qui a par conséquent cessé d'être un no man's land expérimental[12]. Une expérience à base d'atomes et de photons reproduisant la situation du chat de Schrödinger a même pu être réalisée par l'équipe de Serge Haroche à l'École normale supérieure, à Paris[13], le rôle du chat y étant joué par un champ électromagnétique constitué d'un petit nombre de photons enfermés dans une cavité supraconductrice. On a ainsi largement résolu un problème qui avait vraiment tourmenté Einstein et Schrödinger, celui du « raccord » entre les représentations classique et quantique : c'est la décohérence qui, en voilant les effets d'interférences, protège le caractère classique du monde macroscopique.
Certes, les problèmes de fond posés par Bohr, Heisenberg, Einstein, Schrödinger ou Pauli restent d'actualité, mais on dispose aujourd'hui pour les traiter de davantage de résultats et de davantage d'arguments.
Mais il se pourrait bien qu'aucune interprétation ne s'impose jamais, notamment à cause de ce que le philosophe Michel Bitbol appelle l'« aveuglante proximité du réel » : nous serions tellement impliqués dans le réel que nous ne pourrons jamais expliciter le rapport que nos théories entretiennent avec lui.
Plus d'un siècle après la conférence de Max Planck à l'Académie des sciences de Berlin, un tel pluralisme d'interprétations peut sans doute sembler encombrant, mais il a l'avantage d'être plus fécond que les glaciations doctrinales ou les crispations idéologiques. Il reste simplement à souhaiter que les partisans d'un réalisme fort n'érigent pas en dogme absolu le principe selon lequel le réel serait totalement intelligible. Et, pour faire bonne mesure, que les positivistes radicaux, partisans acharnés du « tais-toi et calcule », ne ondamnent pas l'idée que cela a un sens de se préoccuper du réel, sous prétexte que ce projet serait bassement métaphysique.
 
 
GLOSSAIRE
 
Amplitude de probabilité : nombre complexe qu’on associe à chacun des états possibles d’un système quantique. La probabilité qu’on obtienne un certain résultat lors d’une mesure se calcule en faisant d’abord en faisant la somme de toutes les amplitudes de probabilité susceptibles de conduire à ce résultat, puis en élevant au carré le module de cette somme.
 
Atome : entité composée d’un noyau (assemblage très compact de protons et de neutrons) et d’un nuage périphérique composé d’un cortège d’électrons.
 
Champ : entité décrite mathématiquement à travers l’espace et le temps, à la différence d’un corpuscule, localisé en un point précis de l’espace.
 
Chat de Schrödinger (paradoxe du) : Expérience de pensée qui fut inventée par Schrödinger en 1935, afin de rendre manifeste une situation déconcertante, les aspects paradoxaux d’une interprétation naïve du formalisme quantique. Imaginons, dit Schrödinger, un appareil capable de détecter l’émission d’une particule qu’un atome radioactif émet lorsqu’il se désintègre ; imaginons aussi une boîte et à l’intérieur de cette boîte, plaçons un chat ; ajoutons à tout cela un dispositif conçu de telle sorte que, si l’émission de la particule issue de la désintégration a lieu, un marteau s’abat sur une fiole contenant un gaz mortel et la casse, ce qui provoque aussitôt la mort du chat. Ces différents appareils étant mis en place, refermons la boîte.
Le vecteur d’état du système complet (boîte + chat + marteau + fiole) est très complexe puisque ce système contient un grand nombre de particules, mais il est nécessairement du type a + b. Plus précisément il est la superposition de l’état atome désintégré + marteau baissé + fiole cassée + chat mort et de l’état atome non désintégré + marteau levé + fiole intacte + chat vivant. Tant qu’aucune observation n’a été faite, le chat est donc dans un état incertain, ni mort ni vivant. Pareille situation est difficile à concevoir du strict point de vue existentiel, mais la théorie de la décohérence est récemment venue l’éclaircir.
 
Cryptographie quantique: la cryptographie quantique consiste à utiliser les propriétés de la physique quantique pour établir des protocoles de cryptographie qui permettent d'atteindre des niveaux de sécurité qui sont prouvés ou conjecturés non attingibles en utilisant uniquement des phénomènes classiques (c'est-à-dire non-quantiques). Un exemple important de cryptographie quantique est la distribution quantique de clés, qui permet de distribuer une clé de chiffrement secrète entre deux interlocuteurs distants, tout en assurant la sécurité de la transmission grâce aux lois de la physique quantique et de la théorie de l'information. Cette clé secrète peut ensuite être utilisée dans un algorithme de chiffrement symétrique, afin de chiffrer et déchiffrer des données confidentielles.
 
Décohérence (théorie de la) : développée dans les années 1990, cette théorie explique que c’est leur interaction avec leur « environnement » qui fait très rapidement perdre aux objets
macroscopiques leurs propriétés quantiques. L’environnement, constitué de tout ce qui baigne les objets, par exemple l’air dans lequel ils se propagent ou, si l’on fait le vide, le rayonnement ambiant ; agit en somme comme un observateur qui mesure les systèmes macroscopiques en permanence, ce qui élimine toutes les superpositions à cette échelleet donc également les interférences.
 
Electron : particule élémentaire légère de charge électrique négative entrant dans la composition des atomes. Les réactions entre électrons d’atomes voisins déterminent des liaisons chimiques qui associent les atomes en molécules.
 
Énergie cinétique : énergie due au mouvement d’un corps. En physique classique (non relativiste) elle est donnée par la formule E = mv2//2 (m étant la masse et v la vitesse). Elle est donc proportionnelle à la masse du corps et au carré de sa vitesse.
 
Espace vectoriel : tout ensemble E dont les éléments satisfont à la propriété suivante : si u et v sont deux éléments de E, alors toute combinaison suivante du type λu + μv, où u et v sont des nombres complexes quelconques, est aussi élément de E. Les éléments d’un espace vectoriel sont appelés des vecteurs.
 
Interprétation de Copenhague :
Il s'agit de l'interprétation standard de la physique quantique essentiellement mise en forme par Niels Bohr en 1927 à partir des résultats obtenus par Werner Heisenberg et Max Born quant à l'interprétation de la physique matricielle de Born-Heisenberg-Jordan et celle, ondulatoire, de De Broglie-Schrödinger.
On parle souvent à tort de la dualité onde-particule. Il est préférable de parler de « complémentarité ».Ceci pour de nombreuses raisons, la première étant que la matière n'est pas, "particule" OU "onde". Suivant le point de vue Bohmien, la particule joue un rôle fondamental et est guidée par l'onde pilote de Louis de Broglie.
Selon Niels Bohr (le mentor de Copenhague), il ne faut pas perdre de vue que la physique décrit avant tout ce qui est observable, ce qui ne veut pas dire, comme certain l'ont pensé, qu'il s'agissait d'une profession de foi positiviste de Bohr. Lui-même refusait d'ailleurs de se compter parmi les positivistes, tout comme Heisenberg. Simplement la physique est au moins cela, même si elle ne s'y réduit pas.
A partir de cette idée, les contradictions entre le point de vue ondulatoire et corpusculaire pour décrire les manifestations de la lumière, de la matière et de leurs interactions se résolvent de la façon suivante.
Le physicien utilise des instruments de mesure classiques, lesquels donnent des mesures classiques pouvant s'interpréter, par leur nature même, dans le langage des ondes et des particules. Mais en réalité, il n'y a ni ondes ni particules. Les quanta sont tout simplement autres, ce ne sont pas des objets classiques dans l'espace et le temps.
Pas plus qu'il n'y a de temps et d'espace absolu il n'y a de particule ou d'onde absolues associées de façon subtiles mais néanmoins classiques. On est donc conduit à faire un usage complémentaire des concepts d'ondes et de particules pour décrire les expériences en connexion avec le monde quantique. Mais, par la structure même des équations de la physique quantique, on ne pourra jamais mesurer et surtout décrire un phénomène quantique avec des concepts complètement classiques, non pas parce que les lois de la nature nous empêcheraient de savoir si une particule ou une onde existe vraiment au niveau quantique mais parce qu'il n'y a rien de tel.
 
Laser : un laser (acronyme de l'anglais « Light Amplification by Stimulated Emission of Radiation », en français : « amplification de la lumière par émission stimulée de rayonnement ») est un appareil qui produit une lumière spatialement et temporellement cohérente basée sur l'effet laser. Descendant du maser, le laser s'est d'abord appelé maser optique.
Une source laser associe un amplificateur optique basé sur l'effet laser à une cavité optique, encore appelée résonateur, généralement constituée de deux miroirs, dont au moins l'un des deux est partiellement réfléchissant, c'est-à-dire qu'une partie de la lumière sort de la cavité et l'autre partie est réinjectée vers l'intérieur de la cavité laser. Avec certaines longues cavités, la lumière laser peut être extrêmement directionnelle. Les caractéristiques géométriques de cet ensemble imposent que le rayonnement émis soit d'une grande pureté spectrale, c’est-à-dire temporellement cohérent. Le spectre du rayonnement contient en effet un ensemble discret de raies très fines, à des longueurs d'ondes définies par la cavité et le milieu amplificateur. La finesse de ces raies est cependant limitée par la stabilité de la cavité et par l'émission spontanée au sein de l'amplificateur (bruit quantique). Différentes techniques permettent d'obtenir une émission autour d'une seule longueur d'onde.
Au XXIe siècle, le laser est plus généralement vu comme une source possible pour tout rayonnement électromagnétique, dont fait partie la lumière. Les longueurs d'ondes concernées étaient d'abord les micro-ondes (maser), puis elles se sont étendues aux domaines de l'infrarouge, du visible, de l'ultraviolet et commencent même à s'appliquer aux rayons X.
 
Neutron : un des constituants du noyau atomique (avec le proton) ; il est composé de trois quarks en interaction.
 
Nombre complexe : tout nombre complexe peut s’écrire sous la forme z = x + iy, où x et y sont des nombres réels et i le nombre imaginaire tel que i2 = -1. On appelle x la  « partie réelle » de zet y sa « partie imaginaire ». Le module au carré d’un nombre complexe, noté |z|2, est donné par |z|2 = x2 + y2.
 
Non-commutativité : deux opérateurs A et B sont dits non commutatifs si l’ordre dans lequel on les fait intervenir n’est pas indifférent. Cela se traduit par le fait que le produit AB n’est pas égal au produit BA.
 
Photon : grain élémentaire de lumière, et plus généralement de rayonnement électromagnétique, la lumière visible n’étant qu’une des formes de ce dernier. Sa masse nulle. Le photon véhicule l’interaction électromagnétique au niveau élémentaire.
 
Proton : un des constituants du noyau atomique (avec le neutron) ; il porte une charge électrique positive et comme le neutron, il est composé de trois quarks en interaction.
 
Spin : Le spin d’un électron, lorsqu’on le mesure le long d’une direction arbitraire ne peut prendre que deux valeurs : soit h/ 4π, soit –h /4πh désigne la constante de Planck. Si l’on imaginait l’électron comme une petite sphère chargée – d’un rayon de l’ordre de 10-15 mètre (rayon pour lequel l’énergie électrostatique de la sphère chargée est égale à l’énergie de masse, mc2) et si le spin correspondait à une rotation de cette sphère, la vitesse à la surface de celle-ci devrait être supérieure à celle de la lumière. L’existence même du spin oblige donc à renoncer à se faire un modèle de l’électron et, chose plus troublante, à admettre l’existence d’un moment cinétique qui ne soit pas une rotation de matière.
 
Supraconductivité : la supraconductivité (ou supraconduction) est un phénomène caractérisé par l'absence de résistance électrique et l'expulsion du champ magnétique — l'effet Meissner — à l'intérieur de certains matériaux dits supraconducteurs. La supraconductivité découverte historiquement en premier, et que l'on nomme communément supraconductivité conventionnelle, se manifeste à des températures très basses, proches du zéro absolu (-273,15 °C). La supraconductivité permettrait notamment de transporter de l'électricité sans perte d'énergie, les applications potentielles sont donc stratégiques.
 
Théorie des supercordes : cette théorie propose d'unifier les quatre interactions fondamentales, en décrivant toutes les particules élémentaires comme des différents états de vibration d'une corde. Si les physiciens théoriciens se penchent avec fascination sur cette idée depuis trente ans, c'est parce qu'elle permet de réconcilier la théorie de Relativité Générale d'Einstein, qui décrit notre univers aux échelles astronomiques, avec les principes de la Physique Quantique qui régissent le comportement de la matière aux échelles microscopiques. La théorie des cordes est-elle en voie de réaliser le rêve réductionniste d'une description ultime de la nature, qui permettrait de retrouver toutes les lois connues de la physique, ainsi que les valeurs des constantes fondamentales, par un processus de pure déduction logique? Et aurons nous un jour une confirmation expérimentale directe de la structure supposée cordiste de la matière? Si la réponse à ces questions n'est pas simple, c'est aussi parce qu'on maîtrise encore très mal la structure mathématique, fort complexe, de cette très ambitieuse théorie.
 
Vecteur d’état : entité mathématique par laquelleon représente l’état physique d’un syqtème quantique. En vertu du principe de superposition, les vecteurs d’état ont la propriété de pouvoir s’ajouter entre eux: la somme de deux vecteurs d’état possibles d’un système est aussi un vecteur d’état possible du système.


[1] Pour illustrer les implications de ce critère de réalité, prenons un exemple simple. Supposons que nous disposions de deux cartes, l’une bleue, l’autre verte et que nous les placions chacune dans une enveloppe scellée. Mélangeons les enveloppes, puis donnons-en une à Paul et l’autre à Jules. Quand Paul ouvre son enveloppe, il découvre la couleur de sa carte : la probabilité qu’elle soit bleue était égale à un demi ; idem pour la probabilité qu’elle soit verte. Le résultat est évidemment « anti-corrélé » avec celui qu’obtiendra Jules : si la carte de Paul est bleue, celle de Jules sera verte et réciproquement. Aucun paradoxe n’apparaît ; le sort en a voulu ainsi. Ce n’est certainement pas le fait que Paul ait pris connaissance de sa carte qui ait déterminé la couleur de la carte de Jules. C’est ce type d’arguments que l’hypothèse (c) d’Einstein condense : il y a un élément de réalité physique associé à la couleur de la carte de Jules puisque sans la perturber en quoi que ce soit, c-à-d sans ouvrit son enveloppe on est capable de déterminer la couleur de sa carte. Il suffit de demander à Paul son propre résultat.
[2] Gaston Bachelard disait de la physique quantique qu’elle était une « science sans aïeux ».
[3] Telles celles de Pythagore, Platon, Kierkegaard ou Kant.
[4] Dans l’otique platonicienne, les mathématiques constituent un langage intermédiaire permettant de passer du monde sensible au monde intelligible (celui des Idées), seul capable de rendre compte de la réalité des choses.
[5] C'est à l'astronome et mathématicienPierre-Simon de Laplace, que revient d'avoir affirmé le déterminisme universel dans toute sa rigueur :
« Nous devons envisager l'état présent de l'univers comme l'effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir, comme le passé, serait présent à ses yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'astronomie, une faible esquisse de cette intelligence. Ses découvertes en mécanique et en géométrie, jointes à celles de la pesanteur universelle, l'ont mis à portée de comprendre dans les mêmes expressions analytiques les états passés et futurs du système du monde. En appliquant la même méthode à quelques autres objets de ses connaissances, il est parvenu à ramener à des lois générales les phénomènes observés, et à prévoir ceux que les circonstances données doivent faire éclore. »
 
[6]D'abord, dans le cadre de la théorie de Bohm, la non-localité fait que la valeur d'une grandeur possédée par une par­ticule peut dépendre de la valeur d'une autre grandeur apparte­nant à une autre particule éloignée. Ensuite, la forme de l'onde pilote dépendant de la totalité de l'appareillage en place, la tra­jectoire d'une particule, bien que parfaitement déterminée, ne peut être mesurée (puisque toute adaptation de l'appareillage induirait une modification de la trajectoire que la particule aurait suivie en l'absence de mesure...). On se trouve donc en face d'une théorie qui rétablit l'ontologie habituelle de la phy­sique classique, mais dont la construction même interdit qu'on puisse avoir connaissance de ses propriétés. Comme le dit bien Hervé Zwirn : « La théorie de Bohm exhale un relent de frus­tration puisqu'elle nous allèche avec le retour de concepts clas­siques pour aussitôt nous enlever tout moyen d'en avoir une véritable connaissance » (Hervé Zwirn, Les Limites de la connaissance, Éditions Odile Jacob, 2000, p. 225).
[7]Ce principe stipule que la force exercée par un corps sur un second corps est égale et opposée à celle que ce second corps exerce sur le premier.
Les physiciens qui défendent la théorie des univers paral­lèles sont rares, mais on en trouve parmi les plus éminents. Ainsi, David Deutsch, l'un des théoriciens de l'ordinateur quantique, explique que la possibilité même d'un tel ordinateur impose d'interpréter la physique quantique dans le cadre de la théorie des mondes multiples. Son argument est le suivant : le principe d'un ordinateur quantique consiste à explorer simulta­nément, « en parallèle », différents chemins de calcul, de sorte que le résultat final dépend de tous ces chemins à la fois. Or, explique David Deutsch, si l'on veut que l'ordinateur puisse utiliser les informations associées à chacun de ces différents chemins, il faut bien qu'elles se trouvent « quelque part », c'est-à-dire... dans des mondes parallèles !
[9]Roland Omnès, Comprendre la mécanique quantique, EDP-Sciences, 2000, p. 7.
[10]WojciechW Zureck, « Decoherence and The Transition From Quantum to Classical », Physics Today, , 1991,44, 1991,10, p.36.
[11]Plus le système est gros, plus il est couplé à un grand nombre de degrés de liberté de l'environnement.
[12]Voir l'article de Serge Haroche, « Une exploration au coeur du monde quantique », dans Un siècle de quanta, op. cit., p. 113-134.
[13]Serge Haroche, Jean-Michel Raimond et Michel Brune, « Le chat de Schrôdinger se prête à l'expérience », La Recherche, 301, septembre 1997, p. 50.



Date de création : 07/03/2014 @ 12:09
Dernière modification : 07/03/2014 @ 12:24
Catégorie : Synthèses
Page lue 2602 fois


Imprimer l'article Imprimer l'article


Réactions à cet article

Personne n'a encore laissé de commentaire.
Soyez donc le premier !


^ Haut ^