UNE BRÈVE SUR LE MONDE QUANTIQUE(2) 5/ LINTRICATION QUANTIQUE (89-90) Lidée de localité des objets va de soi. Toute chose nous apparaît située en une zone précise de lespace et lorsque deux objets se trouvent en des lieux différents, nous sommes convaincus que les effets de lun sur lautre décroissent avec la distance. Cest donc sans réticence que nous nous croyons autorisés à oublier, lorsque nous étudions un de ces objets, lexistence de lautre : nous pensons que des évènements lointains ne peuvent exercer dinfluence que sil y a entre eux une médiation, de quelque ordre quelle soit. Voilà pourquoi, lorsque nous avons affaire à une paire de particules nous considérons quun tel système est séparable, au sens où nous estimons être en droit de parler séparément de chacune des particules qui forment cette paire. Elles représentent lune et lautre une entité physique à part entière, au même titre que le système global quelles constituent à elles deux. Le tout nest-il pas la somme de ses parties ? Sans doute, mais la physique quantique nous a-t-elle pas appris à nous méfier des idées les plus évidentes. Déjà un vecteur détat étant généralement étalé dans lespace, il se pourrait que le caractère absolu de lidée de localité telle quelle vient dêtre évoquée ne soit par lui mis à mal. Des particules qui sentremêlent (91-92) Imaginons deux particules arrivant lune vers lautre et entrant en collision. Avant le choc, chacune dentre elles est décrite par un certain vecteur détat. Mais comment décrire la paire quelles forment ? Une vision classique des choses nous porterait à former la somme des deux vecteurs détat individuels comme sil sagissait de combiner deux phénomènes ondulatoires. Mais ce nest pas ce quindique la règle quantique qui décrit la paire de particules par le produit et non par la somme des deux vecteurs détat individuels. Autrement dit il faut opérer exactement comme lorsquil sest agi de combiner létat interne dune particule et sa localisation. Que devient ce produit après la collision ? Il sécrit en effet comme une somme de deux produits qui semble les « mélanger » : on ne peut plus dire que dans létat final chaque particule a son vecteur détat bien à elle. Seule la paire, c-à-d le système global et non ses éléments, en possède un qui soit bien défini. Mais cette paire semble « étalée » dans lespace. De plus, son vecteur détat a comme entremêlé les deux particules. Ce phénomène a été dit d« intrication » par Schrödinger quand il la découvert en 1930. Le tout nest plus la somme des parties (93 à 95) Afin de saisir toute la portée de ce concept dintrication, regardons les choses de plus près. Soit deux électrons produits ensemble à partir dune source et séloignant dans deux directions opposées. Appelons-les : particule 1 celle partant vers la gauche et particule 2 celle partant vers la droite. Chacune delles est caractérisée par sa localisation et son état interne qui est soit a soit b. Supposons que les conditions de production aboutissent à deux particules corrélées c-à-d que si lune est dans létat a, lautre est dans létat b et réciproquement. Les vecteurs détat étant fréquemment notés par la lettre Ψ (psy), on conviendra que Ψ1(a)représente la particule 1 dans létat a et que Ψ2(b) représente la particule 2 dans létat b. Transcription du vecteur détat de la paire dans le premier cas : particule 1 dans létat a Ψ12 = Ψ1(a)x Ψ2(b) Transcription du vecteur détat de la paire dans le deuxième cas : particule 1 dans létat b Ψ21 = Ψ2(a)x Ψ1(b) Les deux situations étant également possibles, la difficulté est de savoir a priori laquelle des deux se réalise. En vertu du principe de superposition de la physique quantique, on doit écrire que le véritable vecteur détat de la paire est la somme des vecteurs détat correspondant à chacune des possibilités : Ψpaire =Ψ12 + Ψ21 Etant constitué dune somme irréductible, le vecteur détat de la paire peut donner lieu, comme dans le cas des deux fentes à des interférences de sorte que la description du tout nimplique plus celle de ses parties, c-à-d des deux particules qui la composent. On parle dans ce cas de « corrélations quantiques ». Réciproquement, la description précise des parties telle celle fournie par les vecteurs détat Ψ12 etΨ21pris isolément, ne donne pas accès à celle du tout puisquelle omet de prendre en compte la possibilité quil y ait des corrélations quantiques au sein de la paire. Conclusion : en physique quantique, la connaissance des parties, si loin quelle soit poussée semble insuffisante à fournir une connaissance du tout. Rien danalogue nexiste en physique classique. Tout en se méfiant des analogies, force est de constater quil se passe, en quelque sorte, la même chose avec certaines formations de musiciens qui est autre que la somme des musiciens qui les composent. 6/ LA NON-SÉPARABILITÉ Une expérience de pensée qui ambitionne de montrer que la théorie quantique est incomplète (100-101) Cette expérience intitulée EPR (Einstein, Podolsky, Rosen) comporte trois hypothèses de départ : (a) Les prédictions de la physique quantique sont justes. (b) Aucune influence ne peut se propager plus vite que la lumière (prise en compte de la relativité). Cette hypothèse implique quil existe des cas dans lesquels on peut être certain que , de deux évènements aucun ninfluence lautre : lorsque ces deux évènements sont si lointains dans lespace et si rapprochés dans le temps que la lumière na pas le temps de les relier. Chacun reste dans son coin : cette hypothèse sappelle le principe de localité dEinstein. (c)Si, en ne perturbant aucunement un système, on peut prédire avec certitude (c-à-d avec une probabilité égale à 1) la valeur dune quantité physique, cest quil existe un élément de réalité physique correspondant à cette quantité physique. Cette hypothèse est conforme au bon sens : si je peux prédire le résultat de la mesure dune propriété physique donnée et si ma prédiction est juste à tous coups, jai tout lieu de penser que la valeur trouvée pour cette propriété correspond nécessairement à une réalité. Le formalisme, lui, doit être capable dintégrer cet élément de réalité, que ce dernier fasse ou non lobjet dune mesure. Cest à cette seule condition quune théorie physique peut, selon Einstein être présentée comme complète[1]. Le paradoxe EPR (102 à 104) Einstein établit ensuite que lensemble des hypothèses (a) (b) et (c), lorsquon les applique à une certaine expérience de pensée qui ne sera pas décrite ici, conduit à attribuer aux sous-systèmes par exemple, les éléments dune paire de particules, pour reprendre le cas traité plus haut des propriétés dans le formalisme quantique ne rend pas compte. Ce dernier est donc pris en flagrant délit dincomplétude. Et Einstein de conclure quil doit exister un niveau de description plus fin de la réalité que celui proposé par la physique quantique, niveau qui reste à découvrir. Quelques semaines plus tard, dans sa réponse à larticle EPR, Niels Bohr soppose à cette conclusion dEinstein au motif quon doit se garder de tout raisonnement sur la réalité même des choses, notamment que lhypothèse (b) nest pas totalement acceptable du fait, par exemple, que la vitesse dune particule est une propriété partagée entre la particule et linstrument de mesure. Selon lui, la seule chose quune théorie puisse décrire, ce ne sont donc des phénomènes incluant dans leur définition le contexte expérimental qui rend ces phénomènes manifestes et non une réalité prétendument objective. Or, cela, la physique quantique le fait parfaitement, au sens où elle épuise les possibilités de prédiction dans toutes les situations expérimentales permettant lapparition dun phénomène. Elle est donc prédictivement complète, et cest le mieux que lon puisse exiger dune théorie physique. Cette controverse fameuse entre Bohr et Einstein avait une envergure philosophique puisquelle touchait à la conception que lon doit se faire du monde physique, à lidée que sen fait lhomme, au rôle des théories qui tentent de le décrire. Mais elle était aussi du ressort de la physique, du moins dans les termes où la formulait Einstein. Celui-ci tenait en effet que le caractère à ses yeux incomplets impliquait lapparition dans lavenir dune théorie « meilleure ». Or cest en celà que les espoirs des inventeurs du paradoxe EPR furent finalement déçus. Laffaire fut élucidée en deux temps : dabord par une découverte théorique de grande portée faite en 1964 par le physicien nord-irlandais John Bell, ensuite par plusieurs confirmations expérimentales. Le théorème de Bell (104-105)Le formalisme quantique devant être soit remplacé, soit complété, John Belle physicien « réaliste »comme Einstein, était a priori porté à partager lavis dEinstein selon lequel les évènements surviennent deux-mêmes indépendamment du contexte expérimental de leur manifestation. Mais il remarqua cependant quelque chose de fort curieux : toutes les théories bâties dans le but de compléter la physique quantique grâce à lintroduction de paramètres supplémentaires, notamment celle de Louis de Broglie de 1959 (celui de la non-localisation) ne parvenaient à satisfaire aux hypothèses (a) et (c) quen violant lhypothèse de localité (b). Autrement dit, ces théories étaient « non locales ». A sa grande surprise et à son corps défendant, il put démontrer de façon formelle que nimporte quelle théorie prétendant décrire la réalité entraînerait cette singularité. De plus il put prouver que toute théorie réaliste qui satisfaisait aux trois hypothèses dEinstein entraînait des « restrictions » portant sur les résultats prévus pour certaines mesures. Ces restrictions qui peuvent être écrites sous forme dinégalités, sappellent justement les « inégalités de Bell ». Comme la physique quantique nest pas une théorie réaliste au sens dEinstein, il doit être possible dimaginer des situations particulières dans lesquelles ses prédictions entrent en conflit avec les inégalités de Bell (qui ne contraignent que les prédictions des théories satisfaisant aux trois critères EPR). Par exemple la physique quantique prédit que les corrélations entre des photons émis en cascade par le même atome sont plus fortes que ce quindiquent les théories à variables cachées. Une vérification expérimentale devenait alors possible qui devait soit mettre en défaut la physique quantique et sa description presque fantomatique, soit exclure lexistence, derrière elle, dune théorie qui rendrait compte dune réalité localement définie. Le verdict sans appel de lexpérience (107 à 109) Cest seulement au début des années 1980 quune équipe de lInstitut doptique dOrsay dirigée par Alain Aspect, mena à bien une série dexpériences montrant de façon irréfutable tant la violation des inégalités de Bell que la confirmation des prédictions quantiques ? Quétait-ce à dire ? Que dans certaines situations très particulières deux photons qui ont interagi dans le passé ont des propriétés que leur distance mutuelle , aussi grande soit-elle, ne suffit pas à séparer. Ils constituent un tout inséparable même lorsquils sont très éloignés lun de lautre : ce qui arrive à lun des deux, où quil soit dans lunivers est irrémédiablement intriqué avec ce qui arrive à lautre photon dans un autre lieu de lunivers comme si un lien quantique, immatériel et instantané les tenait ensemble. On parle dans ce cas de « corrélation forte ». Le comportement global que les deux photons manifeste alors met à mal lexplication selon laquelle les particules possèdent en propre, à lavance, la propriété quon a décidé de mesurer (mais attention ces résultats ne sont pas applicables à toutes les paires de photons : ils ne sont applicables que si les photons produits sont fortement corrélés). Que conclure de tout cela ? Quil faut définitivement renoncer à interpréter la physique quantique dans le sens des idées dEinstein : les prémisses« localité einsteinienne » et « critère einsteinien de réalité » ne peuvent être toutes les deux vraies. En particulier, il nexiste aucun espoir de pouvoir compléter la physique quantique en construisant une théorie de locale à variables cachées. La non-séparabilité ou pour dire mieux avec Jean-Marc Lévy-Leblond, l« implexité », doit être considérée comme une propriété fondamentale de la nature. Mais son statut épistémologique, objet dincessantes discussions demeure encore obscur. Une chose toutefois est certaine : cette non-séparabilité qui choquait tant Einstein, ne viole nullement le principe de causalité. Cela signifie quon ne peut se servir des corrélations de type EPR pour transmettre de linformation, instantanément entre deux points séparés de lespace. 7/ UNE AFFAIRE DINTERPRÉTATION (133) Il a été dit dès le début que la physique quantique ne se fonde pas que sur un formalisme (mathématique) mais également sur ce quon appelle une interprétation. Car cette nouvelle physique, aux yeux de ses pères fondateurs avait quelque chose de particulier du fait quelle remettait en cause le couple « sujet-objet » ; elle était véritablement « sans précédent » (comme tous lécrivirent, chacun à sa manière[2]). En effet, jamais une autre science navait jusquà ce point exigé une autre discipline spécifique, linterprétation, pour pouvoir être comprise et appliquée. De par sa structure même, la physique quantique interroge la relation entre le monde et sa représentation. Ce qui a véritablement changé (134 à 136) Globalement, dans la physique classique loutil théorique restait en relative correspondance avec lintuition physique. Ce confort intellectuel était encore augmenté par le fait quelle avait un « engagement ontologique fort »vis-à-vis des propriétés physiques : à tout système elle attachait des propriétés qui appartenaient en propre à ce système. Cette conception avait germé dès la naissance de la physique moderne, notamment dans lesprit de Galilée, qui croyait au « réalisme des accidents » : les propriétés contingentes des choses, c-à-d leurs « accidents » comme leurs formes, leurs positions, leurs vitesses (ce quon appelle aujourdhui leurs propriétés dynamiques) sont considérées comme réelles, c-à-d comme indépendantes de notre connaissance et de nos représentations. Dans ce contexte linterprétation du formalisme classique pouvait se contenter dune formulation minimaliste et presque directe : elle revenait à dire que toute grandeur de la théorie avait une contre-partie dans la réalité physique, que cette grandeur soit mesurée ou pas. Avec la physique quantique, les choses devinrent très différentes, dune part parce quaucune forme dintuition sensible ne se rattachait vraiment aux « matrices » et aux « opérateurs » qui ont pris la place des variables dynamiques, dautre part parce que son formalisme, pris au pied de la lettre, reste dépourvu de signification : il exige des règles sémantiques pour être mis en correspondance avec les données empiriques ; règles dont lorigine pose problème. Sont-elles externes au formalisme lui-même ou en sont-elles extraites ? Linterprétation ne serait-elle pas une « sous-théorie » à lintérieur même de la physique quantique comme certains physiciens le pensent aujourdhui ? ou doit-elle consister en un commentaire inspiré des thèses philosophiques préalables[3] comme le pensaient la plupart des pères fondateurs ? Heureusement, la palette des interprétations viables est aujourdhui plus retreinte quau temps des pères fondateurs. Mais aucune delles na prévalu. Une certaine liberté de choix subsiste. Une certaine confusion néanmoins demeure également, qui provient en partie du fait que nous avons tendance à mélanger ce qui revient en propre au formalisme et ce que nous sommes tentés dy rajouter pour quil corresponde à notre vision du monde. Bien que nous ne sachions pas par avance sur quoi porte le formalisme quantique, nous rechignons à mettre à part lefficacité quil confère à nos actions dans le monde et ce que nous croyons être le tableau quil offre de ce monde. Deux sortes dobjectivité (137 à 140) Il a été dit que, lorsque létat dune particule est décrit par un vecteur détat qui est lui-même la superposition (la somme) de plusieurs termes, les propriétés de cette particule ne sont pas bien définies. Seule une mesure faite sur la particule peut les préciser par le biais dune réduction du paquet dondes. Tant quaucune mesure nest effectuée, les propriétés de la particule ne sont connues que par la probabilité quune éventuelle mesure donne telle ou telle valeur. La conséquence dun tel énoncé est quil devient impossible que les objets quantiques soient constamment dotés de toutes leurs propriétés mesurables. En particulier, si lon considère que la physique quantique est une théorie complète, des particules décrites par le même vecteur détat sont absolument identiques à tous égards, et seule une opération de mesure est capable dintroduire après coup (dune manière aléatoire) des différences entre ces particules. Lopération de mesure se voit ainsi dotée dun statut très spécial et tout à fait inédit puisque lobjet physique perd les attributs de pleine permanence quil possédait en physique classique. Lobjectivité traditionnelle est donc mise en cause. Quand la physique classique dit que « deux charges électriques de même signe se repoussent » elle tient un discours qui porte sur les choses elles-mêmes indépendamment de notre rapport à elles. À ses yeux, les objets sont des « choses en soi » au sens où elles existent dune façon intrinsèque. Reprenant une suggestion de Bernard dEspagnat, cette objectivité peut être qualifiée de « forte » du fait quelle caractérise tous les énoncés de la physique classique. La physique quantique, elle, ne semble pas saccorder avec une telle vision des choses. Son formalisme faisant directement appel à la notion de mesure, on ne peut pas en donner une formulation dans laquelle il ne serait nulle part question dinstruments de mesure. À son propos, nous parlerons donc plutôt dobjectivité « faible » (toujours selon Bernard dEspagnat). Le concept dobjectivité faible invite donc à poser la question de savoir sil existe une autre sorte de réel « sous » ou « derrière » le réel empirique (réel observé). Faut-il invoquer un monde qui serait, lui, le monde réel et qui se situer ait dans un certain « ailleurs » par rapport au monde apparent ? En dautres termes devons-nous adopter une attitude platonicienne[4] à légard des concepts mathématiques qui fondent lefficacité de la physique quantique ? Cette question est précisément celle du réalisme physique. La question du réalisme physique (141-142) La fonction première d'une théorie est-elle simplement de classifier, d'organiser et de prédire, ou bien doit-elle de surcroît dévoiler, par le biais de son propre contenu, une véritable ontologie ? Les réalistes sont évidemment partisans de la seconde alternative. Selon leurs adversaires, les empiristes, notre aspiration devrait se limiter, selon la formule consacrée, à « sauver les phénomènes », c'est-à-dire à décrire correctement ce qui est observable. Accepter une théorie scientifique, ajoutent-ils, n'oblige donc nullement à croire qu'elle est vraie et que les entités qu'elle décrit sont réelles. Il suffit en effet, pour qu'une théorie soit acceptable à leurs yeux, qu'elle puisse être considérée comme empiriquement adéquate. Même s'il continue de représenter une position très répandue dans la communauté scientifique, le réalisme scientifique est aujourd'hui critiqué par de nombreux philosophes des sciences (et aussi par des scientifiques...), qui voient en lui une survivance que l'évolution des sciences a rendue anachronique et intenable. Le point important pour nous est que, dans la liste de leurs arguments, on retrouve presque toujours une évocation des débats concernant l'interprétation de la physique quantique ; selon eux, la philosophie non réaliste de Bohr a fini par prendre le dessus sur le réalisme passionné d'Einstein, de sorte que le seul problème à résoudre serait désormais : quel successeur au réalisme opiniâtre et dépassé du père de la relativité doit-on choisir ? Lindéterminisme quantique (143) Selon l'interprétation orthodoxe de la physique quantique, les probabilités qu'utilise cette dernière sont intrinsèques, au sens où elles ne sont pas dues à notre ignorance d'éventuels mécanismes sous-jacents. Reprenons l'expérience des deux canaux A et B décrite dans la première partie. Que dit l'école de Copenhague ? Que même un démon qui, par hypothèse, connaîtrait absolument tout de l'état initial de la particule ne saurait dire avec certitude dans quel canal elle sera finalement détectée, ni donner les raisons qui font qu'on la trouve dans l'un plutôt que dans l'autre. L'idée selon laquelle la physique quantique est complète invite donc à une remise en question du déterminisme au sens classique du terme. Cette remise en question n'est pas radicale, car les équations de la physique quantique sont tout ce qu'il y a de plus déterministes : l'évolution temporelle des états d'un système est toujours gouvernée par des équations différentielles qui, étant donné une condition initiale, déterminent sans ambiguïté l'état final. Un indéterminisme n'apparaît que lorsqu'il sagit détablir une connexion entre ces équations et les faits expérimentaux. Le déterminisme quantique demeure donc bel et bien incompatible avec le déterminisme classique (de type laplacien[5]), au sens où ce ne sont pas les mêmes grandeurs qui, dans l'un et l'autre cas, se voient déterminées. Les principales interprétations de la physique quantique (144 à 155) Nous lavons déjà évoqué, une controverse essentielle a divisé les physiciens modernes : les attributs que l'on est endroit d'accorder au réel ne sont en effet pas les mêmes selon que l'on considère la physique comme complète ou comme incomplète. On se fie à Einstein ou à Bohr (interprétation de Copenhague). Elle se diversifie en plusieurs controverses d'ordre technique : quelle est la correspondance entre le monde quantique et le monde classique ? Si la matière est intégralement régie par des lois quantiques, comment est-il possible que les effets quantiques soient inobservables à notre échelle? Pourquoi les objets y apparaissent-ils toujours localisés ? Et comment se fait-il que, pour nous, les ondes ne soient pas des corpuscules et les corpuscules des ondes ? Comment concilier le probabilisme quantique et le déterminisme classique ? Il arrive que ces questions techniques se trouvent« sublimées » en questions plus philosophiques : quel est le rôle de l'observateur dans l'appréhension du réel ? Que peut-on dire de la réalité non observée ? Qu'est-ce qu'une mesure ? Quelle est la part de réel qui nous est accessible ? Les diverses réponses proposées entre 1930 et 1960 se répartissent schématiquement en un petit nombre de catégories. La première attitude, dite positiviste, est celle défendue par les tenants de l'école de Copenhague, que nous avons déjà évoquée. Ces derniers, essentiellement Heisenberg, Bohr et Pauli, défendent l'idée que le mot réalité n'a pas de sens en lui-même et ils refusent d'aborder les discussions qui portent sur son contenu au motif qu'elles sont immanquablement vaines. La physique quantique est efficace et, selon eux, c'est le maximum que l'on puisse lui demander. Il n'y a donc pas lieu d'exiger de sa part une portée cognitive plus profonde. La deuxième attitude relève de ce qu'on pourrait appeler un malaise constructif. Pour un certain nombre de physiciens, l'embarras philosophique dans lequel nous plonge la physique quantique est le signe qu'elle n'est qu'une théorie approchée. Le problème de la mesure, la réduction du paquet d'ondes, le renoncement au déterminisme strict (c'est-à-dire de type laplacien) sont pour eux autant dimpérities. Aux dires de ces physiciens, la seule solution consiste à modifier la théorie quantique elle-même. Mais leurs contre-propositions éventuelles doivent relever un redoutable défi : faire aussi bien que le formalisme quantique (qui, du point de vue des résultats qu'il permet d'atteindre, fonctionne parfaitement), mais avec des fondements différents de ceux qu'il utilise. La gageure est de taille, surtout depuis que la non-séparabilité quantique a été expérimentalement démontrée au début des années 1980 (par la mise en évidence, évoquée plus haut, de la violation des inégalités de Bell). En effet, depuis lors, on ne peut plus espérer remplacer la physique quantique par une théorie qui la compléterait par l'adjonction de« variables cachées locales ». Toute contre-proposition doit donc être « non locale » pour espérer être crédible.C'est par exemple le cas de la théorie de David Bohm. Établie entre 1952 et 1959, elle constitue l'archétype des théories « à variables cachées non locales ». Grâce à certaines modifications du formalisme quantique, elle parvient à reproduire correctement les prédictions de la physique quantique orthodoxe, et même celles de la physique quantique relativiste (appelée la « théorie quantique des champs* »). Du point de vue ontologique, elle est proche de la physique classique. Elle permet à tout le moins de retrouver une objectivité forte (les particules y possèdent des propriétés bien déterminées, même en l'absence de toute mesure) et un déterminisme strict. Mais en quoi consiste-t-elle ? Comme le suggérait déjà Louis de Broglie avec sa théorie de l'onde pilote, David Bohm admet que les particules sont d'authentiques corpuscules, mais que ces derniers sont guidés dans leur mouvement par une « onde de guidage ». Celle-ci joue le rôle d'un champ d'information qui impose au corpuscule sa trajectoire, un peu comme un message radio intimant à un avion l'ordre de changer de direction. Dans cette théorie, la position du corpuscule est toujours bien définie, quoique pas toujours connue. Nul hasard n'intervient puisque des lois déterministes explicites sont introduites pour expliquer comment les ondes gouvernent les corpuscules. Rappelons-nous l'expérience des deux fentes. Selon David Bohm, l'onde qui pilote l'électron explore tous les trajets possibles. Elle est donc différente selon que les deux fentes sont ouvertes ou que l'une seulement l'est (c'est en ce sens que la théorieest « non locale »). Moyennant certaines hypothèses, il est alors possible de démontrer que la formation des franges d'interférences a bien lieu dans le premier cas (les électrons se répartissent à l'arrivée selon un schéma dicté par les interférences de leur onde pilote), et non dans le second. Cette théorie permet donc d'éviter certaines difficultés associées à la superposition quantique tout en reproduisant les prédictions de la physique quantique orthodoxe, mais cela n'empêche pas beaucoup de physiciens de rester sceptiques à son égard, car elle conduit aussi à des difficultés[6]. Reste que le fait même qu'elle ait pu être construite doit être pris en compte chaque fois qu'on prétend aborder les conséquences philosophiques qu'il convient de tirer de la physique quantique. La troisième attitude possible consiste à proposer une autre lecture de la physique quantique. Certains physiciens acceptent tel quel le formalisme quantique, mais contestent l'interprétation de Copenhague, jugée trop minimaliste ou trop timide. Eugène Wigner a ainsi prétendu à une époque (en1967) que la réduction du paquet d'ondes lors d'une mesure obligeait à admettre une influence active de la conscience sur la réalité physique. De même qu'un pavé lancé sur un crâne non casqué peut modifier les états de conscience de la personne, Wigner imagine que, au nom du principe de l'opposition de l'action et de la réaction[7] , la conscience peut en retour agir sur la matière. Le problème de cette thèse à connotation spiritualiste, empêche la majorité des physiciens dy souscrire. On peut citer une autre réinterprétation de la physique quantique qui a été développée par quelques physiciens versés dans la cosmologie : celle des univers parallèles. On en doit la première version à Hugh Everett, qui la proposa en 1957. Cette théorie, qui n'hésite pas à postuler l'existence de mondes inconnaissables par principe, paraît aussi extravagante que celle de Wigner, mais, chose troublante, il est aussi difficile de la réfuter que d'y souscrire[8]. Nous retiendrons seulement qu'ayant été conçue dans le seul but d'apporter une réponse détournée au problème de la mesure en physique quantique, elle illustre parfaitement l'embarras dans lequel ce problème a pu mettre certains esprits. La théorie de la décohérence et les approches contemporaines Ces dernières années, de nouvelles approches ont été rendues possibles grâce à trois phénomènes. D'abord, nous bénéficions aujourd'hui de la lente décantation des concepts quantiques depuis plus d'une soixantaine d'années. Le débat initial avait probablement été trop marqué par les prises de position des pères fondateurs, qui l'avaient peut-être trop rapidement « encarté » dans des systèmes philosophiques préexistants. Or, comme l'a justement écrit Roland Omnès, « on est sans doute plus fidèle à leur esprit en rafraîchissant leurs dires qu'on ne l'est en les pérennisant[9] ». Ensuite, les récents progrès de la technologie ont permis de réaliser des versions simples des expériences de pensée qui avaient été imaginées par les fondateurs de la théorie : on peut maintenant piéger des photons ou des atomes un à un dans une cavité électromagnétique, les observer de manière continue, les intriquer même ; on sait également les manipuler pour ainsi dire in vivo, à l'aide de faisceaux laser, et construire des objets relativement complexes obéissant à la logique quantique. Cela permet d'aborder à nouveau, mais cette fois de façon expérimentale, l'étude des fondements mêmes de la théorie. Enfin, la frontière floue qui sépare le monde quantique du monde classique est aujourd'hui mieux comprise. Par exemple, des théoriciens ont essayé de montrer que la réduction du paquet d'ondes, loin d'être une recette transcendante venue d'on ne sait où, relève d'un mécanisme que la physique quantique peut elle-même décrire. C'est en tout cas ce qu'indique la théorie « de la décohérence » développée par Wojciech Zureck[10], James Hartle, Hans Dieter Zeh, Roland Omnès, Murray Gellmann et d'autres encore. Cette théorie tente d'expliquer pourquoi les objets macroscopiques ont un comportement classique, tandis que les objets microscopiques, atomes et autres particules, ont un comportement quantique. En d'autres termes, elle vise à apporter une solution au lancinant paradoxe du chat de Schrödinger. Les équations de la physique quantique impliquent une présence universelle d'états superposés, donc des effets d'interférences. Or nous ne voyons pas ces effets d'interférences au niveau macroscopique. Comment lever cette contradiction ? il suffit que quelques molécules ou quelques photons aient interagi avec lui pour que la décohérence devienne manifeste[11]. Voilà pourquoi le chat de Schrödinger est soit mort, soit vivant, mais pas les deux à la fois. Bien que très bref, ce processus de décohérence a pu être saisi au vol : plusieurs expériences récentes, très astucieuses, ont permis d'explorer, pour la première fois, la transition entre comportements quantique et classique, qui a par conséquent cessé d'être un no man's land expérimental[12]. Une expérience à base d'atomes et de photons reproduisant la situation du chat de Schrödinger a même pu être réalisée par l'équipe de Serge Haroche à l'École normale supérieure, à Paris[13], le rôle du chat y étant joué par un champ électromagnétique constitué d'un petit nombre de photons enfermés dans une cavité supraconductrice. On a ainsi largement résolu un problème qui avait vraiment tourmenté Einstein et Schrödinger, celui du « raccord » entre les représentations classique et quantique : c'est la décohérence qui, en voilant les effets d'interférences, protège le caractère classique du monde macroscopique. Certes, les problèmes de fond posés par Bohr, Heisenberg, Einstein, Schrödinger ou Pauli restent d'actualité, mais on dispose aujourd'hui pour les traiter de davantage de résultats et de davantage d'arguments. Mais il se pourrait bien qu'aucune interprétation ne s'impose jamais, notamment à cause de ce que le philosophe Michel Bitbol appelle l'« aveuglante proximité du réel » : nous serions tellement impliqués dans le réel que nous ne pourrons jamais expliciter le rapport que nos théories entretiennent avec lui. Plus d'un siècle après la conférence de Max Planck à l'Académie des sciences de Berlin, un tel pluralisme d'interprétations peut sans doute sembler encombrant, mais il a l'avantage d'être plus fécond que les glaciations doctrinales ou les crispations idéologiques. Il reste simplement à souhaiter que les partisans d'un réalisme fort n'érigent pas en dogme absolu le principe selon lequel le réel serait totalement intelligible. Et, pour faire bonne mesure, que les positivistes radicaux, partisans acharnés du « tais-toi et calcule », ne ondamnent pas l'idée que cela a un sens de se préoccuper du réel, sous prétexte que ce projet serait bassement métaphysique. GLOSSAIRE Amplitude de probabilité : nombre complexe quon associe à chacun des états possibles dun système quantique. La probabilité quon obtienne un certain résultat lors dune mesure se calcule en faisant dabord en faisant la somme de toutes les amplitudes de probabilité susceptibles de conduire à ce résultat, puis en élevant au carré le module de cette somme. Atome : entité composée dun noyau (assemblage très compact de protons et de neutrons) et dun nuage périphérique composé dun cortège délectrons. Champ : entité décrite mathématiquement à travers lespace et le temps, à la différence dun corpuscule, localisé en un point précis de lespace. Chat de Schrödinger (paradoxe du) : Expérience de pensée qui fut inventée par Schrödinger en 1935, afin de rendre manifeste une situation déconcertante, les aspects paradoxaux dune interprétation naïve du formalisme quantique. Imaginons, dit Schrödinger, un appareil capable de détecter lémission dune particule quun atome radioactif émet lorsquil se désintègre ; imaginons aussi une boîte et à lintérieur de cette boîte, plaçons un chat ; ajoutons à tout cela un dispositif conçu de telle sorte que, si lémission de la particule issue de la désintégration a lieu, un marteau sabat sur une fiole contenant un gaz mortel et la casse, ce qui provoque aussitôt la mort du chat. Ces différents appareils étant mis en place, refermons la boîte. Le vecteur détat du système complet (boîte + chat + marteau + fiole) est très complexe puisque ce système contient un grand nombre de particules, mais il est nécessairement du type a + b. Plus précisément il est la superposition de létat atome désintégré + marteau baissé + fiole cassée + chat mort et de létat atome non désintégré + marteau levé + fiole intacte + chat vivant. Tant quaucune observation na été faite, le chat est donc dans un état incertain, ni mort ni vivant. Pareille situation est difficile à concevoir du strict point de vue existentiel, mais la théorie de la décohérence est récemment venue léclaircir. Cryptographie quantique: la cryptographie quantique consiste à utiliser les propriétés de la physique quantique pour établir des protocoles de cryptographie qui permettent d'atteindre des niveaux de sécurité qui sont prouvés ou conjecturés non attingibles en utilisant uniquement des phénomènes classiques (c'est-à-dire non-quantiques). Un exemple important de cryptographie quantique est la distribution quantique de clés, qui permet de distribuer une clé de chiffrement secrète entre deux interlocuteurs distants, tout en assurant la sécurité de la transmission grâce aux lois de la physique quantique et de la théorie de l'information. Cette clé secrète peut ensuite être utilisée dans un algorithme de chiffrement symétrique, afin de chiffrer et déchiffrer des données confidentielles. Décohérence (théorie de la) : développée dans les années 1990, cette théorie explique que cest leur interaction avec leur « environnement » qui fait très rapidement perdre aux objets macroscopiques leurs propriétés quantiques. Lenvironnement, constitué de tout ce qui baigne les objets, par exemple lair dans lequel ils se propagent ou, si lon fait le vide, le rayonnement ambiant ; agit en somme comme un observateur qui mesure les systèmes macroscopiques en permanence, ce qui élimine toutes les superpositions à cette échelleet donc également les interférences. Electron : particule élémentaire légère de charge électrique négative entrant dans la composition des atomes. Les réactions entre électrons datomes voisins déterminent des liaisons chimiques qui associent les atomes en molécules. Énergie cinétique : énergie due au mouvement dun corps. En physique classique (non relativiste) elle est donnée par la formule E = mv2//2 (m étant la masse et v la vitesse). Elle est donc proportionnelle à la masse du corps et au carré de sa vitesse. Espace vectoriel : tout ensemble E dont les éléments satisfont à la propriété suivante : si u et v sont deux éléments de E, alors toute combinaison suivante du type λu + μv, où u et v sont des nombres complexes quelconques, est aussi élément de E. Les éléments dun espace vectoriel sont appelés des vecteurs. Interprétation de Copenhague : Il s'agit de l'interprétation standard de la physique quantique essentiellement mise en forme par Niels Bohr en 1927 à partir des résultats obtenus par Werner Heisenberg et Max Born quant à l'interprétation de la physique matricielle de Born-Heisenberg-Jordan et celle, ondulatoire, de De Broglie-Schrödinger. On parle souvent à tort de la dualité onde-particule. Il est préférable de parler de « complémentarité ».Ceci pour de nombreuses raisons, la première étant que la matière n'est pas, "particule" OU "onde". Suivant le point de vue Bohmien, la particule joue un rôle fondamental et est guidée par l'onde pilote de Louis de Broglie. Selon Niels Bohr (le mentor de Copenhague), il ne faut pas perdre de vue que la physique décrit avant tout ce qui est observable, ce qui ne veut pas dire, comme certain l'ont pensé, qu'il s'agissait d'une profession de foi positiviste de Bohr. Lui-même refusait d'ailleurs de se compter parmi les positivistes, tout comme Heisenberg. Simplement la physique est au moins cela, même si elle ne s'y réduit pas. A partir de cette idée, les contradictions entre le point de vue ondulatoire et corpusculaire pour décrire les manifestations de la lumière, de la matière et de leurs interactions se résolvent de la façon suivante. Le physicien utilise des instruments de mesure classiques, lesquels donnent des mesures classiques pouvant s'interpréter, par leur nature même, dans le langage des ondes et des particules. Mais en réalité, il n'y a ni ondes ni particules. Les quanta sont tout simplement autres, ce ne sont pas des objets classiques dans l'espace et le temps. Pas plus qu'il n'y a de temps et d'espace absolu il n'y a de particule ou d'onde absolues associées de façon subtiles mais néanmoins classiques. On est donc conduit à faire un usage complémentaire des concepts d'ondes et de particules pour décrire les expériences en connexion avec le monde quantique. Mais, par la structure même des équations de la physique quantique, on ne pourra jamais mesurer et surtout décrire un phénomène quantique avec des concepts complètement classiques, non pas parce que les lois de la nature nous empêcheraient de savoir si une particule ou une onde existe vraiment au niveau quantique mais parce qu'il n'y a rien de tel. Laser : un laser (acronyme de l'anglais « Light Amplification by Stimulated Emission of Radiation », en français : « amplification de la lumière par émission stimulée de rayonnement ») est un appareil qui produit une lumière spatialement et temporellement cohérente basée sur l'effet laser. Descendant du maser, le laser s'est d'abord appelé maser optique. Une source laser associe un amplificateur optique basé sur l'effet laser à une cavité optique, encore appelée résonateur, généralement constituée de deux miroirs, dont au moins l'un des deux est partiellement réfléchissant, c'est-à-dire qu'une partie de la lumière sort de la cavité et l'autre partie est réinjectée vers l'intérieur de la cavité laser. Avec certaines longues cavités, la lumière laser peut être extrêmement directionnelle. Les caractéristiques géométriques de cet ensemble imposent que le rayonnement émis soit d'une grande pureté spectrale, cest-à-dire temporellement cohérent. Le spectre du rayonnement contient en effet un ensemble discret de raies très fines, à des longueurs d'ondes définies par la cavité et le milieu amplificateur. La finesse de ces raies est cependant limitée par la stabilité de la cavité et par l'émission spontanée au sein de l'amplificateur (bruit quantique). Différentes techniques permettent d'obtenir une émission autour d'une seule longueur d'onde. Au XXIe siècle, le laser est plus généralement vu comme une source possible pour tout rayonnement électromagnétique, dont fait partie la lumière. Les longueurs d'ondes concernées étaient d'abord les micro-ondes (maser), puis elles se sont étendues aux domaines de l'infrarouge, du visible, de l'ultraviolet et commencent même à s'appliquer aux rayons X. Neutron : un des constituants du noyau atomique (avec le proton) ; il est composé de trois quarks en interaction. Nombre complexe : tout nombre complexe peut sécrire sous la forme z = x + iy, où x et y sont des nombres réels et i le nombre imaginaire tel que i2 = -1. On appelle x la « partie réelle » de zet y sa « partie imaginaire ». Le module au carré dun nombre complexe, noté |z|2, est donné par |z|2 = x2 + y2. Non-commutativité : deux opérateurs A et B sont dits non commutatifs si lordre dans lequel on les fait intervenir nest pas indifférent. Cela se traduit par le fait que le produit AB nest pas égal au produit BA. Photon : grain élémentaire de lumière, et plus généralement de rayonnement électromagnétique, la lumière visible nétant quune des formes de ce dernier. Sa masse nulle. Le photon véhicule linteraction électromagnétique au niveau élémentaire. Proton : un des constituants du noyau atomique (avec le neutron) ; il porte une charge électrique positive et comme le neutron, il est composé de trois quarks en interaction. Spin : Le spin dun électron, lorsquon le mesure le long dune direction arbitraire ne peut prendre que deux valeurs : soit h/ 4π, soit h /4πoù h désigne la constante de Planck. Si lon imaginait lélectron comme une petite sphère chargée dun rayon de lordre de 10-15 mètre (rayon pour lequel lénergie électrostatique de la sphère chargée est égale à lénergie de masse, mc2) et si le spin correspondait à une rotation de cette sphère, la vitesse à la surface de celle-ci devrait être supérieure à celle de la lumière. Lexistence même du spin oblige donc à renoncer à se faire un modèle de lélectron et, chose plus troublante, à admettre lexistence dun moment cinétique qui ne soit pas une rotation de matière. Supraconductivité : la supraconductivité (ou supraconduction) est un phénomène caractérisé par l'absence de résistance électrique et l'expulsion du champ magnétique l'effet Meissner à l'intérieur de certains matériaux dits supraconducteurs. La supraconductivité découverte historiquement en premier, et que l'on nomme communément supraconductivité conventionnelle, se manifeste à des températures très basses, proches du zéro absolu (-273,15 °C). La supraconductivité permettrait notamment de transporter de l'électricité sans perte d'énergie, les applications potentielles sont donc stratégiques. Théorie des supercordes : cette théorie propose d'unifier les quatre interactions fondamentales, en décrivant toutes les particules élémentaires comme des différents états de vibration d'une corde. Si les physiciens théoriciens se penchent avec fascination sur cette idée depuis trente ans, c'est parce qu'elle permet de réconcilier la théorie de Relativité Générale d'Einstein, qui décrit notre univers aux échelles astronomiques, avec les principes de la Physique Quantique qui régissent le comportement de la matière aux échelles microscopiques. La théorie des cordes est-elle en voie de réaliser le rêve réductionniste d'une description ultime de la nature, qui permettrait de retrouver toutes les lois connues de la physique, ainsi que les valeurs des constantes fondamentales, par un processus de pure déduction logique? Et aurons nous un jour une confirmation expérimentale directe de la structure supposée cordiste de la matière? Si la réponse à ces questions n'est pas simple, c'est aussi parce qu'on maîtrise encore très mal la structure mathématique, fort complexe, de cette très ambitieuse théorie. Vecteur détat : entité mathématique par laquelleon représente létat physique dun syqtème quantique. En vertu du principe de superposition, les vecteurs détat ont la propriété de pouvoir sajouter entre eux: la somme de deux vecteurs détat possibles dun système est aussi un vecteur détat possible du système.
[1] Pour illustrer les implications de ce critère de réalité, prenons un exemple simple. Supposons que nous disposions de deux cartes, lune bleue, lautre verte et que nous les placions chacune dans une enveloppe scellée. Mélangeons les enveloppes, puis donnons-en une à Paul et lautre à Jules. Quand Paul ouvre son enveloppe, il découvre la couleur de sa carte : la probabilité quelle soit bleue était égale à un demi ; idem pour la probabilité quelle soit verte. Le résultat est évidemment « anti-corrélé » avec celui quobtiendra Jules : si la carte de Paul est bleue, celle de Jules sera verte et réciproquement. Aucun paradoxe napparaît ; le sort en a voulu ainsi. Ce nest certainement pas le fait que Paul ait pris connaissance de sa carte qui ait déterminé la couleur de la carte de Jules. Cest ce type darguments que lhypothèse (c) dEinstein condense : il y a un élément de réalité physique associé à la couleur de la carte de Jules puisque sans la perturber en quoi que ce soit, c-à-d sans ouvrit son enveloppe on est capable de déterminer la couleur de sa carte. Il suffit de demander à Paul son propre résultat. [2] Gaston Bachelard disait de la physique quantique quelle était une « science sans aïeux ». [3] Telles celles de Pythagore, Platon, Kierkegaard ou Kant. [4] Dans lotique platonicienne, les mathématiques constituent un langage intermédiaire permettant de passer du monde sensible au monde intelligible (celui des Idées), seul capable de rendre compte de la réalité des choses. « Nous devons envisager l'état présent de l'univers comme l'effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir, comme le passé, serait présent à ses yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'astronomie, une faible esquisse de cette intelligence. Ses découvertes en mécanique et en géométrie, jointes à celles de la pesanteur universelle, l'ont mis à portée de comprendre dans les mêmes expressions analytiques les états passés et futurs du système du monde. En appliquant la même méthode à quelques autres objets de ses connaissances, il est parvenu à ramener à des lois générales les phénomènes observés, et à prévoir ceux que les circonstances données doivent faire éclore. » [6]D'abord, dans le cadre de la théorie de Bohm, la non-localité fait que la valeur d'une grandeur possédée par une particule peut dépendre de la valeur d'une autre grandeur appartenant à une autre particule éloignée. Ensuite, la forme de l'onde pilote dépendant de la totalité de l'appareillage en place, la trajectoire d'une particule, bien que parfaitement déterminée, ne peut être mesurée (puisque toute adaptation de l'appareillage induirait une modification de la trajectoire que la particule aurait suivie en l'absence de mesure...). On se trouve donc en face d'une théorie qui rétablit l'ontologie habituelle de la physique classique, mais dont la construction même interdit qu'on puisse avoir connaissance de ses propriétés. Comme le dit bien Hervé Zwirn : « La théorie de Bohm exhale un relent de frustration puisqu'elle nous allèche avec le retour de concepts classiques pour aussitôt nous enlever tout moyen d'en avoir une véritable connaissance » (Hervé Zwirn, Les Limites de la connaissance, Éditions Odile Jacob, 2000, p. 225). [7]Ce principe stipule que la force exercée par un corps sur un second corps est égale et opposée à celle que ce second corps exerce sur le premier. Les physiciens qui défendent la théorie des univers parallèles sont rares, mais on en trouve parmi les plus éminents. Ainsi, David Deutsch, l'un des théoriciens de l'ordinateur quantique, explique que la possibilité même d'un tel ordinateur impose d'interpréter la physique quantique dans le cadre de la théorie des mondes multiples. Son argument est le suivant : le principe d'un ordinateur quantique consiste à explorer simultanément, « en parallèle », différents chemins de calcul, de sorte que le résultat final dépend de tous ces chemins à la fois. Or, explique David Deutsch, si l'on veut que l'ordinateur puisse utiliser les informations associées à chacun de ces différents chemins, il faut bien qu'elles se trouvent « quelque part », c'est-à-dire... dans des mondes parallèles ! [9]Roland Omnès, Comprendre la mécanique quantique, EDP-Sciences, 2000, p. 7. [10]WojciechW Zureck, « Decoherence and The Transition From Quantum to Classical », Physics Today, , 1991,44, 1991,10, p.36. [11]Plus le système est gros, plus il est couplé à un grand nombre de degrés de liberté de l'environnement. [12]Voir l'article de Serge Haroche, « Une exploration au coeur du monde quantique », dans Un siècle de quanta, op. cit., p. 113-134. [13]Serge Haroche, Jean-Michel Raimond et Michel Brune, « Le chat de Schrôdinger se prête à l'expérience », La Recherche, 301, septembre 1997, p. 50.
|