Parcours
+ Parcours lévinassien
+ Parcours axiologique
+ Parcours cartésien
+ Parcours hellénique
+ Parcours ricordien
+ Parcours spinoziste
+ Parcours habermassien
+  Parcours deleuzien
+  Parcours bergsonien
+ Parcours augustinien
+ Parcours braguien
+ Glossématique
 -  Synthèses
+ Ouvrages publiés
+ Suivi des progrès aux USA
+ Parcours psychophysique
+ L'art et la science
+ Parcours nietzschéen
+ Philosophies médiévales

Autres perspectives
+ Archéologie
+ Economie
+ Sciences politiques
+ Sociologie
+ Poésie
+ Théologie 1
+ Théologie 2
+ Théologie 3
+ Psychanalyse générale
+ Points d’histoire revisités
+ Edification morale par les fables

Mises à jour du site
17/11/2014 ajout:
Parcours braguien
- Sagesse du monde (2)

09/11/2014 ajout:
Parcours braguien
- Sagesse du monde (1)

21/10/2014 ajout:
Parcours braguien
- Nos bases intellectuelles et cultuelles

14/10/2014 ajout:
Parcours braguien
- La romanité de l'Europe (3)

07/10/2014 ajout:
Parcours braguien
- La romanité de l'Europe (2)

30/09/2014 ajout:
Parcours braguien
- La romanité de l'Europe (1)

29/09/2014 ajout:
Parcours braguien
- La tradition
- Dialogue interreligieux

22/09/2014 ajout:
Parcours braguien
- Eduquer pour la liberté

09/09/2014 Nouveau parcours:
Parcours braguien
- Présentation
- La vérité dans ses différents contextes

08/09/2014 ajout:
Philosophies médiévales
- La défense d'Averroès

01/09/2014 ajout:
Philosophies médiévales
- Averroès et le discours décisif

Liens Wikipédia

Visites

 409312 visiteurs

 8 visiteurs en ligne


Synthèses - Une brève sur le monde quantique(1)




UNE BRÈVE SUR LE MONDE QUANTIQUE
 
Cette brève est un résumé du « Petit voyage dans le monde des quanta » d’Étienne Klein[1]
 
 
 
INTRODUCTION
 
(13-14) La formulation de la physique quantique
 
A/ Elle représente les objets physiques d’une façon si inhabituelle que les notions mêmes d’objet et de trajectoire en deviennent problématiques, c’est-à-dire en fait, selon un ensemble de concepts mathématiques et d’équations.
 
 B/ Elle rend parfaitement compte, entre autres choses,
        de la stabilité des atomes,
        de la façon dont ils se manifestent à nous. Elle le fait en précisant notamment les caractéristiques de la lumière qu’ils absorbent ou émettent : lorsqu’un de leurs électrons* passe d’un état quantique à un autre, les atomes émettent ou absorbent un photon*[2].Son énergie est exactement égale à la différence d’énergie entre l’état de départ de l’électron et son état d’arrivée.
Pour qu’une interaction se produise entre ces particules (photon et électron), il faut que « quelque chose » s’échange entre elles, et ce « quelque chose » ne peut se réduire à rien. : il doit être au moins égal à un « quantum » du champ caractéristique de l’interaction considérée.
 
(14-15) La portée de la physique quantique
 
        elle ne concerne pas que l’échelle microscopique. Cela vient de ce que les lois quantiques gouvernent de façon sous-jacente la plupart des propriétés et des caractéristiques de processus ou des corps qui nous environnent (processus chimiques, gaz et liquides, solides, métaux et isolants, supra-conducteurs*…).
Même la vie, dans la mesure où elle dépend de processus physico-chimiques au niveau de la molécule d’ADN, ne pourrait être décrite.
        elle va néanmoins bien au-delà du seul domaine cognitif et explicatif. Depuis une cinquantaine d’années, ses applications pratiques sont innombrables, qui vont du laser* à la cryptographie* en passant par la communication, les sciences des matériaux, l’électronique (y compris quantique) et demain des nanotechnologies.
 
(16) L’interprétation physique de la physique quantique
 
Dès 1927, date de l’Interprétation de Copenhague*, est apparue la préoccupation des physiciens de cette interprétation. Ils essaient de comprendre en quoi cette physique consiste ; ils discutent les règles selon lesquelles il convient de l’utiliser et certains d’entre eux s’interrogent sur le type de discours qu’elle autorise ou interdit. On traite, ce qui est très singulier du lien entre : 
        le formel et le réel,
        le virtuel et l’actuel,
        le possible et l’effectif,
        le hasard et le déterminé.
De par sa structure même, elle interroge la relation entre le monde physique et sa représentation mathématique et fait germer à la couture de la physique et de la philosophie, des questions fascinantes.
Le concept même de « réel » est vite devenu sujet à discussion. À l’échelle microscopique, la réalité des chosesne peut aller sans dire, d’où les joutes terribles qui ont agité les cercles de physiciens pendant plusieurs générations comme si l’esprit humain avait dû se battre pour appréhender ce qu’il avait lui-même construit. Certes la physique quantique proprement dite ne saurait être appréhendée sans un secours appuyé à l’abstraction et aux mathématiques.
(17) Mais l’essentiel du bouleversement conceptuel tient dans le simple fait qu’elle utilise de façon systématique l’addition.Finalement les difficultés liées à son interprétation n’ont pas empêché la mécanique quantique de devenir, comme la relativité, une théorie cadre dont les principes sous-tendent presque toutes les branches de la physique moderne. Elle est d’une efficacité opératoire qui va de la physique des particules à l’astrophysique en passant par la physique nucléaire, l’électronique, la physique atomique et la physique des solides. Si certaines de ces prédictions semblent ahurissantes, aucune d’entre elles n’a été démentie par l’expérience. Tout au plus pense-t-on qu’une nouvelle physique (par exemple la théorie des supercordes*) capable – contrairement à la physique quantique –, d’intégrer la gravitation, pourrait avoir eu cours dans la première phase de l’univers primordial.
(18) C’est qu’un « hiatus » irréductible persiste : l’incompatibilité structurelle entre la relativité générale d’Einstein, théorie qui décrit la gravitation et met en scène un espace-temps souple et dynamique et la physique quantique qui ne s’accommode que d’un espace-temps « banal », c’est-à-dire plat, absolu et rigide.
En attendant que ce « hiatus » puisse être résolu, il reste à s’appuyer sur la représentation géométrique que nous nous faisons des objets ou des phénomènes qui se produisent dans l’espace-temps de la physique quantique.
 
1/ LA FAILLITE DES CONCEPTS FAMILIERS
 
(20) Rappelons que la physique classique distingue essentiellement deux sortes d’objets, en un sens opposés : les corpuscules d’une part, les ondes d’autre part. Les corpuscules sont des entités punctiformes, c’est-à-dire localisées dans une région très restreinte de l’espace tels des grains de sable dont on tenterait de réduire la taille à zéro ; ils décrivent des trajectoires nettes le long desquelles, à tout instant, leur position et leur vitesse sont bien déterminées. Les ondes, au contraire, ne sont pas précisément localisées : elles occupent sinon tout l’espace, du moins une certaine étendue spatiale et n’ont pas plus de trajectoire que la houle de l’Atlantique venant frapper les côtes bretonnes. D’autres aspectsdistinguent les ondes des corpuscules. Les ondes ne transportent rien, elles ne font que transmettre de l’énergie et de l’information.
(21) Donnons quelques exemples : lorsqu’une vague progresse sur la mer, l’eau ne se déplace pas vers l’avant, son mouvement ne se faisant que de haut en bas et de bas en haut ; en fait, ce sont les sommets et les creux de ce mouvement qui, en se déplaçant, nous donnent l’illusion que l’eau avance avec la vague (un objet flottant, lui, ne s’y trompe pas, qui monte et descend au rythme des vagues mais ne progresse pas). Autre différence, capitale celle-là pour la suite : les ondes sont capables de se « superposer », du moins si elles sont de même nature physique (électromagnétique, acoustique…). Cela signifie que la somme de deux ondes de même type a un sens physique parfaitement défini. Si nous agitons un bâton dans l’eau à un certain endroit d’un étang, celui-ci devient le centre d’un système d’ondes concentriques.
(22) Si un autre bâton est agité à un autre endroit, il est créé un autre système d’ondesdont le centre est ailleurs. Les deux systèmes d’ondes viennent à se combiner. L’onde résultante, qui est aussi un mode d’oscillation de la surface de l’étang n’est autre que la superposition des deux premières. Elle s’obtient en faisant l’addition en chaque point de l’étang des amplitudes des ondes composantes. Cette propriété de pouvoir s’additionner, le cartel des ondes la détient en exclusivité : deux corpuscules (ou deux petites boules) seraient incapables de se superposer.
Pour chaque phénomène physique, la question se pose : appartient-il au camp des ondes ou à celui descorpuscules ? C’est à propos de la lumière que cette interrogation a atteint la plus dramatique intensité, notamment au XIXe siècle et au début du XXe. La lumière est-elle un corps spécifique ou est-elle le mouvement spécifique d’un corps ?
 
Expérience « des deux fentes », quintessence de l’étrangeté quantique
 
(23)Une expérience aussi simple que célèbre, dite « des deux fentes [3] », dont Richard Feynman[4] disait, à juste titre, qu’elle résumait à elle seule la quintessence de l’étrangeté quantique, montre en définitive que, pour la lumière aussi bien que pour tout autre objet microscopique, ces deux approches sont simplistes et insuffisantes. Il faut impérativement les dépasser.
Pour nous en convaincre,
–[a] Imaginons une machine lançant des billes vers un mur percé de deux fentes parallèles et proches l’un de l’autre comme indiqué sur la figure (1). Supposons qu’elle propulse les billes à la même vitesse mais dans des directions quelconques. Un peu plus loin, disposons des boîtes destinées à recevoir les billes ayant franchi le mur. La plupart des billes sont retenues par le mur. D’autres passent par la première ouverture ou par la seconde, soit directement, soit en ricochant sur l’un des bords.
 
Figure (1)
 

mondequantiquefig1.jpg

 
Si, après avoir lancé un grand nombre de billes, on compare celle récupérée dans chacune des boîtes, on obtient un échantillonnage qui indique la variation de la probabilité avec la position du point d’impact. Le nombre total de billes dans une boîte particulière est la somme de celles entrées par la fente 1 et de celles passées par la fente 2.
(24) Autrement dit la probabilité P12 qu’une bille arrive dans une certaine boîte est la somme de la probabilité P1 qu’elle y arrive lorsque seule la fente 1 est ouverte (billes blanches sur la figure) et de la probabilité P2 qu’elle y arrive lorsque seule la fente 2 est ouverte (billes noires) :
P12 = P1 + P2
Cette addition traduit un fait simple. Pour arriver dans une boîte donnée, une bille se voit ouverte deux possibilités, et deux seulement : elle passe soit par le fente de droite, soit par la fente de gauche.
 
          [b] Retenons la même expérience avec des ondes, cette fois, par exemple des vagues à la surface de l’eau.
(25) Le mur percé de deux fentes devient une digue ouverte en deux endroits et les boîtes sont remplacées par des bouées qui s’élèvent et s’abaissent au rythme des vagues.
–  Laissons la fente 1 ouverte et maintenons la fente 2 fermée. Les amplitudes d’oscillation des différentes bouées sont indiquées sur la figure (2).
En revanche, si la fente 1 est fermée, nous obtenons un autre profil, lui aussi indiqué sur la même figure (2).
– Enfin, si les deux fentes sont laissées ouvertes, nous découvrons un profil très différent de celui obtenu avec les billes. Apparaissent ce qu’on appelle des interférences : Certaines bouées demeurent pratiquement immobiles. Car lorsque le
 
Figure (2)
 
mondequantiquefig2.jpg
 
train d’ondes qui provient la fente 1 rencontre celui qui provient de la fente 2 apparaissent certains points où les ondes sont toujours en « opposition de phase » ; l’une est à sa crête au moment où l’autre est à son creux et vice versa, de sorte que leur somme s’annule toujours en ces points par destruction mutuelle des amplitudes. En d’autres points, au contraire, les deux ondes s’ajoutent de façon constructive et, dans ce cas, l’amplitude résultante est le double de chacune d’elles. Ce phénomène d’interférence est la signature d’un comportement ondulatoire (les billes de l’expérience précédente n’interviennent pas). L’expérience des deux fentes apparaît ainsi comme le juge de paix capable de dire à quel genre d’objet nous avons affaire. Si elle donne lieu à des interférences, c’est que l’on est en présence d’ondes. Sinon, ce sont des corpuscules.
 
        [c] Reprenons l’expérience des deux fentes avec des électrons (voir figure (3)). Un canon à électrons envoie sur une plaque percée de deux fentes des électrons dotés de la même énergie. Le détecteur situé derrière cette plaque est recouvert d’un produit chimique qui blanchit au contact d’un électron. Dans ce type d’expérience, on ne sait pas par quelle fente les électrons passent. Nous conviendrons donc de les représenter moitié blancs, moitié noirs.
Si l’on s’imagine que les particules sont des corpuscules, l’on s’attend à retrouver le
même résultat qu’avec les billes.
 
Figure (3)
 
 mondequantiquefig3.jpg
 
Figure (4)
 
 
mondequantiquefig4.jpgMais, surprise, on observe sur l’écran des interférences, signature d’un comportement ondulatoire ! Diminuons l’intensité du canon de telle façon que les électrons n’en sortent qu’un à un, l’émission et l’impact de chacun étant séparés (dans le temps) de ceux du précédent et du suivant. On constate alors que chaque électron est capté en un point bien précis du détecteur. Il ne s’est pas « étalé » Le phénomène n’est donc pas purement ondulatoire. Chaque nouvel impact qui se produit sur l’écran accrédite l’idée que les électrons sont corpusculaires[5]. Mais prudence ! gardons-nous de conclure trop vite, car, petit à petit, à mesure sue s’accumulent les impacts d’électrons, se reconstruit sur l’écran le système de franges d’interférences quenousavionsobtenulorsqueles électrons étaient envoyés en grand nombre. Ils ne sont doncpasdesimplescorpuscules puisqu’ils forment des interférences, lorsqu’ils arrivent en grand nombre. Ils ne sont pas non plus des ondes pures puisqu’ils sont individuellement détectés comme de petites taches (qui finissent par tracer, en s’accumulant, une figure d’interférence). Un objet peut-il n’être ni une onde ni un corpuscule, le « contraire » d’une onde ?
Rassemblons nos idées. Puisquel’on envoie des électrons un à un, il s’agit de phénomènes indépendants les uns des autres. Chaque électron, s’il était un corpuscule devrait forcément passer par l’une des fentes, et le fait que l’autre soit fermée ou ouverte ne devrait pas avoir d’influence sur son comportement.
Si cette hypothèse était exacte, nous pourrions alors, par la pensée, séparer les électrons en deux lots bien distincts (ceux passés par la fente 1, ceux passés par la fente 2)  : pour les électrons passés par la fente 1, tout devrait se dérouler comme si la fente 2 était fermée et réciproquement. Il devrait donc y avoir en tout point un nombre d’électrons égal à la somme de ceux passés par la fente 1 et du nombre de ceux passés par la fente 2, c’est-à-dire une comptabilité identique à celle qui avait été obtenue avec les billes.
L’expérience montre qu’il n’en est rien : les états (ouvert ou fermé) des deux fentes conditionnent la distribution spatiale sur l’écran ; curieusement, ouvrir une seconde fente, c’est-à-dire offrir une possibilité de passage supplémentaire à l’électron, c’est l’empêcher d’arriver à certains endroits puisque apparaissentalors des franges sombres qui sont autant de zones interdites !
 
Figure (5)
mondequantiquefig5.jpg
 
Un point de notre raisonnement était donc erroné Lequel ? Dans l’expérience précédente, nous ne pouvions pas dire par quelle fente chaque électron était passé. Reprenons-la, mais en nous attachant à déterminer par quelle fente chaque électron passe. Plaçons donc une source de lumière derrière la plaque et arrangeons-nous pour que, lorsque l’électron passe par une fente, de la lumière soit détectée en provenance de la fente en question (voir Figure 5). Grâce à ce dispositif, on peut marquer les électrons : en blanc, ceux passées par la première fente, en noir, ceux passés par la seconde.
         Fermons d’abord la fente 2 : les électrons blancs se répartissent alors comme l’auraient fait des billes.
        Fermons ensuite la fente 1 et rouvrons la 2. Les électrons noirs se répartissent symétriquement par rapport aux électrons blancs.
        Ouvrons maintenant les deux fentes. Nous n’observons plus d’interférences !
Qu’est-ce à dire ? Si nous cherchons à savoir par quelle fente chaque électron est passé, nous retrouvons un comportement identique à celui des billes. Alors, qu’est-ce qu’un électron ?
Résumons-nous méthodiquement. Si l’on fait en sorte de déterminer par quelle fente les électrons passent, on n’observe plus d’interférences. Tout se produit comme s’il s’agissait d’une autre expérience que celle réalisée précédemment sans éclairage des fentes.
Réciproquement, si l’on observe les interférences, il devient impossible de répondre à la question : « par quel trou est passé l’électron ? » Notre erreur se nichait donc là ; contrairement à ce que nous avions envisagé, il n’est pas permis de supposer qu’on peut simultanément observer les interférences et identifier la fente empruntée par chaque électron.
 
Les leçons de l’expérience
 
(32 à 37) Les leçons de cette expérience valent pour toutes les entités appelées « particules », qu’il s’agisse de lumière (photons) ou de matière (électrons, protons*, neutrons*, atomes…) ; d’où leur importance.
        Première leçon : nous ne pouvons plus imaginer que la particule de l’expérience est un corpuscule puisque cette représentation mène à une contradiction irréductible. Un corpuscule devrait passer par l’une des deux fentes du dispositif, et l’état – ouvert ou fermé – de l’autre devrait lui être indifférent. Ce n’est pas ce que nous observons. Il nous faut par ailleurs admettre que les propriétés que nous attribuons à une particule dépendent des caractéristiques du dispositif dans lequel elle évolue. Si nous utilisons un appareillage permettant de distinguer les chemins, c’est son aspect corpusculaire qui apparaît.
        Deuxième leçon : d’après nos observations, les particules interféraient lorsque nous ne cherchions pas à savoir par quelle fente elles sont passées. Dans le cas contraire, la figure d’interférence est brouillé. Puisqu’il n’est pas possible, dans un premier temps, de traduire cela autrement qu’avec des mots approximatifs, disons que la mesure semble avoir « défini » leur trajectoire au sens où elle a imposé leur passage par une seule fente. Toute mesure apparaît ainsi comme une interaction entre l’objet microscopique sur lequel on effectue cette mesure et l’appareil de mesure qui ne peut être que macroscopique. Cette interaction empêche de faire la part entre ce qui revient en propre à l’objet et ce qui revient en propre à l’appareil de mesure, comme si les propriétés des particules ne pouvaient plus être détachées des conditions de leur manifestation. Selon Niels Bohr, l’un des pères fondateurs de la physique quantique les objets quantiques ne possèdent aucun attribut propre. Ils constituent de fait des entités inséparables de leurs conditions d’observation.
La physique quantique a obligé à reconsidérer la prétendue neutralité de l’opération de mesure qui prévalait dans la physique classique, car tout type de calcul est rendu impossible. Dès lors, quel sens cela a-t-ilde parler des propriétés d’un objet microscopique tant qu’aucune mesure n’a été effectuée sur lui ?
        Troisième leçon : une expérience apparaît nécessairement partiale et finalisée. Ses modalités pratiques mettent en place les conditions qui définissent une gamme de phénomènes possibles.
– Si on pose une question de nature ondulatoire à une particule par exemple (en la faisant diffracter à travers des fentes), sa réponse sera de nature ondulatoire ; on obtiendra des interférences (même si les points d’impact qui construisent progressivement ces interférences empêchent qu’on oublie tout à fait l’aspect corpusculaire).
– Si on lui pose une question de nature corpusculaire (en cherchant à la détecter, par exemple, avec un écran fluorescent), sa réponse sera de nature corpusculaire ; son impact sur l’écran sera bien localisé.
La nature des appareillages utilisés détermine donc le type des phénomènes observé. Aucune expérience ne montre une particule se comportant simultanément comme une onde et comme un corpuscule, mais il semble nécessaire d’invoquer ces deux images, quitte à les combiner pour traduire l’ensemble des résultats des expériences possibles.
        Quatrième leçon : la notion de trajectoire, s’effondre littéralement,– elle qui est si importante en physique classique. En effet, observant les interférences, il nous est impossible de prétendre suivre les particules individuellement et constamment dans l’espace. Il n’est même pas possible de leur attribuer en pensée, dans l’intervalle séparant deux mesures, une trajectoire bien définie, c’est-à-dire de les imaginer occupant à chaque instant un lieu précis.
        Cinquième leçon : rien ne garantit que nous pourrons calculer autre chose que la probabilité, pour la particule de semanifester en tel ou tel endroit de l’écran. Ce qui pose la question de savoir si le déterminisme classique devra être abandonné au niveau microscopique.
 
2/ VERS UNE NOUVELLE REPRÉSENTATION DES OBJETS PHYSIQUES
 
(39) Redison-le : toutes les particules qu’elles soient de lumière ou de matière manifestent tantôt des aspects ondulatoires, tantôt des aspects corpusculaires, mais elles ne sont ni des ondes ni des corpuscules. Comment rendre compte de cette ambiguïté phénoménale ? Une première piste, développée et argumentée par le danois Niels Bohr en 1927 a consisté à dire que ces deux aspects des objets quantiques (ondulatoire et corpusculaire) sont complémentaires. Cette notion, en vérité délicate à saisir, était fondée sur l’idée que les formes d’expression de la physique « classique » sont indépassables dès lors qu’il s’agit de rendre compte de la physique « quantique ».
(40) Elle est vite devenue le pôle de discussions de la première partie du XXe siècle, divisant l’ensemble de ses pères fondateurs : Planck, Schrödinger, Einstein, de Broglie s’y opposèrent ; Heisenberg, Pauli, Born, Dirac, l’acceptèrent – au moins pendant un temps – avec plus ou moins d’enthousiasme.
(43) De fait au cœur du territoire quantique, les images classiques, même nouvellement associées les unes aux autres, perdent bel et bien toute pertinence. Une simple retouche de leurs relations mutuelles, aussi subtile soit-elle, ne suffit donc pas. Il faut en plus faire preuve de créativité afin d’inventer, sinon une nouvelle logique, du moins de nouveaux concepts, ceux que la physique quantique a en propre et dont, par conséquent, il n’existe pas de contre-partie en physique classique. Posons-nous donc la question :
 
Comment représenter mathématiquement les objets quantiques
 
(44 à 46)) Il y a manifestement dans le comportement de l’électron un aspect qui ressortit au registre ondulatoire. Comment expliquer les interférences quand l’expérience est réalisée par des vagues ? En chaque point de la surface de l’eau, la hauteur de la vague résultante est la somme de la hauteur de la vague qui parvient de la fente 1 et de celle qui parvient de la fente 2. Il doit y avoir quelque chose de semblable dans le cas des électrons, du moins avant qu’ils soient détectés sous la forme d’impacts localisés. On doit donc pouvoir leur associer une sorte d’onde. Mais aussitôt une question se pose : qu’est-ce qui, pour cette onde, est l’équivalent de ce qu’est la hauteur pour une vague ? C’est ce que les physiciens appellent une « amplitude de probabilités »*. Le mot amplitude intervient là pour rappeler le schéma ondulatoire, et le mot probabilité préjuge de l’interprétation qui sera donnée plus tard du formalisme. Une amplitude de probabilité n’est rien d’autre qu’un nombre complexe* dont la valeur est fonction des coordonnées d’espace et de temps de même que la hauteur d’une vague dépend de la position et du temps.
Soit a1 l’amplitude de probabilité correspondant au cas où seule la fente 1 est ouverte. Considérons pour l’instant qu’elle constitue la représentation symbolique d’une particule passant par cette fente, et admettons qu’on puisse la calculer à partir de la configuration de l’expérience. Faisons ensuite l’hypothèse que la probabilité P1 que l’électron apparaisse en un point M de l’écran est donnée par le module au carré de a1 calculée au point M.
Soit a2 l’amplitude de probabilité correspondant au cas où seule la fente 2 est laissée ouverte. De la même manière, la probabilité P2 que l’électron apparaisse en un point M de l’écran est donnée par le module au carré de a2, a2étant là aussi calculée au point M.
P1 = |a1|2 et P2 = |a2|2
Que se passe-t-il si les deux fentes sont ouvertes ? Considérons que, au lieu d’ajouter les probabilités associées aux deux trajets possibles, nous ajoutions plutôt les amplitudes de probabilité, de même que nous avions ajouté les hauteurs des vagues dans l’expérience pratiquée avec de l’eau. Dès lors, la probabilité P12 pour qu’un électron se manifeste au point M de l’écran devient :
P12 =|a1 + a2|2
Or le carré d’une somme n’est pas égale à la somme des carrés. Conséquence, la probabilité P12 n’est pas égale à la somme des probabilités P1 er P2obtenues chacune lorsqu’une fente seulement est ouverte. En particulier, aux endroits pour lesquels a1 et a2 sont opposées, la probabilité P12 qu’un électron s’y manifeste devient nulle. Ces endroits, ce sont précisément les franges sombres où nul électron n’apparaît : ils sont très exactement l’équivalent des lieux où, dans l’expérience faite avec des vagues, une vague « en creux » rencontre une vague « en bosse », de sorte que la surface de l’eau reste immobile. Dans ce cas, les termes croisés qui interviennent (2a1. a2) dans le développement de |a1 + a2|2 et qui sont responsables des interférences viennent exactement neutraliser la somme P1 + P2 des probabilités partielles.
Ainsi, par tâtonnement avons-nous obtenu un mode de description qui rend compte, en termes probabilistes, du fait que les électrons lorsqu’ils sont nombreux, sont capables de produire des interférences.
 
3/LE PRINCIPE D’HEISENBEG OU PRINCIPE D’INDÉTERMINATION
 
 
(48) Les propos qui vont suivre ne valent pas démonstration : ils ne sont que des compromis aidant à diffuser les parfums essentiels d’un principe important. Mais il faut savoir que ce principe est démontrable de façon rigoureuse à partir d’une caractéristique des « opérateurs » que le formalisme quantique associe à chaquetype de mesure : leur non-commutativité*. Il nous suffira de retenir que ce terme savant traduit la dépendance des résultats expérimentaux à l’égard de l’ordre chronologique dans lequel on utilise divers appareillages : mesurer la position d’une particule puis sa vitesse, n’équivaut pas à mesurer d’abord sa vitesse puis sa position.
(52)La bonne façon d’interpréter le principe d’Heisenbergconsiste non pas à dire qu’il est impossible de déterminer simultanément la position et l’impulsion des particules, mais bien plutôt à affirmer que ces dernières ne possèdent jamais ces deux attributs simultanément. Plus précisément encore, la représentation formelle que la physique quantique se fait des particules ne leur attribue jamais ces deux caractéristiques à la fois. Affectés au même moment à un objet donné, ces deux concepts n’ont plus de sens. Quant à la notion de trajectoire définie comme la juxtaposition à tout instant d’une vitesse et d’une position, elle
n’a plus de sens.
 
Indétermination n’est pas imprécision
 
(52-53) Tout cela montre – une fois de plus – qu’il est illégitime de prétendre caractériser les objets quantiques par les attributs des corpuscules classiques. Il nous faut changer de langage et inventer un nouveau système de représentation. Les particules n’ont rien à voir avec les petites boules auxquelles on les assimile souvent. Le principe de Heisenberg peut d’ailleurs se lire somme une limitation de la représentation corpusculaire des particules : il indique précisément jusqu’où on peut aller trop loin avec les concepts classiques. Mais contrairement à ce qui est souvent dit, le principe d’Heisenberg n’est pas une limitation de notre pouvoir de connaître puisque l’indétermination qu’il évoque n’est liée ni à l’imperfection du système expérimental ni à une quelconque restriction de nos capacités de mesure. Elle n’est nullement le reflet ou l’effet d’une imprécision ou d’une incertitude de l’opération de mesure elle-même[6] : dans le cadre quantique, la position ou l’impulsion peuvent être mesurées avec une précision aussi grande que voulue, comme en physique classique.Simplement ces mesures faites sur des systèmes physiques (par exemple des particules) préparés dans les mêmes conditions (et donc décrits de la même façon) ne donneront pas toutes les mêmes résultats.Les résultats obtenus sont chaque fois bien définis mais différents d’un système à l’autre, se répartissant de part et d’autre d’une valeur moyenne, c’est-à-dire statistiquement « dispersés ».
Imaginons maintenant que nous préparions un très grand nombre de systèmes identiques, par exemple des électrons dans un état physique bien défini, le même pour tous. Sur les uns, par exemple la moitié du total, effectuons une mesure de position. Les résultats obtenus diffèreront et seront caractérisés par une certaine dispersion autour d’une valeur moyenne. Sur les systèmes de l’autre moitié, effectuons une mesure d’impulsion. Les résultats seront eux aussi dispersés.
Appliqué à cette situation, que dit le principe d’Heisenberg ? Il énonce que le produit de la dispersion sur la mesure de la position par la dispersion sur la mesure de l’impulsion ne peut jamais être nul : il est nécessairement supérieur ou égal à un certain nombredivisé par 4 π.
 
Le nombre qui fait obstacle à la physique classique et à ses images corpusculaires
 
(54-55) On l’appelle la constante de Planck : on le note h et il vaut 6,622. 10–34Joule.seconde. Il fut introduit par une annonce faite à l’Académie des sciences de Berlin par le physicien allemand Max Planck le 14 décembre 1900.Son mémoire traitait d’un problème en apparence marginal, celui du spectre d’un corps noir. De quoi s’agissait-il ? À la fin du XIXe siècle, les physiciens en étaient venus à s’intéresser de très près au rayonnement émis par les corps qu’on échauffe, qui passent au rougeâtre d’abord, puis au rouge vif, ensuite au jaune, puis au blanc au fur et à mesure que la température augmente et ils désiraient en expliquer les caractéristiques à partir des propriétés de la matière avec laquelle ce rayonnement interagit. Les calculs classiques, non seulement ne donnaient pas un résultat conforme aux observations mais ils faisaient apparaître une quantité infinie, donc inacceptable : le spectre du rayonnement d’un corps noir y apparaissait tel que la quantité d’énergieémise à une fréquence donnée devait augmenter indéfiniment avec la fréquence de sorte que l’énergie totale rayonnée devait être elle-même infinie. Cette contradiction, la fameuse « catastrophe ultraviolette », fut jugée inacceptable et amena Planck à postuler « dans un acte de désespoir » que, contrairement à ce que supposait la physique classique, les échanges d’énergie entre le rayonnement et la matière ne pouvaient se faire que par paquets discontinus, les quanta[7]
Depuis sa mise en évidence cette constante n’a cessé de gagner en universalité, au point de devenir une véritable constante universelle de la physique. Elle est aussi l’emblème du monde quantique. Que représente-t-elle ? La plus petite « action » qui puisse être. Qu’est-ce que l’« action » ? Une grandeur physique qui correspond au produit d’une longueur par une impulsion ou ce qui revient au même, au produit d’une énergie par une durée. L’existence de la constante de Planck, action minimale, signifie donc qu’il ne peut y avoir interaction entre deux systèmes que s’ils échangent « quelque chose »et que ce « quelque chose » ne peut pas être réduit à rien. La valeur numérique de h a beau sembler minuscule (mais par rapport à quoi ?), son importance est cruciale puisque c’est d’elle que le monde quantique tire son étrange spécificité ; un monde dans lequel la constante de Planck serait nulle serait bêtement classique, tout comme un univers dans lequel toutes les actions seraient très grandes.
 
Heisenberg au secours des atomes
 
(56-57) Mais revenons au principe de Heisenberg pour signaler une de ses conséquences, celle de rendre notamment la stabilité des atomes. Nous avons vu qu’un atome s’il était un système descriptible selon les lois de la physique classique, ne pourrait faire autrement que de s’effondrer, l’électron venant percuter le proton . Comment le principe de Heisenberg vient-il contrecarrer un tel scénario ? Lorsque l’électron chute sur le proton, l’énergie potentielle (électrique) décroît vers des valeurs de plus en plus basses à mesure que la taille du système diminue, alors que l’énergie cinétique*, indépendante, peut devenir arbitrairement faible. L’énergie totale définie comme la somme de l’énergie cinétique et de l’énergie potentielle peut devenir elle-même arbitrairement faible, de sorte que l’effondrement de l’atome devient inévitable.
Le principe de Heisenberg parvient, quant à lui, à expliquer la stabilité de l’atome, l’absence d’effondrement, donc, par la relation qu’il établit entre énergie potentielle et énergie cinétique, qui cessent donc d’être indépendantes l’une de l’autre. Comment cela ? Si l’électron se rapproche du proton, et reste confiné dans son immédiat voisinage, sa position devient mieux déterminée. Mais dans ce cas, son impulsion devient, par contrecoup du principe de Heisenberg, moins bien déterminée, au point de pouvoir prendre une valeur élevée. Conclusion : lorsqu’il se rapproche du proton, l’électron voit son impulsion – et donc son énergie cinétique – augmenter, tandis que son énergie potentielle devient de plus en plus négative. Arrive un moment où l’augmentation de l’énergie cinétique finit par excéder la diminution d’énergie potentielle provoquée par le rapprochement de l’électron et du proton. Il n’est alors plus possible de diminuer l’énergie totale de l’électron, somme d’un terme qui croît et d’un autre qui décroît. Un niveau d’énergie existe donc en deçà duquel l’électron ne peut plus descendre, de sorte qu’il lui devient impossible de se jeter sur le proton. Ce niveau d’énergie particulier est appelé état fondamental de l’électron, celui dans lequel son énergie est minimale.
 
4/ LE PRINCIPE DE SUPERPOSITION OU LA QUINTESSENCE DU FORMALISME
 
(67) La physique quantique, a-t-il déjà été dit, repose sur un arsenal mathématique extrêmement rigoureux, ce qu’on appelle un formalisme. Toute la question est de savoir sur quoi ce formalisme porte et de quelle sorte de réalité il nous parle.
Nois savons par expérience qu’il existe plusieurs types d’ondes et il a été rappelé une propriété qui leur est commune à toutes indépendamment de la matière de leur support : elles sont capables de se superposer. Cela signifie que la somme de deux ondes est encore une onde. Cette propriété formelle qu’on appelle le « principe de superposition », traduit en quelque sorte la quintessencedu concept d’onde. La physique quantique va la reprendre et la généraliser afin de lui donner une portée beaucoup plus vaste.
 
Le concept d’état et celui de vecteurs d’état
 
(68 à 71)Un système physique, par exemple, une particule, se définit par un nombre de caractéristiques qui sont identiques pour tous les systèmes du même type. C’est ainsi que tous les électrons, où qu’ils soient et dans quelque environnement qu’ils se trouvent, ont rigoureusement la même ; masse et la même charge électrique. Mais en plus de ces caractéristiques universelles, les électrons se voient attribuer des quantités qui elles peuvent varier de l’un à l’autre. Ce sont par exemple la position ou la vitesse. L’ensemble de ces quantités forment en physique classique ce qu’on appelle l’«état », dont l’évolution temporelle est fixée par la loi fondamentale de la dynamique de Newton. À l’évidence cette conception est de nature géométrique, au sens où sa description est directement réalisée dans notre espace euclidien : l’état de la particule précise en quelque sorte sa manière d’être dans l’espace, ou la forme qu’y revêt sa réalité, et l’on y accède par des mesures de diverses grandeurs physiques. On devine que ce concept d’état défini ici pour une simple particule, peut être aisément généralisé pour tous les systèmes physiques.
La question est : comment doit-on représenter l’équivalent de cet état en physique quantique ?
Revenons donc à l’expérience des deux fentes et du commencement d’explication qui lui a été donné. Formalisons-le davantage en décidant de représenter n’importe quel système physique par des entités, notées pour le moment a,b,c…, dont nous n’exigerons que deux propriétés :
        1) d’abord, que l’on sache additionner ces entités entre elles de façon à obtenir une identité du même type. Autrement dit, si a et b sont deux états possibles d’un certain système, l’état (a + b) est lui aussi un état possible de ce système. Nous ne faisons ainsi que généraliser le principe de superposition en l’appliquant non seulement aux ondes, mais aussi à n’importe quel système physique. La règle de l’addition devient en quelque sorte universelle ;
        2) ensuite, que l’on sache multiplier cesentités par un nombre quelconque. Pourquoi ? Parce que l’on peut, lorsqu’on a affaire à des ondes, parler d’une onde double ou triple d’une onde donnée.
En mathématiques, les entités qui satisfont à ces deux propriétés sont des vecteurs. Et l’ensemble qu’ils forment s’appelle sans surprise un espace vectoriel*. Désormais, nous appellerons donc les entités a, b, c qui représentent les divers états possibles des systèmes physiques des vecteurs d’état* (même si une ancienne terminologie, plus concrète mais de moindre portée, parle plutôt de fonctions d’onde). Ces vecteurs d’état sont précisément ce par quoi le formalisme quantique choisit de représenter les états physiques des systèmesIls sont des fonctions de l’espace et du temps.
Cette description des états physiques par des vecteurs d’état (ou si l’on préfère, l’affirmation équivalente que le principe de superposition leur est applicable)est l’idée fondamentale de la physique quantique. En somme, elle exige l’addition pour tout le monde. Il est remarquable qu’un postulat aussi simple, enfoui au fin fond d’un formalisme par ailleurs labyrinthique, ait conduit à des progrès aussi considérables dans le domaine de la physique. Grâce à lui, de très nombreux phénomènes incompréhensibles en physique classique ont pu être décrits de façon élégante et synthétique. Par exemple si la liaison chimique existe, c’est parce qu’un électron peut être localisé à la fois sur plusieurs atomes, comme « suspendu » entre plusieurs positions, conformément à ce qu’exige le principe de superposition de même que dans une molécule diatomique certains électrons, dits de valence, sont à la fois du côté gauche et du côté droit de la molécule, même si cette possibilité semble a priori saugrenue. Tout aussi singulier est le fait que ce sont justement les conséquences philosophiques du principe de superposition qui ont suscité les difficultés d’interprétation de la physique quantique et engendré certaines réticences à son encontre.
 
Les difficultés d’application du principe de superposition à des objets « usuels »
 
(71-72) On devine en partie l’origine de ces difficultés. Le formalisme de la physique quantique opère au sein d’espaces vectoriels abstraits (dits de Hilbert) qui peuvent avoir un nombre infini de dimensions et sont de fait fort éloignés de l’espace physique dans lequel ont lieu les évènements que ce formalisme prétend décrire. Cette émancipation vis-à-vis des de l’espace physique ordinaire instaure donc une distance entre la représentation des phénomènes et les phénomènes eux-mêmes, distance au sein de laquelle viennent s’engouffrer toutes sortes de questionnements inédits.
Comme l’ont vite remarqué Einstein et Schrödinger (dès 1935), le principe de superposition devient très dérangeant si on s’amuse à l’appliquer à des objets usuels », c’es-à-dire observables à notre échelle. C’est pourquoi, dans le but de rendre manifestes les aspects paradoxaux de ce principe fondateur de la physique quantique, ils inventèrent chacun une expérience de pensée. Einstein prit l’exemple, (aujourd’hui oublié[8]) d’un baril de poudre en érar d’instabilité chimique et couplé à un atome radioactif, de telle sorte que la désintégration de l’atome libère une énergie suffisante pour déclencher l’explosion de la poudre. L’instant de la désintégration ne pouvant être prédit que de façon probabiliste, le vecteur d’état de l’atome s’écrit comme la superposition de l’état atome désintégré et de l’état atome non désintégré. Quant au vecteur d’état du baril de poudre, il s’écrit, lui aussi, sous la forme d’une superposition, cette fois des états baril explosé et baril non encore explosé. Or, de tels états superposés ne s’observent jamais dans le monde macroscopique auquel appartiennent indéniablement les barils de poudre : soit ils ont déjà explosé complètement, soit ils n’ont pas encore explosé du tout.
Schrödinger, lui, eut beaucoup plus de succès, en choisissant comme « objet » usuel un être vivant, qui a fait couler beaucoup plus d’encre que le baril de poudre d’Einstein. Il prit en effet l’exemple d’un malheureux chat, dit « chat de Schrödinger »*, à la démarche sinon ondulatoire, du moins « ondulante », qu’un dispositif diabolique prépare dans un état superposé décrit au « Glossaire ».
 
Comment rendre compte d’un état superposé
 
(75 à 78)) Soit une particule élémentaire indivisible, un électron par exemple, susceptible d’exister dans deux états différents. Le premier état sera représenté par le vecteur d’état a, le second par vecteur d’état b. Ces vecteurs d’état spécifient l’état interne de la particule, par exemple son état de spin* (le spin est une propriété interne des particules, analogue mais non identique au concept de rotation sur soi-même). Supposons que cette particule venant de la gauche pénètre et suive un canal I dans l’appareil schématiquement représentépar la figure ci-dessous. Cet instrument est lui-même conçu de telle sorte que par l’entremise de dispositifs non représentés sur la figure, la particule soit dirigée dans le canal A si elle se trouve dans l’état interne aet dans le canal B, si elle se trouve dans l’état b. En conséquence, si nous savons a priori que la particule est soit dans l’état a, soit dans l’état b, l’observation de sa position à la sortie nous apprend laquelle de ces possibilités est réalisée.
 
mondequantiquefig6.jpg
 
Mais nous avons oublié quelque chose : il nous faut décrire l’état de la particule du point de vue spatial, c’est-à-dire spécifier dans lequel des trois canaux I, A ou B elle se trouve. Pour ce faire, nous aurons également recours à des vecteurs d’état, cette fois désignés par les lettres majuscules I, A et B aves les vecteurs d’état internes a et b. Ainsi une particule qui se trouve dans l’état interne a, et qui est encore située dans le canal d’entrée I sera représentée par le produit aI. Avec ces notations, les effets de l’appareil évoqué plus haut peuvent être traduits par les formules suivantes :
aI → aA
blbB
Jusque-là tout est simple. Mais que dit maintenant le principe de superposition ? Que, puisque que a et b sont des états internes possibles de la particule (a + b) est aussi un état interne possible de la particule. On doit donc pouvoir préparer une particuledans cet état interne et l’envoyer ensuite dans le canal I. Son état complet sera alors (a+b)I).  Pour ce qui est de son vecteur d’état, la réponse est immédiate : on l’obtient en ajoutant membre à membre les deux relations précédentes :
(a+b)IaA+ bB
Mais quel sens donner au nombre aA + bB ? On voit qu’il mélange deux termes qui se rapportent, l’un au canal A, l’autre au canal B.Or, la particule ici décrite étant supposée indivisible, il n’est pas concevable qu’elle se répartisse – comme le ferait un fluide – entre les canauxAetB.D’ailleurs, si l’on cherche à détecter la particule en plaçant un instrument de mesure à la sortie de chacun des deux canaux, on l’observe soit en A, soit en B, mais jamais aux deux endroits simultanément.  
Une autre interprétation a priori possible consiste à dire que, dès qu’elle parvient à l’embranchement la particule se dirige soit dans A en prenant l’état interne a, soit dans B en prenant l’état interne b. Cela signifie (voir figure ci-dessous) qu’à ce moment-là la superposition des deux états a et b cesse de sorte que l’état interne de la particule est bien défini.
 
 
C’est soit, soit b, et non plus la somme des deux. Mais cette interprétation ne tient pas, ainsi qu’on s’en rend compte en en répétant la même expérience un grand nombre de fois et en combinant chaque fois les particules venant de A et de B dans un nouveau canal I’. L’état final est alors décrit pour un certain nombre de cas par aI’, et pour les autres cas par bI’. Autrement dit, nous aurions dans I’ un mélange de particules ayant toutes un état interne bien défini, une fraction d’entre elles dans l’état a, les autres dans l’état b. Or, on peut montrer qu’un tel mélange n’est pas identique à une population de particules qui seraient toutes dans l’état (a+b)I’. Il existe en effet des mesures qui donnent des résultats différents dans l’un et l’autre cas. Nous n’avons donc pas le droit de nous représenter par la pensée l’état de superposition quantique (a + b) comme un mélange ou une coexistence des états a et b. Qu’en est-il alors ? Personne ne le sait vraiment, et c’est ce qui rend la physique quantique si difficile à interpréter ? Elle nous dit simplement que si l’on répète un grand nombre de fois l’expérience originale à partir de l’état (a+b)Ien observant la particule à la sortie du dispositif, on la trouvera dans environ la moitié des cas dans l’état interne a et dans le canal A , et dans l’autre moitié dans l’état interne b et dans le canal B.
La physique quantique n’offre donc rien de mieux que des probabilités. D’une façon générale, elle indique seulement que si l’on effectue tel ou tel type de mesure on a telle ou telle probabilité d’obtenir tel ou tel résultat.
Mais tant que la mesure n’est pas faite, la grandeur censée quantifier la propriété physique dont il est question, n’est pas strictement définie, du moins si le vecteur d’état de la particule s’écrit comme la somme de plusieurs états.
 
La réduction du paquet d’ondes
 
(79 à 83) Juste avant la mesure, l’état de la particule était représenté par (aA + bB). Si on détecte la particule dans le canal A et dans l’état interne a, il faut admettre qu’aussitôt après cette mesure son vecteur d’état est devenu aA. Son état interne comme sa localisation sont dès lors bien définis. Cela signifie que la superposition quantique a été détruite parl’opération de mesure. La représentation mathématique de l’électron a été modifiée : d’une somme de deux termes elle est passée à un seul terme. La mesure a en quelque sorte contraint le vecteur d’état à perdre l’un de ses deux termes de façon aléatoire. On dit qu’il y a eu « réduction du paquet d’ondes, reprenant ainsi une expression qui fut utilisée pour la première fois par Heisenberg en 1927. La particule dont le vecteur d’état « emplissait » tout le volume de l’expérience apparaît soudainement localisée dans le canal A avec un état interne bien défini, comme si son vecteur d’état avait été changé instantanément en tout point de l’espace. Tout se passe comme si la mesure l’avait obligé à « prendre position » , au sens propre comme au sens figuré.
Mais corrélativement, on n’a aucune information sur les probabilités relatives qu’elle avait a priori d’être détectée en A ou B. Si c’est l’autre possibilité qui se réalise, c-a-d si la particule est détectée dans le canal B avec l’état interne b, son vecteur d’état aussitôt après la mesure est hB. Là encore, il y aura eu réduction du paquet d’ondes.
Le vecteur d’état antérieur à la mesure permet donc de connaître a priori les différents résultats de mesure possibles (et aussi la probabilité de chacun d’eux). Mais si l’on refait aussitôt après une seconde mesure on n’obtient aucune information supplémentaire sur l’état de la particule avant la première mesure. En définitive, il faut admettre que lorsqu’une particule est représentée par un vecteur d’état qui s’écrit sous la forme d’une somme de plusieurs termes, ses propriétés physiques sont indéterminées au sens où on ne peut pas leur attribuer une valeur bien définie qui soit certaine. Le vecteur d’état antérieur à la mesure contient seulement toutes les possibilités du système et il ne donne pas davantage que la probabilité que telle ou telle valeur soit sélectionnée au hasard à l’issue d’une mesure. Dès lors, comment parler des particules comme de choses « en soi » s’il faut effectuer des mesures pour que leurs propriétés soient bien définies ? A-t-on encore le droit de leur attribuer une réalité physique autonome indépendante de l’instrument d’observation ? On voit que le problème de la mesure en physique quantique incite à s’interroger sur ce que l’on entend au juste par réalité.
Bien que les prédictions soient toujours conformes aux observations, il n’empêche que la réduction du paquet d’ondes pose par ailleurs de redoutables problèmes d’interprétation. Songeons à une pierre. C’est un objet qui existe « pleinement » au sens où nous n’hésitons pas à lui attribuer des propriétés bien définies indépendantes de l’observateur. Les objets quantiques eux, ne semblent pas pouvoir être considérés de la sorte puisque leurs propriétés ne sont pas toujours déterminées antérieurementà la mesure qui en est faite. Ensuite, la question se pose de savoir de quoi procède la réduction du paquet d’ondes. Simple recette, règle plaquée sur le formalisme mathématique ou bien véritable effet véritable effet physique résultant de l’interaction entre l’objet mesuré et l’appareil de mesure ? Ces questions ont donné lieu, on s’en doute, et fait l’objet d’intenses controverse et fait l’objet de brillants travaux. Les situations burlesques aux yeux du physicien classique, celle du baril de poudre et du chat de Schrödinger inventées en 1935 en sont les exemples les plus célèbres.
 
L’incomplétude de la physique quantique
 
(84 à 87) En 1959, Louis de Broglie, troublé par la réduction du paquet d’ondes énonça un autre paradoxe qui porte son nom. Soit une boîte dans laquelle on a placé un électron. Avant de faire la moindre observation, la probabilité de trouver l’électron est à peu près la même partout dans la boîte, puisque le vecteur d’état qui le décrit prend place dans tout le volume de ladite boîte.
Supposons que nous scindionsla boîte en deux parties d’égal volume A et B grâce à une double cloison à glissière. Après cette opération le vecteur d’état se distribue sur chacune des boîtes A et B. Il indique seulement qu’il y a une chance sur deux soit trouvé dans la boîte A et une chance sur deux qu’il soit trouvé dans la boîte B.Laissons la boîte A à Saclay et emportons la boîte B à Chamonix. Ouvrons la boîte A, l’électron s’y trouve mesuré. Dès lors, on sait avec certitude que l’électron n’est pas dans la boîte B. Son vecteur d’état y est donc désormais nul. Il s’ensuit que l’électron était déjà dans la boîte A avant la partition et que le vecteur d’état dans B n’a pas été annulé par la mesure et qu’il n’y a jamais figuré.
Or, ce n’est pas ce que dit la physique quantique qui distribue le vecteur d’état de façon équitable – et donc la possibilité de présence – dans les deux boîtes.
Dès lors, si la physique quantique est complète, il faut admettre deux choses :
        d’une part, que le fait de déceler l’électron à Saclay a aussitôt anéanti – à distance ! – le vecteur d’état dans la boîte de Chamonix par le biais de la réduction du paquet d’ondes ;
        d’autre part que, tant que la mesure n’avait pas eu lieu, l’électron n’était pas localisé dans une seule boîte. Il hantait les deux boîtes tel un fantôme spatialement dilué.
Certains philosophes ont en tout cas tenté de rendre a posteriori les choses moins aberrantes en considérant que la physique quantique est en réalité incomplète du point de vue descriptif. Certes, elle permet de faire les bonnes prédictions (elle est donc prédictivement complète), mais selon eux, les vecteurs d’état par lesquels elle représente les états des systèmes physiques ne contiennent pas toute l’information : ils omettent de prendre en compte certains paramètres supplémentaires, les « variables cachées ».
En conclusion, les attributs que nous accordons aux objets de la réalité ne sont pas les mêmes selon la réponse que l’on apporte quant à la complétude de la physique quantique.
 
 
 
 
GLOSSAIRE
 
Amplitude de probabilité : nombre complexe qu’on associe à chacun des états possibles d’un système quantique. La probabilité qu’on obtienne un certain résultat lors d’une mesure se calcule en faisant d’abord en faisant la somme de toutes les amplitudes de probabilité susceptibles de conduire à ce résultat, puis en élevant au carré le module de cette somme.
 
Atome : entité composée d’un noyau (assemblage très compact de protons et de neutrons) et d’un nuage périphérique composé d’un cortège d’électrons.
 
Champ : entité décrite mathématiquement à travers l’espace et le temps, à la différence d’un corpuscule, localisé en un point précis de l’espace.
 
Chat de Schrödinger (paradoxe du) :Expérience de pensée qui fut inventée par Schrödinger en 1935, afin de rendre manifeste une situation déconcertante, les aspects paradoxaux d’une interprétation naïve du formalisme quantique. Imaginons, dit Schrödinger, un appareil capable de détecter l’émission d’une particule qu’un atome radioactif émet lorsqu’il se désintègre ; imaginons aussi une boîte et à l’intérieur de cette boîte, plaçons un chat ; ajoutons à tout cela un dispositif conçu de telle sorte que, si l’émission de la particule issue de la désintégration a lieu, un marteau s’abat sur une fiole contenant un gaz mortel et la casse, ce qui provoque aussitôt la mort du chat. Ces différents appareils étant mis en place, refermons la boîte.
Le vecteur d’état du système complet (boîte + chat + marteau + fiole) est très complexe puisque ce système contient un grand nombre de particules, mais il est nécessairement du type a + b. Plus précisément il est la superposition de l’étatatome désintégré + marteau baissé + fiole cassée + chat mort et de l’état atome non désintégré + marteau levé + fiole intacte + chat vivant. Tant qu’aucune observation n’a été faite, le chat est donc dans un état incertain, ni mort ni vivant. Pareille situation est difficile à concevoir du strict point de vue existentiel, mais la théorie de la décohérence est récemment venue l’éclaircir.
 
Cryptographie quantique:la cryptographie quantique consiste à utiliser les propriétés de la physique quantique pour établir des protocoles de cryptographie qui permettent d'atteindre des niveaux de sécurité qui sont prouvés ou conjecturés non attingibles en utilisant uniquement des phénomènes classiques (c'est-à-dire non-quantiques). Un exemple important de cryptographie quantique est la distribution quantique de clés, qui permet de distribuer une clé de chiffrement secrète entre deux interlocuteurs distants, tout en assurant la sécurité de la transmission grâce aux lois de la physique quantique et de la théorie de l'information. Cette clé secrète peut ensuite être utilisée dans un algorithme de chiffrement symétrique, afin de chiffrer et déchiffrer des données confidentielles.
 
Décohérence (théorie de la) : développée dans les années 1990, cette théorie explique que c’est leur interaction avec leur « environnement » qui fait très rapidement perdre aux objets
macroscopiques leurs propriétés quantiques. L’environnement, constitué de tout ce qui baigne les objets, par exemple l’air dans lequel ils se propagent ou, si l’on fait le vide, le rayonnement ambiant ; agit en somme comme un observateur qui mesure les systèmes macroscopiques en permanence, ce qui élimine toutes les superpositions à cette échelleet donc également les interférences.
 
Electron : particule élémentaire légère de charge électrique négative entrant dans la composition des atomes. Les réactions entre électrons d’atomes voisins déterminent des liaisons chimiques qui associent les atomes en molécules.
 
Énergie cinétique : énergie due au mouvement d’un corps. En physique classique (non relativiste) elle est donnée par la formule E = mv2/2 (m étant la masse et v la vitesse). Elle est donc proportionnelle à la masse du corpset au carré de sa vitesse.
 
Espace vectoriel : tout ensemble E dont les éléments satisfont à la propriété suivante : si u et v sont deux éléments de E, alors toute combinaison suivante du type λu + μv, où u et v sont des nombres complexes quelconques, est aussi élément de E. Les éléments d’un espace vectoriel sont appelés des vecteurs.
 
Interprétation de Copenhague :
Il s'agit de l'interprétation standard de la physique quantique essentiellement mise en forme par Niels Bohr en 1927 à partir des résultats obtenus par Werner Heisenberg et Max Born quant à l'interprétation de la physique matricielle de Born-Heisenberg-Jordan et celle, ondulatoire, de De Broglie-Schrödinger.
On parle souvent à tort de la dualité onde-particule. Il est préférable de parler de « complémentarité ».Ceci pour de nombreuses raisons, la première étant que la matière n'est pas, "particule" OU "onde". Suivant le point de vue Bohmien, la particule joue un rôle fondamental et est guidée par l'onde pilote de Louis de Broglie.
Selon Niels Bohr (le mentor de Copenhague), il ne faut pas perdre de vue que la physique décrit avant tout ce qui est observable, ce qui ne veut pas dire, comme certain l'ont pensé, qu'il s'agissait d'une profession de foi positiviste de Bohr. Lui-même refusait d'ailleurs de se compter parmi les positivistes, tout comme Heisenberg. Simplement la physique est au moins cela, même si elle ne s'y réduit pas.
A partir de cette idée, les contradictions entre le point de vue ondulatoire et corpusculaire pour décrire les manifestations de la lumière, de la matière et de leurs interactions se résolvent de la façon suivante.
Le physicien utilise des instruments de mesure classiques, lesquels donnent des mesures classiques pouvant s'interpréter, par leur nature même, dans le langage des ondes et des particules. Mais en réalité, il n'y a ni ondes ni particules. Les quanta sont tout simplement autres, ce ne sont pas des objets classiques dans l'espace et le temps.
Pas plus qu'il n'y a de temps et d'espace absolu il n'y a de particule ou d'onde absolues associées de façon subtiles mais néanmoins classiques. On est donc conduit à faire un usage complémentaire des concepts d'ondes et de particules pour décrire les expériences en connexion avec le monde quantique. Mais, par la structure même des équations de la physique quantique, on ne pourra jamais mesurer et surtout décrire un phénomène quantique avec des concepts complètement classiques, non pas parce que les lois de la nature nous empêcheraient de savoir si une particule ou une onde existe vraiment au niveau quantique mais parce qu'il n'y a rien de tel.
 
Laser : un laser (acronyme de l'anglais « Light Amplification by Stimulated Emission of Radiation », en français : « amplification de la lumière par émission stimulée de rayonnement ») est un appareil qui produit une lumière spatialement et temporellement cohérente basée sur l'effet laser. Descendant du maser, le laser s'est d'abord appelé maser optique.
Une source laser associe un amplificateur optique basé sur l'effet laser à une cavité optique, encore appelée résonateur, généralement constituée de deux miroirs, dont au moins l'un des deux est partiellement réfléchissant, c'est-à-dire qu'une partie de la lumière sort de la cavité et l'autre partie est réinjectée vers l'intérieur de la cavité laser. Avec certaines longues cavités, la lumière laser peut être extrêmement directionnelle. Les caractéristiques géométriques de cet ensemble imposent que le rayonnement émis soit d'une grande pureté spectrale, c’est-à-dire temporellement cohérent. Le spectre du rayonnement contient en effet un ensemble discret de raies très fines, à des longueurs d'ondes définies par la cavité et le milieu amplificateur. La finesse de ces raies est cependant limitée par la stabilité de la cavité et par l'émission spontanée au sein de l'amplificateur (bruit quantique). Différentes techniques permettent d'obtenir une émission autour d'une seule longueur d'onde.
Au XXIe siècle, le laser est plus généralement vu comme une source possible pour tout rayonnement électromagnétique, dont fait partie la lumière. Les longueurs d'ondes concernées étaient d'abord les micro-ondes (maser), puis elles se sont étendues aux domaines de l'infrarouge, du visible, de l'ultraviolet et commencent même à s'appliquer aux rayons X.
 
Neutron : un des constituants du noyau atomique (avec le proton) ; il est composé de trois quarks en interaction.
 
Nombre complexe : tout nombre complexe peut s’écrire sous la forme z = x + iy, où x et y sont des nombres réels et i le nombre imaginaire tel que i2 = -1. On appelle x la  « partie réelle » de zet y sa « partie imaginaire ». Le module au carré d’un nombre complexe, noté |z|2, est donné par |z|2 = x2 + y2.
 
Non-commutativité : deux opérateurs A et B sont dits non commutatifs si l’ordre dans lequel on les fait intervenir n’est pas indifférent. Cela se traduit par le fait que le produit AB n’est pas égal au produit BA.
 
Photon : grain élémentaire de lumière, et plus généralement de rayonnement électromagnétique, la lumière visible n’étant qu’une des formes de ce dernier. Sa masse nulle. Le photon véhicule l’interaction électromagnétique au niveau élémentaire.
 
Proton : un des constituants du noyau atomique (avec le neutron) ; il porte une charge électrique positive et comme le neutron, il est composé de trois quarks en interaction.
 
Spin : Le spin d’un électron, lorsqu’on le mesure le long d’une direction arbitraire ne peut prendre que deux valeurs : soit h/ 4π, soit –h /4πh désigne la constante de Planck. Si l’on imaginait l’électron comme une petite sphère chargée – d’un rayon de l’ordrede 10-15 mètre (rayon pour lequel l’énergie électrostatique de la sphère chargée est égale à l’énergie de masse, mc2) et si le spin correspondait à une rotation de cette sphère, la vitesse à la surface de celle-ci devrait être supérieure à celle de la lumière. L’existence même du spin oblige donc à renoncer à se faire un modèle de l’électron et, chose plus troublante, à admettre l’existence d’un moment cinétique qui ne soit pas une rotation de matière.
 
Supraconductivité : la supraconductivité (ou supraconduction) est un phénomène caractérisé par l'absence de résistance électrique et l'expulsion du champ magnétique — l'effet Meissner — à l'intérieur de certains matériaux dits supraconducteurs. La supraconductivité découverte historiquement en premier, et que l'on nomme communément supraconductivité conventionnelle, se manifeste à des températures très basses, proches du zéro absolu (-273,15 °C). La supraconductivité permettrait notamment de transporter de l'électricité sans perte d'énergie, les applications potentielles sont donc stratégiques.
 
Théorie des supercordes : cette théorie propose d'unifier les quatre interactions fondamentales, en décrivant toutes les particules élémentaires comme des différents états de vibration d'une corde. Si les physiciens théoriciens se penchent avec fascination sur cette idée depuis trente ans, c'est parce qu'elle permet de réconcilier la théorie de Relativité Générale d'Einstein, qui décrit notre univers aux échelles astronomiques, avec les principes de la Physique Quantique qui régissent le comportement de la matière aux échelles microscopiques. La théorie des cordes est-elle en voie de réaliser le rêve réductionniste d'une description ultime de la nature, qui permettrait de retrouver toutes les lois connues de la physique, ainsi que les valeurs des constantes fondamentales, par un processus de pure déduction logique? Et aurons nous un jour une confirmation expérimentale directe de la structure supposée cordiste de la matière? Si la réponse à ces questions n'est pas simple, c'est aussi parce qu'on maîtrise encore très mal la structure mathématique, fort complexe, de cette très ambitieuse théorie.
 
Vecteur d’état:entité mathématique par laquelle on représente l’état physique d’un syqtème quantique. En vertu du principe de superposition, les vecteurs d’état ont la propriété de pouvoir s’ajouter entre eux: la somme de deux vecteurs d’état possibles d’un système est aussi un vecteur d’état possible du système.


[1] Editions Flammarion, Champs/sciences, Paris 2004.
[2] La première fois qu’apparaît un mot relevant d’un vocabulaire spécialisé, il est suivi d’un*. On trouvera sa définition dans le Glossaire.
[3] L'apport du médecin ThomasYoung au domaine de l'optique(physique classique) est sans doute son plus grand motif de célébrité, en particulier sa célèbre expérience de la double fente. En 1801, il fait passer un faisceau de lumière à travers deux fentes parallèles, et le projette sur un écran. La lumière est diffractée au passage des fentes et produit sur l'écran des franges d'interférence, c'est-à-dire une alternance de bandes éclairées et non-éclairées. Young en déduit la nature ondulatoire de la lumière.
L'expérience de Young a par la suite été affinée, notamment faisant en sorte que la source S émette un quantum à la fois. Par exemple, on peut à l'heure actuelle émettre des photons ou des électrons un par un. Ceux-ci sont détectés un par un sur l'écran placé après les fentes de Young : on observe alors que ces impacts forment petit à petit la figure d'interférences.Selon des lois classiques concernant les trajectoires de ces corpuscules, il est impossible d'interpréter ce phénomène.
[4] Richard Feynman (1918 – 1988) est l'un des physiciens les plus influents de la seconde moitié du XXe siècle, en raison notamment de ses travaux sur l'électrodynamique quantique relativiste, les quarks et l'héliumsuperfluide.
Il reformula entièrement la mécanique quantique à l'aide de son intégrale de chemin qui généralise le principe de moindre action de la mécanique classique et inventa les diagrammes qui portent son nom et qui sont désormais largement utilisés en théorie quantique des champs (dont l'électrodynamique quantique fait partie).
[5] Ni corpuscule ni ondes.
Quels genres d’objets sont les électrons ? Dans un premier temps, (voir figure (4), le fait que chacun d’eux soit capté en un point précis du détecteur milite pour une nature corpusculaire plutôt qu’ondulatoire.
Mais au fur et à mesure que s’accumulent les impacts successifs, se constituent des frangesd’interférence caractéristiques des ondes.
[6] « Indétermination » (Unbestimmtheit) est d loin le meilleur terme puisqu’il renvoie à l’absence de détermination numérique univoque d’une gradeur physique. Mais ce dernier terme fut rapidement éclipsé dans les traductions, au profit du regrettable mot « incertitude » (Jean-Marc Lévy-Leblond et Françoise Balibar , WhenDid the IndeterminacyPrinciplebecome the UncertaintyPrinciple ? Physics,66, 1998).  
[7] Ces paquets discontinus sont d’autant plus importants que la fréquence est plus élevée : une lumière monochromatique de fréquence v , n’échange de l’énergie qu’en payant avec des « pièces de monnaie » dont la plus petite est égale à hv, où h est une nouvelle constante de la physique, la constante de Planck. Plus précisément, les paquets échangés peuvent avoir une énergie égale à hv, ou bien à 2hv, ou encore à 3hv, etc. mais il n’y a pas d’échange possible à d’autres valeurs.
[8] Cet exemple rarement cité aujourd’hui, a été récemment extrait par Michel Paty, La Physique du XXe siècle, EDP Sciences, 2003, p.49.




Date de création : 20/02/2014 @ 11:51
Dernière modification : 20/02/2014 @ 12:31
Catégorie : Synthèses
Page lue 407 fois


Prévisualiser la page Prévisualiser la page     Imprimer la page Imprimer la page


^ Haut ^

Initiationphilo - site d'initiation à la philosphie - Henri Duthu
contacter le webmaster : webmaster@initiationphilo.fr

  Site créé avec GuppY v4.5.18 © 2004-2005 - Licence Libre CeCILL

Document généré en 0.09 seconde