Parcours
+ Parcours lévinassien
+ Parcours axiologique
+ Parcours cartésien
+ Parcours hellénique
+ Parcours ricordien
+ Parcours spinoziste
+ Parcours habermassien
+  Parcours deleuzien
+  Parcours bergsonien
+ Parcours augustinien
+ Glossématique
 -  Synthèses
+ Ouvrages publiés
+ Suivi des progrès aux USA
+ Parcours psychophysique

Autres perspectives
+ Archéologie
+ Economie
+ Sciences politiques
+ Sociologie
+ Poésie
+ Théologie 1
+ Théologie 2
+ Théologie 3
+ Psychanalyse générale
+ Points d’histoire revisités
+ Edification morale par les fables

Mises à jour du site
25/08/2013 ajout :
synthèses :
- L'intrication quantique (Théorie)
- L'intrication (Applications technologiques)

23/08/2013 nouvel ouvrage publié (lien Amazon) :
- Georges Braque, Peintre de l'espace
son art en synchronie avec la science


12/07/2013 ajout :
synthèses :
- L'intrication quantique (expérience GHZ)

04/07/2013 ajout :
synthèses :
- Le message quantique

21/05/2013 ajout :
synthèses :
- Peinture et philosophie

28/04/2013 ajout :
synthèses :
- De la particule à l'information III

25/04/2013 ajout :
synthèses :
- De la particule à l'information II

16/04/2013 ajout :
synthèses :
- Histoire de l'éléctricité et du magnétisme

30/03/2013 ajout :
synthèses :
- De la particule à l'information
mise à jour :
- Ouvrages publiés

<11/03/2013 parcours psychophysique :
- Intelligence de l'amour
- Abrégé de psychophysique

23/02/2013 parcours psychophysique :
- La vision libératrice
- La tradition et la vérité

15/02/2013 parcours psychophysique :
- Au-delà de l'attention et de la vigilance
- La pensée et la perception

11/02/2013 parcours psychophysique :
- Le désir et le bien

04/02/2013 parcours psychophysique :
- Vivre dans la vérité

Liens Wikipédia

Visites

 288897 visiteurs

 15 visiteurs en ligne


Synthèses - De la particule à l'information I




DE LA PARTICULE À L’INFORMATION
EN PASSANT PAR LES CHAMPS
 
1ère PARTIE 
 
Ce titre correspond au parcours épistémologique décrit, en ces termes, par le physicien américain WHEELER (1911-2008) : « Je crois que ma vie en physique se divise en trois périodes (...) J'ai d'abord cru que tout était fait de particules (...). Dans ma seconde période que tout était fait de champs (...) Dans cette troisième, mon impression est que tout est fait d'information ».
Chacun d’entre nous est à même d’effectuer ce même parcours, qui couvre l’entier XXe siècle, en prenant connaissance de ces trois phases de la physique, telles qu’elles sont décrites dans les livres.
Avant de les aborder, quelques extraits de la ligne d’univers de Wheeler montreront l’étendue de ses investigations.   
 
Ligne d’univers de Wheeler
Faisant partie des derniers collaborateurs d'Einstein, ce physicien tenta de terminer le projet de théorie unifiée de ce dernier. La géométrodynamique fut fondée dans ce but, explorant la piste selon laquelle tous les phénomènes physiques, telle la gravitation ou l'électromagnétisme, pourraient se réduire aux propriétés géométriques d'espaces-temps courbes. Sa théorie ne parvenant pas, entre autres, à expliquer l'existence des fermions ou des singularités de la gravitation, Wheeler l'abandonna dans les années 1970.
On lui en outre l'équation de Harrison-Wheeler qui décrit la matière nucléaire à haute densité (à l'intérieur des étoiles à neutrons par exemple). Il popularisa le terme de trou noir pour désigner ce que l'on nommait jusque-là astres occlus et l'expression "un trou noir n'a pas de cheveux", pour rappeler qu'un trou noir est caractérisé de manière unique et totale par sa masse, son moment cinétique et sa charge électrique, quelle que fût la matière lui ayant donné naissance.
Nommé professeur à Princeton dans les années 1930, il y enseignera jusqu'en 1978 à l'exception de la période 1941-1945 où il participe au projet Manhattan de mise au point de la bombe atomique. Wheeler eut notamment comme élève Richard Feynman, dont il dirigea la thèse, et Kip Thorne. Avec ce dernier et Charles Misner, il est co-auteur de la référence des relativistes, le fameux ouvrage Gravitation plus souvent cité sous le nom MTW des initiales de ses auteurs.
Il dirigea également la thèse d'Everett qui introduisit l'interprétation de la mécanique quantique connue sous le nom des « univers multiples ».
Pour son 90e anniversaire, en 2001, Max Tegmark lui dédia dans Scientific American un article passant en revue quatre types d'univers multiples envisageables.
 
 
 
 
 
 
LA DUALITÉ ONDE-PARTICULE
 
Cette dualité, encore appelée dualité onde-corpuscule, a en quelque sorte inauguré la microphysique. C’est un principe selon lequel tous les objets de l'univers microscopique présentent simultanément des propriétés d'ondes et de particules. Ce concept fait partie des fondements de la mécanique quantique. Cette dualité tente de rendre compte de l'inadéquation des concepts conventionnels de   « particules » ou d'« ondes », pris isolément, à décrire le comportement des objets quantiques. L'idée de la dualité prend ses racines dans un débat remontant aussi loin que le XVIIe siècle siècle, quand s'affrontaient les théories concurrentes de Christiaan Huygens qui considérait que la lumière était composée d'ondes et celle de Isaac Newton qui considérait la lumière comme un flot de particules. À la suite des travaux de Albert Einstein, Louis de Broglie et bien d'autres, les théories scientifiques modernes accordent à tous les objets une nature d'onde et de particule, bien que ce phénomène ne soit perceptible qu'à des échelles microscopiques. Il est important de mentionner que c’est l’absence d’équivalent macroscopique sur quoi nous pourrions nous référer qui nous force à penser les objets quantiques comme possédant des attributs contradictoires. Il serait inexact de dire que la lumière (comme tout autre système quantique d’ailleurs) est à la fois une onde et à la fois une particule, ce n’est ni l’un, ni l’autre. Le manque d'un vocabulaire adéquat et l'impossibilité de se faire une représentation mentale intuitive des phénomènes à petite échelle nous font voir ces objets comme ayant une nature, par elle même, antinomique. Pour lever cet apparent paradoxe et insister sur l'imperfection de nos concepts classiques d'onde et de corpuscule, les physiciens Jean-Marc Lévy-Leblond et Françoise Balibar ont proposé d'utiliser le terme de « quanton » pour parler d'un objet quantique. Un quanton n'est ni une onde, ni un corpuscule, mais peut présenter les deux aspects selon le principe de complémentarité de Bohr. Cette terminologie a du mal à s'imposer dans l'enseignement français. Le principe de complémentarité fut introduit à Copenhague par Niels Bohr suite au principe d'indétermination de Werner Heisenberg comme approche philosophique aux phénomènes apparemment contradictoires de la mécanique quantique, par exemple : celui de la dualité onde-corpuscule.
Dans sa forme la plus simpliste, il stipule qu'un « objet quantique » ne peut se présenter que sous un seul de ces deux aspects à la fois. Souvent associé à l'école de Copenhague, ce principe est à présent un des concepts fondamentaux de la mécanique quantique. L'expérience des fentes de Young en a fait une démonstration simple et efficace.
 
Métaphore du cylindre : objet ayant à la fois les propriétés d'un cercle et d'un rectangle.
 

delaparticule1.jpg

 
 
La métaphore du cylindre est l'exemple d'un objet ayant des propriétés apparemment inconciliables. Il serait à première vue incongru d'affirmer qu'un objet a à la fois les propriétés d'un cercle et d'un rectangle : sur un plan, un objet est soit un cercle, soit un rectangle. Mais si l'on considère un cylindre : une projection dans l'axe du cylindre donne un cercle, et une projection perpendicu-lairent à cet axe donne un rectangle. On a donc bien un objet ayant les propriétés de l'un et de l'autre (mais il n'est ni l'un, ni l'autre). « Onde » et « particule » sont des manières de voir les choses et non pas les choses en elles mêmes.
 
Notons par ailleurs que dans la description mathématique de la physique quantique, le résultat de la mesure est similaire à une projection géométrique (notion d'observable : l'état de l'objet est décrit par des nombres que l'on peut voir comme des coordonnées dans une base vectorielle, et en géométrie euclidienne, les coordonnées sont la projection de l'objet sur les axes de référence).
 
James Maxwell, à la fin du XIXe siècle, expliqua la lumière en tant que propagation d'ondes électromagnétiques avec les équations de Maxwell.
 
EINSTEIN
 
Einstein et les photons
En 1905, Albert Einstein réconcilia la théorie de Huygens avec celle de Newton : il expliqua l'effet photoélectrique, un effet dans lequel la lumière n'agit pas en tant qu'onde, en postulant l'existence des photons, quanta d'énergie lumineuse avec des qualités de particules. Einstein postula que la fréquence λ de cette lumière, est liée à l'énergie E de charge : E = hν où hest la constante de Planck.
Einstein suggère ainsi que la quantité est l'énergie d'une particule électromagnétique qui sera plus tard appelée photon. La constante h, dont il obtient alors facilement une valeur numérique précise en confrontant son modèle aux données expérimentales, est alors et est toujours une grandeur fondamentale en mécanique quantique (6,626×10-34J s), au même titre que va être, l’année suivante, la vitesse de la lumière en relativité.
En effet, dès 1906, Einstein propose une expérience de pensée basée sur l’émission de grains de lumière – appelés ultérieurement photons, – dénommée « La boîte d’Einstein » dans un article de la revue «Annal of Physics». Elle aboutit à l’établissement de la formule révolutionnaire :
 E = m.c2 où E est l’énergie de masse, m la masse de la particule isolée et au repos, et c la vitesse de la lumière.
La Relativité venait de nous être donnée et avec elle de nouvelles notions concernant l’ordre et la mesure du temps. Celles-ci perdent leur absoluité alors qu’elles la possédaient dans la théorie newtonienne. Elles sont maintenant relatives à la lumière d’un système de coordonnées. Cette relativité du temps est une des caractéristiques radicalement nouvelles de la théorie d’Einstein.
Le nouvel ordre et la nouvelle mesure introduits dans la théorie de la relativité impliquent de nouvelles notions de structure dans lesquelles l’idée d’un corps rigide ne peut plus jouer un rôle important…En réalité, la relativité implique que ni les particules-points ni les corps quasi rigides ne peuvent être pris comme des concepts premiers. Mais plutôt, ceux-ci ont-ils à être examinés en termes d’évènements et de processus. » 
Cette idée de grandeurs énergétiques ne pouvant s'échanger que de façon discrète inspirera alors de nombreux physiciens, comme Niels Bohr, qui vont s'en servir notamment pour développer un modèle de la structure de l'atome.
 
BOHR
 
Introduction de la discontinuité au sein même de l’atome
Bohr postule que dans le modèle solaire de l’atome de Rutherford avec n électrons de charge négative [planètes] gravitant autour du noyau [soleil] – le rayon de l’orbite circulaire ne peut varier de façon continue, mais qu’il faut au contraire lui assigner des valeurs déterminées dans lesquelles intervient la constante de Planck. En clair, cela signifie que les électrons gravitant autour du noyau ne peuvent le faire que selon des orbites bien précises, et que, en particulier il leur est impossible de descendre au-dessous d’une orbite dite « fondamentale ». Ils ne risquent donc pas de s’écraser sur le noyau.
Sven Ortoli et Jean-Pierre Pharabod dans « Le cantique des quantiques » proposent d’imaginer un escalier. L’électron peut ou bien se tenir sur une marche, ou bien grimper sur la marche supérieure si on lui fournit l’énergie nécessaire (sous la forme d’une particule électromagnétique appelée photon), ou bien descendre sur la marche inférieure en rendant de l’énergie (sous la forme d’un photon) ; mais en aucun cas il ne peut rester entre deux marches. Dans ce modèle chaque marche est « étiquetée » par un nombre caractéristique du rapport entre le rayon orbital et la vitesse de l’électron.
Au départ, simple construction de l’esprit, sans justification apparente, la théorie de Bohr va connaître a posteriori d’éclatants succès. Elle permettra, entre autres, d’explique les radiations lumineuses de fréquences bien spéciales (raies spectrales) émises par différents corps chimiques : quand un électron placé dur une orbite élevée descend sur une orbite inférieure, il émet un photon ; l’émission d’une raie colorée de fréquence ν correspond donc à des sauts d’électrons de l’orbite extérieure vers une orbite plus interne. On appelle ces bonds des « sauts quantiques ». 
D’autres nombres viendront caractériser l’orbite d’un électron, l’un décrivant la plus ou moins forte liaison du corpuscule au noyau, un autre les effets magnétiques, un troisième son « spin ».
Qu’est-ce que le spin ?
Toujours par référence au modèle planétaire, il était tentant de pousser l’analogie plus loin et de supposer que, puisque la Terre tourne non seulement autour du Soleil, mais )également sur elle-même, l’électron devait sans doute faire de même. C’est ce que suggérèrent deux physiciens néerlandais en 1925, en le baptisant spin (de l’anglais to spin : tournoyer), sorte de caractérisation d'un mouvement de rotation sur lui-même. Oui, mais, rien d’un mouvement dans l'espace ! Il se comportait en fait comme un minuscule aimant. Pourquoi donc avoir tourné autour d'une interprétation intuitive impossible alors que le spin est une qualité propre à la particule quantique qui se manifeste lorsque l'atome est soumis à un champ magnétique. Moment cinétique (ou angulaire) intrinsèque des particules, on lui conféra alors une valeur mesurable au même titre que la masse ou la charge électrique (le spin est donc devenu un multiple entier ou demi-entier de la constante de Planck divisée par 2 π).
Ainsi, répétons-le, l’électron possède un champ magnétique. Sa valeur est connue avec une grande précision qui vérifie la théorie quantique :
 
1,001 159 652 21 ± 4      Mesuré
1, 001 159 65246 ± 20    Calculé
 
Accord très spectaculaire entre théorie et expérience, car cette précision de 4.10-9 représente 1 mm sur 4 000 km. C’est dire que si on mesurait, comme l’indique Feynman, la distance de New-York à Los Angeles avec la même précision, la différence ne dépasserait pas l’épaisseur d’un cheveu !
Enfin, la valeur du spin caractérise les familles de particules :
0,5   FERMIONS : particules composantes de la matière telles qu’électrons,
                                protons, neutrons
1      BOSONS : champs vectoriels qui véhiculent les interactions
0      GRAVITON : particule supposée vecteur de la gravitation
 
DE BROGLIE
 
En 1924, dans sa thèse, Louis de Broglie affirma que toute matière (et pas seulement la lumière) a une nature ondulatoire. Il associa la quantité de mouvement p d'une particule àune longueur d'onde λ, appelée longueur d'onde de de Broglie : λ =h/p
C'est une généralisation de la relation de Planck-Einstein indiquée ci-dessus, car la quantité de mouvement (ou l'impulsion) d'un photon est donné par p= E/c
c est la vitesse de la lumière dans le vide, et λ = c/ν  (si on remplace p et ν dans l'équation de de Broglie, on retrouve l'équation d'Einstein).
 
Hypothèse de De Broglie
La confirmation expérimentale de la formule est venue, par hasard, en 1927, quand deux jeunes chercheurs américains (Davisson et Germer) ont observé fortuitement qu’un pinceau d’électrons réfléchi par la surface d’un cristal de nickel donnait, sur une plaque photographique, des taches de diffraction (des interférences) analogues à celles que le physicien allemand Von Laue avait trouvées quinze ans auparavant pour des rayons X. Si des électrons peuvent conduire à des interférences, c’est qu’ils se conduisent, eux aussi, comme des ondes. Depuis cette date, des expériences semblables ont été entreprises avec des protons et même avec des molécules entières, avec notamment l'expérience d'Estermann et Otto Stern en 1929, et, dans tous ces cas, la formule s’est trouvée confirmée.
Louis de Broglie avait donc raison. Cette confirmation de l’aspect ondulatoire d’une particule autre que le photon a donc représenté un pas décisif sur la voie de l’unité de la physique. Sur le plan pratique aussi, la « mécanique ondulatoire » de Louis de Broglie va connaître des développements intéressants : la diffraction des électrons sera utilisée concurremment à celle des rayons X pour les études sur la constitution des molécules. Une de ses plus belles applications est celle du microscope électronique.
De Broglie reçut en 1929 le prix Nobel de physique pour son hypothèse. La confirmation la plus récente, comme la plus spectaculaire, est celle qui a été faite en 1999 par des chercheurs de l'Université de Vienne, qui ont fait diffracter du fullerène (molécule C60). Dans cette expérience, la longueur d'onde de de Broglie était de 2,5 pm alors que la molécule a un diamètre d'environ 1 nm, soit 400 fois supérieur.
 
Mise en évidence de la dualité : fentes de Young
Une des manières les plus claires de mettre en évidence la dualité onde-particule est l'expérience des fentes de Young. Cette expérience est connue depuis le XIXe siècle, où elle a d'abord mis clairement en évidence l'aspect purement ondulatoire de la lumière. Modifiée de manière adéquate, elle a pu démontrer de manière spectaculaire la dualité onde-corpuscule non seulement de la lumière, mais aussi de tout autre objet quantique. Dans la description qui suit, il sera question de lumière et de photons mais il ne faut pas perdre de vue qu'elle est également applicable – du moins en principe – à toute autre particule (par exemple des électrons), et même à des atomes et à des molécules. L'expérience consiste à éclairer par une source lumineuse un écran percé de deux fentes très fines et très rapprochées. Ces deux fentes se comportent comme deux sources secondaires d'émission lumineuse.
Une plaque photographique placée derrière l'écran enregistre la lumière issue des deux fentes (⇐ voir figure 1).
 
Figure 1 : Schéma de l'expérience.
 

delaparticule2.jpg

 
Cette figure est caractéristique d'un comportement ondulatoire de la lumière. Si l'expérience en reste à ce niveau, l'aspect corpusculaire n'apparait pas.
Ces deux sources interfèrent et forment sur la plaque photographique ce que l'on appelle une figure d'interférence (voir figure 2).
 
Figure 2 : Figure d'interférence observée.
 
 

delaparticule3.jpg

 
En fait, il est possible de diminuer l'intensité lumineuse de la source primaire de manière à ce que la lumière soit émise photon par photon. Le comportement de la lumière devient alors inexplicable sans qu’il soit fait appel à la dualité onde-corpuscule. En effet, si on remplace la source lumineuse par un canon qui tire des micro-billes à travers les deux fentes (par exemple), donc de "vraies" particules, on n'obtient aucune figure d'interférence, mais simplement une zone plus dense, en face des fentes (⇐ voir figure3).
 
Figure 3 : Expérience avec de "vraies" particules, par exemple des micro-billes
 
 

delaparticule4.jpg

 
Force est donc de constater une dualité onde-particule des photons (ou de tout autre objet quantique), qui présentent simultanément les deux aspects. Or, dans le cas des photons, on retrouve la figure d'interférence reconstituée petit à petit, à mesure que les photons apparaissent sur la plaque photographique (figure 4 ⇒).
 
Figure 4 : Figure d'interférence constituée petit à petit.
 
 

delaparticule5.jpg

 
On retrouve donc une figure d'interférence, caractéristique des ondes, en même temps qu'un aspect corpusculaire des impacts sur la plaque photographique. L'interprétation de cette expérience est difficile, car si on considère la lumière comme une onde, alors les points d'impacts sur la plaque photographique sont inexplicables; on devrait voir dans ce cas très faiblement, dès les premiers instants, la figure d'interférence de la figure 2, puis de plus en plus intense. Au contraire, si on considère la lumière comme étant exclusivement composée de particules, alors les impacts sur la plaque photographique s'expliquent aisément, mais la figure d'interférence ne s'explique pas : comment et pourquoi certaines zones seraient privilégiées et d'autres interdites à ces particules ?
Restait cependant à trouver l’expression mathématique précise de l’onde associée à toute particule, expression rendant compte des effets de diffraction et d’interférence. Deux noms restent associés à ce travail de mise en forme de la physique quantique, celui de Schrödinger et d’Heisenberg.
 
SCHRÖDINGER
 
L'équation trouvée par le physicien Schrödinger en 1925, est une fonction d'onde qui généralise l'approche de de Broglie aux particules massives non relativistes soumises à une force dérivant d'une énergie potentielle, dont l'énergie mécanique totale est classiquement :
E = p2/2m + V (r)
 
delaparticule6.jpg
 
Le succès de l'équation, déduite de cette extension par utilisation du principe de correspondance[1] – applicable seulement lorsque le nombre de particules-quantons atteint un certain seuil –, fut immédiat quant à l'évaluation des niveaux quantifiés d'énergie de l'électron dans l'atome d'hydrogène, car elle permit d'expliquer les raies d'émission de l'hydrogène (voit fig.) : séries de Lyman, Balmer, Brackett, Paschen, etc.
On voit que le spectre d'émission (ou d'absorption) de l'hydrogène présente de nombreuses raies groupées par séries.
 
 
 
On parle de série pour l'ensemble des raies caractéristiques des états d'excitation d'un noyau (une raie correspond à une longueur d'onde et donc à un état d'excitation). Pour l'hydrogène il
n'y a que 5 états d'excitation avant l'ionisation qui correspond à la perte de l'électron pour le noyau, celui-ci ayant reçu plus d'énergie que celle qui le reliait au noyau. L'énergie d'un photon est quantifiée par sa longueur d'onde : un photon gamma est plus énergétique qu'un photon IR.
Les niveaux d'énergie qui sont quantifiés pour l’atome correspondent à l'éloignement de l'électron du noyau produit par l'excitation de l'électron qui lorsqu'il revient à son état fondamental émet un photon pour « expulser » l'énergie qu'il avait reçu.
Lorsque la transition électronique aboutit sur le niveau fondamental (n = 1), c'est la série de Lyman, elle se trouve dans le domaine UV (ultraviolet).
Lorsque la transition électronique aboutit sur le premier niveau excité (n = 2), c'est la série de Balmer, elle se trouve en grande partie dans le domaine visible.
Lorsque la transition électronique aboutit sur le deuxième niveau excité (n = 3), c'est la série de Paschen, elle se trouve dans le domaine I.R (infrarouge).
 
L'interprétation physique correcte de la fonction d'onde de Schrödinger ne fut donnée qu'en 1926 par Max Born. En raison du caractère probabiliste qu'elle introduisait, la mécanique ondulatoire de Schrödinger suscita initialement de la méfiance chez quelques physiciens de renom, notamment Einstein, pour qui « Dieu ne joue pas aux dés ».
Mais cette équivalence mathématique était loin d’être une équivalence physique. Schrödinger, contrairement aux créateurs résignés de la mécanique quantique avec leurs méthodes d’algèbre transcendante, se proposait rien de moins que de ramener la physique quantique dans « la vieille maison » de la physique classique. C’est qu’il répugnait à admettre « l’impossibilité de trouver une image intuitive des phénomènes naturels ». L’image intuitive, la représentation visuelle des phénomènes physiques, voilà le cœur de la question. Pour Schrödinger cette représentation était fournie par la physique des ondes. Une onde, en effet, est un phénomène qui se développe dans l’espace et dans le temps ; sa répartition spatiale et son évolution temporelle sont continues (en tout cas dans les cas simples auxquels pense Schrödinger), et permettent par conséquent de décrire ce qui se passe en termes d’une causalité proche de celle que les phénomènes macroscopiques nous ont rendue familière. « Il est à peine nécessaire de remarquer, écrivait encore Schrödinger, à quel point une représentation des phénomènes qui ferait intervenir au moment d’une transition quantique un simple échange d’énergie entre deux formes de vibration distinctes, serait plus facilement acceptable que l’image actuelle des électrons qui sautent d’un niveau à un autre. Le changement de forme d’une oscillation est un phénomène qui peut avoir lieu dans l’espace et dans le temps (…) ».
  
 

delaparticule7.jpg

 
La représentation de l’atome fut une fois de plus bouleversée : Louis de Broglie associât aux orbites de Bohr des ondes de matière, représentant l’électron non plus par une bille tournant sur une orbite, mais par une vibration.
 
HEISENBERG
 
Très différente sera la démarche du jeune Heisenberg. Pour lui il est inutile de représenter l’atome par un système planétaire de noyaux et f’orbites, ou par quelque image que ce soit. Puisque seules sont connues de nous les fréquences et les intensités de lumière qu’il émet, pout des raisons de commodité il décide d’utiliser des tableaux de nombres (matrices) propres à chaque atome tels qu’utilisés par les mathématiciens.
Ces matrices permettent, par exemple,de calculer les sautrs d’électrons d’une orbite sur n’importe quelle autre. En résumé, les hypothèses concernant les éléments physiques de l’atome de Bohr sont traduites par la théorie des matrices représentant la seule chose que l’on connaisse, à savoir le rayonnement provenant de la région où l’atome est censé se trouver. À l’usage, si abstraite qu’elle paraisse, cette « mécanique des matrices » a l’immense mérite de coller avec les résultats expérimentaux et cela, en dépit de son étrangeté par rapport au calcul.
Le produit matriciel est associatif, distributif à droite et à gauche par rapport à l'addition matricielle. En revanche, un produit de matrices ne commute en général pas : AB n'est pas en général égal à BA, par exemple :
 delaparticule8.jpg 
 
Tout physicien traditionnel se serait offusqué de cette particularité et aurait remis sa théorie en question. Au contraire, Heisenberg y a trouvé un motif de satisfaction en créant opportunément un principe d’incertitude ou plurôt d’indétermination. Énoncé en 1927, il stipule qu’en microphysique il est impossible d’attribuer à une particule-quanton[2] (dite tout simplement quanton), des propriétés classiques telles que la vitesse et la position, car en fait, mieux la position est définie, moins la vitesse est connue et vice versa. Les résultats se trouvent systématiquement entachés de ce flou.
La conséquence la plus évidente de, ce principe, c’est que nous sommes conduits à renoncer à toute tentative de recréer notre univers visible dans celui, invisible, des atomes. Pour illustrer la position du physicien, Sven Ortoli et Jean-Pierre Pharabod ont proposé opportunément dans « Le Cantique des quantiques » de reprendre l’image de l’homme qui voudrait étudier un oiseau de nuit inconnu. Pour ce faire s’offrent à lui deux possibilités : la première est de braquer un projecteur au risque de l’éblouir, en vue de décrire convenablement sa morphologie, au détriment de son comportement car, au mieux, il restera immobile ; la seconde est de n’utiliser aucun ptojecteur et de se contenter d’observer, dans la semi-obscurité, son comportement, tandis que l’étude de sa morphologie nous restera interdite. In fine, la meilleure solution, la solution moyenne, sera d’éclairer suffisament l’oiseau, de telle façon que son comportement ne soit pas perturbé.
À l’échelle atomique, le problème est assez identique : si l’on veut observer un quanton , il faut envoyer de la lumière (des photons) sur lui. Il va alors subir un choc qui modifiera son comportement. Donc, toute opération de mesure d’un système microphysique provoque automatiquement son altération. Tel fut le sens tiré par Heisenberg de sa relation d’incertitude. Les physiciens d’aujourd’hui en ont tiré la leçon suivante : les relations observées, pour le quanton, de sa vitesse et de sa position, bien que floues, ne prennent de la consistance qu’à l’occasion d’une mesure. Il y donc intérêt à multiplier les mesures pour obtenir des résultats variables à l’intérieur d’une certaine plage. Les relations d’incertitude d’Heisenberg sont là pour traduire la largeur des plages en question.      
 
DIRAC
 
Fiers de leurs découvertes respectives, Schrödinger et Heisenberg se disputèrent, pendant un certain temps, sur la valeur de leurs propres mérites, tout en maniant la critique sur les propositions de leur antagoniste.
Leurs deux approches, ainsi que la confusion concernant le concept de dualité onde- corpuscule, donnaient à la mécanique quantique naissante un besoin de clarification. Celle-ci intervint grâce aux travaux d'un physicien britannique, Paul Adrien Dirac.
Dans un livre publié en 1930, Principes de la mécanique quantique, Dirac a montré que les deux approches n’étaient en fait que deux représentations d'une même algèbre linéaire. Dans cet ouvrage fondateur, Dirac extrayait les lois proprement quantiques, en faisant abstraction des lois déjà imposées par la physique classique. Dirac donna alors une représentation axiomatique de la mécanique quantique, probablement inspirée des développements mathématiques de l'époque, notamment en ce qui concerne la géométrie projective[3].
 
   
 
Constante de Dirac dite encore constante de Planck réduite
Elle est notée ħ (prononcer « h barre »), est dérivée de la constante de Planck h.
Elle est conventionnellement définie par la formule :
 ħ = h/2&pi
Sa valeur numérique est de
ħ = 1,054 571 726 ´ 10-34 J.s
directement tirée de la constante de Planck, qui vaut :
h = 6,626 069 57 ´ 10-34 J.s
ħ est le quantum de moment angulaire, y compris le quantum de spin. C'est-à-dire que le moment angulaire de n'importe quel système, mesuré par rapport à n'importe quel choix particulier d'axe, est toujours un multiple entier de cette valeur. Elle est également utilisée dans le principe d'incertitude de Heisenberg. Pour cette raison, certains pensent que ħ est plus fondamental que h. ħ est employé pour définir les unités de Planck.
Cette constante est (entre autres) utilisée dans :
        le calcul du spectre électromagnétique du corps noir ;
        le calcul de la variation de longueur d'onde par la théorie quantique.
 
 
Le point final à la dualité onde-corpuscule
 
L’aspect corpusculaire et l’aspect ondulatoire, grâce au principe de complémentarité qui a été explicité, sont deux représentations « complémentaires » d’une seule et même réalité. Un être physique unique peut nous apparaître tantôt sous forme de corpuscule (quand, par exemple, il provoque un scintillement sur un écran fluorescent), tantôt sous forme d’onde (quand, par exemple, nous observons les tranches d’interférence ptoduite par un flot d’électrons).
 
 
delaparticule9.jpg 
 
 
On conçut alors l’atome comme un noyau entouré d’un nuage électronique (qui équivaut à l’électron « classique ». On ne sait pas où se trouve cet électron, ni quelle est la nature de sa trajectoire éventuelle. On sait seulement que la probabilité de le trouver à une certaine distance du centre est proportionnelle à la densité du nuage. Sur ce graphique, la probabilité maximale est donc qu’il se trouve sur les pointillés tracés autour du noyau.
 
 

delaparticule10.jpg

Ainsi aux alentours de 1927, on peut dire que l’arsenal théorique de la nouvelle physique est, pour l’essentiel achevé. De l’introduction par Planck de la notion de quantum à la synthèse de Dirac, il aura fallu un bon quart de siècle pour le réaliser. Mais il est maintenant solide et performant du fait qu’il rend compte d’un très grand nombre de phénomènes restés jusqu’alors mystérieux.
La physique quantique serait purement déterministe, s’il n’y avait pas d’observateur. Elle ne permet pas de prévoir le résultat d’une mesure ; elle permet de calculer les valeurs possibles et leur probabilité. Mais la mesure elle-même est très précise.
 
Diptyque de la physique quantique

 Statistique des états
(déterministe)
 Instance des états
(probabiliste)
La physique quantique est un modèle qui estime l’évolution des systèmes physiques isolés
On mesure les grandeurs : position, vitesse, énergie
Elle fait intervenir la fonction d’onde = un vecteur d’état qui est la somme des divers états propres de la grandeur que l’on va mesurer
L’aspect probabiliste se manifeste lors des opérations de mesure.qui projettent le système vers l’un de ses états propres
Espace à n dimensions (espace de Hilbert)
Équation déterministe : celle de Schrödinger
Projection du système vers l’un de ses états propres par une sorte de tirage au sort
 
Ce qu’est devenu l’électron
Ce n’est plus une sorte de planète qui tourne autour d’un astre, le noyau de l’atome. Il ne parcourt pas un chemin précis, mais des trajectoires possibles.
Invisible et insaisissable, ce n’est plus un objet : c’est un nuage.
        C’est une onde, un paquet d'ondes.
        C’est un champ qui peut exister même si la particule n'est pas là, même si elle n'est pas matérialisée.
C'est une sorte de chose qui influence le milieu, qui l'imprègne, qui lui donne une propriété globale.
Deux électrons quelconques ne peuvent jamais occuper le même état quantique (posséder les mêmes nombres quantiques) [Principe d’exclusion de Pauli].
 
 
 
Fonction d'onde de la mécanique quantique conventionnelle
Approches vulgarisées de la mécanique quantique
Page 6
 
asklynne@lynnemctaggart.com
 


[1] Ce principe, énoncé par Bohr en 1925 et corrigé par Ehrenfest en 1927, avec sa condition d’application, indique que la  physique quantique et la physique classique donne des résultats équivalents. Mais qu’on ne s’y trompe pas : il s’agit en fait d’un cas limite de la première pour la dernière. Qui plus est, on sait maintenant que certains ensembles de quantons, même en très grand nombre persistent à suivre des lois quantiques parfaitement incongrues : ce sont les supra-conducteurs et les superfluides. 
 
[2] Les quantons montrent du discontinu quant à leur quantité (on peut les compter) et du continu quant à leur spatialité (on ne peut pas les localiser en un point). Leurs hyponymes sont les suivants :
boson : particulle possédant un spin entier : les photons et les gluons sont des bosons
fermion : particule possédant un spin demi-entier : l'électron, le neutrino et les quarks sont des fermions.
 
[3] Pour donner un aperçu élémentaire de ce qu'est la géométrie projective par rapport à la géométrie euclidienne ordinaire on peut dire que la géométrie projective est l'étude de ce qui, dans les figures, reste inchangé après projection, alors que la géométrie euclidienne est l'étude de ce qui reste invariant après déplacement (on peut la voir aussi comme la science des figures qui se tracent à la règle et au compas) ; de ce point de vue, la géométrie projective comporte moins d'axiomes que la géométrie euclidienne et par suite elle est plus générale.
 
 
 
 
 


Date de création : 29/03/2013 @ 20:44
Dernière modification : 25/04/2013 @ 19:14
Catégorie : Synthèses
Page lue 174 fois


Prévisualiser la page Prévisualiser la page     Imprimer la page Imprimer la page


^ Haut ^

Initiationphilo - site d'initiation à la philosphie - Henri Duthu
contacter le webmaster : webmaster@initiationphilo.fr

  Site créé avec GuppY v4.5.18 © 2004-2005 - Licence Libre CeCILL

Document généré en 0.14 seconde