Alain Bouquet - Le photon

Attention: ces pages ne sont plus mises à jour car le site a déménagé. Il se trouve désormais à:

cosmologie.wordpress.com

Pensez à mettre à jour vos signets et bookmarks!

Champs, Noyaux & particules

L'Antiquité

Atomisme moderne

Électrons

Radioactivité

Noyaux, protons et neutrons

Intruments, accélérateurs et détecteurs

Le photon

Mécanique quantique

Fission nucléaire

Fusion nucléaire

Particules en tout genre

Gravitation quantique?

Le corps noir

Le lien entre lumière et chaleur est connu depuis que des flammes ont été observées. Dans son traité d'optique, Newton s'interrogeait: "Tous les corps fixes n'émettent-ils pas de la lumière et ne brillent-ils pas quand ils sont chauffés au-delà d'un certain point? Et cette émission n'est-elle pas due à la vibration de leurs parties?"

Kirchhoff

La dispersion de la lumière du soleil par un prisme -ou une goutte d'eau- était connue depuis longtemps, mais la raison de ces coueurs demeurait inconnue.

Dispersion par un prisme

La spectroscopie moderne commença en 1819 avec les travaux de Joseph Fraunhofer (1787-1826) et son identification des raies sombres dans le spectre du Soleil.

Raies de Fraunhofer du spectre solaire Raies du spectre solaire

Les raies se révélèrent caractéristiques de la nature chimique du corps qui les émet, de sa température et de sa vitesse.

Après Foucault qui établit en 1849 la correspondance entre les raies d'émission d'un corps et les raies d'absorption par le même corps, Gustav Kirchhoff (1824-1887) établit en 1859 les 3 lois de la spectroscopie :

Lois de Kirchhoff

Les 3 lois de Kirchhoff de la spectroscopie (© Wikipedia)

Deux voies différentes s'ouvrirent alors:

Les deux voies restèrent longtemps indépendantes, conceptuellement, car l'idée que la lumière soit composée de particules au même titre que la matière fut longue à s'imposer. La découverte de l'électron comme constituant de la matière, dans les rayons cathodiques d'abord, puis dans les rayons bêta et dans les atomes, fut suivie de l'identification du proton, puis du neutron comme autres constituants de la matière, et l'addition ensuite des neutrinos et des mésons ne posa pas de problème majeur. Mais la lumière était une onde électromagnétique et la possibilité qu'elle soit aussi une particule, le photon, ne s'imposa pas avant le milieu des années 1920 quand les deux voies furent unifiées par Dirac dans la mécanique quantique (1926) puis la théorie quantique des champs peu après.

Kirchhoff Gustav Robert Kirchhoff

De l'étude de l'absorption et de l'émission de la lumière par un corps chauffé, Kirchhoff montra que le rayonnement thermique ne dépendait que de la température du corps émetteur. Ce "théorème" était d'abord empirique: un bon émetteur est toujours un bon absorbant. Plus quantitativement, il apparaissait une corrélation entre l'énergie absorbée Eabs(ν,T) et l'énergie (ré)émise Eem(ν,T), et le rapport A(ν,T) entre les deux semblait ne dépendre que faiblement de la fréquence ν du rayonnement et de la température T. Il ne dépendait pas non plus de la nature du corps en question, ce que Kirchhoff expliqua en montrant que cela permettrait, dans le cas contraire, de construire un mouvement perpétuel de 2° espèce : deux corps à la même température qui émettraient différemment du rayonnement pourraient ainsi échanger de l'énergie et ainsi violer le 2° principe de la thermodynamique (la non-diminution de l'entropie dans un système isolé).

Flammes

Kirchhoff définit alors un absorbant parfait (le "corps noir") comme étant un corps où ce rapport A(ν,T) = 1. Et il définit en 1860 un programme de recherche:

« L'accord des résultats semble montrer que la lumière et le magnétisme sont deux phénomènes de même nature et que la lumière est une perturbation électromagnétique se propageant dans l'espace suivant les lois de l'électromagnétisme. » Maxwell A Dynamical Theory of the Electromagnetic Field, 1865

Les difficultés expérimentales du programme de Kirchhoff étaient énormes. Réaliser un corps noir était un premier défi à relever, et la meilleure approximation se révéla une cavité pratiquement fermée, capable de piéger à l'intérieur tout rayonnement incident.

Corps noir schématique

Les méthodes photométriques en étaient à leurs débuts, et réaliser un détecteur de rayonnement d'une sensibilité suffisante se révéla ardu. D'autant plus que les mesures devaient pouvoir se faire aussi en dehors du domaine optique (la lumière visible) en s'étendant à l'ultraviolet d'un côté et à l'infrarouge de l'autre.

Les progrès expérimentaux furent cependant rapides. À partir des mesures de Dulong et Petit, et surtout de celles de John Tyndall sur la "chaleur radiante" des gaz, Jožef Stefan (1835-1893) put suggérer en 1879 que l'énergie rayonnée variait comme la puissance quatrième de la température absolue du corps. En fait, les matériaux utilisés par Tyndall n'étaient pas d'excellents corps noirs, et se smesures n'étaient pas exemptes d'erreurs, mais cela se compsensait et la loi que Stefan en avait déduit était correcte.

Ludwig Boltzmann, qui fut l'élève de Stefan, démontra cette relation en 1884 par des considérations thermodynamiques originales, traitant la lumière exactement comme un gaz de particules. Les équations de Maxwell conduisent en effet à attribuer à la lumière une densité d'énergie U=E/V et une pression P = U/3. La relation de base de la thermodynamique des gaz,

dE = TdS - PdV = VdU + UdV

où S est l'entropie et V le volume du "gaz de lumière", conduit à dS = 4PdV/T + 3VdP/T, donc à identifier ∂S/∂V = 4P/T et ∂S/∂P = 3V/T. Les dérivées croisées ∂2S/∂V∂P et ∂2S/∂P∂V sont égales, et la pression P ne dépend que de la température T et non du volume V (puisque P=U/3) d'où:

dP/dT = 4P/T ⇒ P T4

⇒ U = σ T4

La constante de proportionnalité σ s'appelle la constante de Stefan-Boltzmann et vaut σ = 5.67×10−8 W m−2 K−4. Sa valeur découle en fait du spectre de Planck ☞ σ = 2π5k4/15h3c2 (k = constante de Boltzmann, h = constante de Planck)

Boltzmann Ludwig Boltzmann (1844-1906)

Wien

Cela ne donnait pas la forme ρ(ν,T) du spectre. Il existait cependant une corrélation manifeste entre la couleur d'une source chaude et sa température: quand celle-ci augmentait, la couleur passait du rouge au bleu et au blanc ("chauffé au rouge", "chauffé à blanc").

Flammes d'un bec Bunsen

Changements de couleur de la flamme d'un bec Bunsen en augmentant la température

Ce ne fut pas simple à quantifier car, aux températures utilisées (entre 300 K et 2000 K au mieux), le maximum d'émission se trouve dans l'infrarouge. Pour que ce maximum soit dans la zone de lumière visible (domaine optique), il faut des températures bien plus élevées, de l'ordre de 6000 K comme dans le cas du Soleil, ou de flammes très chaudes.

Spectre du corps noir à 2000 K

Émission d'un corps chauffé à 2000 K (~1700 °C)

Spectre du corps noir à 6000 K

Émission d'un corps chauffé à 6000 K (~5700 °C)

Dans les années 1880, il apparut que le spectre du corps noir passait par un maximum à une fréquence νmax (ou de manière équivalente à une longueur d'onde λmax = c/νmax, où c est la vitesse de la lumière). Cette fréquence νmax augmentait avec la température. Wien put conclure que la relation était une simple relation de proportionnalité νmax = aT (dite loi de Wien). Son raisonnement était purement thermodynamique: il examina ce qui se passerait dans une enceinte dont le volume varierait adiabatiquement. D'une aprt la température d'équilibre changerait, et d'autre part les fréquences du rayonnement réémis par les parois en mouvement seraient décalées par effet Doppler.

Numériquement, νmax = [5.88*1010 Hz] T pour une température T en kelvins, et la longueur d'onde correspondant λmax = c/νmax = [2.3*10-3 m]/T.

Pour un corps tiède à T =300 K, le maximum d'émission est à 10 µm, dans l'infrarouge lointain, tandis que maximum démission d'une flamme à 1500 K est à 2000 nm, dans l'infrarouge proche (la distribution d'énergie s'étend à la partie visible du spectre, mais une flamme chauffe plus qu'elle n'éclaire, de même qu'une ampoule à incandescence).

Pour la forme du spectre du corps noir, Wien proposa en 1894 la forme semi-empirique:

ρ(ν,T) = ν3 f(ν/T)

Le coefficient ν3 conduit à la loi de Stefan-Boltzmann, en intégrant sur sur toutes les fréquences de zéro à l'infini, et quelle que soit la fonction universelle f(ν/T), restant à déterminer, elle conduit à la loi de Wien du déplacement du maximum νmax = aT .

Wien Wilhelm Wien (1864-1928)

De nombreuses tentatives, mêlant thermodynamique et électrodynamique, s'efforcèrent d'établit la forme de la fonction inconnue f(ν/T), sans guère de succès. En 1896, Wien proposa la forme empirique suivante:

f(ν/T) = exp{– β ν/T }

ou ρ(ν,T) = α ν3 exp{– β ν/T }

avec deux constantes α et β à déterminer expérimentalement. Cette forme passe par un maximum νmax = 3T/β ➛ β = 3 K/[5.88*1010 Hz]. Estimer α était un peu plus difficile, demandant une excellente photométrie absolue. La forme suggéré par Wien reproduisait très bien les mesures de l'émission du corps noir, qui se trouve en partie dans le domaine visible (optique) et ultraviolet pour des températures allant de 600 à 1800 K.

Planck

Planck s'intéressait avant tout à la thermodynamique, et surtout au second principe (dont il avait fait son sujet de thèse). Son but était de comprendre l'origine de l'irréversibilité (exprimée par l'augmentation inévitable de l'entropie d'un système isolé). Contrairement à Boltzmann, Planck ne considérait pas le second principe comme un effet statistique, vrai en moyenne, mais comme une loi fondamentale de l'univers. Planck s'opposait également à Boltzmann en défendant l'idée d'une matière continue et en refusant l'idée d'atomes. Mais il évolua progressivement sur ce point au cours des années 1890 admettant que le concept d'atome permettait de rendre compte simplement de très nombreuses propriétés physiques et chimiques de la matière (sans pour autant leur accorder une existence physique), et il finit par admettre leur réalité vers 1910.

Planck rechercha l'origine de l'irréversibilité dans l'électrodynamique de Maxwell, qu'il pensait plus fondamentale, et il se donna en 1895 comme programme de travail l'étude de l'interaction d'un oscillateur microscopique (un fragment de matière de masse et de charge électrique données, mais pas nécessairement un atome ou une molécule!) avec un champ électromagnétique. Ce n'était pas particulièrement original, Maxwell lui-même s'étant posé la question trente ans plus tôt, et bien d'autres dans l'intervalle.

Planck crut d'abord avoir détecté une "flèche du temps" dans les processus électromagnétiques, mais Boltzmann lui démontra en 1897 que les équations de Maxwell étaient invariantes par renversement du sens du temps, et que l'origine de l'irréversibilité devait se situer dans la matière plus que dans le rayonnement. C'est en abordant le cas de l'émission de rayonnement par un corps noir que Planck démontra en 1899 la formule de Wien, au prix d'une hypothèse hasardeuse sur l'entropie des oscillateurs.

Max Planck parvint à démontrer en 1899 la formule de Wien. Les équations de Maxwell indiquaient qu'une charge électrique accélérée (oscillante par exemple) rayonnait une onde électromagnétique, et perdait de ce fait de l'énergie. Inversement une onde électromagnétique exerçait une force sur une charge électrique et modifiait ainsi son mouvement. D'où l'idée de traiter la matière comme un ensemble d'oscillateurs (harmoniques) couplés entre eux par l'intermédiaire du champ électromagnétique. Cela ne suppose pas, a priori, que la matière soit formée d'atomes ou de molécules, mais seulement qu'on peut la découper par la pensée en un ensemble de pièces de masses et de charges données. Le champ électromagnétique lui aussi peut être représenté comme une superposition d'oscillateurs, chacun à une fréquence donnée, et ces oscillateurs se couplent par l'intermédiaire de la matière (le champ électromagnétique n'interagit pas avec lui-même selon Maxwell).

Rayonnement d'une charge accélérée Onde électromagnétique engendrée par une charge accélérée

 

Comme il existait manifestement un lien entre la température du corps et l'émission du rayonnement, la thermodynamique s'introduisait via le 1° principe, la conservation de l'énergie totale de l'ensemble matière et rayonnement, et le 2° principe, l'augmentation (ou au moins la constance) de l'entropie de l'ensemble. Planck considéra une collection de dipôles oscillants interagissant avec une superposition d'ondes électromagnétiques de fréquences diverses.

Son modèle d'interaction matière-rayonnement était le suivant:

Interation oscillateurs onde élecromagnétique

Planck supposa ensuite que, en équilibre thermodynamique, le champ électromagnétique était une superposition incohérente d'ondes de toutes les fréquences ν avec un poids ρ(ν,T) dépendant de la température, poids qui était précisément celui qu'il voulait justifier, et il en déduisit que la distribution d'énergie des oscillateurs était reliée à celle du rayonnement par

U(ν,T)=ρ(ν,T) c3/8πν2

Restait à déterminer U, et Planck posa (sans justification d'aucune sorte) que l'entropie S était donnée par

S = (U/a ν) Log (U/b ν) où a et b sont des constantes

Cette définition quelque peu ad hoc de l'entropie de ces dipôles était le maillon faible de son raisonnement. Mais elle lui permettait (via dU=TdS) de calculer U

U = b ν exp{a ν/T} qui donne pour ρ(ν,T) la forme de Wien

Le spectre de Planck

Paschen étendit en 1897 les mesures de photométrie au proche infrarouge (longueurs d'onde λ de 1 à 8 µm) avec des sources dont la température pouvait varier de 400 à 1600 K, et la forme de Wien rendait encore très bien compte de ses mesures.

Mais en 1900, des déviations apparurent. À Berlin, Otto Lummer (1860-1925) et Pringsheim observèrent un écart par rapport aux prédictions de Wien dans l'infrarouge moyen (longueurs d'onde λ de 12 à 18 µm), et peu après Rubens et Kurlbaum, également à Berlin, en observèrent de plus marquées dans l'infrarouge lointain (longueurs d'onde λ de 30 à 60 µm).

Manifestement la loi de Wien était excellente à haute fréquence mais elle sous-estimait l'émission à basse fréquence. Pour des températures dans l'intervalle 300 à 1800 K, employées dans ces mesures, les hautes fréquences correspondaient au domaine ultraviolet et optique et les basses fréquences au domaine infrarouge.

Wien Planck Rayleigh

Comparaison entre les lois proposées par Wien (courbe bleue), Planck (courbe verte) et Rayleigh (courbe rouge) pour le spectre du corps noir.

 

À la mort de Kirchhoff, Planck lui avait succédé à la chaire de physique théorique de l'université de Berlin, et il était de ce fait très bien placé pour être au courant des résultats expérimentaux de Lummer et Pringsheim d'une part et de Rubens et Kurlbaum d'autre part au printemps et à l'été 1900. Il sut ainsi très vite que les observations déviaient de la loi de Wien à basse fréquence.

Le 7 octobre 1900, Rubens l'informa que ses résultats indiquaient que l'énergie émise augmentait proportionnellement à la température, pour une fréquence ν fixée (et basse). Dans leur expérience, Rubens et Kurlbaum sélectionnaient en effet d'abord une fréquence (via des réflexions multiples jouant le rôle de filtre de fréquences), variaient ensuite la température et mesuraient l'énergie émise.

Planck trouva en quelques heures une fonction capable d'interpoler entre la forme de Wien et le résultat annoncé par Rubens:

Pour ν grand, l'exponentielle au dénominateur est en effet beaucoup plus grande que 1, qui est négligeable, et on retrouve la forme de Wien. Pour ν petit, l'argument de l'exponentielle est petit et en utilisant le développement limité ex~1+x, le 1 se compense avec le -1 au dénominateur et la formule de Planck devient ρ(ν,T) ~ ν2 T. Planck rendit publique son interpolation le 19 octobre 1900.

Spectre de Planck à 1000 K

Spectre d'un corps noir à T=1000 K (©F. Besnard)

Rayleigh & Jeans

Précisément William Strutt (1842-1919), aussi connu comme Lord Rayleigh, avait proposé dès le mois de juin 1900 une forme différente pour le spectre du corps noir qui:

Rayleigh

William Strutt, 3° baron Rayleigh (1842-1919), avait été étudiant de Stokes à Cambridge, puis il avait succédé à Maxwell à la direction du laboratoire Cavendish de 1879 à 1884.Il s'est beaucoup intéressé à l'acoustique, au rayonnement, et sa découverte des gaz nobles lui valut le prix Nobel de physique en 1904.

La forme proposée par lord Rayleigh était ρ(ν,T) ν2 T. Notons que c'est un cas particulier de la forme proposée par Wien en 1894 ρ(ν,T) = ν3 f(ν/T) et qu'elle redonne donc la loi de Stefan-Boltzmann et la loi de déplacement de Wien. Mais elle ne rend pas compte des mesures à haute fréquence et, pire, prévoit une émission infinie d'énergie par un corps chauffé puisque l'intégrale sur toutes les fréquences diverge du côté des hautes fréquences (ce que Ehrenfest baptisa en 1911 la "catastrophe ultraviolette").

Loi de Rayleigh-Jeans Loi de Rayleigh-Jeans (©C.R. Nave, 2006)

Bien qu'elle résultât d'un calcul impeccable de thermodynamique du rayonnement, la forme de Rayleigh ne rendait manifestement pas compte des observations, sauf à basse fréquence. Rayleigh la compléta donc par un facteur exponentiel purement ad hoc, calqué sur la proposition de Wien pour les hautes fréquences:

ρ(ν,T) = 8πk/c3 ν2 T exp{– β ν/T}

où k est la constante de Boltzmann et c la vitesse de la lumière.

Bizarrement, Rayleigh ne calcula pas avant 1905 le coefficient de proportionnalité 8πk/c3, et encore en oubliant le 8, ce que Jeans corrigea immédiatement. Quant à l'origine de cette exponentielle, elle pouvait être cherchée soit dans un écart à l'équilibre thermique (la position défendue par Jeans) soit dans un écart à l'équipartition de l'énergie pour un rayonnement de haute fréquence (la position défendue par Rayleigh). Einstein montra en 1905 qu'elle était en fait due à la nature granulaire, ou corpusculaire de la lumière.

La forme proposée par Rayleigh ne rendait cependant pas parfaitement compte des observations pour les fréquences intermédiaires, alors que celle proposée peu après par Planck en rendait admirablement compte à toutes les fréquences. Elle fut donc très vite adoptée par les physiciens comme très bonne description empirique.

Apparition des quanta

Planck n'était cependant pas satisfait d'avoir trouvé, en partie par intuition, la bonne forme expérimentale du spectre, il voulait en comprendre l'origine théorique. Il reprit donc le calcul qu'il avait mené l'année précédente pour démontrer la formule de Wien. Son idée fut donc de partir de la "bonne" formule pour le spectre, de remonter à la définition correspondante de l'entropie et, espérait-il, en comprendre ainsi l'origine. Repartant de la relation entre les distributions d'énergie des oscillateurs et du rayonnement U(ν,T)=ρ(ν,T) c3/8πν2, il lui fallait à déterminer l'énergie moyenne U des N oscillateurs en équilibre thermodynamique, et pour cela Planck avait deux possibilités:

Planck dût alors se résoudre à utiliser la relation de Boltzmann S = k Log W où W est le nombre de microétats d'énergie U, donc à admettre la valeur de la thermodynamique statistique.

Equation de Boltzmann

L'équation de Boltzmann, telle qu'elle est gravée sur sa pierre tombale à Vienne

Autrement dit ε = hν

où la constante de proportionnalité h est aujourd'hui nommée la constante de Planck

Planck publia sa dérivation le 14 décembre 1900, mais celle-ci posait autant de problèmes qu'elle en résolvait. La discrétisation de la matière en N oscillateurs résonants et de l'énergie en P paquets était une étape nécessaire, et d'ailleurs alors banale, pour faire le calcul du nombre W de microétats, mais la procédure de Planck était étrange à plusieurs égards:

Planck considéra cette étrange discrétisation comme un artefact de la méthode de calcul, sans y voir une information réelle sur les échanges d'énergie entre matière et rayonnement. Il ne dit nulle part dans son article que l'énergie reçue ou perdue par un oscillateur est un nombre entier de fois ε , ce qui aurait accordé une réalité physique à cet ε. Il ne publia d'ailleurs rien d'autre sur la théorie du corps noir entre 1901 et 1906.

L'idée de quantum d'énergie ne se fit jour que très progressivement, et elle est essentiellement due à Einstein qui réalisa d'abord que ce ε = hν régulait bien les échanges d'énergie entre matière et rayonnement, puis ensuite (dans ses travaux sur l'effet photoélectrique) que cela impliquait que l'énergie électromagnétique elle même était quantifiée et (pas seulement lors d'un échange d'énergie). C'est alors qu'il introduisit la notion de "quantum de lumière".

Planck se refusa à l'admettre, avant de s'y rallier progressivement entre 1908 et 1911 sous l'influence de Lorentz.

Quelle qu'en soit la justification théorique, le spectre du corps noir proposé par Planck correspondait si bien aux mesures expérimentales qu'il fut adopté presque immédiatement par tous les physiciens du domaine.

ρ(ν,T) = 8πh/c3 ν3 / [exp{hν/kT} – 1]

Le domaine des basses fréquences est couramment appelé domaine (ou secteur) de Rayleigh et celui des hautes fréquences domaine de Wien.

Loi de Planck

Le spectre du corps noir, en échelles logarithmiques, à différentes températures. Les spectres ne se croisent pas, la fréquence du maximum augmente linéairement avec la température (loi de déplacement de Wien), et l'aire sous la courbe (l'énergie totale du rayonnment) augmente comme la puissance quatrième de la température (loi de Stefan-Boltzmann). À une température donnée, le spectre du corps noir s'étend toujours en fréquence de zéro à l'infini, mais l'essentiel de l'énergie est émise dans une bande relativement étroite autour du maximum. Un corps noir dont la température est de quelques kelvins émet des ondes radio millimétriques, tandis qu'à plusieurs millions de kelvins il émet des rayons X.

D'après les mesures expérimentales (la valeur de la constante de Stefan-Boltzmann et le coefficient de la loi de déplacement de Wien-, Planck estima que la valeur de la constante h valait 6.55*10-34 J.s (la fréquence ν s'exprime en hertz = s–1). Cela indique la qualité des expériences alors menées, puisque la valeur actuellement admise est de 6.63*10-34 J.s. Ces expériences permettaient aussi d'évaleur la constante de Boltzmann k. Elles donnaient k = 1.34*10-23 J/K (valeur actuelle 1.38), et de là il était possible d'évaluer le nombre d'Avogadro (nombre de molécules par mole) NA = 6×1023, rapport entre la constante R=8.3 J/mole/K de l'équation des gaz parfaits (PV=nRT) et la constante de Boltzmann. Ensuite, il devenait possible de calculer la charge élémentaire e comme le rapport entre le faraday (96500 coulombs/mole) et le nombre d'Avogadro.

Planck obtenait ainsi une évaluation e = 1.56*10-19 C (valeur actuelle 1.60) bien meilleure que la valeur e = 2.2*10-19 C que Thomson mesurait au même moment. La mesure de la charge électrique des particules alpha, par Rutherford et Geiger en 1908, confirma la valeur de Planck.

La dérivation par Planck de sa formule ne satisfaisait personne, Planck moins que tout autre, et de nombreuses tentatives se succédèrent (dont Einstein en 1916) pour la placer sur des bases solides. Peter Debye en donna une en 1910 qui fut longtemps considérée comme la plus satisfaisante jusqu'à celle de Bose en 1924, puis finalement celle de Dirac en 1927.

Einstein

Einstein Albert Einstein en 1904

Dans son premier article de 1905 Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt (Sur un point de vue heuristique concernant la production et la transformation de la lumière), consacré en fait à l'effet photoélectrique, Einstein aborda la formule de Planck. Il admettait qu'elle était en parfait accord avec les observations, mais il fut un des premiers à attirer l'attention sur les failles de la dérivation que Planck en avait donné. Il indiquait en effet que l'équilibre thermique entre rayonnement et matière E(ν,T)=ρ(ν,T) c3/8πν2 et l'équipartition de l'énergie E= kT conduisait inévitablement à la solution de Rayleigh ρ(ν,T) = 8π/c3 ν2kT (dont il donnait d'ailleurs le coefficient). Rayleigh avait ajouté l'exponentielle exp{– β ν/T} introduite par Wien, pour améliorer l'accord avec les expériences, sans toutefois y parvenir de manière satisfaisante comme Rubens et Kurlbaum l'avaient rapidement montré.

Einstein tenta ensuite de trouver l'origine théorique de cette exponentielle, et son approche revint essentiellement à montrer qu'elle était exactement celle que la thermodynamique statistique de Maxwell et Boltzmann prévoirait pour un gaz de particules indépendantes en équilibre thermique à la température T et ayant chacune une énergie E=hν:

Maxwell-Boltzmann: exp{-E/kT}

Wien: exp{-β ν/T}

Einstein disait en fait que "tout se passait comme si" la lumière (à haute fréquence en tout cas, dans le domaine de Wien) se comportait comme un ensemble de particules, ce qu'Einstein appela "l'hypothèse des quanta de lumière" (Lichtquanten). Dans un deuxième temps, Einstein suggérait que ces quanta pouvaient également jouer un rôle dans l'interaction (émission et absorption) de la lumière avec la matière. Le saut conceptuel de Planck à Einstein était considérable: la quantification de Planck ne concernait que les interactions entre matière et rayonnement, mais pas le comportement du rayonnement pur, alors qu'Einstein n'excluait pas une quantification du rayonnement lui-même. Il était ainsi prêt à admettre, au moins provisairement, que la lumière soit physiquement formée d'objets d'énergie hν, les quanta de lumière, et il utilisa ce concept pour résoudre la question de l'effet photoélectrique.

Le terme "quantum de lumière" fut remplacé par celui de "photon", introduit en 1926 par le chimiste Gilbert Lewis: "I therefore take the liberty of proposing for this hypothetical new atom, which is not light but plays an essential part in every process of radiation, the name photon." (Lewis, Nature 1926). Lewis est surtout connu pour ses travaux conduisant aux notions modernes d'acides et de bases ("de Lewis") et à celle de liaison covalente, mais il proposa aussi cette théorie, très vite abandonnée, dans laquelle les photons étaient des particules indestructibles constitutives de la matière et n'étant que très occasionnellement porteuses "d'énergie radiante". Soit l'exact contraire du Lichtquant d'Einstein… mais le mot photon fut immédiatement adopté pour le décrire: la 5° conférence Solvay en 1927 avait pour thème "Électrons et photons".

Einstein était parfaitement conscient du conflit entre ses quanta et les expériences qui prouvaient la théorie ondulatoire de la lumière, comme les interférences, et il considérait comme temporaire le concept de quanta: "J'insiste sur le caractère provisoire de ce concept qui ne semble pas réconciliable avec les conséquences expérimentalement vérifiées de la théorie ondulatoire" déclarait-il en 1911 lors du 1° Congrès Solvay. Il conserva cette attitude jusqu'à la fin de sa vie.

A posteriori, nous savons que la statistique de ces quanta ne suit pas la forme de Maxwell-Boltzmann mais celle de Bose-Einstein (qui conduit justement à la forme 1/[ex-1]) et qu'ils ne sont pas complètement indépendants du point de vue quantique parce qu'ils sont indiscernables, ce qui induit une corrélation. La dérivation d'Einstein suppose également, implicitement, que ces quanta de lumière sont conservés (sinon ce n'est pas la forme de Maxwell-Boltzmann qui apparaîtrait, il y aurait un terme additionnel). Mais ces deux erreurs sont en fait négligeablesdans le domaine de Wien.

L'article d'Einstein de 1905 ne portait qu'indirectement sur la formule de Planck, le coeur de l'article concernant l'effet photoélectrique.

L'effet photoélectrique

Effet photovoltaïque

Edmond Becquerel (Becquerel II, le fils d'Antoine et le père d'Henri) découvrit en 1839 qu'éclairer certains matériaux provoquait le passage d'un courant électrique (effet photovoltaïque). Becquerel, qui n'avait alors que 19 ans, étudiait l'effet de la différence de température entre deux électrodes de platine plongées dans un bac d'électrolyse, quand il s'aperçut que l'effet dépendait aussi de la lumière éclairant le bac. Par l'usage de filtres colorés, il démontra que l'effet photoélectrique n'était pas un effet thermoélectrique dû au rayonnement calorifique (infrarouge), et que le courant induit par l'éclairement des électrodes était d'autant plus intense en lumière bleue qu'en lumière rouge, et il explora ensuite l'influence du métal des électrodes (platine, cuivre, argent) et celle de l'électrolyte utilisé. Becquerel apporta ainsi pour la première fois la preuve d'un lien entre lumière et électricité.

Edmond Becquerel Edmond Becquerel (1820-1891)

Article d'Edmond Becquerel

La conclusion de l'article d'Edmond Becquerel (C.R. Acad Sc; 1839)

Les études menées par la suite montrère que cet effet photovoltaïque est une propriété des certains corps intermédiaires entre les métaux (conduisant l'électricité) et les isolants, et que l'on nomme de ce fait les semi-conducteurs et dont l'importance économique est aujourd'hui colossale (plus de 300 milliards de dollars par an pour les seuls fabricants de semi-conducteurs, les fondeurs). L'explication de l'effet photoélectrique dut attendre l'avènement de la mécanique quantique. Dans un atome isolé, les électrons occupent des niveaux d'énergie discrets. Quand plusieurs atomes sont assemblés, les interactions entre eux conduisent à la formation d'un très grand nombre de niveaux très proches les uns des autres, formant ainsi plsuieurs "bandes" larges d'énergies permises pour les électrons, séparées par des bandes "interdites" dont l'origine est liée à la régularité de la structure cristalline. Dans un métal, ces bandes se chevauchent et un très faible apport d'énergie permet à un électron de se déplacer: le métal est conducteur. Dans un isolant, la bande d'énergie occupée par les électrons, la bande de valence, est nettement séparée de la bande d'énergie dans laquelle les électrons pourraient se déplacer. Seul un apport très important d'énergie aux électrons leur permet de sauter cet intervalle: c'est ainsi qu'un étincelle peut jaillir dans l'air (isolant) entre deux électrodes sous forte tension. Dans un semi-conducteur, l'écart entre la bande de valence et la bande de conduction est faible, de l'orde d'un électron-volts, et un apport d'énergie sous forme de lumière (effet photoélectrique), de chaleur (effet thermoélectrique) ou un champ électromagnétique peut suffire à produire un courant électrique.

Isolant, semiconducteur, conducteur

L'intervalle entre bandes dépend du semi-conducteur: 0.7 eV pour le germanium, 1.1 eV pour le silicium par exemple. Et pour le réduire encore, on "dope" souvent le semi-conducteur avec des atomes d'un élément différent. Cela perturbe la régularité de la structure cristalline, crée des îlots permis dans la bande interdite et en facilite la traversée comme des pierres à travers un gué. Et selon le dopage, on crée des semi-conducteurs avec un excès d'électrons libres (semi-conducteurs N) ou un défaut (semi-conducteurs P) et les jonctions P-N entre semi-conducteurs opposés permet de réaliser des diodes (éventuellement capables d'émettre de la lumière, les LED), des transistors et maintenant tout un circuit électronique (les "puces" de nos appareils omniprésents).

Publicité de 1956 pour des cellules photoélectriques

Publicité des Bell Laboratories pour les premières cellules photoélectriques commercialisées (revue Look, 1956)

Cela permet d'améliorer fortement le rendement de l'effet photoélectrique. Le sélénium transforme en électricité moins de 1% de l'énergie lumineuse reçue, tandis qu'une jonction P-N de silicim atteignait des rendements de 6% dès 1954, et les meilleures cellules photoélectriques actuelles approchent d'un rendement de 45%. Parallèlement, les prix ont fortement baissé, de 500 $/W en 1970 à un peu plus de 1$/W actuellement (en dollars de 2012) pour les cellules elles-mêmes.

Effet photoélectrique

L'effet photoélectrique est différent de l'effet photovoltaïque: dans le premier, la lumière arrache des électrons au métal, tandis que dans le second la lumière excite seulement les électrons de la bande de valence à la bande de conduction.

Hertz Heinrich Rudolf Hertz (1857-1894)

En 1887, au cours de ses expériences visant à mettre en évidence les ondes électromagnétiques prédites par les équations de Maxwell (nos actuelles ondes hertziennes), Hertz mesurait la longueur des étincelles produites dans l'ouverture de l'anneau métallique qui lui servait de détecteur. Pour mieux les voir, il plaça l'anneau ouvert dans une boîte obscure avec un hublot de verre, et les étincelles devinrent plus courtes! Ce n'était pas le cas si le hublot était en quartz. Et si la pièce était brillamment éclairée en brûlant du magnésium, les étincelles étaient plus longues. Précis, Hertz détermina que c'était la portion ultraviolette de la lumière blanche du magnésium qui était responsable de l'allongement des étincelles, et que la différence entre verre et quartz était due à l'absorption des ultraviolets par le verre. Hertz ne poursuivit pas l'étude de cet intéressant phénomène, se focalisant sur les ondes hertziennes.

Expérience de HertzExpérience de Hertz

Wilhelm Hallwachs (1859-1922), qui avait été en 1886 l'assistant de Hertz, réalisa en 1887 et 1888 une série d'expériences au cours desquelles il mesura la vitesse de décharge d'un électroscope éclairé par une lampe au magnésium. Il découvrit que l'électroscope se déchargeait rapidement si les lamelles portaient initialement des charges négatives, mais beaucoup plus lentement s'il était initialement chargé positivement. La photoélectricité sucita beaucoup d'intérêt. Hallwachs suggéra que la lumière éjectait du métal des corpuscules chargés négativement (il pensait alors plus à des poussières métalliques qu'aux électrons que Thomson n'avait pas encore découvert), et des idées semblables furent avancées par Lénárd et Wolf en 1889. Cela expliquait la différence de comportement de l'électroscope selon sa charge. Il montra aussi que l'effet dépendait beaucoup du métal, le sélénium se montrant particulièrement efficace. Alexandre Stoletov démontra en 1888 que l'intensité du courant était proportionnelle à l'intensité de l'éclairement.

Montage de Hallwachs

Expérience de Hallwachs: une lampe au magnésium comme source de lumière à gauche, un électroscope à lamelles de zinc au centre, et un électromètre de Hankel à droite pour des mesures précises de la décharge de l'électroscope.

Après la découverte de l'électron, Thomson avait dé montré en 1899 que la lumière ultraviolette projetée sur une surface métallique provoquait l'émission d'électrons (plutôt que des poussières métalliques chargées comme Hallwachs l'avait avancé), en mesurant leur rapport masse/charge électrique et en vérifiant qu'il était le même que celui des rayons cathodiques. Que la lumière éjecte des électrons n'avait en soi rien de très surprenant: la lumière étant une onde électromagnétique devait "secouer" les électrons et en éjecter certains à l'occasion. Plus l'éclairement était intense et plus le nombre d'électrons éjectés était grand, conduisant à la loi de Stoletov.

Philipp Lénárd (1862-1947) qui avait été l'élève de Bunsen, Hertz, Helmholtz et Eötvös, avait beaucoup travaillé sur les rayons cathodiques. C'est lui qui avait eu l'idée de la fenêtre métallique dans un tube de Crookes pour laisser sortir les rayons cathodiques et étudier leur pénétration dans l'air et divers matériaux. Ces études le convainquirent que ces rayons étaient de très petites particules matérielles (beaucoup plus petites que les atomes ou les molécules qu'elles traversaient aisément), corroborant ainsi les résultats de Thomson. Il montra en 1900 que les rayons ultraviolets ionisaient l'air, et que les particules éjectées d'un métal par les ultraviolets étaient bien des électrons.

Un problème?

Lénárd étudia en 1902 comment l'énergie de ces électrons émis variait en fonction de l'éclairement. Pour cela une plaque chargée négativement était placée à proximité de la plaque éclairée par une puissante lampe à arc dont l'intensité pouvait varier d'un facteur 1000. La plaque négative repoussait donc les électrons. Seuls l'atteignaient (et provoquaient un courant mesurable) les électrons d'énergie (cinétique) suffisamment grande pour vaincre la répulsion. Lenard observa que si le potentiel de la plaque négative était assez élevé, V>Vmax, aucun électron ne l'atteignait.

La surprise était qu'intensifier l'éclairement ne changeait rien à ce potentiel: que la lumière soit faible ou intense ne modifiait pas l'énergie des électrons et ils n'atteignaient pas mieux l'électrode. Autrement dit, l'énergie des électrons ne dépendait pas de l'intensité de la lumière. Par contre elle dépendait de la fréquence (ou de la longueur d'onde) de la lumière: le potentiel d'arrêt était plus élevé en lumière ultraviolette qu'en lumière bleue. L'expérience de Lénárd ne permettait pas de mesurer précisément la relation entre la fréquence de la lumière et le potentiel d'arrêt, car le métal devait être très pur (il s'oxydait en quelques minutes et cela faussait l'expérience).

La théorie de la lumière comme onde électromagnétique ne permettait pas de comprendre ce phénomène. L'énergie du rayonnement augmentant avec son intensité, on peut comprendre qu'augmenter cette intensité augmente le nombre d'électrons, mais pourquoi n'augmentait-elle pas aussi l'énergie individuelle de ces électrons? L'existence d'un seuil pour l'effet photoélectrique n'était pas trop surprenante, mais on se serait plutôt attendu à un seuil en intensité qu'un seuil en fréquence: que les électrons aient besoin d'énergie pour quitter le métal était raisonnable, mais il eut paru logique que, à faible intensité du rayonnement, les électrons doivent accumuler peu à peu l'énergie nécessaire, et donc que le phénomène présente une certaine latence. Mais rien de tel n'apparaissait: aucun électron n'était émis en dessous du seuil en fréquence, et dès le seuil franchi des électrons étaient éjectés en nombre proportionnel à l'intensité de l'éclairement.

L'expérience de Lénárd fut répétée de nombreuses fois au cours des années suivantes, par Langevin, Bloch, Thomson, Palmer et finalement par Millikan (dont le prix Nobel en 1923 récompensa autant ses travaux sur l'effet photoélectrique que ceux sur la charge de l'électron). Il s'avéra que le potentiel d'arrêt Vmax augmentait linéairement avec la fréquence ν de la lumière, exactement comme Einstein l'avait prédit.

Einstein

Dans son premier article de 1905, dans lequel il accordait un sens physique à la quantité d'énergie ε = hν imaginée par Planck pour aboutir au bon spectre du corps noir, Einstein avait remarqué que le spectre de Planck ressemblait étonnamment à la distribution thermique des molécules d'un gaz telle que Maxwell et Boltzmann l'avait établie. Il avait alors formulé son hypothèse du "quantum de lumière": dans certaines conditions, une lumière de fréquence ν se comporte comme si elle était formée de corpuscules chacun porteur d'une énergie E = hν.

Dans la suite de son article, Einstein s'appuya sur cette idée pour donner son interprétation de l'effet photoélectrique et du comportement anormal découvert par Lénárd. Selon Einstein, un électron ne pouvait quitter le métal éclairé par la lumière que s'il recevait une énergie supérieure à un seuil Eseuil, correspondant à son énergie de liaison avec le métal. Einstein disait ensuite qu'un quantum de lumière (photon) n'interagissait qu'avec un seul électron, auquel il apportait toute son énergie avant de disparaitre. Si cette énergie Ephoton = hν était supérieure à l'énergie de seuil Eseuil,, l'électron était éjecté, avec une énergie égale à la différence Ephoton–Eseuil.

Ce raisonnement expliquait pourquoi une lumière de basse fréquence n'arrachait aucun électron, quelle que soit son intensité: aucun photon n'avait assez d'énergie pour arracher un seul électron. Il expliquait aussi pourquoi le seuil variait avec le métal: il était raisonnable de penser que l'énergie de liaison des électrons,Eseuil, dépendait de la structure cristalline. Elle expliquait enfin pourquoi augmenter la fréquence de la lumière, augmentant l'énergie disponible pour les électrons éjectés, augmentait le potentiel d'arrêt pour stopper ensuite ces électrons.

Effet photoélectrique

Interprétation (schématique) par Einstein de l'expérience de Lénárd, dans le cas du potassium. Un électron est éjecté s'il reçoit au minimum une énergie de 2 eV. Les photons de la lumière rouge (λ=700 nm) n'ont pas assez d'énergie pour éjecter des électrons. les photons de la lumière verte (λ=550 nm) apportent 2.25 eV, permettant chacun à un électron de s'échapper en emportant 0.25 eV, ce qui lui communique une vitesse de 2.96*105 m/s. Un photon de lumière bleue (λ=400 nm) apporte 3.1 eV permettant à un électron de s'échapper avec une énergie cinétique de 1.1 eV, correspondant à une vitesse de 6.22*105 m/s.

Le raisonnement d'Einstein ne se contentait pas d'expliquer qualitativement les observations, il permettait trois prédictions quantitatives importantes. L'énergie Ephoton = hν des photons étant proportionnelle à la fréquence ν, l'énergie des électrons émis est:

Le potentiel d'arrêt étant Vmax = Eélectron/e (e étant la charge électrique d'un électron) Einstein pouvait prédire que :

  1. la relation entre Vmax et fréquence serait une fonction linéaire (une droite dans un diagramme Vmax en fonction de ν):
  2. Vmax = (h/e) ν – (Eseui/e)

  3. la pente h/e de cette droite devait être universelle, la même pour tous les corps photoélectriques;
  4. cette pente permettrait, connaissant la charge e de l'électron, de calculer la constante de Planck h de manière totalement indépendante de la théorie du corps noir et, en cas d'écart important, de réfuter son idée de quantum de lumière.

En 1905, il s'agissait bien de prédictions, qui furent progressivement vérifiées au cours des années suivantes et valurent à Einstein le prix Nobel de physique en 1921. Les expériences étaient délicates: en 1909 Ladenburg parlait d'une corrélation entre potentiel d'arrêt et fréquence, sans garantir qu'elle soit linéaire, en 1912 Hughes (un élève de Thomson) annonçait une relation linéaire mais trouvait une pente différente d'un corps à l'autre. Les résultats de Hughes étaient cependant très contestés.

Parallèlement, Millikan s'efforçait depuis 1912 à Chicago de mesurer les potentiels d'arrêts de plusieurs métaux alcalins (sodium, potassium, césium). Doutant fortement de l'idée des quanta de lumière, Millikan s'était lancé dans ces expériences délicates pour la réfuter. Mais en 1914, 1915 et 1916 il publia une série de résultats indiquant sans nul doute que la relation était linéaire, que la pente était universelle et il put donner une estimation de la constante de Planck h = 6.56*10-34 J.s (presque la valeur annoncée par Planck, quoique toutes deux trop faibles de 1%). Ces expériences valurent à Millikan (avec celles sur la charge de l'électron) le prix Nobel de physique en 1923. En 1915, Duane et Hunt avaient observé à Harvard une sorte d'effet photoélectrique inverse: un tube à rayons X produisait des rayons X dont le spectre en fréquence était nettement coupé au delà de la fréquence ν correspondant exactement à l'énergie des électrons bombardant l'anode, énergie que l'on pouvait varier via le voltage V appliqué au tube. Duane et Hunt établirent que ν=eV/h, et calculèrent ainsi h = 6.39*10-34 J.s. Ces confirmations des prédictions d'Einstein ne suffirent d'ailleurs pas à convaincre la plupart des physiciens du bien fondé du concept de quantum de lumière, y compris Millikan ou Duane eux-mêmes. La raison de cette défiance se trouve dans l'apparente perfection des équations de Maxwell couplée aux résultats expérimentaux démontrant sans le moindre doute la nature ondulatoire de la lumière.

Effet photoélectrique: Millikan

Relation linéaire entre le voltage et la fréquence de la lumière (Millikan, conférence Nobel 1923). Le calcul encadré est celui qui donne la valeur de la constante de Planck (en unités cgs) dans l'interprétation de l'effet photoélectrique par Einstein.

Émission et absorption de lumière par les atomes

Kirchhoff

☛ Deuxième axe du programme de Kirchhoff: les raies apparaissant dans les spectres d'émission.

Ces raies sont une signature des éléments chimiques les émettant. Dans le visible, plutôt des spectres atomiques, dans le domaine infrarouge plutôt des spectres moléculaires (normal, c'est une question d'énergie via E=hν et les liaisons atomiques sont en général plus fortes que les liaisons moléculaires).

En 1853, Anders Jonas Ångström observa pour la première fois le spectre de l'hydrogène grâce à un tube rempli d'hydrogène et soumis à une forte tension électrique (l'ancêtre du tube cathodique): il observa les raies Hα (rouge), Hβ (bleue) et Hγ (violette), puis une 4°, Hδ, fut découverte également dans le violet.

Raies de l'hydrogène

Les 4 raies "de Balmer" du spectre de l'hydrogène

Combinant un tube de Geissler rempli d'hydrogène et une bobine de Ruhmkorff pour augmenter l'intensité de l'émission, Julius Plücker mesura en 1859 leur longueur d'onde et Ångström améliora en 1868 ces valeurs. Elles étaient déjà très précises comme le montre le tableau suivant:

  Plücker Ångström Actuellement
Hα
653.3
656.21
656.28
Hβ
484.3
486.07
486.13
Hγ
433.9
434.01
434.05

En 1858, Plücker avança que les raies spectrales étaient des signatures sans ambigüité des gaz qui les émettent. En 1859 Kirchhoff interpréta un doublet de raies sombres (raies de Fraunhofer) dans le spectre du Soleil comme des raies d'absorption dues à la présence de sodium dans l'atmosphère du Soleil. Il était parvenu à cette "explication inattendue" (unerwartete Aufschluss) en interposant une flamme brûlant su sel de cuisine (chlorure de sodium) sur le trajet des rayons solaires: quand la lumière solaire était atténuée, il observait un doublet de raies brillantes (les raies jaunes du sodium) se transformant progressivement en un doublet de raies sombres quand la luminosité solaire augmentait. Cette observation marquait le début de l'astrophysique.

Quelques semaines plus tard, Kirchhoff en donna une explication théorique: un corps chauffé émet un spectre continu, un gaz excité comme celui du tube de Geissler émet un spectre de raies avec des longueurs d'onde caractéristiques du gaz, un gaz froid absorbe la lumière à ces mêmes longueurs d'onde. Ces intuitions furent confirmées au cours de mesures effectuées par Kirchhoff et Bunsen au cours des années suivantes. Le brûleur à haute température (le "bec Bunsen", perfectionnement par Bunsen et Desaga en 1854 d'un modèle de Faraday) se révéla essentiel pour ces études au cours desquelles ils soumirent différents matériaux à la flamme du brûleur et en comparèrent les spectres. Kirchhoff et Bunsen montrèrent que la position des raies n'était pas modifiée par les conditions physiques et chimiques auxquelles ils soumettaient leurs échantillons et qu'elle permettait d'identifier avec précision quel élément en était émetteur.

Lois de Kirchhoff

Il devint apparent à partir de 1862 que les composés chimiques présentaient des raies autres que celles des éléments qui les composaient, et qui (ré)apparaissaient lorsque le composé était dissocié par la chaleur. Tout ceci parut remis en question lorsque Plücker et Hittorf annoncèrent en 1865 que certains éléments donnaient des spectres différents selon la température. Il fallut des (dizaines d') années avant que l'on comprenne que le même élément pouvait se présenter selon les circonstances sous forme monoatomique, diatomique, voire triatomique, formes auquelles s'ajoutaient divers degrés d'ionisation. Chacune de ces formes donnait des spectres différents.

Kirchhoff avait avancé que la spectroscopie pourrait permettre la découverte de nouveaux éléments chimiques, et il mit en pratique cette idée dès 1860 en découvrant avec Bunsen le césium et le rubidium. C'est églement ainsi que furent identifiés le thallium (ainsi nommé en raison de la brillante raie verte de son spectre), l'indium, le gallium, le germanium et le scandium. Ce fut également le cas pour la découverte des gaz nobles (autrefois appelés gaz rares ou gaz inertes). Pierre Janssen et Norman Lockyer identifièrent l'hélium dans le spectre solaire (d'où son nom tiré du nom grec du Soleil ήλιος).

Spectre de l'hélium

Spectre de l'hélium (©NASA)

En 1895, Rayleigh découvrit que l'azote de l'air n'avait pas la même densité que l'azote produit dans des réactions chimiques, d'où il déduisit la présente d'un autre composant, chimiquement inerte, qu'il isola et baptisa argon (du grec αργός inerte). L'argon représente près de 1% de l'air et Henry Cavendish en avait soupçonné la présence en 1784. Rayleigh découvrit ainsi l'existence d'une classe d'éléments jusqu'alors complètement insoupçonnée. Au cours de des travaux avec William Ramsay pour isoler l'argon, Rayleigh avait également isolé en 1895 l'hélium dans une roche terrestre (la clévéite, un minerai d'uranium). Mendeleiev ajouta en 1902 une nouvelle colonne à son tableau périodique. Par distillation fractionnée de l'air liquide, Ramsay découvrit ensuite en 1898 le néon (νέος le nouveau), le krypton (κρυπτός le caché) et le xénon (ξένος l'étranger). Rayleigh et Ramsay reçurent en 1904 le prix Nobel de physique et de chimie, respectivement, pour ces découvertes.

C'est également la spectroscopie qui confirma que le radium isolé par les Curie était un nouvel élément. Mais il y eut également des cas où l'identification d'un nouvel élément par la spectroscopie était erronée: le cas du nébulium identifié en 1864 par Huggins dans le spectre de la nébuleuse planétaire de l'Oeil de Chat à côté de l'azote et de l'oxygène ne fut résolu qu'en 1927 quand Ira Bowen montra qu'il s'agissait en fait de transitions entre des états métastables de l'azote ou de l'oxygène (en particulier l'oxygène deux fois ionisé O++), états possibles à très basse pression et de ce fait inobservables sur Terre.

Nébuleuse de l'Oeil de chat

La nébuleuse planétaire de l'Oeil de Chat (NGC 6543), un reste d'étoile dont l'émission verte dans l'enveloppe de gaz chaud fut attribuée à tort à un nouvel élément, le nébulium, par Williams Huggins en 1864.

Similairement, la raie verte très intense à 530 nm observée en 1869 dans la couronne solaire lors d'une éclipse, et attribuée à un nouvel élément, le coronium, se révéla en 1939 être due au fer très fortement ionisé (Fe13+). Ioniser le fer à ce point exige des températures de l'ordre du million de degrés, dont l'explication posa un grand défi aux astronomes.

L'émission intense de la couronne solaire, attribuée au "coronium"

Numérologie: Balmer et al.

Il était naturel d'attribuer les longueurs d'onde des raies spectrales d'un élément aux modes de vibration (probablement électrique) des atomes de cet élément, et plus précisément à une vibration fondamentale et à ses harmoniques. En 1871, Stoney (l'inventeur du mot électron) avait noté que les longueurs d'ondes des raies de l'hydrogène étaient dans le rapport

Hα : Hβ : Hδ= 1/20 : 1/27 : 1/32

et il en concluait qu'il s'agissait "des 20°, 27° et 32° harmoniques d'une vibration fondamentale", spéculant que les harmoniques manquantes finiraient par être découvertes. Pourquoi n'a-t-il pas inclu Hγ ? Une quête (sans succès) d'harmoniques dans différents spectres s'ensuivit.

Johann Jakob Balmer (1825-1898) était professeur de lycée à Bâle, tout en donnant à l'occasion des cours à l'université. Il avait un doctorat de mathématiques de l'université de Bâle pour une thèse en 1849 sur la cycloïde, et il se passionna ensuite pour la question des raies spectrales. Se focalisant sur le cas de l'hydrogène, a priori le plus simple, Balmer nota que la recherche d'harmoniques d'un mode fondamental n'avait rien donné de probant, mais que l'idée d'une relation simple entre les longueurs d'onde n'était pas exclue pour autant. Ångström avait donné pour les quatre raies de l'hydrogène Hα, Hβ, Hγ et Hδ les longueurs d'onde respectives λ=656, 486, 434, et 410 nm, et Balmer montra en 1885 qu'elles étaient reproduites avec une grande précision par la formule:

λ = λ0 m2/(m2-4) ou encore νm = ν0 (m2-4) / 4m2

avec λ0 = 364.56 nm et m=3, 4, 5 et 6. Balmer se permit même de féliciter Ångström pour la qualité de ses mesures car elles confirmaient sa loi. Sur cette base, Balmer prédit l'existence de raies pour toutes les valeurs de m!

Son collègue Eduard Hagenbach, professeur de physique à l'université de Bâle, l'informa alors que les spectroscopistes avaient déjà décelé d'autres raies de l'hydrogène. Ångström lui-même avait observé une raie à 397 nm (⇔ m=7) tandis qu'Hermann Vogel à Postdam et William Huggins à Londres en avaient observé plusieurs très proches, et à très courte longueur d'onde, dans le spectre des étoiles naines blanches (⇔ m=8 à 16).

Spectre de l'hydrogène

La formule de Balmer eut un grand retentissement car elle démontrait une régularité certaine dans la position des raies, et l'amélioration de la précision des expériences ne fit qu'en confirmer la valeur. Rayleigh évoquait en 1897 "la remarquable loi de Balmer", et Rydberg la commenta largement lors du Congrès International de Physique tenu en 1900 à Paris (lors de l'exposition universelle).

Formule de Rydberg

La formule proposée par Rydberg en 1888

Mais entretemps les relations entre raies spectrales étaient devenues plus claires (quoique toujours inexpliquées). Dans les années 1880, Jannes Rydberg (1854-1919), professeur à l'université de Lund, cherchait lui aussi à trouver une relation entre les fréquences des raies. Examinant celles des métaux alcalins, il observa qu'elles se succédaient presque de la même façon pour les différents métaux. Il rechercha alors une formule capable de reproduire la succession des fréquences avec un minimum de paramètres libres. Après avoir essayé sans succès νn = ν – ν0/(n+n0) il essaya

νn = ν – ν0/(n+n0)2 avec n=1, 2, 3…

où la fréquence ν0 est universelle (la même pour tous les atomes) tandis que la fréquence ν dépend de l'atome, de même que le nombre n0 (compris entre 0 et 1). La fréquence constante ν0 (ou plus exactement Ry0/c, c étant la vitesse de la lumière) est désormais appelée constante de Rydberg. Rydberg présenta sa formule en 1888 lors d'une conférence à Lund. Beaucoup de physiciens tentèrent ensuite d'établir des formules analogues pour divers spectres, sans grand succès, et Rydberg les passa en revue dans la synthèse qu'il présenta au Congrès de Paris en 1900. Rydberg dit à cette occasion qu'il ne connaissait pas l'existence de la formule de Balmer quand il établit la sienne, mais qu'il découvrit peu après que la formule de Balmer était un cas particulier de sa série, pour n0=0 et ν0/4, et il la généralisa alors sous la forme:

νnm = ν0 [1/n2 - 1/m2] ⇔ λ = λ0 m2n2/4(m2-n2)

où n est aussi un nombre entier (mais strictement inférieur à m), la formule de Balmer correspondant à n=2. La formule de Rydberg est bien plus simple exprimée en termes de fréquences plutôt que de longueurs d'onde. Ce qui semblait un jeu d'écriture se révéla crucial quand Theodore Lyman découvrit à partir de 1906 les raies de l'hydrogène dans l'ultraviolet (la série de Lyman) qui correspondaient exactement à la valeur n=1 (et m=2, 3, 4, 5 et 6), puis quand Friedrich Paschen découvrit en 1908 les raies dans l'infrarouge correspondant à n=3 (et m=4, 5, 6, 7 et 8). La série de Brackett (n=4) fut observée en 1922 puis la série de Pfund (n=5) en 1924 dans l'infrarouge lointain.

Un immense travail expérimental très précis avait été accompli à la fin du 19° siècle. Les six volumes du Handbuch der Spektroscopie, édité de 1900 à 1912 par Heinrich Kayser, donnaient la position de dizaines de milliers de raies spectrales pour des dizaines d'éléments. Les théoriciens s'efforçaient aussi d'expliquer l'origine des raies spectrales. Au terme d'une étude soigneuse, Lénárd conclut en 1903 qu'un atome donné n'émettait pas simultanément toutes les raies présentes dans le spectre de cet élément. Thomson en 1906 attribuait les raies aux corpuscules (les électrons) vibrant à l'extérieur de l'atome, bien qu'à d'autres moments il ait pensé qu'elles pouvaient provenir des anneaux stables d'électrons (à l'intérieur de son modèle atomique). Stark en 1907 attribuait les raies aux atomes ionisés et les bandes spectrales (quand plusieurs raies proches fusionnent) aux atomes neutres, position critiquée par Wien en 1909 car les atomes neutres (par exemple la vapeur de mercure) donnaient bien des raies. Autrement dit, la situation théorique était parfaitement confuse. En 1908, Walther Ritz (1878-1909) généralisa une observation faite par Rydberg en 1890: les fréquences des raies spectrales d'un élément donné étaient toujours des sommes ou des différences de fréquences caractéristiques (baptisées termes spectraux de l'élément en question). Les "termes spectraux" de l'hydrogène, par exemple, étaient les fréquences ν0/n2 de la formule de Rydberg. Ces termes spectraux apparaissaient ainsi comme plus fondamentaux que les raies elles-mêmes, mais leur origine et leur rôle étaient d'autant plus obscurs que toute somme ou différence de termes spectraux n'était pas nécessairement une raie spectrale permise. Ce "principe de combinaison de Rydberg-Ritz" joua un rôle important dans les idées de Bohr. Ritz élabora aussi une théorie de l'électromagnétisme corrigeant (à son avis) celle de Maxwell, mais elle n'eut pas de succès, d'autant que la mort prématurée de Ritz (tuberculose ou pleurésie) la fit tomber dans l'oubli.

Niels Bohr (1885-1962)

Niels BohrAprès un mémoire sur la vibration des liquides (qui lui fut très utile 30 ans plus tard quand il construisit une théorie des noyaux sous forme de "goutte liquide"), Niels Bohr avait soutenu en mai 1911 une thèse sur la théorie électronique des métaux, puis obtenu une bourse pour aller à Cambridge travailler au Cavendish avec J.J. Thomson. Mais il fut déçu par ses interactions avec Thomson et, après avoir rencontré Rutherford venu à Cambridge au cours de l'automne parler de ses résultats récents sur le noyau atomique, il préféra le rejoindre à Manchester en mars 1912. Bohr y resta jusqu'en août avant de retourner à Copenhague se marier, puis de revenir à Manchester de 1914 à 1916 comme assistant-professeur. En 1916, Bohr fut nommé professeur à Copenhague (en grande partie pour éviter qu'il ne s'expatrie définitivement). Un Institut de physique théorique fut créé pour lui en 1920, par lequel passèrent, pour des séjours longs ou brefs, la quasi-totalité des physiciens qui réalisèrent la théorie quantique, la physique nucléaire et la physique des particules. Bohr eut toujours une grande vénération pour Rutherford (il baptisa un de ses fils Ernest en hommage).

Inspiré par le modèle de noyau compact portant toute la charge positive proposé par Rutherford, il élabora au cours de son séjour à Manchester un modèle dans lequel les électrons orbitaient autour de ce noyau. Ce modèle était en complète contradiction avec l'électrodynamique maxwellienne, puisque des charges en rotation (donc accélérées) rayonnent, et le calcul indique qu'un électron doit perdre de cette façon toute son énergie en une fraction de seconde et spiraler jusqu'au noyau. l'atome de Rutherford était classiquement instable, mais Bohr postula que (cette conséquence de) l'électrodynamique maxwellienne ne s'appliquait pas à l'intérieur de l'atome.

Bohr n'apprit que plus tard (début 1913) l'existence des règles de Balmer, Rydberg et Ritz et il déclara souvent par la suite que cette information fut le facteur décisif de ses réflexions. Un article majeur Sur la constitution des atomes et des molécules (divisé en trois parties envoyées en avril, juin et août 1913 au Philosophical Magazine) établirent la célébrité mondiale de Bohr, et lui valurent le prix Nobel de physique en 1922.

Modèle de BohrPlanck en 1900, et surtout Einstein en 1905, avaient introduit l'idée qu'à une lumière de fréquence ν donnée correpondant des particules de lumière, les photons (alors appelés quanta de lumière), chacun porteur d'une énergie hν où la constante de Planck h=6.62*10-34 J*s. Admettant que la lumière était émise par les électrons, Bohr en conclut que ceux-ci ne pouvaient, eux aussi, posséder que des énergies précises et que l'énergie de la lumière émise ou absorbée devait correspondre à la différence entre deux énergies possibles des électrons. Les mystérieux "termes spectraux" devaient alors tout simplement correspondre aux énergies des électrons dans chacun des états (quasi)stables permis, les "couches". À ce moment là, Bohr ne croyait pas vraiment aux quanta de lumière d'Einstein, et il n'utilisa que la quantification des échanges d'énergie entre matière et rayonnement, introduite malgré lui par Planck en 1900.

Son premier objectif fut alors de reproduire le spectre de l’hydrogène (les raies des séries de Lyman, Balmer et Paschen). Bohr pouvait déduire de la formule de Rydberg ν = ν0 [1/n2 - 1/m2] que l'électron de l'atome d'hydrogène avait toujours des énergies quantifiées de la forme E0/n2 et le modèle de Rutherford devait lui permettre de calculer la quantité E0 = hν0 et la confronter aux observations. Une charge électrique -e de masse M en orbite autour d'une autre charge +e à distance r a une énergie potentielle -e2/r et une énergie cinétique MV2/2=e2/2r pour une orbite circulaire, d'où une énergie totale E=-e2/2r (négative, donc état lié).

Restait à comprendre pourquoi le rayon r de l'orbite ne pouvait prendre que des valeurs précises, ayant de plus la forme très particulière r = r0n2, ce qui avec E0=e2/2r0 lui donnait les bonnes énergies. Bohr finit par conclure que cela marcherait si le moment cinétique orbital de l'électron L=MrV ne prenait que des valeurs proportionnelles à la constante de Planck (plus exactement la constante de Planck h divisée par 2π, ce qu'on note ħ, et qui se lit h barre). En effet, puisque MV2/2=e2/2r

MrV = nħ ⇒ (MrV)2 = Me2r = (nħ)2

⇒ r = (ħ2/Me2)n2

⇒ r0 = ħ2/Me2 = 0.053 nm ou 0.53 Å (rayon de Bohr de l'hydrogène)

et alors

E0 = e2/2r0= Me4/2ħ2 = 13.6 eV

(qui est exactement l'énergie correspondant à la fréquence ν0 de la formule de Rydberg)

Le modèle de Bohr, supposant correcte l'hypothèse de Rutherford sur l'existence d'un noyau, permettait de reproduire, sans aucun paramètre libre, le spectre de l'hydrogène. En prime, il permettait de comprendre la taille de cet atome. Mais il exigeait que

  1. l’électron ne suive que certaines orbites (celles pour lesquelles L=nħ)
  2. qu'il ne rayonne pas sur ces orbites
  3. mais qu'il rayonne en changeant d’orbite un photon (unique!) de fréquence ν=(E1-E2)/h

Bohr n'arriva pas directement au premier postulat sous cette forme. Pour contraindre les rayons des anneaux concentriques occupés par les électrons (un reliquat du modèle Thomson), il imposa d'abord une relation de proportionnalité entre période orbitale T (∝ r3/2, 3° loi de Kepler) et énergie cinétique d'un électron (∝1/r). Bohr indiquait dans une note à Rutherford en 1912 qu'il s'agissait d'une "hypothèse à laquelle nous ne ferons aucun effort de donner une base mécanique". Ce n'est qu'ensuite, probablement au début 1913 quand il eut connaissance de la formule de Rydberg, qu'il connecta cette hypothèse au spectre de l'hydrogène et introduisit la constante de Planck, puis qu'il arriva finalement à la quantification du moment orbital.

Le deuxième postulat quant à lui contredisait toute l'électrodynamique classique, qui imposait qu'une charge électrique en mouvement accéléré (ce qui est le cas d'un mouvement circulaire) rayonne. Ce rayonnement est d'ailleurs couramment observé (rayonnement synchrotron, rayonnement de freinage ou Bremsstrahlung). Le modèle d'atome de Thomson évitait (peut-être) cette difficulté avec des électrons quasi-immobiles dans la "gelée" positive qui les entourait, mais le modèle de Rutherford avec une charge centrale positive quasi-ponctuelle ne permettait pas cette échappatoire. Bohr dut donc faire l'hypothèse audacieuse que l'électrodynamique classique ne s'appliquait pas dans le cas d'un atome et que les électrons s'y trouvaient dans des états stationnaires (terme qu'il introduisit à cette occasion, car il ne pouvaient s'agir d'états réellement stables puisqu'ils subissaient des transitions). Ces états stationnaires devaient avoir des rayons et des énergies précises.

Les postulats de Bohr en choquèrent plus d'un, mais la prédiction quasi-parfaite du spectre de l'atome d'hydrogène laissait peu de doutes sur l'efficacité de la méthode. Il restait donc à comprendre et justifier ces postulats.

De plus, le modèle de Bohr prévoyait tout aussi correctement les niveaux d'énergie de l'ion He+, où un électron unique entoure un noyau plus lourd et plus chargé que celui de l'hydrogène. Il prédisait également que l'énergie des électrons dans un atome (et donc l'énergie des photons émis, qu'ils soient dans le domaine visible, ultraviolet ou X) variait comme le carré de la charge électrique du noyau. La formule de Bohr pour l'hydrogène E0 = Me4/2ħ2 devenait E0 = e2/2r0= MZ2e4/2ħ2 pour une charge Ze.

Dans le cas de l'ion hélium, le facteur mesuré était de 4.0016 et non exactement 4, mais Bohr montra aussitôt que l'écart venait de la masse m de l'électron et qu'il fallait donc corriger M en mM/(m+M), donnant un facteur théorique de 4.00163. Le succès spectaculaire du modèle de Bohr pour l'ion d'hélium n'empêcha pas qu'il fut un échec tout aussi spectaculaire pour l'atome d'hélium. Le traitement des deux électrons de ce dernier était manifestement inadéquat. Et malgré tous les efforts (de Sommerfeld, Kramers, Heisenberg en particulier) la question demeura entière jusqu'en 1926 et l'arrivée de la mécanique quantique.

Le modèle de Bohr ne s'appliquait pas très bien aux atomes plus lourds parce qu'ils ont plusieurs électrons dont l'interaction n'est pas prise en compte. Il donnait cependant des résultats acceptables pour le premier niveau de ces atomes. En première approximation, l'énergie de ces électrons ne varie pas tout à fait en Z2 mais approximativement comme (Z-a)2, avec la constante empirique a~1, ce qui exactement ce que Moseley avait observé. Le modèle de Bohr était ainsi validé (provisoirement) de même que le modèle atomique de Rutherford qui était à sa base. La raie Kα, dans la notation de Barkla (K,L,M,N) modifiée par Mannes Siegbahn (Kα, Kβ…), est l’équivalent pour un noyau plus lourd de la raie Lyman α de l’hydrogène. Elle se trouve dans le domaine des rayons X plutôt que l'ultraviolet comme la raie Lyman α tout simplement parce que l'énergie de l'électron, et donc celle des photons émis, est multipliée par Z2, qui peut vite devenir grand (pour Z~30 on passe des électrons-volts du domaine visible aux kilo-électron-volts du domaine X).

Niveaux d'énergie de l'atome de cuivre Niveaux d'énergie de l'atome de cuivre

Le modèle de Bohr présentait aussi des défauts manifestes:

Einstein

Entre 1905 et 1915, Einstein n'avait pas cessé de réfléchir à la question des quanta de lumière, mais l'essentiel de son activité avait concerné la relativité restreinte puis le principe d'équivalence et la relativité générale. Il revint en 1916 à l'interaction entre lumière et matière avec comme objectif premier de démontrer que le spectre de Planck était la bien la distribution d'énergie d'un rayonnement en équilibre thermique.

Il ne fit aucune hypothèse restrictive sur la nature de la matière, la considérant simplement comme une collection d'atomes ou de molécules (qui pouvaient être, ou non, les dipôles oscillants de Planck). Ce gaz d'atomes étant en équilibre thermique, sa distribution en énergie suit une distribution de Maxwell-Boltzmann et le nombre N(E) d'atomes d'énergie E à la température T est donc de la forme:

N(E,T) = n(E) exp{-E/kT}

où n(E) est un facteur de normalisation indépendant de la température. L'interaction de ce gaz d'atomes avec la lumière leur permet d'acquérir ou de perdre de l'énergie, et Einstein distingua deux types possibles de transition:

Emission spontanée

Emission stimulée

Absorption

Le modèle atomique de Bohr ne faisait aucune prédiction sur le nombre de transitions par atome par unité de temps (on dirait aujourd'hui la probabilité de transition), ce qui est une grave lacune car ce nombre est ce qui permettrait de calculer l'intensité des raies spectrales. L'observation indique en effet que toutes les raies n'ont pas la même intensité, certaines sont très brillantes alors que d'autres sont à peine visibles, ce qui implique que certaines transitions sont beaucoup plus fréquentes que d'autres. Einstein ne s'attaqua pas à ce problème, notant simplement que le nombre de transitions devrait pouvoir être calculé dans une théorie quantique de la matière et du rayonnement, mais que celle-ci était alors inexistante.

Einstein définit deux coefficients inconnus A et B, correspondant aux transitions spontanée et induite, et il écrivit le nombre de transitions par unité de temps de E vers E'<E sous la forme:

W(E➛E') = N(E) [ A(E➛E') + B(E➛E') ρ(ν,T) ]

où ρ(ν,T) est la densité de quanta de lumière. Le nombre de transitions par unité de temps dans l'autre sens, de E' vers E est, lui:

W(E'➛E) = N(E') [ B(E'➛E) ρ(ν,T) ]

puisqu'il n'y a pas de transition spontanée possible si E'<E. Ces deux équations sont écrites pour le cas E>E', mais dans le cas inverse, les rôles de E et E' sont simplement échangés. Einstein n'avait pas besoin de connaître la forme explicite de A et de B pour démontrer que:

En effet, comme la matière est en équilibre thermique, il doit y avoir exactement autant de transitions de E vers E' que de E' vers E: W(E➛E') = W(E'➛E)

⇒ n(E) A(E➛E') = ρ(ν,T) [n(E')B(E'➛E) exp{(E-E'/kT} – n(E) B(E➛E')]

Ne connaissant pas la forme explicite de A et B, Einstein argua que l'émission spontanée devenait négligeable devant l'émission induite quand T→∞ parce qu'alors la densité de rayonnement ρ→∞. Dans cette limite, l'exponentielle exp{(E-E'/kT}→1 et Einstein en déduisit que

n(E')B(E'➛E) = n(E) B(E➛E')

⇒ ρ(ν,T) = A/B / [exp{(E-E'/kT} – 1]

ce qui est le spectre de Planck si

Cette dérivation du spectre de Planck exigeait au passage que la transition E➛E' soit due à l'émission ou l'absorption d'un seul quantum de lumière, de fréquence ν. C'est exactement l'hypothèse de Bohr pour expliquer les raies spectrales, mais ici Einstein l'utilise dans le domaine (à priori complètement différent) de l'émission thermique (continue) du corps noir.

Les physiciens s'efforcèrent au cours des années suivantes de calculer les coefficients A et B en améliorant le modèle de Bohr de différentes façons, sans grand succès. Leur approche revenait en général à considérer une "limite classique" n→∞ dans laquelle l'écart entre les niveaux d'énergie En=E0/n2 tendait vers zéro. L'énergie devenait "presque" continue, presque classique, et il était peut être possible d'appliquer l'électrodynamique classique pour calculer l'intensité du rayonnement émis par un électron accéléré sur une orbite (le calcul de Larmor en 1897). L'espoir était que les résultats obtenus dans ce cas puissent être extrapolés ailleurs dans le spectre. La cohérence de toute l'approche, aussi discutable soit-elle, était parrainée par Bohr sous le nom de "principe de correspondance". Ce principe voulait qu'il existe des cas limites où principes quantiques et principes calssiques se rejoignaient.

Le premier calcul correct des coefficients A et B d'Einstein dut attendre Dirac, en 1927, dans le cadre de la nouvelle théorie des quanta.

Laser

Les équations d'Einstein reliant les transitions entre les énergies possibles de la matière au travers des coefficients A et B conduisaient à une autre conséquence, qui ne fut pas immédiatement apparente. L'émission spontanée (E➛E'+hν) était un phénomène simple à comprendre de même que le phénomène inverse de l'absorption d'un photon (E + hν ➛ E'), même si la théorie de Bohr ne pouvait les calculer ni le coefficient A ni le coefficient B. Mais les équations indiquaient aussi la possibilité d'une émission induite (ou stimulée) par la présence d'un bain de rayonnement. On pouvait donc avoir E + hν ➛ E' + 2 hν et donc une amplification d'un rayonnement.

Emission induite

Émission d'un photon d'énergie hν induite par la simple présence de photons d'énergie hν.

Rien dans les équations n'obligeait d'ailleurs le bain de rayonnement à être un bain thermique, cette hypothèse n'intervenant que pour assurer l'identité des taux des processus d'émission et d'absorption. Mais on pouvait parfaitement appliquer les coefficients A et B à des situations où le rayonnement serait très différent. Cela ouvrait la voie à la possibilité d'amplifier un rayonnement monochromatique, tel que celui émis par des transitions atomiques. Bien sûr, pour que ce mécanisme d'émission stimulé conduise à une amplification, il faut disposer de plus d'atomes dans l'état d'énergie supérieure que dans l'état d'énergie inférieure (sinon il y aurait plus d'absorptions que d'émissions). Une telle inversion de population n'est pas facile à réaliser car l'état d'énergie supérieure est instable vers l'état d'énergie inférieure, et cela a empêché tout progrès. En 1950 Alfred Kastler (1902-1984) élabora à Paris des méthodes de résonance optique permettant de telles inversions de population (ce qu'on a appelé le "pompage optique") qui lui valurent le prix Nobel de physique en 1966.

En 1954, Charles Townes parvint à séparer une population de molécules d'ammoniac NH3 en deux composantes. L'ammoniac possède deux états d'énergie E et E' proches, et il fut possible grâce à un champ électrique de séparer les molécules d'énergie E' de celles d'énergie E, et d'envoyer ces dernières dans une cavité de micro-ondes ayant juste la fréquence ν = (E-E')/h. Cela amplifia l'intensité des micro-ondes, réalisant le premier maser (Microwave Amplification by Stimulated Emission of Radiation). Basov et Prokhorov menaient des recherches semblables à l'Institut Lebedev de Moscou, et ils partagèrent avec Townes le prix Nobel de physique en 1964. Townes s'efforça ensuite de transposer le mécanisme du maser des micro-ondes à des fréquences plus élevées en remplaçant la cavité micro-onde par une cellule fermée par des miroirs, pour que le rayonnement la traverse à plusieurs reprises et augmente ainsi le nombre de transitions induites. Townes et Schawlow publièrent un article en 1958 exposant le principe d'un "maser infrarouge et optique", ce qui incita de nombreuses équipes à tenter d'un réaliser un modèle opérationnel, un laser (Light Amplification by Stimulated Emission of Radiation).

Towne et Gordon et leur maser Townes et Gordon derrière le premier maser

Theodore Maiman réalisa en 1960 le premier laser formé d'un cristal cylindrique de rubis dont les faces opposées étaient argentées. Un flash entourant le cristal excitait les atomes de chrome (qui donnent au rubis sa couleur) et la désexcitation de l'un d'entre eux déclenchait la désexcitation des autres dans une avalanche brutale. Le résultat était un flux de photons tous dans la même direction et la même phase: un faisceau de lumière cohérente.

Laser 1960 Schéma du premier laser de Maiman en 1960

Principe du laser à rubis

Principe du laser à rubis: l'une des faces n'est pas parfaitement réfléchissante (95%) pour permettre à la lumière de sortir.

laser de Maiman

Les éléments du premier laser: le rubis et à droite le flash hélicoïdal

Ce premier type de laser ne fonctionnait que par courtes impulsions et son rendement était très faible (il requérait une grande puissance pour exciter le rubis pour une faible puissance du faisceau laser). Des lasers à fonctionnement continu furent assez vite mis au point (laser à colorant par exemple) ainsi que de slasers de grande puissance (lasers à gaz carbonique par exemple) et maintenant de slasers à semi-conducteurs (diodes laser) qui sont les plus répandus, des imprimantes ("laser") aux lecteurs de CD et de DVD.

L'effet Compton

Einstein

Après sa dérivation du spectre de Planck, Einstein se posa la question de l'influence de la pression de rayonnement sur la distribution de vitesse du gaz de particules. Pour assurer la cohérence de son approche, Einstein fut conduit dans un article de 1917 à attribuer au quantum de lumière non seulement une énergie E = hν mais également une direction de mouvement et, plus précisément, une impulsion P = hk, où k=ν/c est le nombre d'onde.

Cela constituait un pas de plus vers la réalité physique du quantum de lumière qui partageait avec un atome ou une particule une position (du moins Einstein le pensait alors quasi-ponctuel), une énergie, une impulsion, et pourquoi pas une masse? La relativité relie énergie E, impulsion P et masse M d'une particule sous la forme:

E2 = M2c4 + P2c2

(qui pour P=0 donne l'équation célébrissime E = Mc2). Appliquée au quantum de lumière, cette relation donne M=0, donc une particule de masse nulle.

Einstein se déclara alors convaincu de l'existence réelle de ses Lichtquanten, tout en demeurant profondément insatisfait de l'impossibilité de les concilier avec la théorie ondulatoire de la lumière. Un autre point l'ennuyait aussi: lors d'une émission spontanée, rien ne permettait de calculer la direction d'émission du quantum (et de recul de l'atome émetteur) qui était donc aléatoire. Rien non plus ne permettait de calculer l'instant d'émission, qui était tout autant aléatoire. On pouvait certes calculer des moyennes sur un grand nombre d'émissions, mais chacune était imprévisible.

Une situation analogue s'était présentée en 1900 quand Rutherford avait observé la première décroissance de la radioactivité d'un corps, celle de l'émanation du thorium (radon 220) et qu'il en avait -correctement- déduit que la probabilité par unité de temps d'une transmutation radioactive était constante. Cela conduisait en effet à la loi de décroissance exponentielle de l'activité d'une quantité donnée d'un corps radioactif, mais cela impliquait aussi que le moment où un atome donné subissait une transmutation était totalement imprévisible. Rutherford avait alors introduit un coefficient de transmutation spontanée, très proche du coefficient A d'Einstein en 1916, comme celui-ci en fit la remarque. Mais Einstein était apparemment le seul que l'aspect imprévisible de l'émission d'un photon comme d'une particule alpha ou bêta, troublait profondément.

L'impulsion du quantum de lumière avait été évoquée auparavant par plusieurs auteurs, dès 1909, par Einstein lui-même et par Stark dans une étude du rayonnement de freinage, ou Bremmstrahlung, qui est le rayonnement électromagnétique émis par une particule chargée accélérée (ou freinée). Pauli, en 1924, montra cependant que, si la quantification de l'impulsion P = hk était une condition suffisante pour assurer un équilibre thermique entre matière et rayonnement, elle n'était pas nécessaire pour cela.

Arthur Compton

Arthur Holly Compton (1892-1962)

Compton

Arthur H. Compton en couverture de Time en 1936

Karl Compton

Prix Nobel de physique 1927

Rôle central dans le programme Manhattan

Diffusion Thomson, Rayleigh et Mie

La théorie de la diffusion d'une onde électromagnétique par les électrons des atomes avait été établie par Rayleigh et généralisée par Mie, et la diffusion par des électrons libres par Thomson. L'idée de base est qu'onde électromagnétique (oscillant à la fréquence ν) induit un mouvement oscillant de l'électron (de même fréquence), lequel conduit à son tour à l'émission d'un rayonnement électromagnétique (de même fréquence encore). L'onde électromagnétique ne change donc pas de fréquence, mais simplement d'intensité et de direction.

DIffusion Rayleigh

Explication schématique de la diffusion Rayleigh

Rayleigh avait supposé la longueur d'onde du rayonnement nettement plus grande que la taille des diffuseurs (les atomes dans son cas) ce qui est le cas pour tout le domaine allant des ultraviolets aux ondes radio. L'essentiel du rayonnement est émis dans la direction d'arrivée, et la fraction diffusée varie comme ν4. Ce qui signifie que les fréquences élevées sont plus diffusées que les fréquences basses (toutes choses églae spar ailleurs), et c'est ainsi qu'on explique le ciel bleu: le bleu de la lumière solaire est plus diffusé que le rouge par les molécules d'azote et d'oxygène de l'atmosphère.

Mie généralisa cette théorie pour le cas où le diffuseur a une taille comparable à la longueur d'onde du rayonnement, ce qui est le cas par exemple de la diffusion de la lumière visible par des poussières.

La diffusion Thomson est un cas particulier de la diffusion Rayleigh par des électrons libres (non attachés à un noyau atomique), comme les électrons de conduction dans un métal ou les électrons dans un gaz ionisé.

La découverte de l'effet Compton

Au départ, Compton s'intéressait à la diffusion des rayons gamma par des feuilles métalliques minces d'aluminium et de fer pour déterminer si les rayons diffusés différaient ou non des rayons incidents. La théorie de la diffusion impliquait que les rayons diffusés aient la même fréquence que les rayons incidents. Mais Compton, comme auparavant J.A. Grey au Cavendish en 1913 (?), observait des gammas diffusé plus "mous", c'est-à-dire de fréquence plus faible que les gammas incidents. Il interpréta ces observations comme dues à une forme de fluorescence gamma. La détection des gammas et la mesure de leur énergie est plus difficile que celles des rayons X, aussi Compton glissa vers ceux-ci après son séjour au Cavendish en 1919-1920 et les conseils (et critiques) de Rutherford.

En avril 1921, il observa également des décalages en fréquence en diffusant des rayons X, les rayons X diffusés étant également plus mous que les rayons X incidents. Utilisant les rayons X de la raie Kα du molybdène (νK=4.2*1018 Hz, λ=70.8 pm) qu'il diffusait sur du graphite, il observait les rayons X diffusés à différents angles et il en mesurait la fréquence (ou la longueur d'onde) par la méthode de Bragg (diffusion des rayons secondaires X sur des cristaux). Dans un premier temps, il ne put séparer plusieurs raies proches de (relativement) basse fréquence (74% de νK) et il les interpréta comme une raie de fluorescence, induite par la raie νK, et élargie par l'effet Doppler dû à la vitesse de l'électron mis en mouvement par l'onde électromagnétique X. Il fut conforté dans son interprétation par le remarquable accord entre son observation et son calcul de l'effet Doppler (il estima la vitesse de l'électron par la conservation de l'énergie: mev2/2=hν). La théorie sous-jacente était en réalité aussi fausse que son observation!

En octobre 1922, Compton réalisa son erreur et il comprit que la raie correspondant aux rayons X diffusés était en réalité très près de la raie des rayons incidents, la diminution de fréquence n'étant en fait que de 3%. Il abandonna alors l'idée d'une fluorescence X et il interpréta ses résultats comme la diffusion d'un quantum de lumière (pas encore appelé photon) sur un électron libre au repos (ce point n'est pas essentiel, on peut toujours se placer au départ dans le référentiel de l'électron).

Décalage Compton

Figure de l'article de Compton en 1923 montrant une augmentation de 3% de la longueur d'onde des rayons X après diffusion sur le molybdène (courbe continue) comparée à leur longueur d'onde avant diffusion (courbe en tiretés). La longueur d'onde est calculée au moyen de l'angle de diffusion sur un cristal de calcite, selon la méthode de Bragg.

Diffusion Compton

Diffusion Compton: un photon incident de longueur d'onde λ est diffusé avec un angle θ par rapport à sa direction d'arrivée avec une longueur d'onde λ'>λ, et l'électron part vers le bas par conservation de l'impulsion.

En écrivant la conservation de l'énergie et de l'impulsion lors de la collision de deux particules, Compton put écrire en novembre 1922 l'équation de l'effet Compton:

λ' – λ = [h/mec] (1 – cos θ)

Jusque là, Compton avait surtout examiné les diffusions pour θ ~ 90°, mais il put vérifier avec succès la validité de sa formule à tous les angles. Elle prévoyait aussi que le décalage de longueur d'onde ne dépendait pas de la longueur d'onde du rayonnement initial.

Variation angulaire de la diffusion Compton

La variation angulaire du décalage de longueur d'onde mesuré par Compton (points noirs) comparée à sa prédiction 1 – cos θ (courbe continue) dans son article de 1923. Il note que la forme est semblable à un effet Doppler (expliquant son erreur antérieure?)

Envoyé en décembre 1922, l'article de Compton parut en mai 1923 et il eut un énorme retentissement. Son équation reposait en effet sur l'attribution au rayonnement électromagnétique de toutes les propriétés d'une particule: une énergie E = hν et une impulsion P = hν/c. Il fut donc considéré comme la preuve expérimentale de la réalité physique des quanta de lumère d'Einstein. Compton partagea le prix Nobel de physique en 1927 avec Charles Thomson Rees Wilson, l'inventeur de la chambre à brouillard qui se révélait le détecteur de particules le plus efficace, matérialisant leur passage par une traînée de gouttelettes que l'on pouvait photographier, étudier à loisir, et qui permettait d'identifier l'identité de la particule, sa charge électrique et son énergie (dans les cas favorables).

Le théoricien Peter Debye donna presque en même temps que Compton l'explication du décalage en fréquence des rayons X lors d'une diffusion, en se référant explicitement aux idées d'Einstein (que Compton ne cite d'ailleurs pas) sur le quantum de lumière.

La théorie de Bohr, Kramers et Slater

La réalité physique de particules de lumière était cependant en totale contradiction et avec les expériences classiques d'interférence et de diffraction et avec la théorie de Maxwell de l'électromagnétisme. Il parut possible de sauver la théorie continue du rayonnement en attribuant tous les effets discrets aux particularités, mal comprises, de l'interaction entre le rayonnement et la matière (admise comme discrète depuis le triomphe du modèle atomique de Bohr).

Mais le prix à payer était l'abandon de la conservation de l'énergie, comme Bohr, Kramers et Slater s'en aperçurent en 1924 en élaborant la théorie BKS. Dans celle-ci, ils postulèrent que, lors de la transition entre deux niveaux d'énergie atomiques, l'électron changeait d'énergie en un seul bond mais que le champ électromagnétique variait de façon continue. Cela implique bien sûr que l'énergie n'est pas conservée dans le processus (ni d'ailleurs l'impulsion), et BKS arguèrent que la conservation d'énergie n'était qu'un effet de moyenne, uniquement valable pour un très grand nombre de transitions. La non-conservation de l'énergie dans les processus quantiques était d'ailleurs une idée que Bohr eut longtemps à coeur, et qu'il proposa à nouveau pour expliquer la continuité du spectre en énergie des électrons dans une transmutation bêta (avant que la suggestion du neutrino par Pauli soit acceptée).

La théorie BKS voulait également résoudre la question de l'indétermination de l'instant de l'émission spontanée de rayonnement par un atome, ainsi que de sa direction, en les attribuant à l'interaction de l'atome avec un champ électromagnétique "virtuel" toujours présent. Mais BKS ne purent éviter l'abandon de la causalité dans leur description de l'interaction avec le champ virtuel, et Slater lui-même jugeait la théorie BKS "peu attirante". Einstein n'avait aucun enthousiasme pour ces idées et manifesta son opinion dans plusieurs lettres à ses correspondants habituels comme Ehrenfest ou Born. Heisenberg rapporta en juin 1924 les objections d'Einstein à Pauli qui les transmit à Bohr en octobre.

Quant à l'interprétation de l'effet Compton, BKS suggéraient là encore que la conservation de l'énergie et de l'impulsion n'étaient qu'un effet statistique, vrai en moyenne mais pas pour une diffusion unique.

Hans Geiger, alors directeur du Physikalisch-Technische Reichsanstalt, et son assistant Walter Bothe montèrent en 1925 une des toutes premières expériences de coïncidences (méthode qui valut le prix Nobel de physique à Bothe en 1954). Ils envoyèrent des rayons X sur de l'hydrogène, et ils détectèrent simultanément le rayon X diffusé et le proton de recul (séparés en temps de moins de 100 µs). Parallèlement, Compton et Simon observèrent en 1925 dans une chambre à brouillard les angles φ et θ de diffusion de l'électron de recul et du photon et ils vérifièrent que la relation φ et θ était bien celle que prévoyait la conservation de l'énergie et de l'impulsion dans chaque collision. Ces résultat étaient compatibles avec l'interprétation de l'effet Compton en termes de quanta de lumière, mais non avec la théorie BKS.

Diffusion Compton

Diffusion Compton avec les angles φ et θ précisés (© C. Foellmi)

La théorie BKS fut alors abandonnée, juste au moment où la mécanique ondulatoire de Louis de Broglie (1924) et de Erwin Schrödinger (1926), la mécanique des matrices de Werner Heisenberg (1925) et leur unification par Paul Dirac (1926) rendait de toute façon caduc tout l'édifice de "l'ancienne théorie des quanta".

Points communs avec l'effet photoélectrique et différences

Diffusion Compton inverse

La diffusion Compton "inverse" est le nom donné à la diffusion Compton lorsque les électrons ont une énergie très supérieure aux photons. C'est une diffusion Compton normale, mais simplement considérée dans un référentiel particulier. Son intérêt est surtout important en astrophysique dans les situations où des électrons de haute énergie, par exemple dans un plasma chaud tel que celui qui enveloppe les amas de galaxies, diffusent sur des photons de basse énergie, tels que ceux du fond de rayonnement micro-ondes (dont les longueurs d'onde millimétriques correspondent à un bain thermique à 2.73 K). Dans le référentiel de ce dernier, l'effet Compton augmente la fréquence (donc l'énergie) de ces photons aux dépens de l'énergie des électrons. Cet effet , prévu par Rashid Sunyaev et Yakov Zeldovitch en 1969 est maintenant observé avec précision comme une distorsion du spectre de Planck du rayonnement millimétrique (le domaine de Wien est un peu plus peuplé et le domaine de Rayleign légèrement dépeuplé). Comme l'effet SZ ne dépend pas de la distance, il est désormais utilisé pour détecter l'existence d'amas de galaxies éloignés.

Bose

En juin 1924, le physicien indien Satyendra Nath Bose écrivit à Einstein pour lui faire fart d'une nouvelle dérivation du spectre de Planck, et lui demander son appui pour la publier dans le Zeitschrift für Physik (elle avait été rejetée par le referee du Philosophical Magazine auquel il l'avait envoyée).

Bose ne faisait aucune hypothèse sur la matière en équilibre avec le rayonnement et ne considérait que la statistique d'un gaz de photons en suivant dans ses grandes lignes les méthodes de Boltzmann mais avec plusieurs différences notables. Dans l'approche de Boltzmann, on compte le nombre W de façons de répartir N particules discernables possédant chacune une énergie Ei dans P cellules de l'espace de phase {positions, impulsions}, ce qui détermine l'entropie S=kLogW. La distribution d'équilibre est celle qui maximise S (avec la contrainte que le nombre de particules et leur énergie totale sont fixés).

Bose découpait l'espace de phase en cellules de volume h3 (parce que des particules de masse nulle et d'énergie E = hν ont une impulsion P = hν/c qui, en 3 dimensions, donne le coefficient h3). Puis il comptait le nombre W de façons de répartir des quanta d'énergie hν dans ces cellules. Bose donnait pour W une expression qu'il déclarait évidente et à partir de laquelle il obtenait l'entropie du gaz de photons et ensuite la distribution d'équilibre, qui était exactement la distribution de Planck. Einstein fut très impressionné de ce résultat, traduisit en allemand l'article de Bose, recommenda sa publication, et suspendit ses travaux sur une théorie unifiée de l'électromagnétisme et de la gravitation pour étudier les conséquences de l'approche de Bose.

En fait Bose s'écartait sur 3 points de l'approche de Boltzmann (il n'est d'ailleurs pas clair qu'il en fût tout à fait conscient):

  1. La seule contrainte lors de la maximisation de S nécessaire pour obtenir la distribution de Planck est la conservation de l'énergie totale, pas celle du nombre de particules: elles ne sont pas conservées;
  2. L'expression de W donnée par Bose fait intervenir le nombre de particules dans chaque cellule, mais pas leur identité: elles sont indiscernables;
  3. Dans l'approche de Boltzmann, les particules sont indépendantes les unes des autres, dans l'approche de Bose, ce sont les cellules qui sont indépendantes (et par suite les particules, elles, sont corrélées)

Einstein étendit immédiatement l'approche de Bose à un gaz de particules sans interactions entre elles (ou un gaz d'atomes ou de molécules) de masse non-nulle. Il imposa bien entendu la conservation du nombre de particules mais il conserva explicitement l'hypothèse (implicite chez Bose) d'indiscernabilité des particules et la corrélation (qu'il jugeait mystérieuse) découlant de l'indépendance des cellules de l'espace des phases.

Cette corrélation fut rapidement attribuée, dans la nouvelle théorie quantique qui se fit jour après 1925) à la symmétrisation de la fontion d'onde des N particules, la statistique correspondante fut nommée statistique de Bose-Einstein et les particules (ou les atomes) qui la suivaient sont les bosons.

Einstein remarqua en 1925 que la distribution d'équilibre d'un gaz de bosons possédait une température critique, en dessous de laquelle le gaz se séparait en deux phases: une partie, croissant avec la densité, occupait l'état d'énergie minimale, le reste demeurant conservant la distribution (de Bose-Einstein) d'un gaz. Cette "condensation de Bose-Einstein" est aujourd'hui expérimentalement réalisée pour plusieurs systèmes physiques. Le premier exemple fut l'hélium 4: en dessous de 2.2 K il devient superfluide, mais ce n'est pas un parfait condensat car les interactions entre atomes d'hélium sont importantes. Eric Cornell, Carl Wieman et Wolfgang Ketterle reçurent le prix Nobel de physique en 2001 "pour la découverte de la condensation de Bose-Einstein dans les gaz et pour des avancées dans l'étude des propriétés de ces condensats". Les températures sont extrêmement basses (~100nK).


Contact Contact