English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du vide (...) > Qu’est-ce que la physique des particules

Qu’est-ce que la physique des particules

jeudi 12 avril 2018, par Robert Paris

Qu’est-ce que la physique des particules ?

C’est désormais bien connu que le monde matériel est fait de molécules, elles-mêmes constituées d’atomes, et que ces derniers sont fondés sur des particules. Cela semble même une évidence aujourd’hui alors que l’observation a mis longtemps pour prouver leur existence. La plupart des particules ont même été démontrées théoriquement par la physique, avant de voir leur existence démontrée par l’observation. Cette prédiction des particules, avec leurs caractéristiques (énergie, spin…) est même un des plus beaux succès de la théorie physique. Les particules suivantes ont en effet été prédites par des théoriciens alors qu’elles n’avaient pas été observées : proton, neutron, neutrino, photon, positon, méson, boson de Higgs, muon, quark, gluon, kaon, hypéron, etc., ainsi que toute l’antimatière.

Einstein a prédit l’existence du photon, Yukawa l’existence du méson, Dirac l’existence du positon et de l’antimatière, Higgs l’existence du boson qui porte son nom, Gell-Mann l’existence du quark et des hypérons, Pauli l’existence du neutrino, Fermi et Weisskopf du muon, Lederman du neutrino muonique, Chadwick l’existence du neutron, etc. Et, à chaque fois, il s’agit véritable prédiction, avec proposition de propriétés caractéristiques de la particule imaginée par les théoriciens pour expliquer les phénomènes, puis vérification par des expériences qu’on la trouve bel et bien aux niveaux d’énergie prévus.

Les particules interviennent partout, y compris dans le vide quantique où toutes les particules se retrouvent mais sont éphémères. Elles existent partout où il y a un champ. Il n’existe pas de champ sans particule de champ, de même qu’il n’existe pas d’interaction entre particules sans intervention d’un champ.

La physique des particules n’est pas seulement un domaine : celui du microscopique. Elle intervient partout : dans la physique des matériaux, par exemple dans les interactions de surface. Elle intervient en astrophysique. Elle intervient en physico-chimie. Elle intervient même en chimie-biologie.

Des expériences ont montré que l’univers entier est fait de particules. L’une des expériences phare qui étayaient l’idée d’un univers non particulaire mais ondulatoire, celle des fentes de Young, a fait la preuve du caractère point par point, discret, et donc particulaire des impacts sur l’écran.

L’image qui ressort de l’élémentarité n’est pas fait de particules fixes mais de nuages de points qui sont composés de particules virtuelles, auxquelles un apport d’énergie (par exemple, un boson de Higgs) donne « réalité ». La réalité étant une durée d’existence et, du coup, la possibilité d’être perçue par la matière à notre échelle.

Mais, qu’on les perçoive ou pas, les particules sont partout et inondent l’univers. Ce sont aussi bien des corpuscules de matière que des corpuscules d’interaction (par exemple de lumière, de transport d’énergie, de liaison, de colle).

Ce qui caractérise l’univers n’est pas l’existence de bases fixes qui seraient les particules, mais, au contraire, l’existence permanente du changement, du « devenir » hégélien, de l’histoire.

Une particule ne reste jamais identique à elle-même. Elle interagit sans cesse avec les particules et antiparticules du vide quantique, s’échange avec elles, s’attache et se détache. Elle devient virtuelle et sa voisine devient réelle. Une particule ne peut pas être séparée de son environnement (son nuage virtuel tout près d’elle, les autres particules proches et le vide quantique autour). Le comportement d’une particule fait toujours partie d’un comportement collectif, même si la particule est « seule » dans le vide car, dans le vide quantique, on n’est jamais seul !

Ce qui distingue la physique des particules n’est pas le fait que le reste de la physique ne serait pas particulaire mais c’est le nombre de particules concernées dans l’étude physique. Une particule ou un petit nombre de particules, c’est de la physique des particules. Un très grand nombre de particules, c’est de la physique des matériaux. Les effets collectifs matière-matière l’emportent alors considérablement sur les effets matière-vide. Dans les deux cas, il s’agit de particules, de quanta, de complexes contradictoires onde-corpuscule et particule-champ, mais l’effet collectif d’un grand nombre de particules entraîne une décohérence qui fonde les propriétés de la matière macroscopique, c’est-à-dire à notre échelle. La matière observée est, dans ce dernier cas, à même échelle que les machines et les observateurs, alors que ce n’est pas le cas en physique des particules. Le saut entre niveau quantique et niveau macroscopique n’est lié à une matière différente mais à l’apparition de propriétés émergentes liées à des structurations auto-organisées lors de systèmes fondés sur un grand nombre d’interactions, ce type d’émergence ayant été observée dans un grand nombre de domaines différents de ceux de la physique.

On pensait d’abord trouver un atome, une particule, comme fondement général de la matière, puis on a pensé en trouver quatre ou cinq et finalement on trouve un très grand nombre de corpuscules durables et un nombre encore plus grand de corpuscule de courte durée de vie et les particules durables ne le sont qu’apparemment puisque leurs propriétés se conservent uniquement parce que leur réalité passe (saute, devrait-on dire) d’une particule éphémère à un autre.

Bien des phénomènes étonnent dans la physique des particules. On peut en citer quelques unes de très remarquables. Ainsi, on ne peut pas distinguer deux particules de même nature qui interagissent. Les lois de la physique, pas plus que les observations, ne permettent de dire laquelle est la numéro un et laquelle la numéro deux, phénomène appelé indiscernabilité qui n’admet pas d’exception, et il est impossible de les suivre ainsi dans leur progression. Il n’est même pas possible de suivre une trajectoire continue d’une seule particule. Le caractère probabiliste du comportement y compris d’une seule particule étonne aussi et ne pouvait qu’étonner tant qu’on ignorait qu’une particule ne se déplace jamais sans son nuage virtuel avec lequel elle échange sans cesse de l’énergie. L’existence d’interférences à une seule particule étonne également mais la remarque précédente permet aussi d’en rendre compte.

Le classement des particules en tableaux a permis de dévoiler les symétries de la nature, symétries qui jouent un rôle clef dans les lois de conservation de la physique.

Langevin – La notion de corpuscule et d’atomes :

« (…) Vous savez - Jean Perrin vous le rappelait tout à l’heure - que notre confiance n’a fait que croître dans la représentation atomique ou corpusculaire, qui a évolué depuis que les philosophes grecs ont imaginé la matière qui nous entoure comme composée de petits grains extrêmement durs et comparables aux objets individualisables dont nous avons l’habitude, mais infiniment plus ténus et représentant la limite de la divisibilité. Cette notion a pris, au cours des deux derniers siècles, une importance considérable, surtout à cause du développement de la Chimie. Perrin revendiquait tout à l’heure pour la Chimie le domaine de la discontinuité. Effectivement, c’est bien la Chimie qui a introduit dans nos connaissances le caractère de discontinuité que présentent ses combinaisons. La nécessité s’est imposée ainsi de considérer les divers éléments isolés par les chimistes comme constitués par des atomes, tous identiques entre eux, ou plus exactement, depuis que les physiciens s’en sont occupés, chacun de ces éléments comme un mélange d’isotopes, chaque isotope représentant un groupe d’atomes, tous identiques entre eux. Ces atomes s’associent pour former des molécules suivant des lois discontinues, et sont eux-mêmes construits à partir de corpuscules électrisés, dont la découverte remonte aux trente et quelques dernières années. La Chimie, naturellement, ne nous renseigne que sur les mas-ses relatives de ces atomes. Elle admet que, dans ce que nous appelons l’atome-gramme d’une substance élémentaire, ou d’un isotope, dans la molécule-gramme d’un composé quelconque, ou dans l’ion-gramme d’un produit de décomposition électrolytique, il y a toujours un même nombre « N » de particules, atomes, molécules ou ions, et que les masses — atomiques, moléculaires ou ioniques — que la Chimie introduit, correspondent à la masse de nombres égaux à « N », de chaque espèce d’atomes, de molécules ou d’ions. Ces masses déterminées par la Chimie nous donnent les valeurs relatives des masses atomiques ou moléculaires individuelles. Mais la Chimie ne nous en donne pas la valeur absolue ; elle ne nous donne pas le nombre « N ». C’est la Physique qui a commencé à nous renseigner sur ce nombre, tout d’abord par l’intermédiaire des méthodes dites statistiques, par l’application de la théorie cinétique, principalement aux substances à l’état gazeux. Cette théorie a permis d’évaluer N en étudiant ce que nous appelons les fluctuations, c’est-à-dire les écarts expérimentaux à partir du principe de Carnot, tels que le mouvement brownien, le bleu du ciel et d’autres phénomènes de ce genre. Ces évaluations se sont trouvées remarquablement convergentes, mais assez imprécises encore tant que l’électricité n st pas entrée en jeu. C’est par l’intermédiaire de la science électrique, une des plus physiques qu’on puisse imaginer, que, pour la première fois, de la précision a pu être introduite dans la mesure des grandeurs corpusculaires ou moléculaires. En particulier, l’admirable expérience de Townsend et de Joseph John Thomson, reprise par Millikan, a permis de mettre en évidence la structure granulaire des charges électriques et de mesurer — avec une précision qui, aujourd’hui, est de l’ordre du millième — la grandeur du grain d’électricité positive ou négative. Vous savez que cette découverte a été rendue possible par l’étude de la conductibilité acquise par les gaz, sous l’action, par exemple, des rayons de Röntgen, conductibilité que nous interprétons de manière analogue à celle des métaux ou des électrolytes. On admet que le passage des rayons de Röntgen à travers le gaz dissocie certaines molécules et fait apparaître des grains électrisés, ou ions. Si, dans ce gaz conducteur, on provoque d’une manière quelconque l’apparition de gouttelettes, certaines de celles-ci se montrent électrisées et servent de corps d’épreuve qui vont jouer le même rôle que le pendule électrique dans la mesure macroscopique. On peut mesurer la charge portée par chacune de ces gouttes comme on mesure la charge d’un corps électrisé quelconque. Les gouttes électrisées pourront être produites par condensation de vapeur d’eau rendue sursaturante par détente dans une expérience analogue à celle de Wilson, ou bien, pour éviter l’inconvénient qui résulte de la volatilité de l’eau et de la variation de masse de la goutte que l’on ne peut alors suivre dans des conditions constantes, en faisant, avec Millikan, tomber dans le gaz des gouttelettes d’huile upérisée. Soit parce que la goutte d’eau s’est condensée sur un des ions dont nous imaginons la présence dans le gaz, sût parce que la goutte d’huile a attiré un de ces ions et s’en est chargée, on constate que ces gouttes sont électrisées, toutes du même signe dans le cas de détente pas trop forte de l’air saturé de vapeur d’eau, ou de signes différents. On constate que les gouttes ont, en général, toutes une même charge en valeur absolue. Elles ont quelquefois le double ou le triple de cette charge que nous appelons « la charge élémentaire ». Grâce aux mesures précises de Millikan, cette charge est connue sensiblement au millième près : sa valeur est : 4,774 x 10(-10) unité électrostatique. Toutes les charges électriques, soit des ions dans les gaz, soit des ions électrolytiques, sont des multiples entiers, généralement très simples, positifs ou négatifs, de cette quantité. Les charges des corps électrisés macroscopiques en sont des multiples énormes. De la connaissance de la charge élémentaire, vous savez que les lois de l’électrolyse ont permis de déduire « N », puisque si nous prenons un ion-gramme monovalent qui est composé de « N » ions, il transporte une charge égale à « N » fois la charge d’un ion monovalent.

Or, nous avons toutes raisons — et des raisons expérimentales — de considérer que cette charge d’un ion monovalent dans l’électrolyse est précisément égale à la charge élémentaire dont il vient d’être question ; et comme la quantité d’électricité transportée par un ion-gramme monovalent est le Faraday qui est également connu, et lui, au cent-millième, alors que la charge élémentaire est connue au millième, il en résulte que le nombre d’ Avogadro N sera connu au millième ; en divisant le Faraday par la charge élémentaire, on trouve ainsi pour N : 6,06 X 10(23). De la valeur de N, on déduit les masses des atomes et des molécules individuels, et de manière générale toutes les grandeurs atomiques ou moléculaires, dimensions, etc. Cette conquête a été suivie d’une identification plus complète du grain d’électricité par la découverte du corpuscule cathodique ou électron négatif, en étudiant les propriétés des charges négatives qui sont émises soit, dans l’ampoule de Crookes, par la cathode sous l’influence du bombardement des rayons positifs, soit, par effet dit photo-électrique, sous l’action de la lumière qui arrache de la matière des charges négatives. Dans les phénomènes thermioniques, c’est un filament métallique incandescent qui émet des charges négatives. L’étude de ces diverses émissions a permis d’atteindre, avec J. J. Thomson, le rapport de la charge à la masse des corpuscules, et leur vitesse ; rapport de la charge à. la masse qui, dans l’ancienne Mécanique, devait être indépendant de la vitesse et qui, dans la Mécanique de la relativité, est en réalité fonction décroissante de la vitesse, suivant une loi que l’expérience a vérifiée. L’expérience donne une même valeur de ce rapport, aux faibles vitesses, pour toutes les émissions de charges négatives, cathodiques, photoélectriques, thermioniques, etc. Comme elle montre d’ailleurs ces émissions composées de grains portant chacun la charge élémentaire, la connaissance du rapport de la charge à la masse permet de calculer la masse, toujours la même, de chacun de ces grains ou électrons négatifs. Aux faibles vitesses, cette masse prend une valeur (m_0), égale à 0,9.10(-27) gramme, alors que la masse de l’atome d’hydrogène, déduite de la connaissance de N, est de 1,6.10(-24) gramme, et par conséquent, 1.800 fois plus grande, à peu près, que celle de l’électron négatif.

Le fait que la lumière, ou les rayons de Röntgen qui sont de la lumière de fréquence très élevée, arrachent des charges négatives, des électrons négatifs, de toute espèce de matière, a permis de conclure que ces électrons négatifs représentent un constituant général de la matière. Comme il s’agit de grains beaucoup plus ténus que les atomes les plus légers, tels que ceux d’hydrogène, on les a imaginés comme entrant dans la constitution de tous les atomes.

Le développement de ces recherches expérimentales s’est poursuivi parallèlement à celui de la théorie, dans une collaboration de tous les instants qui s’est maintenue très heureusement depuis trente ou quarante ans, et que nous espérons voir se prolonger. En ce moment, c’est l’expérience qui semble avoir pris un peu d’avance par les découvertes récentes du neutron et de l’électron positif, mais les théoriciens sont à l’oeuvre et ils vont essayer d’adapter leurs idées à ces faits nouveaux. Il s’est trouvé qu’à cette même époque où Joseph John Thomson identifiait le corpuscule cathodique ou électron négatif comme particule de masse connue et de charge électrique connue, la théorie électromagnétique, entre les mains de Hendrik Antoon Lorentz et de ses continuateurs, arrivait aux mêmes conceptions, à la nécessité d’une structure granulaire électrisée de la matière, et interprétait par là, en particulier, le phénomène de Zeeman. De ce phénomène, sous sa forme la plus simple, on pouvait déduire aussi le rapport de la charge à la masse de l’électron qu’on imaginait en jeu dans l’émission de la raie lumineuse décomposée par Zeeman sous l’action du champ magnétique, et on retrouvait bien toujours la même valeur. L’existence de l’électron dans tous les atomes se trouvait par là confirmée. Vous savez aussi que le développement admirable de la spectroscopie, depuis la découverte du phénomène de Zeeman, a montré que ce phénomène se présente sous une forme plus complexe que ne l’imaginait Lorentz et que, pour l’interpréter, il fallait attribuer à l’électron négatif non seulement une charge électrique, mais encore un moment magnétique — un spin, comme on dit aujourd’hui en utilisant le terme anglais.

Et ceci complétait notre conception de l’électron. Nous avions une image, en quelque sorte, démocritéenne, c’est-à-dire que nous voyions cet électron mis comme un petit objet, une particule, par une sorte d’extrapolation vers l’infiniment petit de la notion d’objet macroscopique à notre échelle ; l’électron nous apparaissait sous la forme d’une petite sphère électrisée, quelquefois d’une vacuole électrisée dans l’éther. J’ai développé autrefois les conséquences de cette dernière conception. La découverte du spin a introduit l’idée que cette petite sphère électrisée pivotait sur elle-même pour donner naissance au moment magnétique que nous devons attribuer à l’électron. Nous ne pouvions pas très bien nous représenter la structure même de l’électron ; en particulier, comme toutes les portions de sa charge répartie sur sa surface ou, éventuellement, dans son volume, devaient se repousser, il fallait admettre des actions capables d’équilibrer cette répulsion et de maintenir l’unité, la cohésion de l’électron. Malgré cette insuffisance de renseignements, nous « voyions » l’électron, nous en faisions une réalité, un objet individualisable au même titre que les objets que nous connaissons. C’est de cette façon que toutes les théories, à ce moment-là, se développaient. C’est ce qu’a exprimé Lorentz à la réunion de 1927 du Conseil Solvay à Bruxelles, où sont apparues nettement les difficultés que soulèvent dans la théorie des quanta les conceptions habituelles en concernant la structure corpusculaire de la matière, en disant : « Pour moi, un électron est un corpuscule qui, à un instant donné, se trouve en un point déterminé de l’espace, et si j’ai eu l’idée qu’à un moment suivant ce corpuscule se trouve ailleurs, je dois songer à sa trajectoire qui est une ligne dans l’espace. Et si cet électron rencontre un atome et y pénètre, et qu’après plusieurs aventures il quitte cet atome, je me forge une théorie dans laquelle cet électron conserve son individualité ; c’est-à-dire que j’imagine une ligne suivant laquelle cet électron passe à travers cet atome. Je voudrais conserver cet idéal d’autrefois de décrire tout ce qui se passe dans le monde par des images nettes. » Voilà où nous en étions. Et cette croyance, singulièrement féconde, dans l’existence de corpuscules individuels et individualisables, s’est trouvée encore confirmée et renforcée par les admirables expériences de C. T. R. Wilson, expériences qu’on a appelées les plus belles du monde — je crois qu’elles le méritent. Elles nous ont permis, en utilisant la condensation de la vapeur d’eau rendue sursaturante par détente dans un gaz conducteur, de voir les ions dont, jusque-là, nous avions parlé, que nous avions vus avec les yeux de l’esprit, et de voir aussi les trajectoires des corpuscules électrisés, de ces électrons que nous imaginions. Je vais vous montrer quelques clichés, quelques images, parce que mon but, en vous rappelant le passé, est de vous présenter tout d’abord les arguments qui militent en faveur de la représentation corpusculaire. Il n’y en a pas de plus frappants et de plus vivants que les arguments tirés de l’expérience de Wilson, laquelle, d’ailleurs, s’est montrée d’une extraordinaire fécondité, puisque c’est grâce à elle qu’on a pu effectuer des découvertes de premier ordre dans le domaine atomique et corpusculaire. La figure représente un premier cliché obtenu en photographiant le résultat d’une détente brusque sur de l’air saturé de vapeur d’eau et traversé par des rayons de Röntgen à peu près monochromatiques — c’est ce qu’on appelle les rayons K de l’argent. Ces rayons rendent l’air conducteur et quand on y produit la détente, la vapeur d’eau, devenant sursaturante, se condense sur les ions et forme les gouttes que montre le cliché, avec ce caractère très remarquable que ces gouttes se disposent en filaments plus ou moins contournés. Cette structure du brouillard est au premier abord assez singulière. L’interprétation en est cependant très simple : les rayons de Röntgen n’ionisent le gaz, ne produisent la plus grande partie des ions que de manière indirecte. L’action directe qu’ils exercent sur le gaz est cette action photoélectrique dont je disais tout à l’heure qu’elle s’exerce sur toute espèce de matière ; les rayons K de l’argent agissent sur certaines molécules pour en arracher un électron négatif et le lancer avec une grande vitesse à travers le gaz, et c’est ce corpuscule qui, sur son trajet, rencontre des molécules, agit électriquement au passage sur les électrons qu’elles renferment et chasse certains d’entre eux. Les électrons ainsi chassés donnent naissance à des ions négatifs dans le gaz, et les molécules rendues positives par cette perte représentent les ions positifs. On s’aperçoit sur la figure 1 que la plupart des gouttes vont par couples de deux formées par condensation sur les deux ions, positif et négatif, qui résultent de l’ionisation d’une même molécule. On voit sur ce cliché l’individu électron négatif, identifié par sa trajectoire dans le gaz après avoir été arraché d’une molécule par le rayonnement et perdant progressivement son énergie dans ses chocs ionisants contre un grand nombre d’autres molécules. D’autre part, il y a une indication extrêmement importante qui se rattache à cette expérience, à ce très beau cliché obtenu par Wilson lui-même : on peut remarquer que les trajets électroniques sont incurvés, fréquemment coudés ; cela tient à ce que les électrons arrachés par les rayons ne sont pas très rapides. Quand ils rencontrent d’autres électrons qu’ils chassent eu ionisant le gaz, leur mouvement est ralenti et dévié ; la trajectoire s’incurve et l’électron finit par s’arrêter. Il s’arrête généralement en formant un petit paquet d’ions et par conséquent de gouttes ; l’électron ralenti tourbillonne sur place avant de s’arrêter. Un fait également remarquable est que ces trajets, quoique réguliers de forme, ont sensiblement tous la même longueur, ce qui correspond, en fait, à la vérification, dans ce cas particulier, d’une loi essentielle des phénomènes photoélectriques : les électrons arrachés par un rayonnement monochromatique à une même substance, ont tous la même vitesse. Autrement dit, l’absorption de l’énergie de la lumière, pour arracher l’électron et le lancer, se fait toujours, pour une même fréquence du rayonnement, par quantités déterminées égales au quantum de M. Max Planck. C’est donc la fréquence du rayonnement qui détermine l’énergie prise par l’électron à la lumière excitatrice de la photoélectricité. Une chose essentielle se trouve ainsi établie : si on prend un rayonnement d’une fréquence donnée nu — rayons de Röntgen dont il s’agissait dans l’expérience précédente, par exemple — l’énergie cédée à chaque électron photo-électrique est bien déterminée et proportionnelle à la fréquence, avec un coefficient que nous appelons la constante h de Planck et que l’on peut mesurer directement par l’étude des phénomènes photoélectriques ; sa valeur est : 6,55 10(-27) en unités C. G. S. D’une seule expérience, voilà déjà que nous avons déduit un certain nombre de choses importantes. Vous savez aussi que non seulement il est nécessaire, pour interpréter le phénomène photoélectrique, d’admettre que le rayonnement de fréquence nu ne peut être absorbé par la matière que par quanta de grandeur h*nu, mais encore Planck a montré que pour rendre compte de la composition spectrale du rayonnement en équilibre thermique avec la matière à une température donnée, il faut supposer que l’émission aussi bien que l’absorption du rayonnement par la matière doivent toujours se faire par quanta d’énergie égaux à h*nu. Albert Einstein a montré qu’il est nécessaire aussi d’admettre que ces quanta d’énergie correspondent à une structure du rayonnement lui-même et que chacun d’eux doit être considéré comme transportant dans le rayonnement, avec la vitesse de la lumière, une énergie concentrée dans une petite région de l’espace, en même temps qu’une quantité de mouvement proportionnelle. La photographie que nous examinions tout à l’heure semble bien suggérer cette conception de la structure granulaire du rayonnement, de l’existence du photon, comme nous disons, parce que là où apparaît un électron photoélectrique, une molécule particulière que rien, a priori, ne différenciait des autres molécules du gaz, est l’objet, de la part du rayonnement, d’une action tout à fait exceptionnelle. Vous avez vu le très petit nombre de ces effets photo-électriques. Une molécule se trouve absorber un quantum entier d’énergie, alors que les voisines ne s’aperçoivent de rien. Cela suggère l’idée que le rayonnement se comporte comme s’il était composé de grains d’énergie qui, par un phénomène analogue à un choc, rencontrent certaines molécules et sont captés par celles-ci, leur énergie étant utilisée d’abord pour arracher l’électron, et ensuite pour communiquer à celui-ci l’énergie cinétique avec laquelle il est lancé et grâce à laquelle il ionise le gaz sur son parcours. L’idée du corpuscule se généralise ainsi et passe de la matière à la lumière. Cette conception corpusculaire de la lumière s’est trouvée encore confirmée par la découverte de ce que nous appelons l’effet Compton. Le physicien américain Compton explique certains phénomènes de déplacement des raies dans le spectre de Röntgen par passage à. travers la matière en admettant que, lorsqu’un de ces photons h*nu rencontre un électron dans une molécule, il peut arriver ou bien qu’il soit complètement absorbé par la molécule et que son énergie se trouve entièrement utilisée pour produire l’effet photoélectrique, ou bien, au contraire, que sa rencontre avec l’électron soit d’un autre genre et qu’il ne cède à cet électron qu’une partie de son énergie, en laissant subsister un photon de fréquence plus basse et par conséquent d’énergie moindre et en lançant l’électron avec une énergie égale à la différence entre les énergies du photon incident et du photon rémanent. En traitant ce choc d’un photon contre un électron par les lois de la Mécanique, plus particulièrement de la mécanique de la relativité, on représente complètement et quantitativement le phénomène. Cet effet Compton apporte une confirmation expérimentale très précise à la structure corpusculaire non seulement de la matière par les électrons, mais aussi de la lumière par les photons qui peuvent rencontrer des électrons, en observant toutes les lois habituelles de conservation de l’énergie et de la quantité de mouvement dans le choc. La figure reproduit un second cliché, qui montre précisément des électrons lancés par effet Compton dans un gaz ; chacun d’eux est lancé par le choc d’un photon incident qui perd une partie de son énergie et la cède à l’électron en rendant celui-ci capable d’ioniser le gaz sur son parcours. Pour montrer que ces trajets d’ionisation sont bien dus à des électrons négatifs, on a fait agir un champ magnétique perpendiculaire au plan de la figure, qui a incurvé les trajectoires des électrons négatifs dans un sens qui correspond bien au signe de leur charge. Le cliché que reproduit la figure 2 a été obtenu par M. Skobelzin qui, utilisant des photons de très grande fréquence correspondant aux rayons gamma du thorium a pu, sur leur passage à travers l’air, observer par détente dans l’appareil de Wilson des électrons d’effet Compton. Au contraire de ce qui arrivait pour les électrons photo-électriques, ces électrons d’effet Compton n’ont pas tous la même vitesse initiale quoique produits par les mêmes photons. Suivant les conditions du choc entre le photon et l’électron, l’énergie transmise à celui-ci peut être en effet plus ou moins grande. Ceci est mis en évidence par le fait que la courbure des trajectoires dans le même champ magnétique n’est pas la même pour tous les électrons ; elle est d’autant plus grande que la vitesse est plus faible.

On peut constater que les traînées de gouttes produites par ces électrons d’effet Compton, au lieu d’avoir une forme irrégulière et compliquée comme dans le cas .des électrons photo-électriques de tout à l’heure, sont régulières. Ce sont des circonférences, ou à peu près, parce que à mesure que l’électron se ralentit ; la courbure de sa trajectoire augmente, et celle-ci prend des aspects de spirale. Mais il n’y a plus les coudes brusques qu’il y avait tout à l’heure. Cela tient à ce que les électrons d’effet Compton sont beaucoup plus rapides en raison de l’énergie beaucoup plus grande du photon qui leur donne leur impulsion ; la déviation qu’ils subissent au moment d’un choc est beaucoup plus faible que dans le cas précédent. On voit très nettement sur la figure que les rayons gamma du thorium viennent d’en bas ; ils traversent le gaz. Un photon correspondant va rencontrer un électron dans une molécule et le chasser par effet Compton. Cet électron s’enroule autour du champ magnétique avec une courbure qui augmente en même temps que la vitesse de l’électron diminue du fait de ses chocs ionisants contre les molécules. Le cliché reproduit sur la figure correspond encore à une autre espèce d’électrons. Ce sont les rayons des corps radioactifs, qui sont constitués, eux aussi, par des électrons négatifs ou corpuscules cathodiques, mais de vitesse beaucoup plus grande que les électrons lancés par la cathode dans un tube de Crookes ou par effet photo-électrique sous l’action des rayons de Röntgen. C’est, ici, du radium qui émet les radiations beta. Si on fait arriver un faisceau de ces rayons beta dans un gaz et si on détend celui-ci dans l’appareil de Wilson pour produire la condensation de gouttes d’eau, on constate qu’on obtient une gerbe de trajectoires sous l’action d’un champ magnétique perpendiculaire au plan de la figure, qui incurve tous ces trajets d’électrons négatifs dans le même sens. Il y a là un aspect qui rend intuitive et évidente, en quelque sorte, la constitution des rayons beta par des grains individuels, par des électrons négatifs ou corpuscules cathodiques, qu’il a été possible d’identifier exactement avec ceux qui composent les émissions négatives déjà étudiées.

Après ces constatations et l’identification des rayons avec des électrons négatifs, il me reste à dire un mot de ce qui concerne les autres constituants de la matière. Vous savez que c’est surtout la radioactivité qui a apporté, à cet égard, des éléments d’information particulièrement précieux. D’abord, à côté des rayons gamma dont j’ai parlé tout à l’heure, qui sont de la lumière de fréquence très élevée, et par conséquent composés de photons d’énergie particulièrement grande, et à côté des rayons beta, qui sont constitués par des électrons négatifs, les corps radioactifs émettent encore des rayons alpha qui, eux, sont composés de particules électrisées positivement. Rutherford a pu les identifier avec des atomes d’hélium portant chacun deux fois la charge élémentaire positive. Ces rayons alpha ont une masse environ 7.000 fois plus grande que celle de l’électron négatif, et possèdent, d’ailleurs, des énergies cinétiques considérables, puisqu’ils sont lancés avec des vitesses de l’ordre de 15.000 à 25.000 kilomètres par seconde. En raison de leur charge électrique et de leur grande énergie, ils produisent, eux aussi, des catastrophes en traversant la matière ; ils dissocient des molécules, ionisent les gaz, et, étant donné que leur charge est double de celle des électrons, ils donnent lieu à un plus grand nombre d’ions sur leur trajet par unité de longueur. La fig. 4 représente un cliché de condensation obtenu dans un gaz traversé par des rayons alpha. On a placé dans l’appareil une source de rayons émettant des corpuscules alpha qui divergent à partir de la source. Chacune des traînées correspondantes de gouttes est beaucoup plus dense que celles qui sont produites par des électrons négatifs ; chacune d’elles représente le brouillard formé sur le trajet d’une particule alpha. Vous savez que Rutherford a déduit de l’observation de ces clichés ce qu’on appelle « la structure nucléaire de la matière ». Il a remarqué que si, généralement, ces trajectoires de particules alpha sont rectilignes parce que la particule est de masse considérable par rapport aux électrons et, par conséquent, ne dévie pas de son chemin tout en chassant des électrons sur sa route, il arrive parfois, au contraire, que son trajet se trouve très fortement et brusquement dévié, manifestant l’existence de chocs exceptionnels. Le cliché de la figure a été pris avec des rayons alpha du thorium C lancés dans l’argon ; on y voit une trajectoire brisée par une rencontre d’une particule alpha dans des conditions exceptionnelles avec un atome d’argon ; elle s’est réfléchie sous un angle aigu. Ces chocs exceptionnels se produisent à peu près une fois sur cent millions de chocs donnant lieu à ionisation par expulsion d’électrons. Or, nous avons vu que la connaissance du nombre d’ Avogadro N permet de calculer les dimensions des atomes, c’est-à-dire de la région occupée à l’intérieur de ceux-ci par les électrons ; on trouve ainsi pour les atomes supposés sphériques des rayons de l’ordre de 10-8 cm., et ce résultat est confirmé par diverses évaluations concordantes, en particulier par celles que fournit la diffraction des rayons de Röntgen dans les cristaux. L’extrême rareté des chocs exceptionnels capables de dévier notablement les particules alpha montre que la région où se trouve la plus grande partie de la masse de l’atome doit être beaucoup plus petite que l’atome lui-même. Du fait que les chocs exceptionnels sont cent millions de fois moins fréquents que les chocs ionisants, on déduit, en prenant la racine carrée de ce rapport pour tenir compte de ce que la section traversée est proportionnelle au carré du rayon, que le rayon de la région où se trouve concentrée la masse de l’atome est 10.000 fois plus petit que le rayon de l’atome lui-même, c’est-à-dire que les dimensions de ce noyau de l’atome sont de l’ordre de 10(-12) cm. L’étude précise des chocs exceptionnels, faite par Rutherford, a montré que, pour l’immense majorité de ceux-ci, la déviation de la particule alpha est due à la répulsion sur sa charge positive, suivant la loi de Coulomb, d’une charge de même signe portée par ce noyau où se trouve concentrée la masse de l’atome et autour duquel sont maintenus par attraction électrostatique les électrons négatifs nécessaires pour compenser, dans l’atome électriquement neutre, la charge positive du noyau. Ainsi s’est introduite l’image planétaire de l’atome dans laquelle le noyau joue le rôle d’une masse centrale attirante et où les électrons circulent autour de lui en décrivant des orbites dont les dimensions peuvent atteindre dix mille fois celles du noyau central. Par une autre découverte fondamentale, Rutherford a constaté que sur les noyaux de certains atomes, certains de ces chocs exceptionnels s’accompagnent d’une désintégration, avec émission de noyaux d’hydrogène, les plus simples de tous. Ces noyaux. que nous appelons des protons, portent une charge positive égale à la charge élémentaire. De cette constatation a résulté la conception de la structure de la matière que nous avions encore il il y a un an ou deux, où nous l’imaginions constituée d’électrons négatifs et de protons. Les atomes de masse plus grande que celle de l’hydrogène résultaient de la condensation de l’hydrogène ; l’atome d’oxygène, par exemple, de la condensation de seize atomes d’hydrogène. Les écarts des masses atomiques à partir de multiples entiers de celle de l’hydrogène, le fait qu’il y a dans cette condensation une perte de masse, s’interprétaient dans la nouvelle mécanique de la relativité, grâce à la doctrine de l’inertie de l’énergie. Vous savez que loin de constituer, comme autrefois, une difficulté pour la conception de l’unité de la matière, ces petites différences nous renseignent sur les énergies mises en jeu au moment des condensations, des intégrations, ou au moment des désintégrations atomiques. Il y a là tout un domaine nouveau de la science, domaine de la chimie nucléaire ou domaine des transmutations, où les mesures de masses nous renseignent sur les énergies mises en jeu. La conception à laquelle nous étions parvenus était celle-ci : un atome de masse atomique « A » est formé par la condensation de A atomes d’hydrogène, par conséquent par « A » protons ou noyaux d’hydrogène et « A » électrons. Sur ces A électrons, A — Z restent dans le noyau et Z gravitent autour de celui-ci, constituant les électrons périphériques ; le nombre Z représente le nombre de charges élémentaires dans la charge positive du noyau, et, fait remarquable, c’est en même temps le nombre atomique, c’est-à-dire le rang de l’atome dans le tableau de la classification périodique des éléments.

Nous en étions là lorsque, récemment, notre richesse en constatations expérimentales s’est trouvée augmentée par la découverte du neutron d’abord, et par celle de l’électron positif ou positron, ensuite. Pour terminer ces préliminaires expérimentaux, je vais présenter rapidement quelques clichés correspondant aux découvertes du neutron et de l’électron positif. Vous savez que c’est toujours grâce à l’utilisation de l’artillerie radioactive des particules alpha que ces découvertes ont été possibles. Le professeur Bothe et son collaborateur Becker ayant constaté que les atomes légers de glucinium, de bore ou de lithium, soumis au bombardement des rayons alpha du polonium, donnent lieu à une émission très pénétrante, on a cru d’abord celle-ci constituée par des rayons gamma très durs. Mais Irène Joliot-Curie et Frédéric Joliot-Curie ont découvert que l’ionisation, par action de ces rayons sur des gaz dans une chambre d’ionisation, se trouve singulièrement augmentée par la présence d’une substance hydrogénée. Ils ont pu, en utilisant en particulier, des photographies prises à la chambre de condensation de Wilson, constater que le rayonnement très pénétrant de Becker et Bothe a la propriété d’arracher des protons, c’est-à-dire des noyaux d’hydrogène aux substances qui contiennent de l’hydrogène chimiquement combiné. Ceci ne peut pas correspondre à une propriété des rayons gamma. La discussion faite, notamment par Chadwick, de ce processus montre qu’il est nécessaire d’admettre que le rayonnement pénétrant de Becker et Bothe est constitué en partie par des particules non électrisées, de nature matérielle, dont la masse déduite des échanges de quantités de mouvement avec le noyau d’hydrogène ou d’autres noyaux qui sont expulsés de la matière, est tout à fait de l’ordre de celle du proton, de celle du noyau d’hydrogène, mais sans électrisation. C’est pour cette raison que la particule n’ionise pas le gaz en le traversant, puisque l’ionisation est surtout due à l’action de la charge électrique du projectile sur les électrons ; quand le projectile n’est pas électrisé, les chances d’ionisation sont très minimes. L’expérience semble montrer que, au maximum, il peut y avoir une ionisation, un électron chassé directement par un neutron sur un parcours de celui-ci d’au moins 30 mètres dans l’air, de sorte qu’il ne peut y avoir d’ionisation appréciable par les neutrons que par l’intermédiaire des protons ou des autres noyaux électrisés qu’ils projettent. Cette émission de neutrons sous l’action des particules alpha du polonium résulte d’une véritable transmutation et nous oblige à admettre que, dans les noyaux de bore ou de glucinium, il y a des neutrons présents, à moins qu’ils ne puissent y prendre naissance au moment du choc, par combinaison d’un proton avec un électron négatif. On admettra, par exemple, que le bore de masse 11 absorbant une particule alpha de masse 4 donne un atome d’azote de masse 14 et un neutron de masse 1, les charges électriques étant d’accord avec cette représentation puisque la charge du noyau de bore est 5, celle de la particule alpha est 2, celle du noyau d’azote 7 et celle du neutron 0. La figure 5 représente un cliché obtenu par Irène Curie et Joliot. La trajectoire rectiligne est celle d’un proton, issu de la paraffine sous l’action des neutrons. Une source de polonium bombarde in glucinium et les neutrons qui en résultent traversent un écran recouvert de paraffine dont ils arrachent des protons qui, eux, sont électrisés avec une charge positive 1, traversent le gaz et l’ionisent ; on en voit ici la trace. Sur la figure on aperçoit un autre proton arraché dans le gaz à une molécule d’eau. Il ne vient pas de l’écran de paraffine. Il part d’un point de la masse du gaz. C’est l’hydrogène présent dans la molécule d’eau qui a fourni le proton en question. Dans le cliché de la figure il apparaît un autre effet. Les neutrons peuvent chasser non seulement des noyaux d’hydrogène, mais aussi d’autres noyaux et en particulier ici un noyau d’azote provenant d’une molécule d’azote de l’air. Le trait épais et court est la trajectoire d’un tel noyau. Le rang de l’azote dans la série des éléments est 7, le noyau d’azote possède une charge 7, et agit beaucoup plus intensément encore pour ioniser le gaz que les particules alpha de charge 2. Il donne un brouillard dense et une trajectoire courte. Le cliché de la figure représente aussi l’action d’un neutron sur un noyau d’azote, mais ici avec désintégration. Il y a bien encore une trace épaisse, mais elle est accompagnée d’une trace plus fine et plus longue, qu’on peut identifier avec celle d’une particule alpha. Ici, le neutron rencontrant un noyau d’azote, va en chasser une particule alpha. Au point de vue des masses, 14 et 1, cela fait 15, et moins 4 cela fait 11 : c’est du bore qui reste. Le bilan des charges nucléaires conduit à la même conclusion. Nous avons, ici, la réaction exactement inverse de celle qui donne naissance au neutron dans le bombardement du bore par la particule alpha. C’est la première fois qu’on peut constater la réversibilité d’une réaction de transmutation. Il y a là un fait particulièrement intéressant et important. La dernière découverte après celle du neutron, est celle de l’électron positif ou positron. Ce même rayonnement produit par l’action des rayons alpha du polonium sur les atomes légers de lithium, de glucinium ou de bore, contient, outre les neutrons, des rayons gamma de très haute fréquence dont les photons, de très grande énergie, provoquent l’émission, en rencontrant les noyaux des atomes, non seulement d’électrons négatifs, mais encore d’électrons positifs. Sur le cliché de la figure 9 on constate des trajectoires d’électrons beaucoup moins denses que celles des protons et incurvées grâce à la présence d’un champ magnétique qui dévie l’électron négatif dans un certain sens. Eh bien ! du même point, il part une autre trajectoire incurvée en sens inverse. Ce cliché est d’ Irène Curie et Joliot. Cette production de deux électrons de signes contraires aux dépens d’un photon est un fait extrêmement important, qui correspond à une véritable matérialisation de la lumière. L’existence de l’électron positif et sa production à partir d’un photon en même temps qu’un électron négatif avait été prévue il y a deux ans par Dirac comme conséquence de sa théorie de l’électron. J’y reviendrai tout à l’heure. La figure 10 donne aussi des trajectoires d’électrons positifs et négatifs avec des incurvations opposées dans le champ magnétique. La source est toujours analogue. On voit également la trajectoire d’un proton résultant de l’action d’un neutron, tandis que ce sont les rayons gamma pénétrants qui donnent naissance aux électrons positifs et négatifs. On peut ainsi constater que ces électrons positifs, qui n’ont été découverts que tout récemment, existent plus abondamment qu’on ne l’avait supposé ; on aurait facilement pu les voir si on les avait cherchés avec un peu de ténacité. Il est probable d’ailleurs que leur existence est seulement éphémère et qu’ils disparaissent en présence de matière d’autant plus vite que celle-ci est plus dense, soit par neutralisation d’un électron négatif en redonnant de la lumière, soit par combinaison avec un neutron pour donner un proton. La figure 11 reproduit un autre cliché montrant que, conformément aux constatations d’ Irène Curie et de Joliot, il n’est pas nécessaire de passer par l’intermédiaire du glucinium ou du bore et que l’action directe des rayons alpha du polonium sur l’aluminium en extrait des électrons positifs et des électrons négatifs, et aussi des protons. Tout récemment, M. Jean Thibaud a montré que les substances radioactives émettent des électrons positifs en nombre moindre que celui des électrons négatifs ou rayons beta, mais cependant du même ordre de grandeur. Il a pu, par une méthode très ingénieuse, obtenir une valeur approximative du rapport de la charge à la masse pour ces électrons positifs et l’a trouvée égale en valeur absolue, au degré de précision de ses mesures, à celle qui correspond aux électrons négatifs.

Ces résultats expérimentaux sont très importants. Les physiciens, en ce moment, cherchent à mettre un peu d’ordre dans cette richesse imprévue et, en particulier, à déterminer les relations qui peuvent exister entre les constituants nouveaux de la matière, neutron et électron positif, et les constituants plus anciennement connus, électron négatif et proton. Nous avons affaire maintenant, en ce qui concerne la matière, a quatre constituants : les électrons négatifs, les électrons positifs, les neutrons et les protons ; d’autre part, en ce qui concerne la lumière, aux photons qui représentent, en quelque sorte, un cinquième constituant de l’univers. Je parle des photons comme représentant un seul constituant, bien que la fréquence puisse varier de manière continue d’un photon à l’autre et qu’il y ait ainsi, au moins en apparence, une variété infinie de photons. Mais nous devons considérer que le changement de fréquence d’un photon est quelque chose de comparable, pour celui-ci, à ce qu’est le changement de vitesse pour l’électron ou pour le proton. Nous disons que ce sont les mêmes électrons ou les mêmes protons, bien que leur vitesse et par conséquent leur énergie puisse changer. Dans le cas du photon, la situation se présente autrement, puisque le photon, qui est de la lumière, se propage toujours avec une même vitesse, celle de la lumière. Remarquons cependant qu’un changement du mouvement de l’observateur, qui modifie la vitesse du proton ou de l’électron, modifie en même temps par effet Doppler la fréquence d’un photon quelconque. Si nous courons de plus en plus fort après un photon, nous savons, par la relativité restreinte, que sa vitesse par rapport à nous reste toujours celle de la lumière, mais que sa fréquence diminue et tend vers zéro à mesure que la vitesse de l’observateur augmente dans la direction de propagation du photon. Son énergie, proportionnelle à la fréquence, tend vers zéro en même temps que celle-ci. Il en est de même de sa masse, au point de vue de la relativité, puisque cette masse est égale au quotient de l’énergie par le carré de la vitesse de la lumière. C’est là le sens physique que possède l’affirmation que la masse propre d’un photon est nulle. Un photon n’a d’énergie qu’en proportion de sa fréquence. Si on court après lui assez vite, on peut faire descendre sa fréquence aussi bas qu’on veut, de même qu’il suffit de courir après un électron pour diminuer sa vitesse par rapport à l’observateur. Dire que tous les photons représentent un même constituant de l’Univers au même titre que tous les électrons négatifs ou tous les protons, revient à constater que la fréquence d’un photon change avec le mouvement de l’observateur, de même que nous considérons qu’un proton ou qu’un électron ne change pas de nature tout en changeant de vitesse quand on modifie son mouvement par rapport à l’observateur.

Dans le désarroi où nous met actuellement l’excès de nos richesses d’information expérimentale, les uns admettent que le neutron n’est pas autre chose qu’un proton combiné à un électron négatif, le proton positif et l’électron négatif s’associant là de manière plus intime qu’ils ne le font dans l’atome d’hydrogène. Il y aurait un degré de quantification inférieur à celui qui correspond à l’atome stable d’hydrogène, à l’atome non excité. Ce n’est pas impossible, étant donné que les dimensions que nous sommes conduits à attribuer au neutron sont de l’ordre des dimensions des noyaux, c’est-à-dire inférieures à 10(-12) centimètre : les équations qui régissent l’électron cessent d’être applicables à l’ordre de ces dimensions-là. Par conséquent, nous n’avons pas à nous étonner que les lois de quantification du mouvement de l’électron dans l’atome d’hydrogène, qui sont applicables quand les distances entre l’électron et le noyau sont assez grandes pour que les actions mutuelles suivent la loi de Colomb, ne soient plus applicables dans le cas du neutron et que celui-ci puisse représenter un degré d’union plus intime entre le proton et l’électron que celui qui correspond à l’atome d’hydrogène stable. D’autres conceptions — Jean Perrin vous en parlera — consistent, au contraire, à considérer que c’est le proton qui résulte de l’union du neutron avec un positron, avec un électron positif.

Il y a des raisons qui militent dans ce sens ; il y en a aussi dans l’autre. De toute manière, la découverte du neutron conduit à considérer tous les noyaux atomiques comme composés de protons et de neutrons ; un noyau de nombre atomique Z et de masse A contiendrait Z protons et A - Z neutrons. On peut admettre aussi l’existence à l’intérieur des noyaux, comme constituant intermédiaire, de particules alpha ou noyaux d’hélium formées chacune par association de deux protons et de deux neutrons.

Maintenant, quant à l’électron positif, qui est le dernier découvert, il est peut-être le plus encombrant, le plus gênant de tous. Sa découverte a ramené l’attention vers une conception que Dirac avait formulée il y a environ deux ans. Les électrons négatifs, selon la théorie de Dirac, peuvent avoir des états d’énergie positive et aussi d’énergie négative. Notre espace, à l’état normal, serait entièrement occupé par des électrons négatifs d’énergie négative, dont l’électrisation ne se manifesterait pas en raison même de l’homogénéité de l’espace ainsi occupé. Mais il peut se faire qu’un photon d’énergie suffisamment grand vienne, par effet photoélectrique ou par effet Compton, arracher un de ces électrons négatifs d’énergie négative et lui communiquer une énergie positive. Cet électron laisse derrière lui une lacune, un état d’énergie négative non occupé, et Dirac montre qu’une semblable lacune doit se comporter comme un électron chargé positivement et d’énergie positive. Cette théorie qui fait des électrons positifs des lacunes dans un ensemble normalement occupé d’états d’énergie négative pour des électrons négatifs, quoique assez surprenante à première vue, conduit à des prévisions intéressantes, en particulier quant à la durée de vie probable d’un positron. En effet, si on considère l’électron positif comme une lacune, il y a, dans la matière et en quantité croissante avec la densité de celle-ci, des électrons négatifs ordinaires qui peuvent venir combler la lacune. Ils passeraient ainsi d’un état d’énergie positive — qui est l’état sous lequel ils nous apparaissent — à l’état d’énergie négative vacant par suite de la lacune. L’énergie qu’ils abandonneraient en passant de leur état initial d’énergie positive à cet état d’énergie négative se retrouverait sous forme d’un ou de plusieurs photons.

Il est possible, à ce point de vue, en appliquant les méthodes de la nouvelle dynamique des quanta, de prévoir la durée moyenne de vie d’un électron positif, par exemple dans l’air, à la pression atmosphérique. Dirac prévoit ainsi une durée de vie d’un dix-millionième de seconde pour le positron. Cette idée ne doit pas nous étonner. D’autres corpuscules ont aussi ce caractère éphémère. La radioactivité par exemple nous met en présence de variétés d’atomes dont la vie moyenne est d’un millionième de seconde. Les chimistes ont des raisons sérieuses d’admettre que le radical CH3 peut exister à l’état libre avec une durée de vie moyenne de l’ordre d’un millième de seconde. Le positron, lui, aurait une vie moyenne d’un dix-millionième de seconde dans l’air à la pression atmosphérique normale, et plus longue dans un milieu plus raréfié. S’il n’y avait pas du tout d’électron négatif pour venir combler la lacune, celle-ci pourrait subsister indéfiniment. Dans la matière solide où les électrons négatifs sont nombreux, la lacune ne durerait presque pas. Cela n’a rien d’incompatible avec le fait qu’on puisse l’observer dans une chambre de Wilson, puisque sa vitesse est considérable ; elle peut être mesurée par la courbure de la trajectoire. Dans les cas observés, cette vitesse était de l’ordre des neuf dixièmes de la vitesse de la lumière, ce qui en un dix millionième de seconde représente un trajet de l’ordre de trente mètres ; comme la chambre de Wilson est loin d’avoir un pareil diamètre, l’électron positif a le temps d’y tracer sa trajectoire et d’y produire de l’ionisation.

Si l’expérience semble ainsi justifier et même imposer la notion de corpuscule pour la lumière comme pour la matière, voyons quelle est la situation au point de vue théorique. Comme il était raisonnable et légitime, nous nous sommes représenté, ainsi que je vous le disais tout à l’heure, les constituants nouvellement découverts dans le domaine atomique et intra-atomique, à la façon de particules matérielles. Nous avons fait ainsi que l’on fait toujours en Physique lorsqu’on aborde un domaine nouveau : nous avons essayé d’expliquer l’inconnu pal le connu, d’utiliser les notions qui avaient réussi dans les domaines déjà explorés et représentés. Il n’est guère possible de faire autrement ; c’est seulement dans le cas où cette tentative ne réussit pas qu’on est obligé de remettre tout en question et de chercher à créer des notions nouvelles. Il se trouve que, en un temps relativement court, depuis trente ans pour ce qui concerne l’atome, et depuis vingt ans à peine pour ce qui concerne le noyau, nous avons dû passer, sans préparation, de ce que j’appellerai l’étage normal et familier de notre expérience ancestrale, de l’étage du macroscopique où se sont constituées les notions fondamentales qui nous ont servi jusqu’ici à représenter le monde, à des régions beaucoup plus profondes de la réalité, que le perfectionnement incessant de nos méthodes expérimentales nous permet aujourd’hui d’atteindre et d’explorer. Parmi ces notions, à côté de celles d’espace et de temps, il convient de signaler tout particulièrement celle d’objet, fixe ou mobile, détaché par la pensée du reste de l’Univers et subsistant à travers des changements variés, individualisable et permanent. On peut dire que c’est la notion subjective d’individu acquise par la conscience humaine et confirmée par les relations entre les êtres humains qui est, en quelque sorte, extrapolée, projetée anthropomorphiquement dans l’objet, et aussi dans le corpuscule. Du niveau macroscopique, superficiel et ancestral de notre expérience où se sont constituées ces notions, nous sommes récemment descendus dans un premier sous-sol, celui du monde de l’atome autour du noyau, où nous avons rencontré les électrons qui donnent lieu aux phénomènes d’émission et d’absorption du rayonnement lumineux y compris les rayons de Röntgen, et qui permettent, par leur échange entre atomes, d’interpréter toutes les réactions chimiques où n’interviennent pas d’effets de transmutation. Et puis, à peine avions-nous commencé à prendre contact avec ce nouveau domaine et à nous y éclairer, qu’un second sous-sol beaucoup plus profond a été découvert grâce à la pénétration dans le domaine du noyau où les choses se passent à une échelle spatiale dix mille fois plus petite encore que celle de l’atome. Tout naturellement, en passant d’un étage au suivant, nous essayons, tout d’abord, pour construire la représentation du nouveau domaine, d’utiliser l’outillage mental dont nous disposons et qui a réussi tant bien que mal à l’étage supérieur.

Cela s’est bien passé ainsi quand, après avoir découvert, il y a vingt ans, la structure nucléaire de l’atome, nous avons essayé de la représenter et de la préciser sur le modèle planétaire, c’est-à-dire en concevant l’atome comme un système composé d’un soleil central électrisé positivement, avec une charge égale à Z fois la charge élémentaire, et entouré de Z satellites, sous forme d’électrons négatifs gravitant chacun autour de lui sous l’action attractive de sa charge positive, et répulsive des autres électrons. cette dernière action étant analogue à la perturbation du mouvement d’une planète par les autres planètes. Cette image constitue ce que nous appelons l’atome de Rutherford et de Bohr. Bohr a réussi le premier à développer théoriquement les conséquences de cette conception nucléaire de l’atome. Il s’est heurté tout de suite à de grosses difficultés que je vais rappeler sur le cas le plus simple auquel il s’est attaqué tout d’abord : celui de l’atome d’hydrogène, avec un proton au centre et un seul électron gravitant autour de celui-ci. Il n’y a pas de perturbation : il n’y a que l’attraction du proton central. La théorie électromagnétique sous sa forme classique de Maxwell et de Lorentz affirme que quand une particule électrisée a un mouvement comportant une accélération, elle doit émettre un rayonnement et par conséquent perdre son énergie ; l’électron qui gravite autour du noyau et parcourt son orbite avec un mouvement qui comporte nécessairement des accélérations, doit rayonner et perdre progressivement son énergie du fait même de ce rayonnement. Au bout d’un temps facile à calculer et qu’on trouve égal à une petite fraction de seconde, il devrait tomber sur le noyau et neutraliser celui-ci en donnant ce qui peut-être serait un neutron. Nous savons bien cependant que l’atome d’hydrogène est stable et qu’il dure, vraisemblablement pendant des milliards et des milliards d’années. D’autre part, la théorie électromagnétique prévoit que le rayonnement émis par l’électron pendant son mouvement de circulation autour du noyau doit avoir une fréquence égale au nombre de révolutions par seconde. Ce rayonnement devrait donc changer de fréquence de façon continue à mesure que l’électron se rapprocherait du noyau en perdant son énergie et par suite devrait avoir un spectre continu. Ainsi, la conception planétaire conduit à deux conséquences en contradiction grossière avec l’expérience : tout d’abord, que l’atome nucléaire ne serait pas stable, perdrait son énergie par rayonnement, et que, d’autre part, ce rayonnement aurait mi spectre continu, alors que l’on sait très bien que tous les atomes, y compris celui d’hydrogène, émettent des spectres de raies, des spectres discontinus. Pour ne pas abandonner le fil directeur que représentait cependant l’image planétaire soumise aux lois de la mécanique, Bohr a cherché un compromis. Il l’a trouvé en s’appuyant sur l’existence des quanta de rayonnement, sur le fait affirmé par Planck, que l’atome ne peut rayonner, que la matière ne peut émettre de lumière que par quanta finis de grandeur h*nu. Il a admis qu’il fallait introduire du discontinu là où la théorie électromagnétique ne connaissait que du continu et que, sans abandonner la mécanique classique, il fallait faire un choix parmi la série infinie et continue des mouvements possibles qu’elle prévoit pour l’électron, quantifier ces mouvements, comme nous disons aujourd’hui, et n’en retenir qu’une série discontinue dont chacun des termes correspondrait à un état stable de l’atome. Bohr eut l’idée géniale de faire correspondre chacun de ces états stables à l’un des termes que les spectroscopistes avaient dû introduire, en vertu du principe de combinaison, pour représenter, par leurs différences, les fréquences des diverses raies d’un même spectre atomique. En admettant que l’atome ne peut émettre ou absorber de rayonnement qu’en passant brusquement d’un état stable à un autre, le quantum du rayonnement émis ou absorbé étant égal à la différence des énergies de l’atome dans les deux états initial et final, il rendait immédiatement compte du fait que la fréquence de la raie correspondante au rayonnement est spectroscopiquement égale à la différence des termes associés aux deux états de l’atome. Le choix, parmi la série continue des solutions possibles au sens de la mécanique, de celles qui fournissent les mouvements d’électrons et les états de l’atome considérés comme stables a été fait par Bohr au moyen d’une première règle très simple dite de quantification, règle qui a pu être généralisée ensuite de manière à s’étendre au cas le plus général d’un système comprenant un membre quelconque d’électrons. Bohr a dû ainsi faire une entorse à la théorie électromagnétique en admettant que ces mouvements ainsi isolés et quantifiés pouvaient se poursuivre sans rayonnement — ce qui, au point de vue électromagnétique, n’est pas admissible — et que, sous des conditions d’ailleurs obscures, les électrons pouvaient passer d’un mouvement quantifié de ce genre à un autre, soit en émettant un quantum de rayonnement si le passage a lieu d’un état d’énergie plus élevé à un état d’énergie moins élevé, ou, au contraire, en absorbant un quantum de rayonnement extérieur, si le passage a lieu d’un état d’énergie moins élevé à un état d’énergie plus élevé. C’est là l’idée fondamentale, difficile à accepter au point de vue théorique, mais singulièrement féconde au point de vue pratique, puisque, sans le succès que les idées de Bohr ont rencontré dans le cas de l’atome d’hydrogène, le développement ultérieur de la théorie quantique et de la mécanique ondulatoire n’aurait certainement pas été possible. Par conséquent, il y a eu là une transition utile, malgré ses contradictions et son illogisme, entre les notions anciennes de la mécanique et de l’électromagnétisme, notoirement insuffisantes dans le domaine intra-atomique, et les notions nouvelles, plus cohérentes et plus adéquates, que la dynamique des quanta s’efforce d’élaborer. Vous savez comment la quantification par Bohr de l’atome d’hydrogène en utilisant la mécanique classique, et, mieux encore, la quantification par Sommerfeld de ce même atome d’hydrogène en utilisant la mécanique de la relativité, a conduit à l’interprétation complète du spectre atomique de l’hydrogène, résultat tout-à-fait remarquable qui a eu, sur le développement de la spectroscopie en général, une énorme répercussion. C’est, en quelque sorte, un hasard heureux, une chance pour les physiciens qu’il en ait été ainsi. En effet, lorsqu’on a voulu passer du cas d’un seul électron circulant autour d’un noyau, au cas de deux électrons, cela n’a plus marché du tout, par exemple pour l’atome d’hélium, dont le noyau — qui est justement la particule — a deux charges positives, et qui comporte par conséquent deux électrons périphériques lorsqu’il n’est pas ionisé. Il a fallu reconnaître, que la quantification, au sens de Bohr et de Sommerfeld, ne permettait pas de rendre compte de la dynamique intra-atomique. C’est alors que se sont développées, d’une part ce qu’on a appelé la « dynamique des quanta » ou la dynamique des matrices, entre les mains de Heisenberg, Max Born, Jordan, etc..., et puis, de manière concordante, la mécanique ondulatoire grâce aux efforts de Louis de Broglie, Schrödinger, Dirac, etc... Vous savez en quoi consiste l’idée initiale de Louis de Broglie qui a, en quelque sorte, suivi la marche inverse, dans le cas de la matière, de ce qui s’était passé dans le cas de la lumière pour interpréter l’effet photo-électrique, l’effet Compton, etc... A côté des ondes lumineuses, qui représentaient admirablement un autre aspect de l’Optique, l’aspect classique — interférences, diffraction, etc... — il a fallu admettre une structure corpusculaire de la lumière. La question fondamentale actuelle pour la théorie du rayonnement est celle de la synthèse non encore constituée entre les deux conceptions ondulatoire et corpusculaire, entre les ondes et les photons qui rendent compte séparément d’aspects complémentaires, et en quelque sorte opposés, de la réalité. Louis de Broglie a pensé qu’on sortirait peut-être des difficultés de la dynamique intra-atomique en associant des ondes aux corpuscules, électrons, protons, etc.., comme, en optique, on avait été conduit à associer des corpuscules aux ondes. Il a admis que la liaison entre l’énergie du corpuscule, qui est connue dans le cas de la matière, et la fréquence de l’onde nouvelle était la même que celle de Planck, mais utilisée cette fois pour déduire la fréquence de l’onde de l’énergie du corpuscule, au lieu de déduire, comme dans le cas de la lumière, l’énergie du corpuscule de la fréquence de l’onde. Cette idée, que la théorie de la relativité restreinte a permis de développer, a conduit tout de suite, comme vous savez, à des confirmations expérimentales impressionnantes par les expériences de Davisson et Germer et de G. P. Thomson, qui rendent visible, tangible, l’aspect ondulatoire de la matière si éloigné, au moins en apparence, de l’aspect corpusculaire auquel les expériences de Wilson ont donné un caractère de réalité si concrète. Le cliché de la fig. 12 a été obtenu par M. Trillat et donne les anneaux de diffraction de rayons de Röntgen à travers une pellicule matérielle. La distribution de ces anneaux est caractéristique de la structure moléculaire ou cristalline de la substance qui constitue la pellicule, et leurs rayons, pour une même substance, augmentent avec la longueur d’onde des rayons de Röntgen utilisés. La fig. 13 reproduit un cliché obtenu par M. Ponte avec des rayons cathodiques au lieu de rayons de Röntgen. Un faisceau d’électrons ou d’ondes électroniques traversait une pellicule renfermant des cristaux microscopiques d’oxyde de zinc. L’apparence est tout à fait analogue à celle donnée par les rayons de Röntgen. Les formules de Louis de Broglie permettent de calculer les longueurs d’onde associées aux électrons à partir de la vitesse de ceux-ci et de constater que la figure de diffraction est bien conforme à ce que permet de prévoir la longueur d’onde calculée. Quand on augmente la vitesse des électrons, la longueur d’onde diminue et les anneaux de diffraction se resserrent.

Nous nous trouvons ainsi en présence d’un double aspect que présentent à la fois la lumière et la matière : ondulatoire dans certains cas, corpusculaire dans d’autres. Ces deux aspects, Bohr les appelle « complémentaires » ; il énonce même à leur sujet un « principe de complémentarité ». Devons-nous accepter de vivre dans cette espèce de contradiction, dans une situation en quelque sorte hégélienne, dialectique, où nous constatons des oppositions sans en avoir encore réalisé la synthèse ? Il me parait désirable que nous n’acceptions pas trop facilement cette solution, que nous ne nous installions pas dans la contradiction alors que notre science a pour tendance profonde, au contraire, de réaliser des synthèses de plus en plus compréhensives en élargissant les notions anciennes ou en créant les notions nouvelles nécessaires. Cette synthèse est préparée par les efforts de ceux qui ont cherché à préciser la liaison entre les deux caractères opposés, ondulatoire et corpusculaire, en particulier par ceux de Max Born, qui conçoit cette liaison comme ayant un caractère statistique. À ce point de vue, l’onde, dans le cas de la lumière comme dans celui de la matière, est chargée de déterminer, de définir, les probabilités de présence des corpuscules — photons pour la lumière, électrons, protons, etc., pour la matière — la manière dont les corpuscules se distribuent sur une plaque photographique entre les différentes franges d’interférence ou de diffraction, ou la manière dont ils se répartissent dans le temps ou dans l’espace entre les différents états individuels possibles.

Seulement, cette conception statistique ne nous satisfait pas si nous voulons conserver la conception corpusculaire ancienne, si nous voulons continuer à nous représenter un électron comme un objet, un proton comme un objet et, éventuellement, un photon comme un objet. Là, alors, l’opposition devient flagrante, la contradiction s’installe, à tel point que Heisenberg a pu, il y a six ans, exprimer cette situation sous la forme de ce qu’il a appelé « le principe d’indétermination », en employant une expression que je trouve un peu malheureuse en raison des abus d’interprétation auxquels elle a donné lieu. De ce principe d’indétermination, je voudrais vous donner une idée. Il résulte précisément de la coexistence de l’aspect corpusculaire et de l’aspect ondulatoire. On sait que si, au point de vue corpusculaire, nous caractérisons une particule par sa position au moyen d’une coordonnée telle que « q », la dynamique associe à cette coordonnée une autre variable conjuguée de la première, la quantité de mouvement correspondante qu’on représente par « p ». Au point de vue de la conception classique, où l’on suppose que la particule peut être suivie dans son mouvement, on admet que la coordonnée « g » peut être déterminée à chaque instant avec une précision aussi grande qu’on le veut, qu’elle est susceptible d’une erreur delta q, qu’on peut réduire indéfiniment. De même, cette conception implique que nous pouvons déterminer, au même instant, la vitesse et, par conséquent, la quantité de mouvement avec une précision, également illimitée, cette précision étant caractérisée par l’erreur delta p commise. Ces erreurs y sont considérées comme indépendantes et on admet que leur produit peut être rendu aussi petit que l’on veut. Au contraire, le principe d’indétermination consiste à affirmer qu’ à un même instant, il n’est pas possible de connaître à la fois avec une précision illimitée, les deux éléments, et que le produit delta p delta q des erreurs commises sur ces éléments ne peut jamais être rendu inférieur à la constante h, de Planck. Un raisonnement très simple permet de concrétiser dans un cas particulier, ce principe d’indétermination. Je crois utile de vous l’indiquer. Supposons que nous ayons affaire à un faisceau d’électrons, par exemple, ayant chacun une vitesse et par conséquent une quantité de mouvement bien définie, en grandeur et en direction. Dans le langage de la mécanique ondulatoire, cela veut dire qu’une onde électronique plane de fréquence et de longueur d’onde bien définies se propage dans une direction bien déterminée qui est celle de la quantité de mouvement et que je supposerai ici horizontale. Un électron appartenant au faisceau ou associé à l’onde, peut se trouver dans n’importe quel point de l’espace occupé par celle-ci. Par conséquent, au point de vue de la coordonnée q, que je supposerai ici verticale, sa position est indéterminée. Le delta q est très grand, alors que la quantité de mouvement qui, d’après la relation de Louis de Broglie, est égale au quotient de la constante de Planck par la longueur d’onde, est bien définie en même temps que cette dernière. Si nous voulons augmenter la précision sur la position dans le sens vertical, nous allons prendre deux lames situées dans un même plan d’onde et les rapprocher afin de réaliser une fente horizontale perpendiculaire à la direction de propagation. Plus cette fente sera étroite et plus nous aurons de précision au sujet de la position de l’électron dans la direction verticale, l’erreur sur cette position étant précisément égale à la largeur de la fente. Le delta q, c’est la largeur de la fente. Mais ici va intervenir le fait expérimental de la diffraction des ondes électroniques : si nous obligeons les électrons et l’onde qui leur est associée à passer par une fente étroite, cette onde va se diffracter ; et, au delà de la fente, nous dirons qu’il y a des électrons dont les vitesses ont diverses directions. L’ordre de grandeur de la déviation thêta correspondant à cette diffraction, est, d’après les lois mêmes de la diffraction, donnée par le rapport de la longueur d’onde lambda, à la largeur de la fente delta q, la diffraction étant d’autant plus importante que la longueur d’onde est plus grande et la fente plus étroite. Cela veut dire que la quantité de mouvement, dont la direction était bien définie avant le passage à travers la fente, va prendre après ce passage une direction imprécise. Dans la direction verticale qui nous intéresse, l’incertitude sur la quantité de mouvement va être représentée par la composante dans cette direction de la quantité de mouvement déviée de l’angle thêta. Par conséquent, l’incertitude delta p va être de l’ordre de h/lambda, grandeur de la quantité de mouvement, multiplié par thêta, c’est-à-dire par lambda/delta q, d’où :

delta p = (h/lambda)*(lambda/delta q), c’est-à-dire (delta p)*(delta q) = h.

C’est bien la relation d’indétermination d’Heisenberg obtenue comme conséquence du fait expérimental de la diffraction des ondes électroniques.

On est parti de ce résultat pour proclamer la faillite du déterminisme, pour affirmer que les corpuscules de toute nature n’ont pas un mouvement déterminé, puisqu’il est impossible de définir expérimentalement au même instant la position et la vitesse ou la quantité de mouvement d’un corpuscule quelconque. Au nom du principe d’indétermination on s’est livré à toute une variété de dévergondages intellectuels en parlant d’un libre arbitre des corpuscules, d’un libre choix de la nature, et en disant : « La théorie des quanta vient de nous révéler une indétermination fondamentale des lois de la nature. Tout en respectant les lois statistiques imposées par les ondes, l’électron individuel, aussi bien que le photon, le proton, l’atome ou la molécule ont une certaine latitude, une certaine liberté, mesurée, limitée par la constante de Planck ». En 1927, à Bruxelles, Dirac disait : « A certains moments, la nature fait un choix ». Elle le ferait justement dans les limites des lois imposées par la statistique, de même qu’en démographie nous considérons que chaque individu a une certaine marge d’indétermination qui constitue la liberté morale, et qu’il est cependant soumis à des lois statistiques, puisqu’on sait qu’on peut prévoir, avec une assez grande précision, le nombre des décès ou même celui des suicides. Le corpuscule, électron, proton ou photon se trouverait dans des conditions tout à fait analogues. Les interprétations sont allées encore plus loin. Par exemple Arthur Eddington, qui est un grand savant, dans son livre intitulé « La nature du monde physique », s’exprime ainsi : « On pourra peut-être dire, comme conclusion à tirer de ces arguments fournis par la science moderne, que la religion est devenue acceptable pour un esprit scientifique raisonnable à partir de 1927... Si notre prévision se confirme que 1927 aura vu l’élimination définitive de la causalité stricte par Heisenberg, Bohr, Born et d’autres, cette année représentera certainement l’une des plus grandes époques dans le développement de la pensée scientifique ».

D’autres, comme Bohr, prennent une attitude expectante. Ils acceptent provisoirement la contradiction comme manifestation d’un autre principe « le principe de complémentarité ». Ils disent : l’aspect ondulatoire et l’aspect corpusculaire sont deux aspects complémentaires de la réalité. Nous avons affaire tantôt à l’un. tantôt à l’autre, et il ne faut pas trop nous préoccuper de concilier l’un et l’autre. Et même, on pourrait peut-être trouver là le moyen de résoudre certaines difficultés d’ordre philosophique. Nous avons autour de nous la matière dite inerte et la matière vivante régies, la première par les lois de la physico-chimie, la seconde par les lois de la biologie. On cherche depuis longtemps à ramener ces lois les unes aux autres, à réaliser une synthèse de la physico-chimie et de la biologie. Certains disent aujourd’hui : « On s’est toujours demandé ce qui différenciait, au fond, ces deux aspects de la réalité. C’est peut-être bien que la physico-chimie n’a affaire qu’à des systèmes où la statistique intervient tout de suite pour limiter les manifestations de la liberté électronique, tandis que la structure des êtres vivants contient, en quelque sorte, des amplificateurs du libre choix de certains électrons ; peut-être bien que, dans notre système nerveux central, nous avons des régions privilégiées où des électrons distingués, de temps en temps, effectuent un libre choix. La vie ne serait pas autre chose que l’organisation amplificatrice de ce choix. Ces conclusions me semblent prématurées et je ne crois pas que les choses soient aussi simples. Essayons de nous rendre compte plus exactement de la situation. Nous avons trouvé, en découvrant le domaine intra-atomique. en pénétrant dans notre premier sous-sol, beaucoup de choses nouvelles, les électrons, les quanta, les noyaux. Nous y sommes arrivés avec les faibles lumières acquises à l’étage supérieur et un outillage mental construit principalement en vue de la mécanique. Nous avons vu, dans les électrons et dans les autres particules, une sorte d’extrapolation ,jusqu’à une ténuité extrême des objets auxquels nous sommes habitués. Nous avons cru pouvoir suivre, au moins par la pensée, ces objets, parler de leurs positions et de leurs mouvements. L’expérience nous répond qu’on ne peut pas connaître avec précision à la fois la position et la vitesse d’un corpuscule, que la question ainsi posée n’a pas de sens. Alors, tout de suite nous concluons : les lois de la nature comportent une indétermination fondamentale. Pourquoi ne pas admettre, plutôt, que notre conception corpusculaire est inadéquate, qu’il n’est pas possible de représenter le monde intra-atomique en extrapolant jusqu’à l’extrême limite notre conception macroscopique du mobile ? Du fait que la nature ne répond pas de façon précise quand nous lui posons une question concernant le mobile corpusculaire, c’est beaucoup de prétention de notre part de conclure : il n’y a pas de déterminisme dans la nature. Il est plus simple de dire : c’est que la question est mal posée, et que la nature ne connait pas de mobile corpusculaire. Notre question implique l’image corpusculaire, introduite par nous ; si nous n’obtenons pas de réponse, il n’y a pas lieu d’incriminer la nature, mais bien de changer, ce qui est plus difficile mais certainement plus fécond, la position de la question, comme on dit en style parlementaire. Ce dont il s’agit, en réalité, ce n’est pas du tout d’une crise du déterminisme, mais bien d’une crise du mécanisme que nous essayons d’utiliser pour représenter un domaine nouveau. Nous constatons, en fait, l’insuffisance, dans le microscopique, des notions et des idées qui avaient réussi dans le macroscopique, qui avaient été créées à son usage et à son contact prolongé pendant tant de générations. Je trouve cela infiniment plus intéressant. Nous nous trouvons ainsi en présence d’un monde plus riche que ne l’imaginait Blaise Pascal lorsqu’il admettait une même structure de l’infiniment grand à l’infiniment petit, à une échelle de plus en plus réduite. A ce point de vue, nous devrions retrouver les mêmes aspects à tous les étages et pouvoir utiliser partout les mêmes notions. Le monde serait comparable à ces poupées japonaises, emboîtées les unes dans les autres, toujours pareilles, mais de plus en plus petites. La réalité se montre heureusement plus riche et par conséquent plus intéressante. Chaque étage nouveau où l’expérience nous permet de descendre nous apporte des vérités nouvelles et exige un effort nouveau de construction théorique. J’ai la conviction profonde que cet effort doit se poursuivre dans la voie qui nous a déjà conduit si loin, et qu’en renonçant prématurément à la conception déterministe nous priverions la science de son ressort essentiel, de ce qui a fait jusqu’ici sa force et son succès, la confiance dans l’intelligibilité du monde. Rien dans les difficultés actuelles ne justifie ou n’impose un changement d’attitude qui équivaudrait, selon moi, à une abdication. Je voudrais justifier cette opinion en montrant dans quelle direction il me semble que nous devons aller pour sortir de ces difficultés et pour réaliser la synthèse nécessaire. D’ailleurs, lorsque nous serons sortis des contradictions momentanées ou nous nous trouvons et que nous serons passés à un plan supérieur, nous y trouverons des contradictions nouvelles que résoudra une synthèse plus large encore. Ainsi se poursuivra la vie de l’esprit dans son effort pour comprendre le monde. Voici, au fond, ce qui me parait essentiel : c’est que nos difficultés, en somme, tiennent à ce que nous avons voulu introduire des corpuscules individualisables. Ce que nous dit le principe d’indétermination, c’est précisément que nous ne pouvons pas suivre un électron, par conséquent que nous ne pouvons pas nous le représenter comme un objet. Il faut donc renoncer à l’individualité du corpuscule, à l’individualité du photon, à l’individualité de l’électron. C’est l’introduction arbitraire de la notion d’individu qui entraîne les conséquences paradoxales relatives au libre choix et à l’indétermination. Il y a là une extrapolation anthropomorphique que l’expérience n’exige ni ne justifie. Je suis convaincu, pour ma part, que le caractère individuel en physique comme en biologie est un caractère résultant de la complexité de structure, que l’individu isolable et reconnaissable n’apparaît qu’à partir d’un certain degré de complexité. Pour individualiser, pour suivre et reconnaître l’objet, il faut pouvoir distinguer un minimum de caractères donnant un sens expérimental à la personnalité, et cela suppose déjà un assez haut degré de complexité. La notion d’individu me semble n’avoir pas de limite inférieure nette et se dégager de plus en plus clairement à mesure que la structure se complique. Divers arguments peuvent être invoqués en faveur de cette idée. Le plus important, à mon sens, est tiré du succès de ce que nous appelons les nouvelles statistiques. En effet, lorsque, de l’hypothèse atomique ou moléculaire, on a voulu tirer des conséquences, ç’a été tout d’abord, du côté de la Physique, par l’intermédiaire de la théorie cinétique dans laquelle on envisage des systèmes composés chacun d’un grand nombre de particules. Suivant la manière dont ces particules se distribuent entre les divers états possibles comme position et comme mouvement, le système qu’elles constituent peut prendre diverses configurations. La manière dont il nous apparaît macroscopiquement représente en général une moyenne entre ces configurations. Ou bien, au contraire, si on l’observe plus finement, on peut voir tantôt l’une, tantôt l’autre et constater, dans l’aspect du système, des fluctuations comme celles qui donnent lieu au mouvement brownien. Nous pourrons prévoir le comportement du système complexe et les fluctuations auxquelles il donne lieu, par application du calcul des probabilités aux diverses configurations possibles. La probabilité de chacune de ces configurations, c’est-à-dire la fraction du temps pendant laquelle elle est réalisée, s’évalue en tenant compte des éléments particulaires nombreux dont le système est composé. C’est de cette évaluation de la probabilité relative des configurations qu’on pourra tirer la prévision, soit des effets de moyennes comme la pression d’un gaz par exemple, soit des écarts à partir des propriétés moyennes, c’est-à-dire des fluctuations. Une même configuration d’ensemble du système, caractérisée par certaines valeurs déterminées des paramètres macroscopiques, géométriques ou mécaniques servant à la définir peut, au point de vue microscopique, être réalisée d’un plus ou moins grand nombre de manières par des distributions convenables des particules constitutives. Si on considère chacune de ces manières, chaque complexion, comme également probable a priori, la probabilité d’une configuration doit être considérée comme proportionnelle au nombre de manières dont cette configuration peut être réalisée, au nombre de complexions qui lui correspondent. Cela permet de calculer la probabilité de chaque configuration et d’en déduire la configuration moyenne ainsi que les écarts ou fluctuations à partir de celle-ci. Ces considérations sont à la base même de la mécanique statistique. Les fondateurs de cette mécanique statistique, Boltzmann et Gibbs, tout en considérant comme indiscernables les particules semblables dont le système était composé, ont attribué une individualité à ces particules puisqu’ils ont considéré comme différentes des complexions telles qu’on passe de l’une à l’autre par la simple permutation de deux particules semblables. On calcule ainsi, dans cette statistique, par la considération de permutations, ce qu’on appelle « le nombre de complexions » et, par conséquent, la probabilité de chaque configuration pour l’ensemble du système. Un fait remarquable est que l’expérience ne confirme pas les prévisions de cette statistique. Au contraire, de nouvelles statistiques se sont développées, celle de Bose-Einstein et celle de Pauli-Fermi, qui diffèrent de la précédente en ce qu’on n’y attribue pas de personnalité ou d’individualité aux particules. On y considère que les distributions des particules entre les différents états possibles ne peuvent être caractérisées que par le nombre et non par l’individualité des particules qui -se trouvent dans chacun de ces états. Deux complexions qui ne diffèrent l’une de l’autre que par la permutation de deux particules considérées d’ailleurs comme indiscernables, ne sont plus considérées comme différentes. Cela change la statistique, puisque cela change le nombre de complexions correspondant à une configuration macroscopique quelconque de l’ensemble et par conséquent la probabilité attribuée à cette configuration. Dans ces nouvelles statistiques, on n’attribue d’individualité qu’aux états dans lesquels peuvent se trouver les particules et non aux particules elles-mêmes. La particule, dont le nom devrait d’ailleurs être changé, cesse d’être un objet pour devenir un simple degré d’excitation de l’état qui lui est attribué, et seul compte, naturellement, pour définir une complexion, le nombre des degrés d’excitation attribués à chacun des états possibles. Je veux donner, sur un exemple simple, une idée de la différence profonde entre ces statistiques, qui se traduit par une différence dans les probabilités attribuées aux diverses configurations macroscopiques et par conséquent dans les prévisions qui peuvent être soumises au contrôle de l’expérience. Imaginons un récipient contenant deux molécules du même gaz. Je suppose qu’il soit partagé en deux compartiments égaux, soit par une cloison effective avec un trou, ce qui fait qu’une molécule, de temps en temps, pourra passer d’un compartiment dans l’autre ; soit simplement par une cloison idéale, chaque molécule passant alors plus fréquemment d’un côté à l’autre ; considérons la probabilité des configurations que peut prendre un semblable système : Soit un compartiment à gauche et un compartiment à droite. Cela a un sens expérimental d’attribuer à chacun de ces compartiments une individualité. Pour ce qui concerne les molécules, si je les considère comme des objets, comme des particules individualisables, je les désignerai, l’une par A, l’autre par B. Il y a pour chacune d’elles deux possibilités équivalentes : qu’elle soit à droite ou qu’elle soit à gauche. Si je considère les deux molécules comme indépendantes, cela fait pour leur ensemble quatre complexions possibles : 1) j’aurai à la fois A et B à gauche et rien à droite ; 2) j’aurai A du côté gauche, B du côté droit ; 3) ou bien, au contraire, A du côté droit et B du côté gauche ; 4) ou bien enfin, rien du côté gauche et A comme B du coté droit. Ces quatre possibilités, qui sont les seules, doivent être considérées comme également probables a priori. Par conséquent, il y aura deux possibilités pour la répartition égale des molécules entre les deux compartiments, une possibilité pour qu’elles soient toutes les deux à gauche, et une possibilité pour qu’elles soient toutes les deux à droite. Cela se traduira physiquement par ceci : pendant la moitié du temps le gaz sera également réparti entre les deux compartiments ; pendant un quart du temps, il sera tout entier dans le compartiment de gauche, et pendant le dernier quart du temps, il sera tout entier dans le compartiment de droite. La première configuration se présente dans cette statistique comme deux fois plus probable que chacune des deux autres parce qu’il lui correspond deux complexions différant l’une de l’autre par permutation des deux molécules A et B. On pourra se servir de ces résultats pour étudier ce qu’on appellera les fluctuations autour de la configuration moyenne, qui correspondra à des densités égales dans les deux compartiments. On trouve facilement que l’écart quadratique moyen (racine carrée du carré moyen des écarts) est égal pour chaque compartiment à (1/sqrt(2)).molécule.

J’avoue que j’avais été gêné, quand j’ai fait, au Collège de France, autrefois, un enseignement de cette mécanique statistique, par l’inconséquence qu’il y a à affirmer, d’une part, que les molécules sont identiques et par conséquent indiscernables et d’autre part, à leur attribuer une individualité pour évaluer le nombre des complexions ; ce qui conduit à considérer comme différentes les complexions 2) et 3) tout en reconnaissant, comme conséquence de la première affirmation, que rien ne permet de les distinguer, que la différence faite entre elles n’a aucun sens expérimental. La saine doctrine en physique, qui a si bien servi Einstein en particulier dans le développement de la relativité, dit que la théorie, autant que possible, ne doit rien introduire qui n’ait une signification expérimentale, qui ne corresponde au moins à une expérience imaginable sinon facile. C’est précisément le cas pour les nouvelles statistiques qui se présentent, à ce point de vue, de manière plus raisonnable que l’ancienne. Du moment que nous sommes incapables de distinguer entre la molécule A et la molécule B, nous devons considérer que les complexions 2 et 3 n’en font qu’une, qu’il n’y a qu’une seule manière de répartir également le gaz entre les deux compartiments.. A ce nouveau point de vue, nous ne devons considérer que le :, nombres de molécules présentes dans chaque compartiment et cela donne trois possibilités également probables a priori : 1) deux molécules à gauche et zéro à droite ; 2) une molécule à gauche et une à droite ; 3) rien à gauche et deux molécules à droite. Remarquons bien qu’en raisonnant ainsi nous cessons de considérer les molécules comme des objets pour ne porter notre attention que sur les compartiments et sur le nombre de molécules que chacun d’eux contient. Les molécules ne figurent ici que comme des degrés dans la manière dont les compartiments sont occupés, des degrés dans la manière dont l’état que chacun de ces compartiments représente est excité. Dans la nouvelle conception, chacune des trois possibilités doit être réalisée pendant un tiers du temps et, par conséquent, la répartition égale du gaz entre les deux compartiments n’aura que la probabilité un tiers au lieu d’avoir la probabilité un demi. Cette nouvelle statistique avantage les distributions qui s’écartent de la moyenne ; elle doit donc conduire à prévoir des fluctuations plus importantes que la statistique ancienne. Si, en effet, on calcule, avec les nouvelles valeurs des probabilités, l’écart quadratique moyen dans chaque compartiment, on le trouve égal à sqrt(2/3) au lieu de sqrt(1/2) molécule. C’est à l’expérience de dire si la nature se comporte comme le prévoit la doctrine qui individualise les corpuscules ou si elle se comporte, au contraire, conformément à la doctrine qui n’individualise que les compartiments, les états où peuvent se trouver les particules. Il est à peine besoin de dire qu’elle donne raison à la seconde conception, à celle qui est logique avec elle-même et qui, affirmant que les particules sont indiscernables, ne tient pas en même temps compte de leurs permutations. Il est assez curieux de suivre les conséquences expérimentales de cette nouvelle statistique, celle de Bose-Einstein, qui substitue des combinaisons aux permutations. Elle a été appliquée, par Bose, aux photons. Ce qu’on appelle la théorie de Debye pour le rayonnement du corps noir n’est pas autre chose qu’une forme d’application de ce raisonnement. Dans l’exemple examiné plus haut, j’ai supposé seulement, pour simplifier, deux compartiments. On peut en supposer un plus grand nombre, et tenir compte, pour caractériser les états possibles d’une particule, non seulement des changements de position d’un compartiment à un autre, mais encore des changements de vitesse ou de quantité de mouvement de la particule. On est ainsi conduit à la notion d’une « extension en phase », divisée en compartiments, en cellules ayant chacune une étendue finie déterminée par la constante h de Planck et correspondant chacune à un état également probable a priori pour la particule. La statistique de Bose-Einstein ne fait intervenir, pour caractériser une complexion, que le nombre des particules occupant chaque cellule, la particule jouant le rôle d’un degré d’excitation de l’état correspondant à la cellule et non pas celui d’un objet. Par exemple, en appliquant ces raisonnements au rayonnement électromagnétique en équilibre thermique dans un récipient, on peut retrouver la composition expérimentale du rayonnement noir. Avec Jeans, on peut décomposer ce rayonnement en un certain nombre de modes stationnaires d’oscillations électromagnétiques qui correspondent chacun à une des cellules d’extension en phase, à un des états possibles pour les photons intérieurs au récipient.

En supposant que ces différents états peuvent recevoir des degrés d’excitation discontinus correspondant à la présence de nombres entiers de photons dans chaque état, tout en n’attribuant pas d’individualité aux photons, l’application de la nouvelle statistique conduit exactement, pour le rayonnement, à la formule de Planck, vérifiée par l’expérience ; tandis que si on attribue une individualité au photon, et si on lui applique la statistique de Boltzmann-Gibbs, on est conduit pour le rayonnement noir à la formule de Wien, contredite par l’expérience. Il semble bien que, pour les gaz, il doive en être de même. L’application de la statistique de Bose-Einstein aux molécules d’un gaz conduit à prévoir une dégénérescence, c’est-à-dire des écarts à la loi des gaz parfaits, qui se trouvent, pour les gaz ordinaires, en dehors des possibilités de vérification expérimentale. Si on s’adresse aux électrons, au lieu de s’adresser aux photons, ou aux atomes, ou aux molécules neutres, on se trouvera obligé d’introduire une troisième statistique qui, elle aussi, renonce à l’individualité des électrons, mais introduit en plus ce qu’on appelle « le principe d’exclusion de Pauli » en vertu duquel chacun des états possibles pour les électrons, chacun des modes stationnaires des ondes électroniques de de Broglie ou de Dirac, ne peut être occupé que par zéro ou un électron. Dans la cellule électronique d’extension en phase, dans le compartiment qui correspond à chacun de ces états ou modes ondulatoires stationnaires possibles, il n’y a place au plus que pour un électron, il ne peut y avoir que zéro ou un degré d’excitation. Ce principe d’exclusion de Pauli revient à affirmer l’impénétrabilité réciproque des électrons dans l’extension en phase qui leur correspond, alors que rien d’analogue n’existe pour les photons. Celles de ces cellules qui correspondent aux états d’énergie négative de Dirac dont j’ai parlé tout à l’heure seraient toutes normalement occupées, et pour tout l’espace, par des électrons ; quand l’un de ces états cesserait d’être occupé, son degré d’excitation devenant zéro au lieu de un, cela ferait une lacune, cela ferait un positron. On peut interpréter la conductibilité des métaux par la présence à leur intérieur d’électrons libres. D’autres propriétés en résultent aussi, en particulier leur diamagnétisme, et le paramagnétisme indépendant de la température de certains métaux. En appliquant aux électrons libres la statistique de Pauli, on obtient de manière remarquable l’interprétation de ce paramagnétisme indépendant de la température, qui avait longtemps intrigué les physiciens ; il y a là un autre succès expérimental de la nouvelle statistique, qui fournit un argument très fort en faveur de l’idée que ni les photons, ni les électrons, ni les protons ne peuvent être considérés ni traités comme des objets ; et ceci vient confirmer entièrement les conclusions que je crois nécessaire de tirer du principe d’indétermination. Un autre argument me paraît également avoir de l’importance : lorsqu’on interprète la constante h de Planck comme fixant les limites du domaine corpusculaire dans lequel règne l’indétermination et devant lequel s’arrête la loi purement statistique de causalité, j’ai l’impression que cette indétermination est singulièrement déterminée, puisque la constante h est connue au millième près. Devant l’apparition de cet h, qui semble jouer un rôle si fondamental dans les lois profondes de la nature et auquel se relient avec tant de précision tant de phénomènes importants, on aimerait savoir un peu mieux d’où il vient et ne pas renoncer à l’attitude scientifique au moment où elle n’a jamais été plus nécessaire ni probablement plus féconde. Il ne me parait pas suffisant de dire : « h détermine une indétermination ». Le succès même de la mécanique ondulatoire montre la nécessité de rester fidèle au guide le plus sûr de l’activité du physicien qui est d’aller toujours plus loin dans la recherche d’un déterminisme.

La morale que je veux tirer de tout ceci est que notre situation est bonne dans l’ensemble. Nous avons une richesse considérable et rapidement croissante de faits expérimentaux nouveaux. Nous avons réussi déjà à en classer une grande partie et à développer des possibilités de prévision précise que certains peuvent appeler statistiques, mais qui n’en dépassent pas moins tout ce que nous avons pu espérer ou imaginer. Pragmatiquement, notre science réussit en se servant tantôt de la notion de corpuscules et tantôt de celle d’ondes ; nous avons, dans un vaste domaine, le droit de raisonner sur des particules, et d’appuyer notre conviction, à ce point de vue, sur la contemplation des admirables clichés de Wilson ; nous avons également le droit de raisonner sur des ondes et de nous confirmer dans notre confiance en songeant aux belles images de diffraction des ondes électroniques. Seulement, en même temps, il ne faut pas oublier que ces conceptions se heurtent à des difficultés profondes, difficultés qui tiennent, dans la forme comme dans le fond, à ce que nous avons introduit dans le monde intra-atomique, du dehors, la conception du corpuscule individualisable. J’ai essayé de montrer que c’est seulement en renonçant à cette idée encore trop imprégnée d’anthropomorphisme, ou en la modifiant profondément, que nous arriverons à la synthèse nécessaire qui interprétera à la fois l’aspect corpusculaire et l’aspect ondulatoire. Nous ne devons pas être autrement surpris de ces difficultés dont l’importance est en proportion des progrès accomplis ou en préparation. Nous sommes obligés de travailler avec les outils dont nous avons l’habitude, avec l’équipement intellectuel constitué par notre science au cours d’une histoire encore toute récente, avec devant nous la tâche d’interpréter tout un monde de faits entièrement nouveaux, tout d’abord dans ce premier sous-sol qui concerne la physique de l’atome. Il y a aussi le deuxième sous-sol, celui de la physico-chimie nucléaire, et ce qui est vrai dans le premier semble déjà ne l’être plus dans le deuxième, au moins pour les électrons. Nous aurons peut-être autant de surprises dans le deuxième sous-sol par rapport au premier que nous en avons eu dans le premier, par rapport à notre expérience macroscopique. Cela veut dire que nous aurons à forger des instruments nouveaux, comme nos ancêtres ont forgé les notions dont nous avons l’habitude de nous servir. Ces dernières notions nous paraissent concrètes et simples parce qu’elles nous sont familières. Mais c’est bien souvent là une illusion. La notion d’un objet isolable. c’est quelque chose qui, au fond, est singulièrement abstrait ; c’est une synthèse, accomplie depuis longtemps par nos ancêtres entre un grand nombre d’apparences et de sensations, diverses et même parfois contradictoires, les unes tactiles, les autres visuelles, les unes individuelles, les autres collectives ; grâce à cette notion de l’objet, non seulement nous groupons, nous synthétisons nos expériences individuelles, mais encore nous pouvons communiquer les uns avec les autres et confronter, humaniser nos représentations. Quand je regarde cet objet, son idée évoque en moi l’aspect qu’il peut avoir pour Perrin qui est en face de moi, et qui ne sera pas le même que pour moi. Il y a là une véritable construction qui a été abstraite au début, et qui s’est colorée de concret à mesure que nous nous en servions. Le concret, c’est de l’abstrait rendu familier par l’usage. La notion d’objet, abstraite à l’origine, arbitrairement découpée dans l’univers, nous est devenue familière à tel point que certains d’entre nous pensent que nous ne pouvons pas utiliser autre chose comme base pour construire notre représentation du monde. Ils croient que le corpuscule, extrapolation poussée à la limite de la notion d’objet, est et sera toujours indispensable à notre esprit pour interpréter le réel. J’ai, pour ma part, plus de confiance dans les possibilités de notre évolution mentale. Ce n’est pas seulement la notion d’objet qui, primitivement abstraite, nous est devenue familière par l’usage depuis un passé lointain ; nous voyons, dans notre expérience récente, des notions très abstraites et difficilement assimilables au début, se colorer de concret à mesure que se formait l’habitude, qu’elles s’enrichissaient de souvenirs et d’associations d’idées. Je citerai des notions comme celle du potentiel, par exemple. Dans ma jeunesse, il n’en était d’abord pas question ; puis, on a commencé d’en parler avec beaucoup de prudence. Le premier qui l’a introduite ici dans son enseignement était mon prédécesseur Eleuthère Mascart au Collège de France ; il s’est fait railler, en particulier par l’abbé Moigno qui rédigeait un journal scientifique, « Le Cosmos », où Mascart était traité de « Don Quichotte » et de « Chevalier du potentiel ». Aujourd’hui, nous avons reçu la culture nécessaire et nous sommes habitués. Quand on parle de la différence de potentiel entre deux bornes électriques, nous sentons de quoi il s’agit ; nous avons associé cette idée à un nombre suffisant d’expériences intellectuelles ou physiologiques pour avoir coloré de concret ce qui était primitivement défini de manière abstraite par une intégrale prise le long d’un parcours entre deux points d’un champ. L’ouvrier électricien sait très bien que cette notion d’une grandeur qui se mesure en volts, correspond au fait qu’il peut être secoué s’il se trouve toucher les bornes dans des conditions favorables, ou bien au fait qu’une lampe mise entre les deux bornes rougira, s’éclairera ou sautera et qu’un voltmètre placé dans les mêmes conditions déviera. Il est tellement familier avec les manifestations concrètes de la différence de potentiel qu’il désigne celle-ci du nom familier de jus. Cela prouve que la notion a cessé d’être abstraite pour lui. De même, rien n’a été plus difficile à acclimater, dans ma jeunesse, que la notion d’entropie. Cette notion s’est présentée tout d’abord par l’intermédiaire très abstrait d’une intégrale prise le long d’un chemin réversible. L’entropie, pendant longtemps, est restée un épouvantail. Aujourd’hui, nous y sommes habitués d’abord grâce à l’interprétation statistique qui en fait une mesure de la probabilité de l’état d’un système ; d’autre part, les ingénieurs thermodynamiciens qui utilisent la vapeur d’eau, se servent du diagramme entropique ; l’entropie est devenue pour eux une notion concrète. Ils la voient et la suivent à travers toute la série des transformations d’un fluide qui travaille ou d’un système chimique en évolution. Nous ne devons pas nous refuser à admettre des possibilités analogues dans notre physique de l’atome ou du noyau. Tout en faisant l’usage le meilleur possible de notre outillage intellectuel héréditaire, nous devons être convaincus qu’une confrontation prolongée avec l’expérience nous permettra de colorer et de rendre concrètes les notions qui sont contenues en puissance dans les équations de la nouvelle dynamique et que nous avons le devoir d’en dégager, ou les notions entièrement nouvelles qu’il pourra être nécessaire d’introduire. Je parlais tout à l’heure d’une série d’états individualisables tels que les modes de vibration stationnaire ou les cellules d’extension en phase, qui peuvent être excités ou occupées par degré discontinus dont chacun correspond à la présence d’un corpuscule, deux corpuscules semblables n’étant pas plus discernables l’un de l’autre que ne le sont deux degrés d’excitation successifs : il est évident que ce langage est encore bien abstrait. C’est cependant dans ce sens-là, me semble-t-il, que nous pouvons développer une conception cohérente qui mettra l’individualité là où elle doit être et nous évitera les difficultés de l’ancienne statistique, celles de la conception planétaire de l’atome et celles du principe d’indétermination. Et surtout il nous faut faire confiance à la faculté d’adaptation dont l’esprit humain a déjà donné tant de preuves. J’ai voulu présenter des lumières et des ombres pour faire un tableau un peu vivant de notre situation. Heureusement, les lumières sont riches et les ombres sont pleines de promesses. Il nous faut savoir gré à ceux qui s’y aventurent pour essayer de découvrir des possibilités nouvelles ou de créer, à l’usage des hommes, un meilleur outillage mental.

Une expérience qui montre que la réalité, même avec aspect ondulatoire, se comporte comme des particules

Qu’est-ce que la matière

Qu’est-ce que la lumière

Relation matière/lumière

Organisation de la matière

Structure de la matière

Mouvement des molécules

Atome

Noyau de l’atome

Radioactivité de l’atome

Ions

Tableau des particules

Particules élémentaires

Les particules sont des objets ?

Quanta

Les quanta, des complexes ondes/corpuscules

Masse

Charge

Electron

Proton

Neutron

Neutrino

Photon

Boson

Boson de Higgs

Bosons et Fermions

Méson

Quark

Particules et antiparticules virtuelles

Positron

Antiparticules

Spin d’une particule

Trajectoire d’une particule

Intrication des particules

Non-séparabilité quantique des particules

Particules et antiparticules virtuelles du vide quantique

Fluctuations du vide quantique

Muon

Gluon

Kaon

Lambda

Vidéo : molécules

Vidéo : le photon

Vidéo : particules

Vidéo : neutrino

Vidéo : massa des particules

Vidéo : antimatière

Vidéo : atome

Vidéo : atome d’hydrogène

Vidéo : structure atomique

Vidéo : noyau atomique

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0