• De la physique classique à la théorie atomique

     

    HISTORIQUE DE LA PHYSIQUE QUANTIQUE

    PREMIÈRE PARTIE

     

     DE LA PHYSIQUE CLASSIQUE A LA THÉORIE ATOMIQUE

     

    Par Paul Bouchard le 27 Janvier 2024

     

    INTRODUCTION

    Dans la précédente rubrique, nous avons interrogé l'intelligent Chat GPT en lui posant plusieurs questions concernant des problèmes que les physiciens se sont posés dans les dernières années du19ème siècle. Leur résolution au début du 20ème siècle a provoqué une période de rupture théorique de la science physique, certains parlent même d'une révolution scientifique.

    La direction qu'a prise cette transition et la façon dont  elle s'est réalisée ont été d'une grande importance si l'on considère la manière dont la physique et la chimie théoriques se sont développées au 20ème siècle. Dans mon blog ''Physique des ondes'', dans la rubrique N°4, ''Ondes et matière Un historique (1750-1930)'', j'ai déjà exposé cette évolution en l'axant sur la question de ''l'interaction des rayonnements de la lumière sur la matière''.

    Au début de ce nouveau blog dédié à la physique quantique je voudrais mettre en valeur plus précisément, les découvertes qui sont à l'origine de ces questionnements et de cette révolution.

    C'est en effet tout au long du 19ème siècle que les scientifiques ont réalisé de très nombreuses découvertes, essentiellement expérimentales. Elles ont constitué la base de la chimie et de la physique que l'on peut qualifier de ''classiques''. Sous ces terme Wikipédia désigne principalement :

    * la chimie qui étudie la matière et ses transformations ;

     * la mécanique qui s'intéresse au mouvement des corps ;

     * l'optique qui s'intéresse à la lumière et à ses propriétés ;

     * l'électromagnétisme qui s'intéresse aux forces engendrées par l'électricité et le magnétisme ;

     * la thermodynamique, théorie des échanges d'énergie sous forme de chaleur et de travail.

    On peut l'appeler également la ''physique fondamentale''. << Celle-ci décrit de façon quantitative et modélise les êtres fondamentaux présents dans l'Univers. Elle cherche à décrire le mouvement par les forces qui s'y exercent et leurs effets. Elle développe des théories en utilisant l'outil des mathématiques pour décrire et prévoir l'évolution de systèmes. >> Wikipédia

    La chimie, avant d'être une science, a été une somme de connaissances et de pratiques plus ou moins ésotériques (alchimie), une technique (un outil) qui a permis à l'Homme de dominer la nature et de se développer. D'ailleurs avant l'Homme, le monde végétal a magnifiquement réussi à utiliser l'énergie solaire (par la chlorophylle), l'eau et les nutriments chimiques (par ses racines) et le carbone (par l'air) pour exister et envahir la terre, même aux conditions limites de la biosphère.

    L'évolution de la chimie, commencée à la fin du 18ème siècle, a été marquée au 19ème siècle par son caractère scientifique. Les bases théoriques de cette science ''chimique'' ont été fixées. Dans le même temps, la science ''physique'' a pu élargir son domaine, et on peut même dire que la chimie est devenue une des branches de la physique au 20ème siècle, au cours de la révolution quantique.

    Nous commencerons donc cette étude historique de la physique quantique par celle de la chimie et de la physique classique au 19ème siècle, afin de mettre en évidence les acquis scientifiques qui ont déterminé les développements ultérieurs de la physique au début du 20ème siècle.

     

    1) LA CHIMIE AU XIXème SIECLE

    D'un point de vue théorique et dans notre optique du couplage avec la science physique, les trois sujets suivants représentent l'essentiel des découvertes en chimie à fin 18ème et au 19ème siècle.

    * Corps simples et corps composés. La liaison des éléments chimiques.

    * Questionnements sur les atomes et les molécules. Les équivalentistes.

    * Le classement des éléments chimiques.

    Pour une étude complète de la chimie au 19ème siècle, et si l'on considère l'importante révolution sociétale et industrielle qui en est résultée, il faudrait ajouter à cette étude, au minimum, les domaines suivants : L'électrochimie, la chimie organique et le développement de ses composés, la métallurgie et la sidérurgie.

    Ayant axé mon étude sur la théorie atomique et la liaison des éléments chimiques, je laisserai de côté ces autres domaines. D'autre part je dois signaler que le texte de notre rapide historique est, pour une large part, une présentation compilée extraite de plusieurs sites de Wikipédia dont :

    https://fr.wikipedia.org/wiki/Histoire_de_la_chimie#XIXe_si%C3%A8cle

    11) Corps simples et corps composés. La liaison des éléments chimiques.

    A la fin du 18ème siècle, les deux ouvrages majeurs de l'histoire de la chimie sont l’œuvre de Français. Publié à Paris en 1787, ''Méthode de nomenclature chimique'' est un traité scientifique d'Antoine Laurent de Lavoisier, écrit en collaboration avec cinq chimistes dont le plus connu est Claude-Louis Berthollet (1748-1822).

    A. L. de Lavoisier (1743-1794) est un chimiste, philosophe et économiste français, souvent présenté comme le père de la chimie moderne. Son œuvre est considérée comme essentielle pour la clarification et la mise en forme des connaissances en chimie de son époque. Un tableau, résumant les 55 substances connues en six catégories, mentionnées et commentées, complète cet ouvrage divisé en deux parties : d’une part les oxydes, acides, bases, sels…et d’autre part les substances tirées des végétaux et animaux.

    Cette méthode de nomenclature constitue la première tentative de classification méthodique des éléments chimiques dont le système actuel a presque entièrement hérité. Elle servira de base, près de 80 ans plus tard, aux travaux de Mendeleïev dont nous parlons plus loin.

    La deuxième œuvre majeure est également due à Lavoisier, c'est le ''Traité élémentaire de chimie'', publié en 1789. Il est considéré comme le premier manuel chimique moderne. Il présente une vue unifiée des nouvelles théories de chimie, et fournit un rapport précis de la loi de la conservation de la masse. Il clarifie le concept d'élément comme substance simple qui ne peut être décomposée par aucune méthode connue d'analyse chimique, et conçoit une théorie de la formation des composés chimiques des éléments. Il faut mentionner toutefois l’absence de symboles chimiques. C'est Jacob Berzelius (1779-1848) chimiste suédois qui introduira un peu plus tard ces symboles permettant de représenter les composés chimiques.

    La découverte des éléments chimiques et de leurs propriétés, des corps composés et de leurs fonctions, s'est poursuivie durant tout le 19ème siècle. Ce siècle a été marqué également par la naissance et le développement de la chimie organique qui est celle des composés du carbone et de leur liaison. Mais cette progression de la science chimique a été fortement handicapée durant presque tout ce siècle par l'incertitude scientifique sur la nature de la ''liaison chimique''.

    Comment les éléments chimiques se combinent-ils entre eux ? Comment expliquer leur attirance et leur liaison éventuelle ? En fait, l'ensemble de ces problèmes est lié à la connaissance préalable de la composition élémentaire de la matière et à celle de sa nature même. Un début d'explication de la liaison chimique est apparu seulement dans les toutes dernières années du 19ème siècle.

    Pour être seulement capable de connaître leur mode d'union, il a été nécessaire au préalable de définir scientifiquement ce qu'est un atome de matière et ce qu'est une molécule. Nous verrons au chapitre suivant que la discussion sur la réalité de l'atome s'est poursuivie durant tout le siècle.

    Au début de ce 19ème siècle, il n'est pas question d'atome mais de découverte des ''éléments'' naturels, qui peuvent se présenter suivant plusieurs ''corps simples'' (un seul élément) ou constituer des ''corps composés'' (plusieurs éléments). Plusieurs chimistes réputés enseignant dans des universités européennes ou travaillant dans des laboratoires, ont participé à ces découvertes. Ils ont classé ces éléments en fonction de leurs propriétés et de leurs aptitudes à se combiner. Voici une liste des principaux chimistes qui ont ''construit'' la chimie classique tout au cours de ce 19ème siècle. (Le classement est fait par ordre de décès) :

    Joseph Louis Proust (1754-1826)  chimiste français.

    William Hyde Wollaston (1766-1828)  physicien et chimiste britannique.

    Humphry Davy (1778-1829) physicien et chimiste britannique

    André-Marie Ampère (1775-1836) mathématicien, physicien, chimiste et philosophe français.

    John Dalton (1766-1844) chimiste et physicien britannique

    Jacob Berzelius (1779-1848) chimiste suédois

    Louis Joseph Gay-Lussac (1778-1850) chimiste et physicien français

    Amedeo Avogadro (1776-1856) physicien et chimiste italien

    Michael Faraday (1781-1867) physicien et chimiste britannique

    Hermann Kolbe (1818-1884) chimiste allemand.

    Jean-Baptiste Dumas (1800-1884) chimiste français.

    Charles Adolphe Wurtz (1817-1884)  médecin et chimiste français.

    Friedrich August Kekulé (1829-1896) chimiste organicien allemand

    Pierre Eugène Marcellin Berthelot (1827-1907) physico-chimiste, biologiste, épistémologue

    Stanislao Cannizzaro (1826-1910) chimiste italien.

     

    12) Questionnements sur les atomes et les molécules. Les équivalentistes.

    Notre histoire débute en 1794 lorsque le chimiste Joseph Louis Proust (1754-1826) qui expérimente sur les composés métalliques, constate que ''lorsque deux ou plusieurs corps simples s'unissent pour former un composé défini, leur combinaison s'effectue toujours selon un même rapport pondéral. Il en déduit une loi dite ''Loi des proportions définies''.

    En 1804 John Dalton (1766-1844), chimiste et physicien britannique ajoute une autre loi, qui précise et complète celle de Proust. Sa ''Loi des proportions multiples'' stipule que ''la combinaison de deux éléments peut donner plusieurs composés différents, mais dans ce cas on sera toujours en présence de rapports bien déterminés''. La combinaison se fait dans des proportions fixes. La pondération des éléments ne varie pas. A la même époque, le chimiste français Gay-Lussac (1778-1850) découvre que, pour peu que la température et la pression soient constantes, les deux lois déjà énoncées s’appliquent aussi aux gaz avec lesquels il a mené de nombreuses expériences.

    Compte tenu de ces règles expérimentales, Dalton développe alors une théorie atomique et propose en 1808 que chaque élément soit composé d'atomes stables et insécables, d'un seul et unique type. Son hypothèse est que les atomes sont immuables et indestructibles mais qu'ils peuvent se combiner en structures de plus en plus complexes, chaque espèce chimique possédant sa propre architecture hiérarchisée. Dalton définit alors chaque corps simple par son poids relatif à une unité qu'il a choisie par convention (le gramme d'hydrogène).

    Cette notion d'atome n'est pas nouvelle, elle est même très ancienne. Démocrite (460-370 av.J.C.), philosophe grec matérialiste, est connu pour avoir été un des premiers concepteurs de l'atome. Cette notion d'atome (le plus petit élément de matière) est restée une expression commune et pour les scientifiques une possible hypothèse.

    Il en est ainsi pour Isaac Newton (1642-1727) mathématicien, physicien, philosophe, alchimiste, astronome et théologien anglais. Cette figure emblématique des sciences, en s'appuyant sur les lois de Kepler, a établi les ''trois lois universelles du mouvement'' qui constituent la base de sa ''Théorie de la gravitation universelle'' et de la mécanique newtonienne (mécanique dite ''classique'') : "Tous les corps s'attirent avec une force proportionnelle à leur masse respective et inversement proportionnelle au carré de la distance qui les sépare". Newton appliquait cette loi au dit ''atome'' qui était pour lui le plus petit corps en mouvement. (La navigation des fusées et des satellites dans l'espace est actuellement entièrement régie par les lois de Newton avec un grand succès).

    A la suite de Dalton, tout au long du 19ème siècle les chimistes ont émis leurs propres hypothèses concernant les atomes et les molécules, suggestions très logiques mais notions scientifiquement non définissables. Sauf que certains chimistes, parmi les plus réputés, étaient fermement hostiles à de telles hypothèses. Ils ont été classés comme des ''équivalentistes''

    Du très remarquable site du ''Chantiers de Sciences'' Constructions de savoirs en Sciences Physiques et Chimiques, voici plusieurs extraits de l'article : ''Atomisme – Equivalentisme Le congrès de Karlsruhe de 1860'' https://jcmarot.com/2022/03/04/atomisme-equivalentisme/

    << L'hypothèse de Dalton va rencontrer l'opposition radicale des ''équivalentistes'', en particulier des chimistes français J.B.Dumas et M.Berthelot. Ces derniers, partisans d'un strict positivisme, estiment que la science ne peut valider l'hypothèse des atomes, invérifiable expérimentalement à l'époque, et doit s'en tenir à la notion d'équivalents pondéraux dans les réactions chimiques. >>

    Marcelin Berthelot, important physico-chimiste et homme d'état fut, parmi les scientifiques français, un ardent adversaire de la thèse atomiste. En Angleterre également, W.H.Wollaston après avoir soutenu les idées de Dalton, écarta aussi cette hypothèse et choisit l'oxygène comme étalon.

    Il faut noter qu'au 19ème siècle, et même encore maintenant, le courant philosophique positiviste fondé par Auguste Comte règne en maître sur toutes les sciences. Cela explique bien les habituelles lenteurs et les réticences des milieux scientifiques et politiques français dans la mise en application des avancées expérimentales des chercheurs, encore plus dans la vérification de leurs hypothèses .

    Voici des extraits de conversation de scientifiques en provenance du site indiqué précédemment :

    Marcelin Berthelot : << Je veux parler de la confusion qui tend à s'établir entre le mot loi et le mot « hypothèse ». Par exemple, Avogadro et Ampère ont énoncé une hypothèse : « Tous les gaz renferment le même nombre de molécules sous le même volume ». En réalité, nous ne voyons pas les molécules, et nous n'avons aucun moyen connu pour les compter. La grande différence entre la loi et l'hypothèse est que la loi est une relation entre les phénomènes observables, alors que l'hypothèse n'est qu'une interprétation de ceux-ci. >>

    Charles Wurtz répond : << Je sais parfaitement, quant à moi, que la notion d'atome est une hypothèse, une de celles que l'on fait sur la constitution de la matière, essentiellement liée à une autre hypothèse, celle de l'éther.[..]La notation chimique, qui est seule en question, est indépendante de ces hypothèses. […] Et tenez, au fond de votre notation d'équivalent se cache la même idée de petites particules, et vous y croyez comme nous. >>

    Berthelot répond alors qu'il ne prétend aucunement abolir l'hypothèse et l'imagination de la science, mais il se refuse à les assimiler à la science.

    Ainsi, la théorie atomique est restée une hypothèse jusqu'à la fin du 19ème siècle. La notion de molécule elle aussi est demeurée dans le flou. Elle a été formulée par Avogadro qui l'a ainsi définie : « La plus petite particule constitutive d'un gaz n'est pas nécessairement un atome unique, mais une combinaison d'un certain nombre de ces atomes unis par des forces attractives pour former une molécule unique. » Définition imprécise car il utilisait le terme de « molécule élémentaire » pour faire référence aux atomes et le terme de « molécules composites » pour décrire la matière.

    Cependant il faut constater que, même si les chimistes dont j'ai précédemment donné la liste des plus connus, n'ont pas cautionné scientifiquement la théorie atomique, ils ont découvert au cours du siècle la plupart des éléments, des composés minéraux et organiques. Leurs propriétés, leurs liaisons et usages possibles ont été mises en évidence. La chimie classique a remarquablement progressé.

    On trouvera sur le site suivant : http://scphysiques.free.fr/2nde/documents/histoire-atome2.pdf , ouvert par la Direction de l'Enseignement scolaire- Eduscol, une excellente étude de Myriam Scheidecker-Chevallier intitulée : ''Le débat sur les atomes au XIXème siècle''. Vous y trouverez le détail des recherches et des contacts entre chimistes et physiciens, ainsi que l'évolution des connaissances. La naissance difficile de la ''chimie classique'' y  est ainsi décrite  :

    << Au milieu du siècle, les chimistes sont divisés. Il leur est impossible de trouver un terrain d'entente ; non seulement le conflit entre "équivalentistes" et "atomistes" est ouvert mais, à l'intérieur de chaque camp, on constate de sérieuses divergences. Les équivalentistes ont le choix entre des équivalents fondés uniquement sur des rapports pondéraux de combinaison, ou bien sur des rapports volumiques, ou bien sur des équivalents de substitution, ou bien ils peuvent opter pour un système mixte adoptant toujours la formule la plus simple. >>

    << Du côté des atomistes, l'accord n'est pas non plus parfait. Un chaos indescriptible de chiffres et de formules sévit : une même formule peut désigner plusieurs substances ; par exemple, HO désigne aussi bien l'eau et l'eau oxygénée, C2 H4 le méthane et l'éthylène. F.A. Kékulé, pour illustrer cet indescriptible désordre relève au moins 19 formules différentes pour le seul acide acétique. >>

    << Les questions qui agitent le monde des chimistes sont particulièrement difficiles. Tout d’abord les chimistes ne s’accordent pas sur les valeurs à donner aux poids atomiques, moléculaires ou “équivalents”, et encore moins sur l’écriture des formules chimiques des composés organiques. >>

    Au milieu du 19ème siècle les chimistes sont restés divisés sur la théorie atomique, mais il leur a été nécessaire de s'entendre sur la nomenclature des éléments et des composés chimiques, sur les formules chimiques et sur une notion de ''masse atomique''. Cela a permis de réaliser un inattendu classement de ces éléments en fonction de leurs propriétés.

     

    13) Classement des éléments chimiques.

    Au siècle précédent, en 1718, le chimiste français Étienne-François Geoffroy (1672-1731) présente à l'Académie Royale des Sciences sa table des rapports observés en Chimie entre différentes substances dans laquelle il propose une classification des substances chimiques suivant leur plus ou moins grande « disposition à s'unir » à une substance de référence. Cette idée de réunir toutes les informations disponibles dans un grand tableau général appelé ''Table des différents rapports ou affinités'' sera reprise par plusieurs chimistes.

    Revenons aux chimistes et à leurs travaux au milieu du 19ème siècle. Leurs discussions portent essentiellement sur la nomenclature des éléments et sur leur classement en fonction des possibilités pondérales de combinaison (de la connaissance de leur masse atomique).

    << La notion de masse atomique relative est née avant que l'existence de l'atome soit avérée, et donc avant qu'il soit possible de compter ou de peser des atomes. Les chimistes avaient néanmoins observé la quantification des masses des éléments chimiques, par exemple en comparant des volumes identiques de gaz différents. La masse atomique relative décrit efficacement le rapport massique des éléments, indépendamment du nombre de corpuscules concernés. >> Wikipédia

    Depuis le « Tableau des substances simples » publié par Antoine Lavoisier en 1789, une dizaine de chimistes de plusieurs nationalités a publié des tableaux classant les éléments en utilisant la notion de poids atomique définie par Dalton. Mais les bases de calcul étant différentes, il était nécessaire pour les scientifiques d'harmoniser ces bases et les notations employées. Ce fut l’œuvre du chimiste allemand F.A.Kekulé qui arriva à convaincre ses collègues européens de se réunir en congrès.

    << Initié par August Kékulé, un congrès scientifique international de chimie s'est tenu dans la ville de Karlsruhe en septembre 1860. Il a réuni plus de 120 chimistes internationaux pour discuter des notions d'atome, de molécule, d'équivalence, et pour s'accorder sur une harmonisation des notations employées. L'intervention du chimiste italien Stanislao Cannizzaro fut remarquée car il y présenta un système cohérent de poids atomiques. >> Wikipédia

    << Le premier à remarquer la périodicité des propriétés chimiques des éléments fut le géologue français Alexandre-Émile Béguyer de Chancourtois lorsqu'il classa en 1862 les éléments chimiques alors connus, en fonction de leur masse atomique déterminée en 1858 par le chimiste italien Stanislao Cannizzaro. >> Wikipédia

    << Malgré la qualité réelle des travaux de ses contemporains, c'est bien au chimiste russe Dmitri Mendeleïev (1834-1907) qu'on doit le premier tableau périodique des éléments s'approchant de celui que nous utilisons aujourd'hui, non seulement dans sa forme, mais surtout par la vision qui l'accompagne. En le publiant en 1870, il déclara que les éléments chimiques pouvaient être arrangés selon un modèle qui permettait de prévoir les propriétés des éléments encore à découvrir. À la différence de ses prédécesseurs, Mendeleïev a formulé explicitement en quoi son tableau constituait un outil d'analyse théorique des propriétés de la matière. >> Wikipédia

    Le tableau de Mendeleïev était si bien construit qu'il put prédire l'existence et les propriétés d'une série d'éléments découverts par la suite. Son classement des éléments correspond à celui qui, plus tard, deviendra celui des ''numéros atomiques''.

    Durant la seconde moitié du 19ème siècle la connaissance des éléments chimiques, des corps composés minéraux et organiques et de leurs propriétés n'a pas cessé de progresser, ceci malgré les discussions entre chimistes qui restaient vives entre ''atomistes'' et ''équivalentistes''. Mais c'est grâce aux travaux des physiciens et en particulier au spectaculaire développement des connaissances en électrodynamique, qu'ils ont pu aborder scientifiquement le problème des atomes dans les toutes dernières années du siècle.

    Ce sont alors les physiciens qui deviennent les ardents défenseurs de la théorie atomiste, car ils ont besoin de cette théorie comme un socle rassemblant leurs nouvelles découvertes en physique.

    Nous allons, dans le chapitre suivant, collecter les éléments qui vont permettre de construire ce socle. Mais nous verrons que, en cette fin du 19ème siècle, si on se rapproche de l'atome, on est encore loin de connaître sa définitive constitution et la nature de celle-ci. Même en notre 21ème siècle, ce socle devrait être revu, en particulier en remettant en cause la nature de la matière et le mode de transmission interne de l'énergie, et donc la nature même de la liaison chimique.

    Avant je l'espère, de pouvoir conclure cet historique en ce sens, il me faut passer du 19ème au 20ème siècle, exposer les bases sur lesquelles la physique quantique a été établie, et montrer que le face à face des physiciens entre les "énergétistes" et les "atomistes" dont nous allons parler, n'a pas permis de résoudre correctement les problèmes posés par la physique quantique au 20ème siècle.

     

    2) LA PHYSIQUE AU XIXème SIECLE

    La physique classique a connu son plein développement au cours du 19ème siècle, spécialement au cours de sa deuxième moitié. Il en est résulté une révolution sociétale et industrielle qui, en corrélation avec l'essor de la chimie, a modifié en profondeur la manière de vivre et de penser des sociétés occidentales au siècle suivant. Toutes les activités humaines ont été concernées par les nouvelles techniques issues particulièrement des domaines scientifiques suivants :

    * la mécanique qui s'intéresse au mouvement des corps ;

    * l'électromagnétisme qui s'intéresse aux forces engendrées par l'électricité et le magnétisme ;

    * l'optique qui s'intéresse à la lumière et à ses propriétés ;

    * la thermodynamique, théorie des échanges d'énergie sous forme de chaleur et de travail ;

    Ma présente rubrique n'est pas destinée à étudier ces sciences auxquelles j'ai déjà consacré mon précédent blog http://paulpb.eklablog.fr/ Au départ de ce nouveau blog dédié à la physique quantique, le court historique suivant a pour but de mentionner les travaux des physiciens du 19ème siècle qui, dans le même temps que les chimistes, ont contribué à construire la théorie atomique et par là même ont participé à la révolution quantique.

    Cet historique de la physique est donc orienté dans cette optique particulière qui marque le lien existant entre la lumière, l'énergie électromagnétique et la matière à l'échelle de l'atome et de l'électron. Il est intéressant de comprendre comment les scientifiques, au départ de ces nouvelles sciences, ont été conduits à privilégier telle ou telle direction, ou à modifier leurs travaux pour tenir compte de telle ou telle nouvelle découverte.

    Notre historique abordera dans cette première partie les sujets suivants :

    * L'électrolyse

    * De l'électrostatique à l'électrodynamique. L'induction électromagnétique.

    * La nature et la vitesse de la lumière. La polarisation. Les éthers. L'analyse spectrale.

    * La cinétique des gaz. La molécule.

    * La thermodynamique. L'entropie. Le rayonnement thermique.

    * Les rayons cathodiques. Les rayons X. L'électron.

    * L'énergie électrique. Les atomistes et les énergétistes.

    Dans chacun de ces sujets je dois, autant que possible, respecter l’enchaînement logique des travaux et des découvertes, mais chacun des domaines cités, bien qu'ils soient presque toujours en relation, possède son historique propre.

    Tous les renseignements sur les travaux des scientifiques qui vont suivre sont extraits de plusieurs sites de Wikipédia dont notamment :

    https://fr.wikipedia.org/wiki/Histoire_de_l%27%C3%A9lectricit%C3%A9

    https://fr.wikipedia.org/wiki/Histoire_de_la_physique

    Ainsi que des sites suivants :

    http://electronmonamour.free.fr/celebres/chap_cel4.htm

    http://scphysiques.free.fr/2nde/documents/histoire-atome2.pdf

     

    21) L'électrolyse

    C'est en 1770 que Luigi Galvani (1737-1798) physicien, médecin italien, découvre ''l'électricité animale'' grâce aux grenouilles. C'est une électricité différente de celle de l'ambre et de la foudre.

    Alessandro Volta (1745-1827) physicien et chimiste italien invente la ''pile voltaïque'', ancêtre de la pile électrique, qui fournit un ''fluide électrique'' de façon continu et sans transformation d'un mouvement mécanique. C'est le début du passage de la notion de charge d'électricité statique à celle de la conduction d'une électricité ''galvanique''.

    C'est la première électrolyse par courant continu (électrolyse de l'eau) réalisée en 1800 par deux chimistes britanniques, William Nicholson (1753-1815) et Sir Anthony Carlisle (1768-1842), qui a montré que le courant électrique avait une relation étroite avec la liaison chimique. Le lien chimique responsable de "l'affinité chimique" serait-il d'origine électrique ?

    Humphry Davy (1778-1829) physicien et chimiste britannique, réussit par décomposition électrolytique de la potasse et de la soude, à isoler deux nouveaux éléments métalliques, le potassium et le sodium. Par électrolyse en 1808, il isola aussi le calcium, le baryum, le strontium et le magnésium.

    La question qui se pose alors aux chimistes est la suivante : si la matière est bien composée d'atomes, est-ce l'électricité qui maintient les atomes ensemble dans une combinaison chimique ? Ainsi, l'idée d'une connexion intime entre l'électricité et les atomes de matière se fait jour peu à peu, ainsi que l'idée de l'existence de charges électriques sur les atomes eux-mêmes.

    Jacob Berzelius (1779-1848) chimiste suédois, étudie aussi cette action de la pile voltaïque qui décompose la matière. Il constate que l'un des deux pôles domine et que par conséquent les atomes posséderaient une charge électrique nette ou résiduelle qui peut être de l’un ou l’autre signe. La polarité des atomes va être la clé de l’explication de la réactivité chimique.

     

    22) De l'électrostatique à l'électrodynamique. L'induction électromagnétique.

    Plusieurs chimistes et physiciens ont alors utilisé l’électrolyse et d'autres phénomènes électriques pour leurs recherches sur les liaisons chimiques, et par là même sur la possible existence des atomes et des molécules. Il serait passionnant de suivre l'évolution détaillée des travaux que chaque scientifique a mené isolément, et de connaître l’enchaînement des échanges éventuels entre les théoriciens et les expérimentateurs. Mais cela dépasse les possibilités et l'objectif de notre rubrique.

    En restant dans la liste des sujets précédemment indiqués, je cherche seulement à mettre en évidence les éléments qui concernent notre thème (énergie de liaison et théorie atomique). Afin de suivre l'évolution des connaissances au cours du 19ème siècle, je vais essayer de les décrire chronologiquement, ce qui est difficile car la plupart des découvertes dans les différents domaines de recherche sont souvent des œuvres attribuables à plusieurs chercheurs et étalées dans le temps.

    Au début du siècle, si les phénomènes électriques et magnétiques sont connus, ils ne sont pas liés. Ils ne sont pas expliqués non plus. La notion de ''fluide électrique'' est également discutée. Volta parle de deux ''atmosphères électriques'', alors qu'en France on pense à deux fluides, l’un d’électricité positive, l’autre d’électricité négative.

    Charles-Augustin Coulomb (1736-1806) officier, ingénieur et physicien français, étudie ces questions et, grâce à un dispositif expérimental, montre que les ''forces électriques'' s'exercent entre deux charges ponctuelles, suivant une loi de type newtonien inversement proportionnelle au carré de la distance. Il parle également d'une force magnétique de même propriété et de même type.

    Siméon Denis Poisson (1781-1840) mathématicien, géomètre et physicien français, recommence les expériences de Coulomb et leur apporte un support mathématique. Mais il établit une différence entre les ''fluides électriques'' qui circulent dans les conducteurs et les ''fluides magnétiques'' attachés au métal aimanté.

    Christian Œrsted (1777-1851) physicien danois, pense que << l'électricité galvanique peut se rapprocher de l'électricité magnétique contrairement à l'électricité statique. >> En 1819, il a fait connaître une expérience qui est devenue célèbre. Il fait circuler dans un fil conducteur de l'électricité galvanique (en provenance d'une pile) et place près du fil une aiguille aimantée (une boussole). Celle-ci change de direction perpendiculairement au fil. << Cet effet a lieu lorsque le circuit est fermé et non lorsqu'il est interrompu >> Œrsted ajoute << C'est pour avoir laissé le circuit ouvert que de célèbres physiciens n'ont point réussi auparavant à montrer cet effet. >>

    << La "matière électrique négative" décrit une spirale à droite et agit sur le pôle nord tandis que la "matière électrique positive" possède un mouvement de sens contraire et agit sur le pôle sud sans agir sur le pôle nord. >> << Le ''conflit'' entre les deux électricités opposées n'est pas circonscrit au fil conducteur, car il a autour de lui une sphère d'activité assez étendue, le conflit s'étend donc dans l'espace. >> << Le conflit électrique agit sur les particules magnétiques de plusieurs métaux mais ne dévie pas les aiguilles non magnétiques... Un fil de diamètre notable produit des effets plus importants que le fil de platine initialement utilisé...L'incandescence n'est pas nécessaire pour qu'il y ait un effet magnétique. >>

    André-Marie Ampère (1775-1836) mathématicien, physicien, chimiste et philosophe lyonnais, est le premier à avoir compris l’intérêt de la découverte d'Ørsted dont il contribua à la célébrité. Il en tira une théorie mathématique qui constitue la base de l'électromagnétisme. Le lien entre phénomènes électriques et phénomènes magnétiques ouvre la porte à une nouvelle branche de l'électricité, l’électrodynamique. Dans les années 1830, A.-M. Ampère contribue à fixer le nouveau langage de l'électricité, étudie et quantifie les premières lois de l'électrodynamique en termes de forces entre des fils parcourus par des courants électriques.

    Michael Faraday (1791-1867) physicien et chimiste britannique, est connu pour son travail fondamental, mais de conception plus expérimentale, dans les domaines de l'électromagnétisme, l'électrochimie, l'induction électromagnétique, le diamagnétisme et l'électrolyse. Il en étudie de nombreux phénomènes et, en 1831, il établit plusieurs lois sur l'induction électromagnétique et en électrochimie. En étudiant le mouvement circulaire continu d'une force magnétique autour d'un fil, il montre la possibilité de la création du moteur électrique (la roue de Barlow).

    Heinrich Lenz (1804-1865) physicien balte, après avoir refait les expérience de Faraday, a étudié l'interaction du courant électrique et du champ magnétique, c'est-à-dire l'apparition d'un courant induit. La loi de Lentz de 1834 énonce : "Le sens du courant induit est tel qu'il donne naissance à un champ magnétique induit qui s'oppose à la cause qui lui a donné naissance, c'est-à-dire l’augmentation ou la diminution de flux." Cette loi fournit une analyse quantitative de la vitesse à laquelle la résistance, dans un circuit, transforme l'énergie électrique en énergie thermique.

    Georg Ohm (1789-1854) physicien allemand, a découvert expérimentalement la relation de proportionnalité entre la différence de potentiel appliquée aux bornes d'un conducteur, et le courant électrique qui le traverse (loi d'Ohm de 1827). Il a ainsi déterminé les relations fondamentales entre courant, tension et résistance électrique, ce qui constitue le début de l'analyse des circuits électriques. Ces lois fondamentales de circulation du courant électrique n'ont été acceptées et reconnues qu'en 1840.

    Remarque de la physique des ondes : Au milieu du 19ème siècle, la plupart des physiciens admet que les phénomènes électriques et magnétiques sont liés. L'énergie électrique est née, mais sous ce nom il faut voir plutôt un ''transfert d'énergie'' entre la pile et l'utilisateur (résistance chauffante ou moteur). Cette énergie va être étudiée dans cette deuxième partie du siècle et la progression de son utilisation sera remarquable. Fin de la remarque

    James Clerk Maxwell (1831-1879) physicien et mathématicien écossais, est celui qui a réussi au cours de la deuxième moitié du 19ème siècle, l'unification dans l'électromagnétisme des phénomènes électriques magnétiques et inductifs. Il a développé la théorie d'Ampère et a su utiliser les travaux réalisés par différents physiciens, dont Faraday, pour établir une série de quatre équations dites ''aux dérivées partielles'' (*) du premier ordre et couplées. Elles furent publiées en 1864 et dans leur forme définitive en 1873 dans l'ouvrage ''Electricity and Magnetism''.

    (*) La dérivée partielle d'une fonction de plusieurs variables est sa dérivée par rapport à l'une de ses variables, les autres étant gardées constantes.

    Ces équations représentent mathématiquement l'unification des phénomènes électriques magnétiques et inductifs. Elles mettent en évidence les équations d'ondes qui gèrent la propagation des ondes électromagnétiques. Elles sont les bases théoriques de la force électromagnétique.

    Voici un bref exposé de ces équations d'après Wikipédia :

    * L'équation de Maxwell-Gauss, reliée au théorème de Gauss en électrostatique, décrit comment un champ électrique est engendré par des charges électriques : le champ électrique est orienté des charges positives vers les charges négatives. Plus précisément, cette loi relie ''le flux électrique à travers n'importe quelle surface de Gauss fermée, avec la charge électrique contenue dans le volume délimité par cette surface''.

    * L'équation de Maxwell-Thomson, reliée au théorème de Gauss en magnétostatique, énonce qu'il n'existe aucune « charge magnétique » (ou monopôle magnétique) analogue à une charge électrique. Au contraire, le champ magnétique est engendré par une configuration nommée dipôle, qui n'a pas de charge magnétique mais regroupe une charge positive et une charge négative reliées entre elles et inséparables. À titre d'exemple, cela permet de montrer que le flux magnétique total à travers n'importe quelle surface fermée est nul, ou que le champ magnétique est un champ solénoïdal.

    * L'équation de Maxwell-Faraday, reliée à la loi d'induction de Faraday, décrit comment la variation d'un champ magnétique peut créer (induire) un champ électrique. Ce courant induit est utilisé dans de nombreux générateurs électriques : un aimant en rotation crée un champ magnétique en mouvement, qui engendre un champ électrique dans un fil conducteur à proximité.

    * L'équation de Maxwell-Ampère, reliée au théorème d'Ampère en régime variable, énonce que les champs magnétiques peuvent être engendrés de deux manières : par les courants électriques (c'est le théorème d'Ampère) et par la variation d'un champ électrique (apport de Maxwell sur cette loi)..... Cette ''correction'' par Maxwell du théorème d'Ampère est particulièrement importante. Elle signifie que la variation d'un champ magnétique crèe un champ électrique, et que la variation d'un champ électrique crèe un champ magnétique. Maxwell a donc réussi à mettre en équation sous la forme d'un champ électrique couplé à un champ magnétique, la circulation d'ondes électromagnétiques auto-entretenues qui constitue ce qu'on appelle le courant électrique.

    Reste à définir la substance dans laquelle ces ondes circulent, nous étudierons ce problème et celui de la nature de la lumière dans le chapitre suivant. Reste également à comprendre ce que représentent physiquement ces champs électriques et magnétiques qui semblent indissociables lors de la circulation du courant.

    Pour aborder cette dernière question essayons de nous représenter l'existence d'un champ magnétique. En régime statique, un aimant qui attire la limaille de fer configure un champ magnétique. De même un courant électrique permanent qui circule dans un fil crée un champ magnétique dont l'action s'exerce en hélice autour de ce fil comme axe (voir l’expérience d'Œrsted). Ampère a montré que lorsque deux fils conducteurs parallèles sont parcourus par des courants électriques, ils s'attirent ou se repoussent suivant le sens des courants. Mais Faraday a montré que les phénomènes magnétiques deviennent plus complexes en cas de courants variables (induction).

    Par contre, la notion de champ électrique attribuée à l'onde électromagnétique par Maxwell est plus subtile et même abstrait, car le dit champ électrique se confond avec la nature même du courant des particules chargées constituant le courant électrique. Je cite Wikipédia :

    << En physique, le champ électrique est le champ vectoriel créé par des particules électriquement chargées. Plus précisément, des particules chargées modifient les propriétés locales de l'espace, ce que traduit justement la notion de champ. Si une autre charge se trouve dans ce champ, elle subira l'action de la force électrique exercée à distance par la particule : le champ électrique est en quelque sorte le "médiateur" de cette action à distance. >>

    D'autre part << Lors de la circulation des charges en régime réellement permanent, le champ magnétique existe mais on ne peut parler de champ électrique réel, sinon sous la forme de différence de potentiel aux extrémités du circuit (la tension)....Le champ électrique présente en réalité un caractère relatif, et n'existe pas indépendamment du champ magnétique >> Wikipédia

    Remarque de la physique des ondes : L'action de la force électrique (le champ électrique) dans un conducteur est donc exercée par des particules chargées (nous savons maintenant que ce sont des électrons). Le champ magnétique est créé lorsque ces particules sont en mouvement. On parle alors d'ondes électromagnétiques telles que Maxwell les a étudiées. Elles ne peuvent circuler que dans la matière, ou dans l'espace sous forme de particules cosmiques et de poussière, sans doute dans la dite matière noire. La notion de magnétisme ne peut être dissociée de celle de particule chargée. C'est pourquoi les ondes de type lumière (la lumière et les ondes radio) ont été classées à tort comme ondes électromagnétiques. Nous verrons pourquoi dans le prochain chapitre.

    La vitesse de circulation de ces particule dans leur conducteur n'est pas celle de ''l'onde électrique'' (ou signal électrique) que Maxwell a déterminée voisine de la vitesse de la lumière. Cette onde électrique ''coiffe'' probablement à une vitesse proche de la lumière, ces particules (électrons) qui, d'après notre physique des ondes, sont aussi précisément des ''ondes électromagnétiques''.

    La vitesse à laquelle se déplace le signal électrique, donc l'énergie électrique, correspond en réalité à la vitesse de propagation d'une onde électromagnétique, et non à la vitesse de déplacement des charges électriques proprement dites. La propagation de cette onde signal dépend de la permittivité (constante diélectrique) et de la perméabilité (constante magnétique) du matériau qui la guide. Fin de la remarque.

     

    23) La nature et la vitesse de la lumière. La polarisation. Les éthers. L'analyse spectrale

    La nature de la lumière, son origine, son mode de transmission, la possibilité de multiples transferts de son énergie, ont de tout temps, et maintenant encore, posé des problèmes scientifiques très discutés. Ils sont d'autant plus importants que toute l'énergie et la vie sur terre proviennent du soleil et que, mise à part l'énergie gravitationnelle, tout lien énergétique solaire est, et a très certainement été, d'origine lumineuse.

    Newton, on l'a vu partisan des atomes, a beaucoup travaillé sur le problème des couleurs de la lumière décomposées par un prisme. Il avait donc une idée particulière et bien affirmée sur la nature de la lumière.

    << En 1704, il fait publier son traité ''Opticks'' dans lequel figurent sa théorie corpusculaire de la lumière, l’étude de la réfraction et de la diffraction de la lumière et sa théorie des couleurs. Il y démontre que la lumière blanche est formée de plusieurs couleurs et déclare qu'elle est composée de particules ou de corpuscules.... Il affirme que "la lumière est une mitraille de corpuscules qui se propagent dans l’espace"...Il ajoute que lorsqu'elle traverse un milieu plus dense, elle est réfractée par son accélération >> Wikipédia

    Christian Huygens (1629-1695 mathématicien, astronome et physicien néerlandais, est connu pour avoir effectué des travaux scientifiques dans plusieurs domaines dont l'étude de la nature de la lumière. Il a découvert, grâce aux propriétés des cristaux et en particulier grâce au spath d'Islande, que les lois de réflexion et de réfraction sont conservées si l'on suppose une propagation de la lumière sous la forme d'ondes ce qui n'est pas le cas avec une théorie corpusculaire. Sa théorie ondulatoire, publiée en 1690 dans son ''Traité de la Lumière'', n'a pas prévalue sur celle de Newton.

    Compte tenu de la notoriété considérable de Newton, ses idées n'ont commencé à être réellement contestées qu'un siècle après le traité Opticks. A la suite d’expériences menées en Angleterre par Thomas Young et en France par Augustin Fresnel, les physiciens européens ont bien été obligés d'admettre que la lumière n'est pas un phénomène corpusculaire, mais ondulatoire.

    Thomas Young (1773-1829) physicien et médecin anglais, découvrit l'existence des franges d'interférences lumineuses. Ses recherches en ''optique-physique'' contribuèrent grandement à l'établissement de la théorie ondulatoire de la lumière.

    Augustin Jean Fresnel (1788-1827) ingénieur et physicien français. Ses recherches en optique ont conduit à l'acceptation de la théorie ondulatoire de la lumière en remplacement de la théorie balistique qui s'était imposée depuis Newton. En s'appuyant sur les concepts émis par Ch. Huygens en fin du 18ème siècle, en particulier sur la règle de combinaison des ondes lumineuses, et en procédant à ses propres expériences, il retrouva les observations faites quelques années plus tôt par Thomas Young sur les interférences (expérience des fentes de Young) et leur donna les fondements physiques et mathématiques qui emportèrent l'adhésion des physiciens.

    Jean-Baptiste Biot (1774-1862) physicien, astronome et mathématicien français. Pour certains travaux, il utilisait de la lumière polarisée. C'est une de ses communications en 1814 qui attira l'attention de Fresnel et permit leur mise en rapport.

    Dominique François Arago (1786-1853) astronome, physicien et homme d'État français, a été tout d'abord partisan de la théorie corpusculaire de la lumière. Il a entrepris avec J.B. Biot l'étude de la biréfringence de lames et de cristaux de calcite et de quartz. C'est ce qui les a rapprochés de Fresnel et de sa théorie ondulatoire. Étant déjà membre de l'académie, Arago aida Fresnel à réaliser ses expériences à l'Observatoire et à exposer ses résultats à l'Académie des sciences. C'est grâce à lui que Fresnel pu présenter en 1818 son ''Mémoire sur la diffraction de la lumière'' qui est le fondement de l'optique ondulatoire, connu plus tard sous le nom de Principe de Huygens-Fresnel.

    Cette théorie ondulatoire (Fresnel disait vibratoire) expliquait les phénomènes de propagation de la lumière. En partant des travaux de Huygens sur la diffraction de la lumière, Fresnel a réussi à interpréter mathématiquement l'existence des interférences d'ondes lumineuses qui s’additionnent quand elles sont "en phase" et se retranchent quand elles sont "en opposition de phase". Si l'existence des interférences montre à l'évidence que la lumière est une onde, celle-ci doit posséder tous les attributs propres aux ondes. Wikipédia nous renseigne :

    La diffraction est le comportement des ondes lorsqu'elles rencontrent un obstacle ou une ouverture. Le phénomène peut être interprété par la diffusion d’une onde par les points de l'objet. La diffraction se manifeste par des phénomènes d'interférence

    La réflexion en optique désigne un des phénomènes qui intervient lors de l'incidence de la lumière sur un matériau. La part de la lumière qui n'est ni absorbée, ni transmise est dite réfléchie. C'est ce phénomène qui explique que l'on voit un objet éclairé par une source ( le soleil ou une lampe)

    La réfraction désigne la courbe d'une onde (notamment optique, acoustique ou sismologique) à l'interface entre deux milieux aux vitesses de phase différentes sur le plan chimique ou physique (densité, impédance, température...). Elle se traduit par une modification de l'orientation du front d'onde (explication du phénomène) et du rayon lumineux (déviation de sa direction).

    La diffusion est la propriété de la matière finement divisée, de disperser la lumière dans toutes les directions. Elle dépend fortement de la forme des particules dites diffusantes et de leurs tailles.

    Tous les phénomènes qui apparaissent lors de la propagation de la lumière sont bien conformes aux propriétés des ondes que je viens d'énumérer. C'est donc bien une onde. Mais l'étude de la lumière ne peut s’arrêter à celle de sa propagation dans l'espace car c'est son mode d'action sur la matière qui est extrêmement important et que nous recherchons. Avant de poursuivre notre historique sur cette deuxième partie du 19ème siècle et d'étudier justement le mode de transmission de l'énergie lumineuse sur la matière, je dois parler d'une dernière propriété des ondes de type lumière lorsqu'elles circulent à l’intérieur des matériaux transparents. Nous avons vu que J.B.Biot a communiqué en 1814 à ce sujet. C'est le phénomène de polarisation.

    Erasmus Bartholin (1625-1698) médecin danois étudia la biréfringence du spath d'Islande. Il publia en 1669 << une série d’observations intrigantes, qui partent du constat que certaines images, observées au travers d’un cristal de Spath d’Islande, apparaissent dédoublées   :  on parle alors d’une image « ordinaire », et  d’une  image « extraordinaire ». Une des images semble tourner quand on oriente le cristal dans différentes positions, alors que l’autre demeure fixe. Quand la lumière traverse deux morceaux de cristaux, une des images peut disparaître selon certaines orientations du second cristal vis-à-vis du premier cristal, et la rotation d’un cristal modifie l’intensité d’une des deux images. >>

    https://www.gatinel.com/recherche-formation/la-nature-de-la-lumiere-approche-historique/polarisation-de-la-lumiere/

    Étienne Louis Malus (1775-1812) ingénieur, physicien et mathématicien français, avait mené des expériences pour vérifier les théories énoncées par Huygens sur la nature de la lumière. Il les a reformulées dans son ''Traité d’optique analytique'' paru en 1807. Sa découverte de la polarisation de la lumière par réflexion est publiée en 1809, et l'année suivante l’Académie des Sciences lui décerne un prix pour sa ''Théorie de la double réfraction de la lumière dans les substances cristallines''.

    << Le théorème de Malus, quant à lui, stipule que les surfaces d'onde émises par une source ponctuelle sont orthogonales aux rayons lumineux issus de cette source. Après avoir subi un même nombre de réflexions et de réfractions, ces rayons lumineux sont orthogonaux aux fronts d'ondes. Un ''front d'onde'' ou une ''surface d'onde'' est une surface d'égale phase d'une onde, c'est-à-dire que ces points ont mis le même temps de parcours depuis la source. Le concept est utilisé pour décrire la propagation des ondes comme le son ou la lumière. En physique ondulatoire, la propagation d'une onde correspond au déplacement spatial de la perturbation du milieu engendrée par  l'onde. Sa direction est par définition celle du flux d'énergie que transporte l'onde. >>

    https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_Malus

    Sir David Brewster (1781-1868) physicien et écrivain écossais à la suite d'expérimentations parvint en 1815 à trouver la loi reliant l'indice de réfraction du verre avec la valeur de cet angle permettant de polariser la lumière totalement.

    Jusqu'au mémoire de Fresnel en 1818, les physiciens traitaient les ondes lumineuses comme des ondes de pression longitudinales, les surfaces d'ondes sont sphériques autour de la source (soleil) et pratiquement planes à l'arrivée sur terre. Les rayons lumineux (flux d'énergie) sont orthogonaux au front d'onde (à la surface d'onde). Dans le vide de l'espace la lumière n'est pas polarisée.

    La lumière des sources naturelles est non polarisée, mais la lumière naturelle en provenance du soleil se diffuse plus ou moins dans l'atmosphère terrestre suivant l'état du ciel et des nuages. Cela peut induire une polarisation au moins partielle de la lumière.

    << Il est aisé de comprendre que de la lumière polarisée peut être obtenue à partir de la lumière non polarisée: la polarisation se produit quand certaines composantes sont « absorbées », et il existe quatre phénomènes physiques à même de produire de la lumière polarisée à partir de la lumière non polarisée : le dichroïsme (absorption différentielle par un filtre), la diffusion (interaction de la lumière avec de fines particules), la réflexion (la lumière se réfléchit sur une surface et se polarise lors de la réflexion), et la biréfringence ( le matériau possède des propriétés différentes selon la direction empruntée par la lumière, ex : le cristal de Spath). >> Dr. Damien Gatinel

    Remarque de la physique des ondes : La polarisation de la lumière est généralement expliquée par une propriété attribuée à la lumière qui serait une onde ''électromagnétique''. Nous verrons plus loin comment J.C.Maxwell a été amené à confondre les ondes de type lumière (lumière, radio) avec les véritables ondes électriques et magnétiques (électromagnétiques).

    Les phénomènes physiques capables de polariser la lumière sont attribuables uniquement aux matériaux transparents ou réfléchissants indiqués ci-dessus. Ces phénomènes sont leurs propriétés particulières mais il est possible, par exemple, de créer de la biréfringence dans un milieu optiquement isotrope de plusieurs manières. https://fr.wikipedia.org/wiki/Bir%C3%A9fringence

    Par un champ électrique (Effet Pockels, Effet Kerr optique).

    Par un champ magnétique (Effet Faraday, Effet Cotton-Mouton, Effet Kerr magnéto-optique)

    Par une contrainte mécanique (photo-élasticité, liquides)

    Le fait que l'effet magnéto-optique découvert par Michael Faraday en 1845 apparaisse dans la plupart des matériaux diélectriques transparents lorsqu'ils sont soumis à des champs magnétiques n'est pas ''l'évidence du lien entre magnétisme et lumière '', encore moins ''le fait que la lumière contienne un champ magnétique'', comme on l'entend souvent dire.

    << Le pouvoir rotatoire, est l'angle de déviation du plan de polarisation d'une lumière polarisée rectilignement, pour un observateur situé en face du faisceau incident. Il est lié à l'activité optique ou biréfringence circulaire, qui est la propriété qu'ont certains milieux (optiquement actifs) de faire tourner le vecteur d'un faisceau lumineux les traversant. Parfois, par abus de langage, le terme de pouvoir rotatoire est employé à la place d'activité optique. Les composés induisant une déviation du vecteur vers la droite (quand on fait face à la lumière) sont qualifiés de dextrogyres (ex. : saccharose). Les composés induisant une déviation du vecteur vers la gauche (quand on fait face à la lumière) sont qualifiés de lévogyres (ex. : fructose). >>

    https://fr.wikipedia.org/wiki/Pouvoir_rotatoireFin de la remarque

    Que la lumière possède, à l’intérieur d'un milieu optiquement actif, des propriétés analogues à celles des ondes électromagnétiques, ne pose pas de réelles difficultés scientifiques et ne signifie pas qu'elle en soit une. Par contre la vraie difficulté scientifique pour la théorie ondulatoire de la lumière se trouve être la possibilité de circulation des ondes dans le vide de l'espace. Il est normal que les physiciens du 19ème siècle se soient pour cela très longtemps opposés à cette théorie ondulatoire. En effet une onde est obligatoirement le mouvement d'une substance. Dans le vide, en principe il n'y en a pas. Les partisans de la théorie ondulatoire en avait bien conscience et ont appelé ce médium indispensable ''l'éther'', faute de pouvoir le définir.

    Il nous manque toujours de connaître une telle ''matière'' qui puisse vibrer, supporter et transmettre des ondes. Ce ''fluide'' aux propriétés diverses et contradictoires, cette ''substance subtile'' dans laquelle circulent les astres, transmet les ondes gravitationnelles, les ondes électromagnétiques, les ondes lumineuses et l'énergie, constitue cependant le ''vide de l'espace''. Il ne sera probablement jamais analysé scientifiquement car nous en sommes faits et nous ne pouvons en sortir. Ce ''médium'' a depuis longtemps été appelé Éther du nom du Dieu primordial de la mythologie grecque. Les physiciens des ondes lumières l'ont baptisé ''éther luminifère''. Maxwell pour ses nouvelles ondes l'a appelé ''éther électromagnétique'' ce qui n'est pas plus rationnel, mais assorti des notions de ''vecteur'' et de ''champ'' peut être plus satisfaisant pour ''la mathématique''.

    << Une fois les équations de James Clerk Maxwell établies, il y eut de multiples tentatives pour formuler une théorie d'un éther qui soit transporteur mécanique de ces ondes électromagnétiques (Maxwell fut le premier à s'y essayer), mais aucune ne permit de prendre en compte toutes les propriétés de l'électromagnétisme, même dans les cas les plus simples. >>

    https://fr.wikipedia.org/wiki/%C3%89ther_(physique)

    Nous aurons l'occasion de reparler de cette notion d'éther en 1916 avec Einstein et Lorentz.

    Pour connaître la position de la physique des ondes concernant la ''substance de l'espace'', il faut relire le chapitre N°2 de notre blog ''paulpb eklablog.fr'' et surtout la thèse de J.J.Micalef https://lesnouveauxprincipes.fr/physique/3-des-nouvelles-proprietes-de-lespace

    Si la nature de cette ''substance de l'espace'', comme l'a appelée J.J.Micalef, reste inconnue, si cette substance conduit bien les ondes dont la fréquence est supérieure à 300 Ghz, la vitesse des ondes qui y circulent est une donnée précieuse à connaître. Voici l'historique de la détermination de la vitesse de la lumière et de celle des ondes électromagnétiques.

    C'est encore grâce à D.F. Arago et à sa relation avec J.B.Biot, que la connaissance des propriétés de la lumière a pu se développer au début du 19ème siècle. Participant de par sa fonction à l'activité astronomique de l'observatoire, il a pu procéder à des expérimentations dans l'espace et dans le temps et rechercher une éventuelle variation de la vitesse de la lumière en provenance d'étoiles et du soleil à différentes périodes annuelles. Compte tenu des mouvements respectifs des astres (distance, orientation), il a pu établir (mémoire de 1810) que la vitesse de la lumière est constante. Il a même pu découvrir que les rayonnements infrarouge et ultraviolet sont de même nature que la lumière, ce qui n'était pas évident à l’époque. Voir le site : https://journals.openedition.org/bibnum/702

    Armand Hippolyte Fizeau (1819-1896), physicien et astronome français, a travaillé notamment sur la lumière. En 1849, il a mis au point une méthode de mesure de la vitesse de la lumière, utilisant une roue dentée tournant à vitesse constante vers laquelle les rayons lumineux passant entre les dents sont réfléchis par un miroir distant de 8OOO mètres. Un décalage précis donne pour la vitesse de la lumière une valeur proche de 315 300 km/s.

    Wilhelm Eduard Weber (1804-1891) physicien prussien a raccordé expérimentalement les unités de mesures électriques et magnétiques par des expériences précises. En 1855, dans un travail avec Rudolf Kohlrausch (1809- 1858) physicien allemand, ils ont utilisé la décharge d'une bouteille de Leyde dans un circuit équipé d'un galvanomètre balistique. Ils ont montré que le rapport des mesures effectuées en unités électrostatiques et en unités électromagnétiques équivalait à une vitesse, que c'était la vitesse de l'onde électromagnétique et que cette célérité était de 310 740 km/s.

    James Clerk Maxwell (1831-1879) physicien et mathématicien écossais nous l'avons vu, a réuni dans l'électromagnétisme les phénomènes électriques, magnétiques et inductifs. Il a établi en 1864 une série d'équations qui gèrent la propagation des ondes électromagnétiques. Comme pour tous les scientifiques, l'existence obligatoire d'un médium (éther) pour la conduction des ondes dans l'espace est pour lui un problème. Il a dit << Remplir l’espace d’un nouveau milieu toutes les fois que l’on doit expliquer un nouveau phénomène ne serait point un procédé bien philosophique. >>

    Aussi se fixe-t-il comme objectifs de montrer que l’éther lumineux et l’éther électromagnétique ne font qu’un et que la vitesse des ondes électromagnétiques se déplaçant dans le vide de l'espace est identique à celle de la lumière. << Si, dit-il, l’on trouve que la vitesse de propagation des perturbations électromagnétiques est la même que la vitesse de la lumière, et cela, non seulement dans l’air, mais dans tous les autres milieux transparents, nous aurons de fortes raisons de croire que la lumière est un phénomène électromagnétique. >>

    Maxwell a donc repris à son compte la vitesse des ondes électromagnétiques de l’expérience Weber- Kohlrausch, célérité de 310 740 km/s. La comparaison avec la vitesse de la lumière 315 300 Km/s déterminée avec précision par Fizeau est pour lui une preuve convaincante de la nature de la lumière.

    Dans son article de 1864 ''A Dynamical Theory of the Electromagnetic Field'', Maxwell écrit : « L'accord des résultats semble montrer que la lumière et le magnétisme sont deux phénomènes de même nature et que la lumière est une perturbation électromagnétique se propageant dans l'espace suivant les lois de l'électromagnétisme. »

    Voici d'après Wikipédia quelques données actuelles concernant la célérité des ''ondes électromagnétiques'' suivant le milieu qui les transporte. On dissocie la vitesse du signal électrique (vitesse de l'onde) de la vitesse de déplacement des charges :

    << La vitesse à laquelle se déplace le signal électrique, donc l'énergie électrique, correspond à la vitesse de propagation de l'onde électromagnétique, La propagation de cette onde dépend de la permittivité (constante diélectrique) et de la perméabilité (constante magnétique) du matériau dans lequel elle se propage.

    - Dans le vide, elle se propage à la vitesse de la lumière, c'est-à-dire environ 300 000 km/s.

    - Dans l'eau, elle est d'environ 226 000 km/s dans une solution saline.

    - Dans un circuit à isolant plastique, elle est généralement comprise entre 175 000 et 200 000 km/s

    Les charges électriques (électrons) circulent dans le conducteur à très faible vitesse, quelques centièmes de millimètre par seconde, en fonction de l'intensité du courant et de la section du conducteur. La vitesse des charges est de quelques fractions de millimètre par seconde pour un courant continu mais leur vitesse est quasi nulle pour un courant alternatif. Dans ce dernier cas les électrons font des aller-retours 50 ou 60 fois par seconde et ne se déplacent quasiment pas.

    Par contre, lorsqu'un courant continu traverse un tube électronique dans lequel règne le vide, c'est bien un flux d'électrons qui passe d'une électrode à l'autre à une vitesse de l'ordre de 15 km/s déterminée par l'énergie des électrons. L'onde de différence de potentiel, qui met les électrons en mouvement, se déplace quant à elle à une vitesse très proche de celle de la lumière. >>

    https://fr.wikipedia.org/wiki/Vitesse_de_l%27%C3%A9lectricit%C3%A9

     

    Remarque de la physique des ondes :

    Maxwell a eu raison de faire le rapprochement de la vitesse de la lumière avec celle des ondes électromagnétiques. La similitude des deux correspond à l'unicité du milieu (l'éther) de vibration et de transmission des ondes dans l'espace ou sur terre. La célérité de la propagation des ondes dans l'éther est une propriété attribuable à la ''substance de l'espace'' et la matière est faite de cette substance.

    Mais on ne peut être d'accord avec Maxwell pour en tirer la conclusion que la lumière serait une onde ''électro magnétique''. Elle n'est en rien magnétique, elle ne rayonne aucun ''champ magnétique''. En voici une preuve selon Wikipédia : << les fibres optiques en verre ont sur les transmissions par conducteurs métalliques (fil de cuivre par exemple), un énorme avantage de sécurité car elles ne rayonnent aucun ''champ'', ni électrique ni magnétique. Si on désire une transmission électromagnétique, il convient d'introduire dans le verre des fibres optiques des poussières métalliques dont les électrons libres peuvent conduire leurs ondes transversales magnétiques, ce que ne peuvent faire les électrons du verre qui restent fixés dans leurs atomes. >>

    Les fibres optiques normales ne conduisent que les ondes lumière, qui ne sont donc que de simples ondes énergétiques sans composante magnétique. Que leur vibration dans leur milieu soit longitudinale ou transversale (probablement les deux) rapproche effectivement les propriétés des ondes de ''type lumière'' de celles des véritables ondes électromagnétiques qui conduisent la force électrique et qui constituent ce qu'on appelle le courant électrique. Mais ces dernières restent spécifiques du mouvement des charges magnétiques (des particules élémentaires) existant dans leur référentiel (divers milieux matériels ou substance de l'espace). Remarquons également que la propriété essentielle qui est justement commune à toutes les ondes et à tous les milieux est le transport et les échanges d'énergie .

    Pour que le suivi de mon texte reste logique et compréhensible, je vais employer le terme ''OEM'' pour désigner ces véritables ondes électromagnétiques qui accompagnent le mouvement des particules chargées (en particulier les électrons). Le terme ''OTL'' désignera l'ensemble des ondes de type lumière (dites faussement électromagnétiques) que nous verrons ci-dessous considérablement étalées en fréquence spectrale, la lumière visible n'étant qu'une très petite partie de ce ''spectre''. Fin de la remarque.

    Le site suivant : https://fr.wikipedia.org/wiki/Heinrich_Hertz nous décrit la réaction du milieu scientifique à l'article de Maxwell de 1864 concernant les propriétés des ondes électromagnétiques (OEM) et leur application à la lumière :

    << L'une des principales controverses suscitées par les équations de Maxwell était l'existence même d'ondes électromagnétiques et de leurs propriétés supposées : que l'on parvienne à reproduire de telles ondes et à les rendre perceptibles, avec toutes les propriétés exigées, et il n'y aurait alors plus rien de douteux dans la théorie ; on pourrait se reposer entièrement sur les équations de Maxwell pour le traitement des questions encore irrésolues. >>

    << Les ondes électromagnétiques controversées apparaissaient, selon les équations de Maxwell, comme une conséquence nécessaire des oscillations électriques....leur formation avait été constatée lors de décharges électriques avec une bouteille de Leyde. On avait même pu mesurer la fréquence de ces décharges électriques en comptant les étincelles avec un stroboscope à miroir tournant... Si ces décharges engendraient les ondes transversales prédites par Maxwell, et si ces ondes se propageaient bien à la vitesse de la lumière, alors il serait facile d'en déduire leur longueur d'onde, grâce à la relation universelle déjà établie par Newton entre longueur d'onde et célérité. Mais cela donnerait des longueurs d'onde kilométriques, bien trop pour qu'avec les moyens disponibles en laboratoire et les pertes par atténuation, on puisse, d'une manière indiscutable, détecter les nœuds successifs du signal. Aussi, pour pouvoir détecter de telles ondes, il était clair qu'il fallait produire des décharges beaucoup plus rapides. >>

    Heinrich Rudolf Hertz (1857-1894) ingénieur et physicien allemand, chercheur à l'université de Kiel, s’est intéressé dès 1883 aux ondes électromagnétiques et aux hypothèses de Maxwell. Il a compris le problème posé et, de 1887 à 1889, il a  mené une série d'expériences conformes aux idées exposées dans le paragraphe précédent.

    Hertz a  inventé et construit un émetteur à étincelles constitué d'un circuit oscillant (excitateur) contenant une bobine Ruhmkorff de forte puissance, un condensateur produisant un courant alternatif de très haute fréquence et un éclateur à boule fournissant une série d'étincelles de fréquence réglable. Il a ainsi réalisé un émetteur d'ondes radio-électriques (OTL) du même type que le premier télégraphe électrique mis en service par Wheatstone et Cooke en 1837. Mais Hertz a travaillé avec des ondes de forte puissance, de très hautes fréquences radio et des longueurs d'onde réglables.

    Les ondes radio-électriques émises par l'éclateur induisent par résonance un courant électrique dans une boucle ou un circuit de dimension réglable muni aux extrémités de deux boules (éclateur) dont on peut régler l'écart. Ce résonateur mobile constitue donc le récepteur des ondes. Il permet d'étudier les propriétés de celles-ci, par-exemple la longueur de l'onde ou sa polarisation qui est mise en évidence par l'absence d'étincelle dans la boucle réceptrice lorsque celle-ci est perpendiculaire au condensateur. Il a ainsi pu montrer que les ondes électromagnétiques produites avec son oscillateur ont les mêmes propriétés que la lumière : réflexion et réfraction, interférences, polarisation et diffraction.

    En fait les expériences réalisées par Hertz sont celles d'une transmission d'ondes radio (OTL) de très hautes fréquences par résonance entre un émetteur et un récepteur. L'excitateur et le résonateur sont les modèles primitifs d'un émetteur et d'un récepteur de radio.

    << Heinrich Hertz ne vit pas l'application de son dispositif et de sa découverte qui allaient permettre la radiophonie puis les télécommunications au XXe siècle. Il se contenta de noter le texte suivant : « cela n'a aucune espèce d'application. C'est juste une expérience qui permet de prouver que le maître Maxwell avait raison — nous avons simplement ces ondes électromagnétiques mystérieuses que nous ne pouvons voir à l'œil nu. Mais elles sont là. » >> Wikipédia

    En  l'honneur   de   Heinrich   Hertz,   les   ondes   radio   découvertes   sont   nommées « hertziennes » et l'unité internationale de fréquence (s−1) a été appelée hertz (Hz).

    La longueur d'onde en mètre et la fréquence en hertz sont justement les unités de base qui ont permis de monter l'échelle des ondes radio découvertes à la suite des travaux de Hertz, mais aussi de classer toutes les autres ondes ''de type lumière'' (OTL) détectées par la suite. Ces ondes, dites électromagnétiques, qui ont pour propriété de circuler à la vitesse de la lumière (c) sont classées par fréquence et par longueur d'onde. La relation entre ces unités est la suivante :

     λ° = (c) ν

     λ° (lambda°) = longueur d’onde dans le vide de l’onde en mètre (m)

     (c) est la vitesse de la lumière en mètre par seconde (m/s)

     ν (nu) est la fréquence de l’onde en hertz (Hz)

     

    De la Physique Classique à la Théorie Atomique

    Le spectre dit électromagnétique rassemble dans un même tableau toutes les ondes de type lumière (OTL). Ce spectre laisse de côté les ondes mécaniques et sonores dont le mouvement est spécifique à un milieu précis. Ce tableau vient ''chapeauter'' les idées de Maxwell. Il rassemble les ondes par fréquences et longueurs d'onde. Il les classe par nature et les sous classe par groupes de fréquences, ce qui revient souvent au même

     * Les ondes radio-électriques révélées par Cooke et Wheatstone et par les travaux de Hertz. Elles sont classées en ''ondes hertziennes'' et micro-ondes suivant leur fréquence .

    * Les rayonnements infrarouges découverts en 1800 par William Herschel (1738-1822) astronome germano-britannique qui les nommait rayons calorifiques.

    * Les couleurs de l'arc en ciel, fantomales avant Newton et son explication de la lumière blanche. C'est ce qu'on appelle le spectre visible ou spectre optique.

    *Les rayons ultra-violets découverts en 1801 par Wilhelm Ritter (1776-1810) physicien et philosophe prussien. (On lui doit aussi la mise au point du premier accumulateur).

    * Les rayons X découverts en 1895 par Wilhelm Röntgen (1845-1923) physicien allemand.

    *Les rayons gamma découverts au début du 20ème siècle par Paul Villard et William Bragg.

    Mais l'analyse de la partie visible (colorée) du spectre a révélé une relation inattendue entre la lumière et la matière. L'analyse spectrale établit en effet un lien alors inconnu entre la physique et la chimie. Pour le comprendre il faut suivre les travaux des scientifiques qui suivent en commençant, au 17ème siècle par ceux d'Isaac Newton. Ce génial scientifique, en plus d'avoir fondé la mécanique classique, étudié le calcul infinitésimal, la gravitation universelle et la lumière, a développé en optique une théorie de la couleur, fondée sur l'observation selon laquelle un prisme décompose la lumière blanche en un spectre visible (vision de l'arc en ciel tenue pour fantomatique à l'époque) .

    Joseph von Fraunhofer (1787-1826) opticien et physicien bavarois, 140 ans après Newton, mit au point un spectroscope plus perfectionné que le prisme et expérimenta sur le rayonnement solaire.

    William Hyde Wollaston (1766-2828) physicien et chimiste britannique découvrit en 1814 dans le spectre solaire continu, des raies noires. Il attribua ces discontinuités à l'absorption du rayonnement solaire par différents éléments chimiques présents dans l'atmosphère ou interposés devant le spectroscope, par exemple le sodium et sa double raie noire.

    Léon Foucault (1819-1868) physicien et astronome français démontra expérimentalement en 1849 que les raies noires (dites de Fraunhofer) absorbées par un corps chimique, deviennent lumineuses et colorées (à la même longueur d'onde) lorsque ce corps chimique est rendu émetteur de lumière.

    Anders Jonas Ångström (1814-1874) astronome et physicien suédois, un des fondateurs de la spectroscopie a établi un catalogue des raies de Fraunhofer dans lequel il mesure les longueurs d'onde avec une unité de longueur qui fut par la suite dénommée l'ångström.

    Gustav Kirchhoff (1824-1887) l’un des plus grands physiciens du XIXe siècle, est connu pour ses lois en électrotechniques, pour ses contributions essentielles en électrodynamique, physique du rayonnement et justement en spectroscopie. En 1859, de ses expériences il tire sa loi du rayonnement et prouve que les raies noires de Fraunhofer correspondent bien à des éléments chimiques présents dans les couches supérieures du Soleil.

    Robert Wilhelm Bunsen (1811-1899) chimiste allemand rejoint Kirchhoff dans son étude d'analyse spectrale qui le concerne particulièrement en tant que chimiste. En effet << Grâce à l'analyse spectrale Kirchhoff et Bunsen découvrent en 1860 le césium et le rubidium, ils ouvrent à l'Anglais Crookes, aux allemands Reich, Richter et à bien d'autres, la voie de la recherche de corps simples qui sont encore inconnus. Ils peuvent donc être considérés comme les chimistes pionniers de l'analyse spectrale. Cette technique nouvelle a donné une dimension inattendue à l'observation astronomique, car l'analyse spectroscopique fut bientôt étendue aux étoiles et aux galaxies appelées à l'époque « nébuleuses. » Il apparut bientôt que, dans tous les astres, il n'existe pas d'autres éléments chimiques que ceux présents sur Terre. >>

    << Le spectre d’émission d’une espèce chimique est l’intensité d’émission de ladite espèce à différentes longueurs d’onde quand sa matière excitée retourne à des niveaux d’énergie inférieurs. Il est en général centré sur plusieurs pics. Comme le spectre d’absorption, il est caractéristique de l’espèce et peut être utilisé pour son identification. Par la suite, nombre de scientifiques, physiciens et chimistes en Europe....utiliseront la spectrométrie d'absorption pour déterminer la concentration et la structure d'une substance en mesurant l'intensité du rayonnement électromagnétique qu'elle absorbe à des longueurs d'onde différentes. >> Wikipédia

     

    24) La cinétique des gaz. La molécule

    En ouvrant ce nouveau chapitre je rappelle que cet historique de la physique classique au 19ème siècle cherche à mettre en évidence la suite des découvertes et des expériences qui ont concouru à la construction scientifique des liens existant entre l'énergie électromagnétique, la lumière et la matière, à l'échelle de la molécule et de l'atome.

    Dans le premier chapitre (la chimie au 19ème siècle) nous avons suivi avec les chimistes la recherche et le classement des éléments chimiques. Avec eux nous avons buté sur l'incertitude de la nature des liaisons chimiques au niveau le plus élémentaire.

    Dans le deuxième chapitre (la physique au 19ème siècle) et dans les trois premiers sous-chapitres, nous avons suivi le processus de découverte de l'énergie électrique, de la formation d'une nouvelle science englobant l'énergie lumineuse et agissant, par le moyen d'ondes, sur la matière au niveau le plus élémentaire. Reste à découvrir ce qu'est réellement la matière à ce niveau, ce qu'est cet atome dont on suppose l'existence, et comment les ondes-énergies découvertes agissent sur les particules élémentaires.

    Avec l'aide de Wikipédia, nous commençons par l'étude de la matière au niveau moléculaire.

    Amedeo Avogadro (1776-1856) physicien et chimiste italien est notamment connu pour la loi d'Avogadro publiée en 1811 et proposée aussi par Ampère en 1814. Elle spécifie que des volumes égaux de gaz parfaits différents, aux mêmes conditions de température et de pression, contiennent un nombre identique de particules (une ''mole''). Le nombre d'Avogadro (ou constante d'Avogadro) est, en physique et en chimie, le nombre d’entités (atomes, molécules, ions ou particules en général) qui se trouvent dans une mole de matière.

    A l'époque les termes atome et molécule sont utilisés de manière indistincte mais Avogadro considère qu'il existe trois sortes de molécules, dont l'une est une molécule élémentaire (atome). Il effectue également une distinction entre les termes de masse et de poids.

    Ludwig Boltzmann (1844-1906) physicien viennois a travaillé dans presque tous les domaines de la physique du XIXe siècle. La majeure partie de sa production scientifique porte sur l'analyse du phénomène de la chaleur comme résultant de l'agitation aléatoire des atomes ou des molécules.

    Il se consacra essentiellement à la théorie cinétique des gaz, c'est-à-dire à la répartition statistique des vitesses des molécules dans un gaz à une température donnée. En effet, en prenant en compte les effets des collisions entre les molécules, on a accès aux propriétés de transport (viscosité, diffusion de la matière, conductivité thermique).

    La théorie cinétique des gaz a pour objet d'expliquer le comportement macroscopique d'un gaz à partir des caractéristiques des mouvements des particules qui le composent. Elle permet notamment de donner une interprétation microscopique à la notion de température qui est la mesure de l'agitation des particules, plus précisément de leur énergie cinétique, ainsi qu'à la notion de pression qui résulte du choc des particules du gaz sur une paroi et qui est liée à leur quantité de mouvement.

    Dans ses cours, publications scientifiques (133), nombreuses conférences et écrits, Boltzmann a abordé les principaux domaines scientifiques qui ont marqué cette époque : la thermodynamique l’électrodynamique, la mécanique statistique et la théorie atomique dont il a été l'ardent précurseur.

    Alors qu'il n'était que professeur-assistant à Vienne en 1868-1870, il donnait des cours sur la théorie mécanique de la chaleur, la théorie de l'élasticité, la théorie mathématique de l’acoustique et la théorie mathématique de la capillarité. À Graz il enseigna le calcul différentiel et intégral, la théorie des nombres, la géométrie analytique, la théorie des fonctions, mais aussi la théorie mécanique de la chaleur. À Vienne, « il donna un cours qui dura 4 ans. Il comprenait la mécanique classique, l'hydrodynamique, la théorie de l'élasticité, l'électrodynamique et la théorie cinétique des gaz » (Lise Meitner)

    L'application la plus révolutionnaire de Boltzmann a été sa méthode statistique. Avec James Clerk Maxwell et de Josiah Willard Gibbs, il a été un des fondateurs de la mécanique statistique. Maxwell avait déterminé en 1860 la distribution des vitesses dans un gaz en équilibre thermique. Les résultats de Maxwell ont été généralisés par Boltzmann et sont connus aujourd'hui sous le nom de distribution de Maxwell-Boltzmann. Par la suite, Gibbs a réussi à étendre les résultats de Maxwell et Boltzmann limités aux gaz, à des systèmes arbitraires, en introduisant la notion ''d'ensembles statistiques de particules''.

    La ''statistique de Maxwell-Boltzmann''qui est à la base de la théorie cinétique des gaz, est une loi de probabilité ou distribution utilisée en physique statistique pour déterminer la répartition des particules entre différents niveaux d'énergie.

    Les succès de la théorie cinétique des gaz ont constitué un argument fondamental à l'appui de la théorie atomique de la matière. En effet ces concepts de mécanique statistique ont été exploités dans la théorie électronique où l'on a parfois considéré les électrons quasi-libres comme un "gaz d'électrons". Nombre de chimistes refusèrent de le suivre dans ses raisonnements et ce n'est qu'après sa mort, que Jean Perrin en 1909, en étudiant des solutions colloïdales, valida simultanément le nombre d'Avogadro et la théorie atomique de Boltzmann.

    Les paragraphes précédents sont extraits du site biographique très complet de Wikipédia :  https://fr.wikipedia.org/wiki/Ludwig_Boltzmann#Biographie

     

    Remarque de la physique des ondes

    Si je me suis permis d'extraire de ce site de Wikipédia tous les paragraphes précédents qui concernent la théorie cinétique des gaz de Boltzmann, c'est pour marquer l'importance de ce scientifique qui a orienté l'ensemble de la science physique dans la seconde moitié du 19ème siècle. Malgré sa mauvaise santé physique et psychique et son caractère difficile, c'est grâce à son talent et à la qualité de son enseignement qu'il a réussi à former à ses idées et à influencer toute une génération de physiciens.

    Malheureusement à mon avis, par la généralisation de ses concepts qui restent spécifiques à la ''mécanique'' des molécules, il a participé à l'orientation de la théorie atomique sur une ''mécanique statistique'' des particules atomiques, plutôt qu'à une disposition des particules élémentaires dans un milieu réel énergétique et ondulatoire. Nous en reparlerons plus loin. Fin de la remarque

     

    25) La thermodynamique. L'entropie. Le rayonnement thermique. Le quantum d'action.

    Boltzmann a également exercé une grande influence sur la thermodynamique par sa méthode statistique d'abord, mais aussi par son article de 1877 sur ''La relation entre le second principe de la thermodynamique et la théorie des probabilités, en rapport avec l'équilibre thermique''.

    << Dans cet article, Boltzmann a utilisé des arguments probabilistes et combinatoires pour conclure que la transition vers l'équilibre thermique et donc vers une augmentation de l'entropie, correspondait à une transition d'un état moins probable à un état plus probable. « L'état initial sera très peu probable dans la plupart des cas. Le système évoluera toujours de l'état le moins probable jusqu'à l'état le plus probable, c'est-à-dire vers l'équilibre thermique. En appliquant cela au second principe, nous pouvons identifier la quantité généralement appelée entropie avec la probabilité de cet état. » >>

    https://fr.wikipedia.org/wiki/Ludwig_Boltzmann#Biographie

    La thermodynamique est une branche de la physique très importante car elle étudie des phénomènes fondamentaux dans lesquels interviennent des échanges thermiques, et des transformations de l'énergie entre différentes formes. On peut donc l'aborder sous différents aspects et à différentes échelles. Elle traite des propriétés physiques des corps en liaison à leur température et à leur énergie. Elle va même jusqu'à s'appliquer à l'analyse de la structure de la matière.

    << La thermodynamique s'intéresse à des propriétés d'ensemble et non aux comportements individuels de chaque particule ou sous ensemble de particules. Il est donc nécessaire de créer et de raisonner sur des grandeurs macroscopiques, comme la température, la pression ou l'entropie, qui rendent cohérente la description macroscopique de la matière. >>

    << Le but de la thermodynamique est de caractériser la transformation de l’état d'un système entre un temps initial et un temps final, correspondant à deux états d'équilibre. Un système est en équilibre thermodynamique s'il est simultanément en équilibre thermique, mécanique et chimique>>

    https://fr.wikipedia.org/wiki/Thermodynamique

    Nicolas Léonard Sadi Carnot (1796-1832) physicien et ingénieur français édita en 1824 son livre ''Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance''. << Malgré l’imprécision de certains de ses concepts c'est à lui que l'on doit les bases d'une nouvelle science, aussi fondamentale du point de vue théorique que féconde en applications pratiques. Elle sera plus tard nommée ''thermodynamique'' par William Thomson. >> Wikipédia

    James Prescott Joule (1818-1889) physicien anglais, étudia la nature de la chaleur, et découvrit sa relation avec le travail mécanique. Ceci le conduisit à la théorie de la conservation de l'énergie (la première loi de la thermodynamique). Il  travailla avec Lord Kelvin pour développer l'échelle absolue de température. Il fit des observations sur la magnétostriction, et trouva une relation entre le courant électrique traversant un conducteur et la chaleur dissipée qu'il formula en 1841, appelée actuellement la loi de Joule.

    Rudolf Clausius (1822-1888) physicien allemand, introduisit vers 1850 la notion d'entropie en thermodynamique. Il effectua divers travaux sur les pressions et chaleurs spécifiques des gaz. On lui doit en particulier la relation liant les chaleurs spécifiques à pression et volume constants.

    L'entropie est une grandeur physique abstraite clarifiée en 1872 par la thermodynamique statistique de Ludwig Boltzmann. Elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux et capables de produire des effets mécaniques, et plus grande est la part de l'énergie libérée de façon incohérente, c'est-à-dire inutilisable pour l'obtention d'un travail. L'entropie définit l’état d'équilibre d'un système donné au niveau macroscopique par la ''formule'' et la ''constante'' de Boltzmann.

    William Rankine (1830-1872) ingénieur écossais, un des fondateurs avec Clausius et Thomson (lord Kelvin) de la thermodynamique. Il développa une théorie complète du moteur à vapeur (cycle de Rankine) et écrivit un manuel pratique d'engineering longtemps utilisé bien après sa mort. On lui doit la distinction entre énergie cinétique et énergie potentielle.

    William Thomson (Lord Kelvin) (1824-1907) physicien britannique, est reconnu pour ses travaux en thermodynamique. Il définit le ''zéro absolu'' comme correspondant à l'absence absolue d'agitation thermique et de pression d'un gaz. Il a laissé son nom à l'échelle de température. Il se heurta aux études de Maxwell sur l'éther : il se refusait à l'idée d'une propagation « transverse » sans propagation « longitudinale » dans ce milieu. Il a découvert en 1851 ''l’effet Thomson'' (thermoélectrique) qui décrit la relation entre un courant électrique (ou une tension électrique) et un flux de chaleur (ou un gradient thermique) au sein d'un matériau conducteur.

    Josef Stefan (1835-1893) physicien et mathématicien austro-hongrois, rédige plus de 80 articles scientifiques dont sa publication de 1879 sur le rayonnement du corps noir où il énonce la loi dite de Stefan-Boltzmann, car c'est son élève Ludwig Boltzmann qui en fournira la justification théorique. Cette loi définit la relation entre le rayonnement thermique d'un corps noir et sa température.

    Un corps noir est un objet idéal qui absorbe parfaitement (sans la réfléchir ni la diffuser) toute l'énergie lumineuse qu'il reçoit, quelle que soit la longueur d'onde. Cette absorption provoque l'émission d'un rayonnement thermique, dit rayonnement du corps noir. Le rayonnement thermique est un des mécanismes principaux de transfert de chaleur avec la conduction thermique et la convection.

    Wilhelm Wien (1864-1928) physicien allemand. En utilisant les lois de la thermodynamique, il formula en 1893 la ''Loi du déplacement'' selon laquelle la longueur d'onde à laquelle un corps noir émet le plus de flux lumineux énergétique est inversement proportionnelle à sa température. En 1896, sa ''Loi du rayonnement'' décrit la variation d'intensité du rayonnement thermique du corps noir avec la longueur d'onde.

     Il s'agit d'une formule empirique issue de faits expérimentaux mais alors inexpliquée théoriquement. Si les prédictions théoriques de cette loi coïncident bien avec les résultats expérimentaux pour les hautes fréquences (faibles longueurs d'onde), elles s'en écartent par contre assez rapidement pour les basses fréquences (longueurs d'onde élevées).

    John William Strut (Lord Rayleigh) (1842-1919) physicien britannique, conduisit des recherches en optique, sur tous les phénomènes ondulatoires et particulièrement en spectroscopie. Il travailla avec le physicien, astronome et mathématicien britannique James Jeans (1877-1946) sur le rayonnement du corps noir. En utilisant une approche mathématique en mécanique statistique ils établirent une loi théorique sur la répartition de l'énergie rayonnée par le corps noir en fonction de la longueur d'onde.

    Cette loi valable pour les grandes longueurs d'onde se révéla expérimentalement fausse pour les hautes fréquences (faibles longueurs d'ondes). En effet cette loi conduirait pour les hautes fréquences à ce que la cavité du corps noir contienne une densité d'énergie infinie. Cela a été exprimé sous le nom de ''catastrophe ultraviolette''.

    Max Planck (1858-1947) physicien allemand s’intéressa dès 1894 à la thermodynamique et en particulier au rayonnement électromagnétique du corps noir, en adoptant la méthode statistique de Boltzmann. En tenant compte des formules et des lois empiriques de ses prédécesseurs, il réussit à trouver une loi de rayonnement totalement en accord avec les mesures expérimentales.

    Pour expliquer sa loi qui date de 1900, Plank a dû admettre que l'émission, la transmission et la réception de la lumière, et plus généralement du rayonnement électromagnétique, au lieu de se faire en continu, se réalisent de manière discrète, par ''quantum'' d'énergie.

    Pour que l'ensemble des lois précédentes (de Stefan-Boltzmann, de Rayleigh-Jeans, et de Wien) se conforment à l’expérimentation, Plank a dû supposer que l'énergie transportée était constituée de ''paquets'' de multiples entiers d'une quantité minimale dite ''quantum'' d'énergie (quanta au pluriel) ou quantum d'action dont l'énergie est proportionnelle à sa fréquence :

     E = h ν

    ''h'' est une nouvelle constante universelle, aujourd'hui appelée constante de Planck. Cette constante vaut : h = 6,626.10-34 joule.s

     ''ν'' (nu) est la fréquence du rayonnement.

    D'après cette hypothèse quantique introduite par Planck, un oscillateur de fréquence  ''ν'' ne peut prendre que des états d'énergie discrets multiples de'' hν'', et ne peut être excité qu'à partir d'une énergie minimum'' hν''. Plank a eu du mal à accepter sa propre hypothèse qui rend l'énergie discontinue car il n'en maîtrisait pas l'interprétation physique. C'est par la suite Einstein qui contribuera à étayer cette hypothèse qui va révolutionner la physique comme nous le verrons en deuxième partie de notre historique.

     

    Remarque de la physique des ondes

    A partir de trois lois, établies à partir de données expérimentales, qui régissent un même problème (le rayonnement thermique sur la matière) dans deux cas particuliers (haute et basse fréquence), Max Plank a réussi, par un astucieux rapprochement des données variables, à établir une équation qui gère l'ensemble du problème. Il se trouve que ce quantum de mouvement minimum, loin d’être un artefact, est révélateur d'un phénomène général beaucoup plus important qui va être le point de départ d'une nouvelle conception de la physique. Nous étudierons cette physique dite ''quantique'' dans une deuxième partie de notre historique.

    Pour la physique des ondes, la notion de quantum de mouvement correspond bien à une réalité. Dès le début de mon étude, j'ai en effet adopté la thèse de J.J.Micalef concernant la ''substance de l'espace'' et j'ai fait mienne son idée que le quantum de mouvement minimum serait une des propriétés importantes de cette substance. Voici à nouveau l'adresse du site de J.J.Micalef que je vous recommande de consulter :

    http://lesnouveauxprincipes.fr/physique/3-des-nouvelles-proprietes-de-lespace

    Concernant la thermodynamique, je vous invite à lire dans mon blog ''paulpb eklablog.fr'' le chapitre N°3 ''Notions de thermodynamique'' de la rubrique N°20 ''Bases physiques de la bio-économie – Notions de thermodynamique'', vous y trouverez plus d'informations sur le sujet.

    Fin de la remarque

     

    26) Les rayons cathodiques. Les rayons X. L'électron.

    Avant de parvenir aux prémices de la physique quantique il nous faut terminer l'étude de la physique classique dans la dernière décennie du 19ème siècle. En effet, dans cette période, la théorie atomique est loin de faire l'unanimité des scientifiques. L'atome et la particule élémentaire demeurent des inconnus. La découverte de l'électron va faire bifurquer la physique.

    Michael Faraday (1791-1867) physicien et chimiste britannique déjà cité pour ses travaux sur l'induction électromagnétique a été l'un des principaux fondateurs de l'électrochimie en tant que discipline scientifique. En 1833, il introduit les termes d'anode, de cathode, d'anion, de cation et d'ion (sans que l'on sache à cette date, déjà parler de courant électrique).

    << En 1838, Michael Faraday fit passer un courant électrique au travers d'un tube de verre contenant de l'air raréfié et nota qu'un étrange arc lumineux se produisait commençant à l'anode et finissant à la cathode. Le seul endroit dans lequel il n'y avait pas de luminescence se situait juste en face de la cathode, et fut appelé « espace sombre de la cathode ». >> Wikipédia

    << Il fut bientôt connu que lorsqu'une tension est appliquée à de l'air raréfié, de la lumière est produite... Lorsque la cathode est chauffée, elle émet une radiation, qui voyage jusqu'à l'anode. Si les parois internes du verre se trouvant derrière l'anode sont recouvertes avec un matériau phosphorescent les rayons incidents induisent un scintillement...

    L'existence de ces ''rayons cathodiques'' fut initialement mis en évidence, lors des premières études dans les tubes à vide, en plaçant une plaque de métal entre les électrodes qui projetait une ombre sur la surface phosphorescente. Cela laissait penser que la cause de l'émission de lumière était imputable à des rayons émis par la cathode frappant l'enduit phosphorescent. Ces rayons se propagent jusqu'à l'anode et continuent au-delà en ligne droite sur une certaine distance. Ils sont déviés par les champs magnétiques, aimants ou électrodes à haute tension placés en dehors du tube à vide. >> Wikipédia

    William Crookes (1832-1919) chimiste et physicien britannique a donné son nom à la technique des tubes de Crookes, qui ont ouvert la voie aux tubes cathodiques, à la technologie des tubes électroniques et à la découverte des rayons X. En 1880 il montra que les rayons cathodiques ne sont pas constitués d'ondes de type lumière (OTL) mais d'un flux de particules électriquement chargées appelés maintenant ''électrons'' (OEM d'après la physique des ondes).

    Philipp von Lenard (1862-1947) physicien allemand réussit à ajouter aux tubes de Crookes des plaques de métal faisant ressortir ces rayons du tube, ce qui lui a permis de les étudier. Il fut bientôt compris que les rayons cathodiques étaient constitués en fait de porteurs d'électricité (particules) appelés électrons. Le fait que ce soit la cathode qui émette les rayons montra que ces électrons ont une charge négative.

    Wilhelm Röntgen (1845-1923) physicien allemand étudia en 1895 le phénomène du passage d'un courant électrique à travers un gaz sous basse pression comme l'avaient fait antérieurement Crookes, Hertz et Von Lenard. En plaçant un objet entre la source de rayonnement cathodique et une plaque photographique, il obtint une image de cet objet, cette image était plus ou moins nette suivant la perméabilité de l'objet aux rayons. Il constata que les nouveaux rayons qui frappent la plaque photographique sont produits par l'impact des rayons cathodiques sur un objet matériel. Parce que leur nature est encore inconnue, il leur donna le nom de « rayons X ». Wikipédia

    En 1895 Röntgen publia sa découverte dans un article intitulé « À propos d'une nouvelle sorte de rayons ». Il tira quatre conclusions dans son article :

    * Les rayons X sont absorbés par la matière ; leur absorption est fonction de la masse atomique des atomes absorbants ;

    * Les rayons X impressionnent la plaque photographique ;

    * Les rayons X déchargent les corps chargés électriquement ;

    * Les rayons X sont diffusés par la matière ; c'est le rayonnement de fluorescence .

    Ce dernier rayonnement de fluorescence est la ré-émission par un matériau des rayons X qu'il a chargé. Il est utilisé pour connaître certaines caractéristiques de ce matériau. L'explication de ceci viendra lors de la prochaine étude des électrons dans l'atome.

    Antoine Henri Becquerel (1852-1908) physicien français découvrit la radioactivité en 1896 de manière inattendue, alors qu'il faisait des recherches sur la fluorescence des sels d'uranium. Il se rendit compte que ce matériau émet son propre rayonnement sans nécessiter une excitation par de la lumière. Avec les époux Curie, nous parlerons de la radioactivité dans la deuxième partie de notre historique. Nous étudierons également leur théorie moderne du magnétisme.

    Joseph John Thomson (1856-1940) physicien britannique, en effectuant une série d’expériences sur les rayons cathodiques, découvre qu'ils sont constitués de charges négatives qui ne peuvent pas être séparées de leur rayonnement par magnétisation. Thomson détermine le rapport (e/m) de la charge à la masse des rayons cathodiques en calculant leur énergie cinétique et en mesurant la déviation des rayons sous l'influence d'un champ magnétique.

    Il ressort de ces expériences que les dit rayons cathodiques, par comparaison avec un ion hydrogène sont composés de particules hautement chargées  (et) (ou) très légères (le rapport (e/m) est mille fois plus élevé pour les particules cathodiques que pour l'ion). Thomson imagine alors que ces particules proviendraient des électrodes qui seraient constituées d'un modèle d'atome (plum-pudding) contenant ces particules négatives dans une mer de particules positives.

    Prouvée expérimentalement par Thomson, la découverte de l'électron est annoncée en avril 1897 devant la Royal Institution. Elle fait sensation dans le monde scientifique. En fait l'existence des électrons avait été prédite dès 1874 par George Stoney (1826-1911) physicien irlandais qui avait conçu et calculé la grandeur d'un « atome d'électricité » ou d'une « particule d'électricité », pour laquelle il avait déjà inventé le terme d'électron.

     Le congrès international de physique de Paris en 1900 consacre l'existence de ces corpuscules subatomiques baptisés officiellement ''électrons''. Nous verrons dans une deuxième partie de cet historique qu'en ce début de siècle tout reste à découvrir, non seulement ce qui concerne les particules élémentaires mais aussi au sujet de la théorie atomique qui est encore très contestée.

     

    27) L'énergie électrique. Les atomistes et les énergétistes.

    Nous voici arrivé dans les toutes dernières années du 19ème siècle avec la découverte d'une particule qui, à partir d'un matériau parcouru par un courant électrique, émet un rayonnement électromagnétique. Reste à déterminer l'origine et la nature de ces particules, à comprendre leur processus de fonctionnement et d'action, leur rôle dans une possible théorie atomique, ainsi que dans le transport et la circulation de l'énergie. Ce sera le travail des scientifiques au 20ème siècle que j'espère pouvoir décrire dans une deuxième partie de cet historique.

    Nous ne pouvons quitter ce 19ème siècle sans parler de la révolution scientifique technique et sociétale provoquée dans la dernière décennie du siècle par la production, le transport et l'utilisation de cette nouvelle énergie dite électrique. La civilisation et même la philosophie en ont aussi été marquées.

    Zénobe Gramme (1826-1901) inventeur belge, menuisier puis électricien, imagine un régulateur de tension pour les lampes à arc puis, travaillant avec Ruhmkorff, en 1868 il améliore la dynamo à courant continu inventée par le physicien italien Antonio Pacinotti (1841-1912). C'est le point de départ de l'industrie électrique moderne.

    En 1881, la France organise une Exposition internationale d'Électricité ainsi qu'un « Congrès international des électriciens » et consacre ainsi la naissance de l'électrotechnique. La grande nouveauté est l'emploi industriel de la dynamo de Gramme.

    Les machines électriques produisant une énergie mécanique à partir d'une énergie électrique sont communément appelées des moteurs. Celles qui produisent du courant électrique à partir d'une énergie mécanique sont des génératrices, dynamos ou alternateurs suivant la technologie utilisée.

    Thomas Alva Edison (1847-1931) inventeur scientifique et industriel américain (Edison Electric Light Co) présente en 1879 la première lampe électrique à incandescence (avec filaments de carbone) qui reste allumée 45 heures. Elle est d'un usage possible dans les intérieurs, alors que la lumière électrique avec les lampes à arc était trop puissante.

    Edison, fondateur de la General Electric en 1892, l'une des premières puissances industrielles mondiales, fut un inventeur prolifique (plus de 1000 brevets). Pionnier de l'électricité, diffuseur, vulgarisateur, il fut également un des principaux inventeurs du cinéma et de l'enregistrement du son.

    Marcel Deprez (1843-1918) ingénieur français, a mené en France de 1876 à 1886 les premiers essais de transport d'électricité en courant continu sur de longues distances.

    Lucien Gaulard (1850-1888) chimiste et ingénieur français, est l'inventeur en 1882, en liaison avec John Dixon Gibbs (1834-1912), d'un transformateur qui permet de transporter l’énergie électrique en courant alternatif à haute tension et grande distance, ce que ne permet pas le courant continu.

    Nikola Tesla (1856-1943) ingénieur américain d'origine serbe est renommé pour ses inventions dans le domaine de l'énergie électrique. Son rôle a été essentiel dans le développement et l'adoption du courant alternatif pour le transport et la distribution de l'électricité. Il a mis au point en 1887 les premiers alternateurs permettant la naissance des réseaux électriques de distribution en courant alternatif, dont il est l’un des pionniers. Il imagine en 1890 le premier montage produisant un courant à haute fréquence, dans le domaine de la radioélectricité.

    George Westinghouse (1846-1914) ingénieur et industriel américain, fonde en 1869 la Westinghouse Air Brake Company (WABCO) pour exploiter son brevet de frein pneumatique. Ami de Tesla dont il utilise les brevets, il fonde en 1886 la Westinghouse Electric Corporation et obtient face à Edison (alors partisan du courant continu) d'importants contrats d'installation de réseaux électriques en courant alternatif pour plusieurs villes américaines.

    Mikhaïl Dolivo-Dobrovolsky (1861-1919) électricien russe, est l'inventeur en 1888 du premier moteur asynchrone à courant triphasé à cage d'écureuil qui prendra le pas sur les générateurs de courants alternatifs biphasés et de courant continu. Travaillant chez AEG, entreprise allemande d'électricité générale de matériel roulant ferroviaire et industriel, il a été chargé, pour le Salon international de l'électricité de 1891 à Francfort, de réaliser la première ligne à haute tension allemande. L’électricité, produite dans une centrale thermique de Lauffen am Neckar, était acheminée à 175 km de là par une ligne à haute tension pour alimenter la cascade lumineuse et le hall de l'exposition. (1000 lampes électriques). Ce succès public marque les débuts de l'électrification générale de l'Empire allemand par le courant alternatif.

    En 1884 : premières voitures électriques.

    En 1888 : première installation de funiculaire à câble avec moteur électrique dans les Alpes Suisse.

    En 1888 : premiers sous-marins électriques.

    En 1890 : première locomotive électrique de métro à Londres

    En 1890 et + : installation de métros dans les capitales et de tramways dans les villes importantes.

    En 1899 : premier chemin de fer suisse entièrement électrifié.

    En 1900 : une voiture sur trois est électrique, (avec batteries d'accumulateurs).

    Ces installations de production et de transport du courant alternatif sous haute tension ont permis de distribuer progressivement l'énergie électrique dans toutes les villes et les industries sur tout le territoire des pays du monde entier entraînant une véritable révolution sociétale. Après l'implantation des machines à vapeur et des usines à gaz, l'électricité a aussi réalisé une deuxième révolution industrielle.

    Mais ces révolutions énergétiques apparues dans cette dernière décennie du 19ème siècle ne se sont réalisées que progressivement. Il a fallu 20 ans pour que les citadins puisse en profiter, 30 ans pour les ruraux. Ce sont les industriels, avec la collaboration et les brevets des scientifiques, qui ont pris le risque du choix des processus expérimentaux et des réalisations. Ils ont ainsi permis les avancées spectaculaires des applications de la science en cette fin du 20ème siècle. Quant aux scientifiques, il leur a fallu s'approprier toutes ces nouvelles orientations d'une science qui avance dans de multiples directions et qui les oblige à se spécialiser, les privant ainsi d'une vision théorique plus générale comme l'avancement de la théorie atomique par exemple. Celle-ci, en cette fin de siècle, semble n’intéresser que très peu les universités européennes.

    Les Universités et écoles ont à charge d'enseigner le tout nouvel électromagnétisme, les phénomènes thermodynamique découverts, la révolution chimique due à l'analyse spectrale, la théorie bizarre du quantum d'énergie. Elles doivent trouver des explications aux rayonnements ionisants et prendre partie sur une théorie atomique de plus en plus prégnante, mais très disputée.

    Il restait également de grosses questions et des lacunes à combler, pour satisfaire les esprits scientifiques. On peut citer par exemple l'existence d'un éther, la nature des dits atomes et des éventuelles particules, la nature des relations chimiques, la nature qui reste discutée de la lumière et des ondes dites électromagnétiques, la nature même de la matière et de l'énergie.

    C'est ce dernier point que j'ai choisi pour terminer cette première partie de l'histoire de la physique avant de passer au siècle suivant dans une deuxième partie. Cette question sur la nature de l'énergie a en effet été très débattue en cette fin de siècle entre ''atomistes'' et ''énergétistes''.

    Revenons donc à Boltzmann, au succès de son enseignement de la théorie cinétique des gaz et de la mécanique statistique des molécules. Il était un fervent partisan de la théorie atomique et il a pensé transposer au niveau des atomes et des particules élémentaires  (électrons)  cette  mécanique  statistique qui  a  fait  sa  forte  réputation (voir le chapitre N°23).

    Mais il s'est heurté à de nombreux physiciens anti atomistes et en particulier aux conceptions des physiciens dits ''énergétistes'' comme Helmholtz, Ernst Mach et surtout Friedrich Ostwald.

    Hermann von Helmholtz (1821-1894) physicien, médecin et philosophe allemand avait de vastes connaissances scientifiques qui ont permis des avancées scientifiques dans plusieurs domaines et en particulier en thermodynamique, mécanique des fluides et physiologie. En tant que philosophe, il est connu pour sa philosophie des sciences, ses idées sur la relation entre les lois de la perception et les lois de la nature et ses idées sur le pouvoir civilisateur de la science. Il partageait aussi les idées philosophiques d'Ostwald concernant la ''physique de l'énergie''.

    Friedrich Wilhelm Ostwald (1853-1932 chimiste germano-balte, dans sa ''Lettre sur l'énergétisme'' de 1895, interprète la chimie et la physique en terme d'énergie sur la base des deux principes de la thermodynamique. Il proclame que le concept de ''Matière'', lié à une interprétation mécaniste de la nature, est périmé. Voici quatre extraits de cette publication :

    « Il est impossible de définir les concepts de Lumière ou d’Électricité par celui de ''Matière'', car ils possèdent un caractère immatériel. Mais on peut les définir au moyen de ''l’Énergie'', car la lumière et l'électricité sont des modes ou facteurs de l'énergie. »

    « Finalement le problème des sciences physiques consiste à ramener tous les phénomènes naturels à des forces invariables, attractives et répulsives dont l'intensité dépend de la distance des centres d'action. La possibilité de comprendre parfaitement la Nature est subordonnée à la solution de ce problème... »

    « La matière est l'une des multiples manifestations de l'énergie, mais la matière séparée de l'énergie n'est plus rien.... C'est aux propriétés et aux relations énergétiques qu'on ramène tous les phénomènes, et on doit définir la Matière en partant de l’Énergie. »

    « l’énergie est à la fois la plus générale des substances et le plus général des accidents. Elle est la réalité tandis que la matière est une invention »

    Ostwald se fixe pour programme de détrôner la matière comme composante fondamentale du monde au profit de l'énergie. Ce terme possède des significations différentes suivant les époques et suivant le domaine d'étude dans lequel il est employé. En cette fin du 19ème siècle et dans les ''disputes'' entre physiciens atomistes et énergétistes, il s'agit bien pour tous d'une définition basée sur les lois de la thermodynamique énoncées récemment par Boltzmann, Carnot et Clausius, et qui est bien la même que celle de ces énergétistes-philosophes Helmholtz, Mach et Ostwald.

    << En science physique, l'énergie, mesurée en joules dans le système international, est une mesure de la capacité d'un système à modifier un état, à produire un travail entraînant un mouvement, un rayonnement électromagnétique ou de la chaleur....Le travail est ainsi un transfert ordonné d'énergie entre un système et le milieu extérieur, tandis que la chaleur est un transfert désordonné d'énergie entre ces deux mêmes systèmes. >> Wikipédia

    Boltzmann était un partisan déterminé de la théorie atomique et, nous l'avons vu, le fondateur de la mécanique statistique qu'il voulait appliquer au concept de l'atome et de ses particules. Il était vivement opposé aux idées philosophiques d'Oswald et de Mach.

    << En 1895, lors d'un congrès à Lübeck, Wilhelm Ostwald présente une conférence intitulée ''Au-delà du matérialisme''. Boltzmann prend vigoureusement la parole pour contrer les thèses "énergétistes" du conférencier.... Arnold Sommerfeld qui assiste à l'échange, comparera plus tard cette rencontre à une corrida. >> Wikipédia

    Des études qui ont été faites de ces échanges entre physiciens-philosophes, il ressort la conviction que Oswald s'était opposé à Boltzmann plus sur son concept de ''mécanique statistique'' que sur la théorie atomique, qu'il a d'ailleurs rejoint par la suite. La philosophie des énergétistes est en fait une dérivée de la philosophie moniste.

    << Le Monisme est une position philosophique qui affirme l'unité indivisible de l'être. Dans son expression moderne, il soutient l'unicité de la substance qui compose l'univers. L'unité fondamentale du cosmos ou de l'univers y rend la matière et l'esprit indissociables.

    L'énergétisme est une théorie physique adossée à la philosophie selon laquelle toute réalité est énergie. Les processus physiques et mentaux sont même interprétés comme des échanges d'énergie, l'énergie étant la véritable forme de la matière....

    Aujourd'hui, le terme ''énergétisme'' n'a plus la faveur des physiciens, mais certains développements de la physique moderne semblent néanmoins militer pour une réhabilitation de l'énergétisme comme méthode strictement scientifique. Ce sont par exemple la notion d'équivalence de la masse et de l'énergie en relativité restreinte, ou l'aspect ondulatoire de la matière qui s'exprime dans les formules de De Broglie et sur laquelle s'appuie toute la mécanique ondulatoire de Schrödinger. >> Wikipédia

     

    Remarque de la physique des ondes

    De par ses hypothèses de base, la Physique des ondes participe à cette réhabilitation de l'énergétisme et s'oppose vivement au concept de Boltzmann de mécanique statistique pour tout ce qui concerne l'atome et la particule élémentaire de base qui est pour nous l'électron.

    Il ne m'est pas possible ici de ré-exposer l'ensemble des hypothèses qui sont à la base de la physique des ondes. Elles le sont en détail dans les premiers chapitres de mon blog ''paulpb eklablog.fr'' ''Essai d'une nouvelle physique'', et en rappel dans plusieurs des rubriques qui suivent ainsi que dans l'accueil de ce nouveau blog. Ces hypothèses sont en contradiction avec l'aspect mécanique de la théorie quantique actuellement en cours. Elles orientent entièrement la physique sur une théorie quantique ondulatoire, et donc sur une physique théorique basée sur l'énergie universelle.

    En ce qui concerne l’aspect philosophique qui est celui du Monisme, je vous recommande de lire le blog indiqué, au chapitre N°9 rubrique N°18 intitulée ''De l'anthropologie structurale au Monisme''.

    Voici trois extraits de mon texte :

    << En philosophie, le monisme est un système de pensée et une doctrine défendant la thèse selon laquelle tout ce qui existe, (l'univers, le cosmos, notre monde) est essentiellement constitué d'une seule substance qui est soit la matière (matérialisme), soit l'esprit (spiritualisme). Le monisme s'oppose à toutes les philosophies dualistes, platonicienne et cartésienne, qui séparent le monde matériel ou physique du monde psychique ou spirituel.

    La position de la physique des ondes est un peu particulière, elle a pour base principale une conception moniste qui est celle de la substance de l'espace (S.E.) (voir le chapitre N°2 du blog). On ne peut qu'imaginer l'existence de cette substance, mais celle-ci est obligatoire pour la conduction des ondes qui, selon la thèse de J.J. Mikalef, sont faites de cette substance et circulent dans celle-ci.

    Dans notre physique des ondes nous avons vu que, pour l'électron particule élémentaire, c'est l'onde transversale dite ''de structure'' qui donne à l'onde énergétique (c'est la même), en la faisant tourner (spin), sa cohérence et sa forme. L'électron est donc le premier élément organisé qui réunit en un tout cohérent une énergie polarisée et un début de structure. Peut-on dire que c'est réellement de la ''matière'' ? >>

    Fin de la remarque

     

    CONCLUSION DE LA PREMIÈRE PARTIE

    Il est temps de quitter la physique classique avant l'arrivée du nouveau siècle (le 20ème). 1900 est aussi une grande date pour les sciences car il s'agit d'un réel tournant, à tous les points de vue.

    En réalisant cet historique, et en prenant contact avec la vie et l’œuvre de tous les scientifiques que j'ai cités, j'ai pu constater que, malgré la différence des nationalités et des thèmes d'études, il existait à cette époque des liens scientifiques entre les universités européennes et entre les chercheurs. J'ai vu la naissance de LA SCIENCE dans toute la diversité de ses configurations et à toutes les échelles connues. Évidemment, l'échelle atomique n'est pas encore au point en 1900, mais elle est bien abordée, car avec l'électron, certains physiciens pensent avoir mis un pied dans l'atome, sans pouvoir encore déterminer la nature et le rôle interne de cet électron.

    La deuxième partie de l'historique que j'envisage (de 1900 à 1930) sera pour moi plus difficile à réaliser, car la science de cette période est plus complexe et plus diversifiée, sans doute moins accessible et peut-être même impénétrable. Je sais également que mes hypothèses de base vont faire diverger mes idées d'avec les ''standards'' admis, et qu'il me faudra multiplier les ''remarques''.

    Mon cerveau est aussi de plus en plus lent vu mon âge qui va sur les 95 et qui n'en finit plus d’avancer. Mais j'ai la chance d'avoir encore une santé convenable ce qui est très appréciable et indispensable à la réflexion.