Neagu Gheorghe

| L'expérience de tonnerre, a découvert la nature de gravité dans l'arc électrique | L,energie de la terre | Etude | Critique |

| Le fluen | La structure de la matière |  Moteur fluenique | Electricite | Maison | Univers | Difference | Lettre |

| L'esprit de la gravitation | La coherence de l'existence | Mondo |

La matière – nœud de l’infini?

MODELE ATOMIQUE ET NUCLEAIRE

HYPOTHESE

Historique: L’atome, dans sa petitesse, doit contenir les réponses à une infinité de questions. Au fond qu’est-ce que la gravitation? Quelle en est la nature, la cause? Analysant les mouvements de la Lune autour de la Terre, Newton écrivait: „Jusqu’à présent on a nommé force centripète, les forces avec lesquelles les corps célestes sont maintenus sur leurs orbites. Mais on constate qu’elle est la même chose que la gravitation (le poids) et c’est pourquoi on l’appellera dorénavant GRAVITATION."Dans l’image 1 on a représenté la Terre et son satellite naturel – la Lune. Les explications du fonctionnement de ce système nous conduisent à de nouvelles questions: Quelle est la nature, la cause de la force centripète? Mais celle de la force centrifuge? Ces forces, ont-elles quelque chose de commun? S’agit-il du même phénomène? On y parle de mouvement d’inertie. Comment peut-on expliquer le phénomène du mouvement d’inertie? Probablement, ces questions tourmentaient Newton aussi, quand il disait: „Jusqu’à présent j’ai exposé les phénomènes des cieux et de notre mer, mais je n’ai pas encore trouvé la cause de la gravitation. Cette force naît d’un certain esprit qui pénètre jusqu’au centre du Soleil et des planètes. Mais je n’ai pas encore pu apprendre la cause de ces propriétés et n’imagine pas d’hypothèses."Et les questions continuent. Qu’est-ce qu’on sait sur la nature du champ électrique (l’image 2)? Peut-on généraliser ce phénomène au niveau de n’importe quelle particule matérielle? Pourquoi? Les lignes de champ sont continues ou discontinues. On peut poser les mêmes questions en ce qui concerne le phénomène magnétique (l’image 3). Les lignes de champ d’un aimant appartiennent-elles au corps magnétique, c’est-à-dire une sorte de „moustaches" prolongées en espace? C’est difficile d’imaginer un tableau tout grain matériel possède de tels prolongements à l’infini. Si l’on considère une forme matérielle dans l’univers, qui puisse être influencée comme une disposition de causes propres aux particules matérielles, les champs électriques et magnétiques pourront acquérir un sens logique. On connaît qu’en chimie les atomes réagissent d’une manière spécifique, par rapport à leur valence, et on peut en prévenir le résultat. De plus, on peut prévoir aussi la forme spatiale de la résultée (l’image 4). Cela veut dire que la valence, les points de relation ont une topographie spécifique à chaque élément. Donc, l’emplacement de ces points sur la surface des atomes, n’est pas accidentel. Comment explique-t-on la stabilité et la topographie spécifique des points de liaison sur la surface des atomes de chaque élément ?

ETHER

Se rapportant à l’ordre de la nature, le philosophe grec Aristote (335 a.n.è.) reprend le système des 4 éléments superposés: le feu, l’air, l’eau et la terre, pour la sphère sous-lunaire, auxquels il ajoute le cinquième: "la quintessence": l’éther, pour les régions supérieures. Il est possible que sous cette influence, la notion d’éther ait servi aussi comme intermédiaire des interactions de gravitation. En 1801, 100 ans après la dispute entre Newton et Huygens concernant la nature corpusculaire, c’est-à-dire la nature ondulatoire de la lumière, le physicien anglais Thomas Young et Augustin Fresnel, physicien français, sont obligés par leurs études de revenir à la théorie ondulatoire de la lumière, élaborée par Huygens par analogie à la théorie des ondes sonores. Comme les ondes sonores ont comme milieu modulé l’air, de nature matérielle, Huygens suppose que les ondes lumineuses qui se propagent même dans le vide, modulent l’éther cosmique, toujours de nature matérielle, qui existe partout et qui pénètre dans tous les corps. Fresnel approfondit beaucoup les recherches concernant les propriétés de l’éther et dans ce sens, il a imagé et a fait des expérimentations qui ont attiré d’autres physiciens aussi vers l’étude de ce fluide. Pour la première fois en physique, Faraday a introduit l’idée selon laquelle le champ électrique et le champ magnétique sont des entités matérielles et l’énergie de ces champs consiste dans la propriété de se déformer de l’éther électromagnétique. Se rapportant au champ magnétique, au champ électrique et à l’éther de la lumière avec ses propriétés contredites – rigidité infinie et élasticité infinie – Maxwell montre qu’un éther unique mais enveloppé encore dans le mystère, était suffisant dans tous les trois cas. Dans ce sens, Maxwell a apporté sa contribution, établissant ses célèbres équations électromagnétiques qui lui ont dévoilé d’abord théoriquement l’existence des ondes électromagnétiques, que le physicien allemand H. Hertz a mises en évidence expérimentalement. Toujours par le calcul, on est arrivé à la conclusion que la vitesse de propagation des ondes électromagnétiques dans le vide est égale à la vitesse de lalumière.Ainsi, on a réalisé la synthèse à laquelle Maxwell s’était rapporté, celle d’un éther unique, siège des phénomènes électriques, magnétiques et lumineux. L’éther reste pourtant présent, mais cette fois-ci il reste à l’ombre de l’électromagnétisme, comme phénomène catalyseur. Les essais d’élaborer un modèle unique pour l’éther, en vue de dévoiler intuitivement les phénomènes électromagnétiques sont restés sans résultat, malgré les efforts de Maxwell et d’autres physiciens. En 1880, il y avait en Europe la dispute entre deux groupes de physiciens, concernant l’entraînement ou le non entraînement de l’éther par la Terre dans son mouvement orbital, ayant pour but la détermination d’un point fixe dans l’univers. Pour clarifier ce phénomène, on avait imaginé une expérimentation, par des mesurages exacts des vitesses de propagation du rayon de lumière émis et réfléchi à deux directions, l’une dans le sens du déplacement orbital de la terre, l’autre perpendiculaire à cette direction. Les longueurs des deux bras étant identiques, les conditions de propagation par l’éther à deux directions devaient montrer ou pas une différence de temps au retour des deux rayons. Bien qu’on n’entrevît pas la possibilité de réaliser cette expérimentation, à la précision nécessaire, il a été quand- même effectué, en 1881, par le jeune officier de la marine américaine, le physicien A. Michelson. Etant en permission en Europe, passionné et particulièrement adroit à mesurer la vitesse de la lumière, Michelson fait les croquis d’un interféromètre nécessaire à mesurer les franges éventuelles d’interférence et après la réalisation et l’installation du dispositif, il fait l’expérimentation, avec un résultat négatif. Il n’a jamais existé de différences significatives entre les rayons qui ont parcouru les deux bras de l’interféromètre. L’espoir de mettre en évidence un milieu envers lequel on puisse mesurer la vitesse absolue de la terre s’était envolé. Le physicien Hendrik Anton Lorentz, malgré le résultat négatif de l’expérimentation, reste convaincu que l’éther est parfaitement immobile et sur cette base il élabore durant 5 années, sa célèbre théorie électronique, où l’on retrouve les équations fondamentales de Maxwell comme un cas particulier. Les démonstrations mathématiques de Lorentz mettent en évidence le fait que l’expérimentation de Michelson, quelque précisément qu’il l’ait exécuté, ne pouvait enregistrer une différence de vitesse entre les deux faisceaux, même si celle-ci avait existé. ce qui est de l’éther, Lorentz énonce: "L’éther est toujours et partout immobile. Il n’est pas un fluide avec des qualités matérielles (densité, élasticité); c’est l’espace vide dont les propriétés purement électromagnétiques sont décrites par les équations de Maxwell, admises comme axiomes." De cette façon, l’hypothèse de l’éther est pratiquement éliminée des préoccupations des physiciens. Revenant aux éléments d’Aristote (image 5) appelons-les milieux et considérons deux aspects de ces milieux. Premièrement l’aspect de la stabilité, ou de l’instabilité de ces milieux. La terre, la terre ferme, a comme instabilité les mouvements séismiques qui se propagent sous forme d’ondes élastiques, le milieu modulé étant l’écorce terrestre. Le deuxième milieu, l’eau, a comme instabilité les mouvements de la masse liquide, avec l’aspect caractéristique de surfaces, les vagues, qui ont un caractère ondulatoire aussi. Le milieu suivant, le milieu atmosphérique a lui aussi une perturbation, caractéristique, sous forme d’ondes acoustiques, le milieu modulé étant l’air. Enfin, on ignore le feu et on constate que l’ether, le milieu cosmique, est infini et l’on connaît mois ou point. Pourtant, c’est à lui que l’on doit attribuer comme instabilité le spectre électromagnétique (image 6). L’autre aspect de ces milieux est la connaissance de l’emploi de leurs propriétés, dans le domaine des transports. Comme traits généraux, on constate que chacun de ces milieux a été conquis au début par des moyens rudimentaires, puis après beaucoup de variantes, l’on arrive aux appareils de performances. Si, sur la terre et sur l’eau, entre le début et la performance, des milliers d’années sont passées, il a fallu moins d’un siècle au milieu atmosphérique. Le milieu terrestre, la terre ferme, est le milieu pour lequel on a inventé la roue (image 7). Après des milliers d’années, la roue est devenue automobile, à moyens de propulsion et de manœuvre correspondants à ce milieu "le chemin". Si l’automobile pouvait être envoyée à l’époque de l’inventeur de la roue, elle aurait apparue comme objet surnaturel. Le milieu aquatique a eu probablement pour premier moyen de transport la pirogue, un tronc d’arbre creusé où l’on asseyait un ou plusieurs canotiers (image 8). Le bateau, la machine de performance, a des moyens de propulsion et de manœuvre, de principes différents à ceux de l’automobile, l’eau étant le milieu qui a imposé scientifiquement ces moyens. Quelle impression aurait fait un bateau envoyé après des millénaires sous les regards des canotiers en pirogue?Les premiers moyens de transport de l’atmosphère relèvent la tendance de prendre certains éléments de propulsion des moyens des autres milieux, où ils étaient efficaces. D’ailleurs, certains types de bateaux employaient aussi comme moyen de propulsion la roue aux pales, prise des moyens terrestres, pour que le ballon reprenne ensuite, pour nacelle, la forme du navire et les rames pour moyen de propulsions (image 9). Si le ballon a été "la pirogue" du milieu atmosphérique, l’avion à réaction en est la machine de performance. De cette famille d’appareils, d’est détachée la fusée, qui a quitté l’atmosphère et a pénétré dans l’éther, dans l’espace cosmique. Mais, selon la manière dont on a conquis les autres milieux, il est facile à remarquer qu’en fait la fusée est "la pirogue" de l’espace cosmique (image 10). Alors, comment pourrait apparaître la machine de performance de ce milieu ? L’idée qui ressort de cette présentation est que seulement après la connaissance solide du milieu cosmique, seulement après la découverte d’un principe phénoménologique et technologique, qui nous permettent "l’appuy" sur ce milieu, on pourra construire la machine de performance.

ATOME

La notion d’atome – particule indivisible – nous parvient de l’antiquité, développée par Démocrite d’Abdère (420 a.n.è), comme réponse peut-être à la philosophie idéaliste. Selon Démocrite, les atomes étaient les constituants de l’univers (image 11), qui mouvaient dans le vide, une autre notion que, pour la pouvoir combattre, les gens arriveront plus tard à une série de découvertes concernant les lois des gazes, la machine à vapeurs etc. Les atomes de Démocrite avaient de différentes formes géométriques, par la combinaison desquelles résultent les formes variées des choses et leur mouvement justifiait l’idée de transformation. L’hypothèse corpusculaire, atomiste est réactualisée par Gassendi (1595 - 1655), prêtre, astronome, mathématicien et philosophe, qui considère que les atomes sont des particules de poids, en état d’inertie, avec des possibilités de mouvement dans le vide dont Torricelli avait démontré l’existence.

Le modèle statique de l’atome

Vers la fin du XIXe siècle, l’avalanche de découvertes déclenchée par les réalisations théoriques et pratiques dans le domaine de l’électricité conduit à la nécessité de s’imaginer un modèle de la structure de l’atome. L’étude des rayons cathodiques nous mène à la conclusion que celles-ci sont des charges électriques négatives et l’unité de charge a été nommée électron par Johnston Stoney en 1894. Puis, cette dénomination a été donnée à la particule même.

J. J. Thomson (1856 - 1940), constatant que les électrons sont extraits des plus différentes substances, qu'ils sont des particules identiques et indivisibles, considère qu’ils doivent provenir de l’atome, en étant donc des constituants. En 1903 Thomson élabore le modèle statique de l’atome (image 12), considérant l’atome une masse sphérique chargée uniformément à électricité positive, à l’intérieur de laquelle on trouve des électrons à charge négative qui peuvent être extraits par irradiation. Les charges négatives devaient être égaux aux charges positives, pour que l’atome soit neutre du point de vue électrique. Le modèle statique de l’atome n’a pas pu être adopté puisqu’il n’expliquait pas de certains phénomènes comme la coexistence des charges positives et négatives, l’émission et l’absorption des rayonnements etc. On a proposé ensuite certains modèles dynamiques, mais ils gardent les mêmes carences que le modèle statique. Premièrement, on discutait le problème de l’espace occupée par les charges électriques, si elles sont distribuées dans tout le volume de l’atome, ou sont localisées dans une zone restreinte.

Le modèle planétaire de l’atome

Pour répondre à ces questions on fait appel à l’expérimentation. Ernest Rutherford projette un faisceau parallèle de rayonnements alpha – atomes de hélium à deux charges positives et le poids 7000 fois le poids de l’électronsur un papier en or, ayant l’épaisseur d’approximativement trois couches atomiques et étudie la forme de ce faisceau, au-delà du papier, utilisant des scintillements projetés sur un écran fluorescent, phénomène appelé ensuite "propagation Rutherford" (image 13). Comme source de particules alpha accélérées, il a utilisé un petit four à substance radioactive. Les informations fournies par cette expérimentation ont permis à Rutheford d’élaborer le modèle atomique planétaire (image 14), lui déterminant aussi les dimensions principales. La notion de noyau atomique apparaît pour la première fois dans ce modèle: c’est une zone très restreinte trouvée au centre de l’atome, où il y a presque tout le poids de l’atome et les charges positives. Tout comme le système planétaire du Soleil, les charges électriques négatives, les électrons, tournent autour du noyau, sous l’action des forces d’attraction électrostatiques mises certainement en évidence par l’expérimentation, équilibrées par les forces centrifuges des électrons. Le fonctionnement de ce modèle explique les propriétés magnétiques, optiques et chimiques de l’atome, comme étant déterminées par les propriétés de la couche électronique. Sa publication en 1911 le rend vite connu par les physiciens et fait apparaître aussi les premières critiques. Sur le plan théorique l’électron comme charge négative dans son mouvement orbital, conformément aux lois de l’électrodynamique aurait du émettre en permanence de l’énergie électromagnétique et finalement, consommant son énergie, tomber sur le noyau. Cette remarque est restée dans l’histoire de la physique sous le nom de "catastrophe de l’atome" (image 15). On peut voir dans l’image 16 que le modèle n’est pas une copie fidèle du système solaire, le modèle atomique planétaire permet tout plan des orbites électroniques, pendant que les planètes tournent dans le plan équatorial, à petites exceptions. Les discussions et les expérimentations indiquaient deux directions possibles: soit le modèle était erroné, soit les lois de l’électrodynamique perdaient leur validité à ce niveau. Le physicien danois Niels Bohr (1913) a résolu ce dilemme, employant la théorie quantique de Planck. Max Planck, étudiant la distribution spectrale et les lois de la radiation des corps chauffés, constate (1900) que l’image classique de certains oscillateurs qui émettent en permanence de l’énergie ne correspond pas au phénomène réel et introduit l’idée de la quantification de l’énergie de ces oscillateurs. Donc, les oscillateurs qui émettent ou absorbent des rayonnements ne peuvent posséder que de certaines énergies, qui sont les multiples d’un quantum d’énergie E=hn. Bohr, collaborateur du savant Rutherford, utilise les résultats les plus récents des recherches dans ce domaine et applique les théories introduites par la mécanique quantique, où les phénomènes d’absorption et d’émission de la radiation sont élucidés; c’est lui qui énonce les postulats suivants:

1) Les électrons se déplacent en atomes sur des orbites déterminées, stationnaires, dont le niveau énergétique ne peut pas varier d’une manière continue, mais discontinue, quantifiée, étant multiple entier de h/2p. Le mouvement des électrons sur les orbites peut se faire sans émission et sans absorption d’énergie.

2) Le passage d’un électron d’une orbite stationnaire sur une autre est fait sans émission ou absorption d’énergie, l’énergie des deux niveaux entre lesquels a eu lieu le passage de l’électron.

Conformément à ses postulats, Bohr analyse la condition de stabilité pour l’atome d’hydrogène, ayant le noyau formé d’un proton à charge positive et un électron qui gravite sur une orbite circulaire sous l’action d’attraction coulombienne entre le noyau positif et l’électron négatif, équilibré par la force centrifuge de l’électron. Les résultats obtenus ne peuvent pas s’appliquer en totalité aux autres atomes; c’est pourquoi la nécessité de perfectionnement du modèle s’impose.

Le modèle atomique Bohr-Sommerfeld

A. Sommerfeld (1915), conformément à la mécanique quantique aussi, apporte comme nouveauté au modèle atomique planétaire de déplacement des électrons sur des orbites elliptiques, le noyau occupant l’un des foyers de l’ellipse.Ce mouvement impose à l’électron la variation permanente de sa vitesse et de son poids, sans que l’énergie totale se modifie, phénomène appelé "dégénération". A cette nouvelle notion, on ajoute d’autres encore comme "orbites pénétrantes", "structure fine du spectre de l’hydrogène" etc. "Les orbites" électroniques du modèle atomique Bohr-Sommerfeld ne constituent pas une description exacte de la réalité mais ils donnent la possibilité de l’interprétation exacte des phénomènes et des comportements de l’atome analysé par des méthodes spectroscopiques.

Etudes et interprétations

L’analyse spectroscopique, par ses résultats concrets, relève la nécessité du perfectionnement du modèle atomique. L’étude expérimentale du rayonnement lumineux met en relief le caractère dual onde-corpuscule du photon. Louis de Broglie (1925) émet l’hypothèse, ultérieurement

 

 

confirmée, que les particules élémentaires manifestent, elles aussi, le dualisme onde-corpuscule. Cette dualité met de nouveau la physique théorique devant des difficultés particulières, puisqu’on applique la représentation de la physique classique au cas des processus atomiques où l’on avait convenu qu’ils perdaient leur validité. Louis de Broglie continue ses études et conçoit la particule matérielle comme un paquet d’ondes "de Broglie" qui ne se propagent pas dans l’espace. Les ouvrages de Schrödinger (1926) mettent les bases d’une théorie unifiée de la substance et de la radiation, qui conduira à la théorie qui s’appelle "la mécanique quantique ondulatoire". Pendant cette période on fait des nombreuses épreuves expérimentales pour un mesurage direct de certaines dimensions caractéristiques à l’électron. Etant donné les dimensions extrêmement petites de l’électron, de l’impossibilité à identifier l’électron à étudier d’autres électrons qui sont identiques, de même que la nécessité des instruments compatibles, les épreuves sont restées sans les résultats escomptés. Les relations d’incertitude de Heisenberg (1927) mettent en relief le fait qu’il est impossible de déterminer en même temps avec précision la position et le moment cinétique d’un électron. C’est à cause des perturbations introduites par les instruments utilisés, par rapport à la sensibilité et à la petitesse de la particule. De plus, dans l’interprétation de la mécanique quantique cette chose est impossible, parce que les coordonnées et les vitesses qui leur correspondent n’existent pas simultanément. Si l’on applique la mécanique quantique ondulatoire au modèle atomique, apparaissent les notions "orbital électronique", "nuage électronique" etc., même s’il n’existe qu’un seul électron, c’est-à-dire la zone la plus traversée par l’électron. Les équations d’incertitude de Heisenberg annulent pratiquement les représentations classiques "intuitives" des orbites électroniques à rayons et périodes de révolution, utilisant des méthodes d’interprétation purement mathématiques.

Le modèle vectoriel de l’atome

Le modèle vectoriel de l’atome transpose les données fournies par la spectroscopie sous la forme de vecteurs, permettant une interprétation dans ce contexte des atomes complexes et retrouvant les principales données déjà connues. Ce modèle n’offre pas une représentation complète de la réalité, étant un instrument nécessaire pour continuer les recherches concernant les phénomènes atomiques.

Le noyau atomique

Les recherches faites par Rutherford sur l’atome lui ont permis de faire des appréciations sur le noyau aussi, constatant qu’il occupe un espace très restreint, au centre de l’atome, qu’il contient presque tout le poids de l’atome et q’il a une charge positive. Se rapportant à l’élément le plus léger, l’hydrogène, qui occupe la première place dans le tableau des éléments, Rutherford suppose que le noyau de celui-ci qui a une charge positive égale à celle de l’électron, soit considéré comme unité de charge électrique et il l’appelle "proton". Donc, la charge positive d’un proton annule la charge négative d’un électron, devenant neutre du point de vue électrique. On a déduit que le proton a le poids 1836 fois le poids de l’électron. On en comprend que les noyaux d’autres éléments plus lourds auront un nombre correspondant plus grand de protons avec des charges positives. Mais tout de suite on fait la remarque que l’atome de hélium devrait avoir quatre charges positives (image 17a), ayant le poids atomique 4. On sait que l’hélium a deux charges positives et deux électrons. On a constaté la même situation aux autres éléments aussi. On a supposé que, à coté des protons, le noyau contient aussi des électrons pour annuler une partie de la charge positive. Cette structure proto-électronique (image 17b) a été considérée valable jusqu-en 1930, puisqu’elle expliquait certains phénomènes. Les paramètres de l’électron et premièrement ses dimensions, qui sont comparables à celles du noyau, infirment la validité de cette structure. Ainsi il s’impose que l’on trouve un modèle de structure qui contienne à coté du proton une autre particule ayant les mêmes caractéristiques que le proton, mais sans charge électrique. Cette particule a été mise en évidence en 1932 et a été appelée "neutron". La structure du noyau qui continent des protons et des neutrons (image 17c) est la forme considérée réelle et les recherches ultérieures ont permis aux savants des réalisations pratiques et théoriques de grande importance dans la physique moderne. Les protons et les neutrons étant des particules composantes du noyau et étant fort ressemblantes, ont acquis la dénomination générale de "nucléons". Pour lui conférer la logique et la stabilité qui le caractérise, on considéra aussi d’autres particules dans la structure du noyau. Parmi les questions que l’on posait il y avait une: "Comment peuvent-elles coexister les charges positives dans le noyau, sachant que les charges électriques au même signe se repoussent de plus; on remarque que les nucléons non seulement se repoussent-ils, mais ils sont étroitement liés à des forces très puissantes, les forces nucléaires." On a conféré à ces forces une nature spéciale, un champ "mésonique". Ainsi que l’interaction entre les charges électriques vue par le prisme de la mécanique quantique est réalisée par l’intermédiaire du champ électromagnétique, par un échange de protons, de la même manière l’interaction entre les nucléons se réalise par l’intermédiaire du champ mésonique et des particules d’échange appelées "mésons". Pour ce qui est du poids de l’atome, on a montré que le noyau contient presque tout le poids de l’atome. On a proposé que l’unité de poids fût considérée le noyau de l’atome d’hydrogène, c’est-à-dire le proton. Mais on a constaté que le somme des poids des nucléons d’un noyau composé est plus grand que le poids du noyau respectif. Cette différence s’appelle défaut de poids et se retrouve d’ailleurs dans l’énergie qui établit la relation entre les nucléons. Pour mieux apprécier le poids de l’atome, on a adopté par une convention internationale (1962) l’unité de poids atomique "u", exprimée par la douzième partie du poids du carbone 12. Cela serait un simple regard sur l’atome et son noyau. Une fois la recherche du phénomène de radioactivité est apparue, les choses se sont compliquées. Ce phénomène se réfère à la dynamique des transformations à la longue de la structure des noyaux de certains éléments. La recherche dans ce domaine se fait en principe par le bombardement de l’élément à étudier, à l’aide des particules fortement accélérées, qui peuvent pénétrer dans les noyaux cible (image 18), réalisant des interactions à ce niveau. Le résultat des interactions, les fragments expulsés, sont analysés avec des appareils de détection, qui dans la plupart des cas analysent les effets des fragments. L’interprétation de ces informations a conduit à la recherche d’un nombre de particules élémentaires provenues du noyau, en compliquant beaucoup la structure.