130

 

 

 

 

 

 

 

 

 


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L’échec de la Science pure

 

Les paradigmes alternatifs

 

 

 

 

 

 

© Editions d’Assailly, 2009, 2010, 2011, 2016

ISBN 9782902425075


 

Introduction

 

 

Louis de Broglie a appelé « Science pure » la physique moderne. La Science pure, c’est la physique mathématique, par opposition aux lumpen-sciences, les sciences des goujats, le mot est d’Albert Einstein, comme la mécanique des fluides et la mécanique de la rupture des matériaux. Ces sciences impures utilisent bien des équations mathématiques, mais elles reposent essentiellement sur l’utilisation de données expérimentales. Que c’est laid ! La Science pure ne doit utiliser que le strict minimum de constantes universelles absolues et strictement invariables. Des équations mathématiques doivent ensuite permettre de retrouver les résultats expérimentaux.

 

Depuis Newton, en passant par Maxwell, la physique a été mathématisée à outrance. Aujourd’hui, aucune thèse ni aucun article scientifique n’est accepté ni publié s’il n’est émaillé de signes cabalistiques. Sans les sigmas et les deltas, sans les d droits et ronds des dérivées et les grands S des intégrales, sans rotationnels, sans divergences, sans laplaciens, ni hamiltoniens, ni d’alembertiens, noyés dans un éther de lettres grecques, un texte n’a la moindre chance de passer à travers les mailles de la revue par des pairs, le fameuse « peer review ». L’objectif positiviste a été pleinement atteint. Hors des mathématiques, point de science !

 

Pour certains scientifiques fondamentalistes, les mathématiques seraient la nature même des choses. Pourtant, d’autres ont remarqué qu’une telle vision implique une nature continue des phénomènes physiques. Ils pensent, au contraire, que tout serait essentiellement discontinu, tout serait fait de particules. Ils seraient sur le point de découvrir la particule fondamentale qui donnerait existence à tout, la cause de tous les phénomènes. L’histoire de la physique serait sur le point de s’achever !

 

Déjà, en 1824, le savant Jean-Baptiste Biot déclarait qu’avec les théories de Newton et de Coulomb, la physique est devenue un édifice quasiment achevé, une science faite, stable et impossible à renverser...". En 1900, le professeur William Thomson Lord Kelvin pensait que la physique était pratiquement complète : « il n’y a plus rien à découvrir en physique aujourd’hui, tout ce qui reste est d’améliorer la précision des mesures ». Un siècle plus tard, la théorie des cordes devait définitivement compléter la physique moderne. Or, la théorie des cordes s’est effondrée dans le fracas de ses onze dimensions. Ce n’est pas grave. On attend tout de l’accélérateur monstrueux du CERN à la frontière franco-suisse. Avec l’inévitable découverte de la particule fondamentale, la physique aura enfin une fin. Tout sera expliqué, hormis quelques petits détails dont pourront s’occuper nos descendants.

 

Rien ne peut ébranler la foi aveugle et pathétique des scientifiques. Ils considèrent les dogmes relativistes et quantiques comme des vérités irréfragables. Il y a bien quelques petits détails qui refusent d’entrer dans le sublime paradigme. Mais la Science pure ne tardera certainement pas à en rendre compte. D’ailleurs, de la même manière qu’il y a les vrais faits de la praxis des marxistes, il y a les bonnes expériences de la Science pure. Les autres faits, les autres expériences n’existent pas, tout simplement. Non licet esse !  Ils ne peuvent pas exister, pour reprendre un mot attribué au sympathique Néron. Ils n’ont cure des résultats de Miller, d’Esclangon et d’Allais.

 

Il y a bien aussi d’innombrables paradoxes. Nos scientifiques fondamentalistes pensent que la Nature est paradoxale par nature. Pourquoi la Nature se plierait-elle à notre rationalisme ? Ils ont survécu à l’expérience de Sagnac ; ils survivent à tous les paradoxes qui s’accumulent comme nous allons le voir.

 

Pourtant, des milliers d’autres physiciens s’élèvent à présent contre les diktats de la pensée unique de la Science pure. Ce n’est plus le vent de la critique. C’est la tempête de la révolution. Il ne s’agit plus seulement de mettre en cause quelques aspects douteux comme le Big Bang, les trous noirs, la limite absolue postulée de la vitesse de la lumière. Comme vous allez lire, il s’agit d’abord d’une volonté générale de revenir à un milieu physique dans l’Espace, l’éther, et d’un refus, aussi général, d’un monde probabiliste.

 

D’ailleurs, l’incompatibilité entre cette vision probabiliste propre à la Mécanique Quantique et la vision déterministe des deux théories de la Relativité reste le paradoxe fondamental de la science pure. Mais, il y a un autre paradoxe tout aussi fondamental, interne à la Mécanique Quantique elle-même. Comment concilier la nature indéterministe du photon avec sa vitesse non seulement parfaitement déterminée, mais absolue? Le photon n’a qu’une probabilité de présence, mais sa propriété essentielle, sa célérité, est elle-même parfaitement déterminée. Sa position n’existe vraiment que lors de son interception par un capteur. Sa longueur d’onde se dévoile à cet instant fatal. Sa direction de polarisation, également. Mais sa vitesse ? Elle est parfaitement déterminée, même si elle peut varier en fonction du milieu et de la présence des champs de gravitation.

 

C’est l’échec de la Science pure ! Exposé dans la première partie.

 

C’est le temps des paradigmes alternatifs ! Exposés dans la deuxième partie.

 

 


 

 

 

 

 

 

 

 

 

Première partie

 

Les critiques

 

 


 

 

 

Chapitre premier

 

Le principe de relativité

 

 

 

« L’idée de la relativité et le relativisme ont été des préoccupations de tous les siècles. L’idée de relativité, comme la plupart des concepts de la Science pure, est une notion vivante dont le sens s’est précisé petit à petit au cours d’un développement tourmenté et incertain. Le nom s’est plus particulièrement attaché à la théorie d’Einstein en raison des circonstances qui ont marqué son origine. Jusqu’à Einstein, la notion de relativité s’est trouvée opposée au relativisme. Le relativisme est une notion aristocratique. Il implique une hiérarchie, des privilèges. Le privilège liait les prérogatives de l’observateur absolu à l’organisation du cosmos. Au contraire, la relativité est une notion démocratique qui suppose équivalence, égalité des observateurs. Notion démocratique, la relativité suppose une équivalence et s’exprime par une invariance. Cette relativité, c’est-à-dire cette indifférence, est une caractéristique de l’observateur et de son mouvement. Le contenu des concepts de relativisme des phénomènes et de relativité des observateurs varie donc en sens inverse. La relativité s’édifie et progresse aux dépens du relativisme. Tout saut qualitatif ne peut se faire que dans la douleur. La relativité constitue une authentique révolution, source même d’un nouvel humanisme. C’est un bond en avant sans précédent, un renouvellement inouï de l’histoire et de la philosophie. L’inéluctable relativité a suffisamment démontré son inépuisable fécondité pour qu’il soit enfin parfaitement vain de revenir sur une vision irremplaçable, sur un nouveau choix éthique transformant la philosophie, l’art et les sciences même en ferments inaltérables ».

 

Ce large extrait du maître ouvrage de la professeur Marie-Antoinette Tonnelat, « Histoire du principe de relativité » rattache l’évolution des idées en physique au mythe du Grand Soir. On ne peut sous-estimer le lien entre le matérialisme historique et le développement de la Science pure au XXe siècle. L’égalité des observateurs est un concept purement marxiste. La référence à l’égalitarisme prolétarien est évidente. Il a été inspiré à Albert Einstein par sa première épouse, Mileva Marić, une égérie communiste dont il s’est rapidement séparé en lui remettant, comme il l’avait promis, la moitié du montant de son prix Nobel, reconnaissant pas là son rôle dans l’élaboration de sa théorie de la Relativité. On peut rappeler d’ailleurs que ce mot relativité ne plaisait pas à Einstein et qu’il avait appelé d’abord sa théorie : théorie des invariants, beaucoup plus proche de la réalité et en plein accord avec sa vision positiviste.

 

On ne peut ignorer la tentation marxiste chez de très nombreux scientifiques. Les philosophes, qui se sont intéressés à l’épistémologie, l’Histoire des sciences, reprennent tous aussi les thèses marxistes du matérialisme historique, à commencer par Bachelard, Kuhn et Chalmers. Cette approche n’est plus intellectuellement correcte.

 

Bien sûr, la justification, presque politique, que présentait la professeur Tonnelat ne permet pas de remettre en cause l’idée de relativité. À tout le moins, elle peut inciter à se poser, aujourd’hui, quelques questions.

 

Les physiciens appellent relativisme la dépendance de la physique vis-à-vis de l’observation et sa subordination à l’observateur. Ainsi, Lacan écrivait : « qu’est ce qui nous fait dire que l’alchimie n’est pas une science ? Quelque chose à mes yeux de décisif : que la pureté de l’âme de l’opérateur était comme telle, et de façon dénommée, un élément essentiel de l’affaire » (Lacan, Les quatre concepts fondamentaux de la psychanalyse © Editions du Seuil, Paris, 1973 p. 18). Ce ne serait plus le cas évidemment de l’opérateur relativiste, un observateur parfaitement objectif évidemment !

 

Que signifie indépendance de l’observateur ?

 

S’il s’agit d’une indépendance vis-à-vis des qualités, de l’habileté, ou des convictions personnelles de l’observateur, c’est bien évident.

 

S’il s’agit de sa position et de son mouvement, ce n’est certainement pas vrai dans la mécanique des fluides. Les mesures dépendent essentiellement de l’observateur. Je ne veux pas dire de son habileté, ni d’une autre de ses qualités, ni de ses convictions. Je veux dire qu’elles dépendent essentiellement de son mouvement. On obtient le débit d’un cours d’eau en mesurant la vitesse de l’eau en différents points. Connaissant la section du cours d’eau, on calcule le débit par une sorte d’intégration. Si l’observateur fait les mesures de vitesse dans une barque entraînée par le cours d’eau, il trouvera un débit presque nul et même négatif. À cause des frottements sur le fond, il mesurera des vitesses négatives. Il faut, évidemment, faire les mesures d'un pont. Il faut être fixe par rapport au lit du cours d’eau. La mécanique des fluides relève donc du relativisme. Du moins, dans le sens que les relativistes donnent à ce mot.

 

Avant les relativistes, le relativisme désignait l’impossibilité de concevoir un mouvement absolu. C’est la position de Socrate, de Platon, de Scot Érigène, de Descartes et de Kant. Dans le même esprit, c’est penser qu’il n’y a pas de position absolue. Aristote, Ptolémée et leurs lointains disciples Avicenne et saint Thomas d’Aquin ont, d’emblée, pris position contre Platon, contre le relativisme. Non seulement, Aristote et ses suiveurs ont supposé l’existence de mouvements absolus, mais ils ont aussi supposé que la Terre occupe une position absolue au centre de l’Univers. Elle est immobile et entourée des sphères célestes, les fameux orbes portant les astres.

 

Ces orbes, sphères ou cieux se retrouvent dans le Coran : « Dieu est Celui qui a créé pour vous tout ce qu’il y a sur terre, puis S’est tourné vers le ciel et y a parachevé sept Univers. » (Sourate 2-29 : Al-Baqarah), « Dieu a créé les sept cieux disposés par couches s’enveloppant les unes les autres » (Sourate 71-14 : Noé) et « c’est Dieu qui a créé les sept cieux et autant de terres » (Sourate 65-12 : Le divorce).

 

Saint Thomas d’Aquin (1225-1274) compte un ciel de plus que Mahomet (570 - 632) : « Le Ciel est divisé en huit orbes : l’orbe des étoiles fixes et les sept orbes des planètes. La Terre est au ciel ce que le centre est au cercle. Autour d’un centre, il peut y avoir plusieurs cercles, donc il peut y avoir plusieurs cieux » (Somme Théologique Q. LXVIII de l’œuvre du second jour). Abu al-Farabi (870-950), Avicenne (980-1037) et Averroès (1126-1198) reprennent entièrement la thèse d’Aristote tout en rejetant les améliorations apportées par Ptolémée (100-170), contrairement à Alhasen (965-1039) et Maimonide (1135-1204).

 

Saint Augustin (354-430) et Rabanus Maurus (780-856), n’ont pas cédé à cette géométrisation de l’Univers, la vision anthropomorphique, typiquement aristotélicienne.

 

À l’origine de ce relativisme, se trouve cette idée qu’il n’y a pas de grand ni de petit en soi. C’est la base de la pensée de Socrate et de Platon, comme celle de Scot Érigène, de Descartes et Kant. L’Univers entier pourrait aussi bien être deux fois plus grand ou deux fois plus petit, cela ne changerait rien. Le problème du mouvement est lié à cette vision adimensionnelle. S’il n’y a pas de dimension, de longueur en soi, il n’y a pas de vitesse en soi, et pas de temps en soi non plus. Le temps n’a pas d’existence physique.

 

C’est une vision qu’Aristote comme Hume, Newton comme Maxwell et naturellement Einstein rejetait entièrement. La Science pure rejette totalement le relativisme de Platon, de Scot Érigène, de Descartes et de Kant. Les relativistes qualifient d’archéologiques les systèmes du monde qui se réfèrent au relativisme. Bien qu’il soit difficile de comprendre comment Aristote, Ptolémée, Mahomet, Averroès, saint Thomas d’Aquin et Hume seraient moins archéologiques que Socrate, Platon, Scot Érigène, Descartes et Kant.

 

Le mot relativisme prête à confusion. Le relativisme de Socrate, Platon, Scot Érigène, Descartes et Kant se rapporte exclusivement à notre connaissance de la nature. Mais l’esprit, la pensée humaine, bien au contraire, repose sur des concepts absolus. Ces concepts ne sont nullement l’objet de la perception sensible, mais les outils de notre esprit pour penser. L’infini, l’absolu, le continu, le droit de la droite, ne seront jamais observés dans la nature, car nos perceptions sont des relations et l’absolu ne peut pas être l’objet d’une relation. D’ailleurs comment percevoir l’infini ? L’esprit a un référentiel absolu. Ce sont les quelques mots du dictionnaire qui sont indéfinissables, sans lesquels on tourne en rond indéfiniment, les mots se renvoyant les uns aux autres.

 

Aussi, le mot relativisme ne doit pas être pris au sens moral ni intellectuel, mais uniquement à l’égard de notre perception du monde expérimental, le monde physique.

 

Dans ce sens, le relativisme platonicien nie l’existence de lois de la Nature. La Nature n’a pas de lois. Ce que nos physiciens appellent lois de la Nature, c’est ce qu’ils ne peuvent pas expliquer. Il n’y a pas de lois dans la mécanique des fluides. On voit l’eau couler ; il n’y a pas de mystérieuse action de l’air sur les profils d’aile des avions. D’ailleurs, ces scientifiques pensent avoir trouvé la nature de la gravitation : une courbure de leur fameux espace-temps, ils ne parlent donc plus de loi. Les lois, c’est ce que l’on ignore.

 

Dans la vision platonicienne, il n’y a pas non plus de constantes universelles, pas d’invariants, pas de célérité absolue de la lumière. Il y a d’ailleurs un paradoxe assez étrange dans l’approche relativiste. On recherche frénétiquement des lois immuables de la Nature et des invariants absolus alors que, dans le même temps, les scientifiques nous présentent un monde en perpétuel mouvement, en évolution permanente. Comment concilier ces deux visions totalement opposées ? La Nature aurait-elle deux visages ? À vrai dire, nous allons voir que la Science pure nage dans un tel nombre de paradoxes que celui-là ne doit pas gêner nos scientifiques.

 

Mais bien plus, ces fameuses lois, dites de la Nature, posent un surprenant problème. La loi de Newton est relative à une hypothétique attraction ; ce serait une accélération. Elle serait donc indépendante de la vitesse de l’observateur. L’hydraulicien qui cherche le débit d’un cours d’eau, mesure des vitesses de l’eau par rapport au lit du cours d’eau. Il ne mesure nullement des accélérations. Ses mesures ne sont pas indépendantes de sa propre vitesse par rapport au lit du cours d’eau.

 

La notion de relativité des relativistes ne tient que parce qu’ils considèrent que la pesanteur et les forces électromagnétiques, comme toutes les forces de la Nature, ne dépendraient pas d’une vitesse. Elles seraient des accélérations pures.

 

Pourtant, la résistance de l’air sur un avion est une force. Elle implique donc une accélération. Or, elle dépend de la vitesse de l’avion. La loi de la résistance de l’air dépend de la vitesse de l’avion par rapport à l’air. Pour la rapporter à la vitesse de l’avion par rapport au sol, il faut tenir compte du vent. Il faut augmenter ou diminuer la vitesse de l’avion par rapport au sol de la vitesse du vent pour obtenir la vitesse qui intervient dans le calcul de la résistance de l’air.

 

L’action d’un fluide sur un corps n’est, en aucune manière, une force de la Science pure. Elle n’est nullement invariante dans un changement de repère de référence galiléen. Les forces de la Science pure sont invariantes dans un tel changement de repère : elles ne dépendraient en rien d’une vitesse. La résistance des fluides n’est pas une force de ce genre. Un objectif de la Science pure est l’unification des forces. Il n’a jamais été question de faire entrer dans ces forces la résistance des fluides, pas plus que les contraintes de la théorie de l’élastoplasticité. L’idée d’unifier les contraintes mécaniques et les effets des fluides avec les forces de la Science pure ferait rire nos scientifiques. Les mécaniciens et les hydrauliciens sont, sans doute, des lumpen-ingénieurs qui s’occupent de lumpen-physique comme disait Einstein ! Ces pauvres bougres sont des sous-scientifiques en charge de sous-sciences. Je suis un de ces pauvres bougres.

 

Je penserais volontiers que les pauvres bougres sont plutôt ces paumés du Petit Matin qui n’attendent plus le Grand Soir ! On les voit errer, hagards. Ils croyaient à la Science, à la Science pure ! C’est une traînée !

 

La doctrine relativiste contient un postulat caché. Les lois de la physique ne porteraient que sur des accélérations ; elles ne dépendraient pas de la vitesse. Le postulat de la Relativité Restreinte comporte un postulat sous-jacent. Les phénomènes de la Science pure ne sont que des forces, des accélérations. L’équivalence de la pesanteur à une accélération est une conséquence nécessaire de la Relativité Restreinte. Si la pesanteur était liée au mouvement d’un fluide, comme la résistance de l’air, alors elle ne serait pas indépendante de la vitesse. Dans la vision de la Science pure, la pesanteur ne peut être qu’une accélération.

 

Il y a derrière tout cela plus qu’un postulat : le principe de relativité, le fameux principe de Poincaré. Ce principe est entièrement sous-jacent à la théorie d’Einstein. On s’étonne que le nom d’Henri Poincaré ne lui ait pas été associé, et on a même accusé Albert Einstein de plagiat. En réalité, Einstein ne s’est pas approprié ce prétendu principe. Il a simplement mentionné le « principe de relativité », sans mentionner l’auteur. On peut comprendre une certaine réticence, en pleine affaire Dreyfus, à énoncer le nom d’un français qui, pourtant, intervint vigoureusement pour la révision du procès. Son cousin germain, Raymond Poincaré, a voulu occulter l’affaire, par esprit politique d’ailleurs et en aucun cas par racisme.

 

La mécanique de Newton rend la gravitation indépendante des systèmes de référence galiléens utilisés. La gravitation serait causée exclusivement par une accélération. Elle ne pourrait sous-tendre aucun déplacement, aucune vitesse.

 

La courbure de la surface libre d’un fluide contenu dans un récipient en rotation est parabolique. Newton y voyait la preuve de l’existence d’un référentiel absolu. Or, la force centrifuge n’existe pas physiquement. Ce qui existe, c’est la paroi du récipient qui contraint l’eau à tourner malgré son inertie. L’accélération centrifuge n’a pas davantage d’existence physique. L’accélération est une formule mathématique qui donne la mesure de l’effet de la paroi sur l’eau. Ce qui existe physiquement, c’est la paroi et l’eau avec leurs mouvements respectifs. Ces mouvements ne sont que des vitesses relatives. On voit des corps en mouvement les uns par rapport aux autres. Il n’y a pas de support matériel de l’accélération centrifuge. Il n’y a pas de référentiel des accélérations parce que les accélérations n’ont pas d’existence physique.

 

L’accélération est la mesure du changement du mouvement, seul existe le mouvement et l’action physique qui vient le modifier, comme la corde de fronde vient changer la direction de la vitesse de la pierre. Sans la corde, la pierre irait tout droit. La corde l’oblige à incurver sa trajectoire. Ce changement de direction de la vitesse se mesure par une accélération centripète qui traduit la force de traction du lanceur sur la corde.

 

Pourtant, on peut voir la vitesse changer, c’est bien là constater une accélération. Si la vitesse change, c’est que quelque chose la fait changer. Il n’y a pas d’accélération sans cause. Ce n’est pas l’accélération qui existe physiquement, c’est la cause de l’accélération. Ce qui existe c’est la masse, l’inertie des corps, et l’action qui la fait tourner. Dans la fronde, la réalité est la traction de la main qui tient la corde. Elle contraint le corps à tourner.

 

Le principe de relativité est rendu nécessaire par la mécanique de Newton. La gravitation serait une accélération existant physiquement. Les masses existent. C’est l’inertie des corps. La pesanteur serait une accélération de ces masses dans les champs de pesanteur. Donc, la gravité serait une accélération qui existerait physiquement. Cette accélération existerait dans l’Espace. Il se pose dès lors un problème de repère de référence. Cette accélération est indépendante du mouvement relatif des repères galiléens, en translation uniforme les uns par rapport aux autres. C’est uniquement parce que la mécanique newtonienne attribue une réalité physique à l’accélération de la gravitation, en tant qu’accélération exclusivement, qu’il faut un principe de relativité. Le principe de relativité ne peut, en aucune manière, s’appliquer dans la mécanique des fluides. Ce serait même complètement absurde. Ce qui compte dans les fluides, ce sont les actions de contact entre les particules du fluide et avec les parois des corps. Le problème du repère de référence ne se pose pas. Le principe de relativité ne s’applique qu’à la Science pure !

 

Le champ électromagnétique des courants électriques résulterait de la vitesse de translation des électrons dans les conducteurs et dans les rayons cathodiques. Ce phénomène serait lié à une vitesse. La loi de Maxwell-Ampère devrait donc être modifiée si on prenait un repère de référence en translation uniforme par rapport au conducteur. Or, la vitesse des électrons dans le conducteur n’est pas modifiée. Le champ magnétique n’est donc pas modifié, bien sûr. Si l’on écrit la loi de Maxwell-Ampère dans le nouveau repère, il faut supprimer cette vitesse fictive.

 

D’où les formules de Lorentz ? Malheureusement non ! Tout serait clair s’il en était ainsi. Les formules de Lorentz ne permettent pas de rectifier cette situation. Il faut faire comme pour le débit des cours d’eau : il ne faut tenir compte que de la vitesse des électrons dans le conducteur. Le problème des faisceaux d’électrons est plus gênant. Il n’y a pas de conducteur. Quelle doit être la référence ? Personne ne s’en inquiète.

 

Les formules de Lorentz concernent la propagation de la lumière et les vitesses qui ne sont pas négligeables par rapport à la célérité de la lumière, en aucun cas la vitesse des électrons dans les conducteurs : cette vitesse ne dépasse pas quelques cm/s.

 

Les formules de Lorentz ne rendent invariantes que l’équation de Maxwell-Hertz. C’est l’équation de Maxwell-Ampère simplifiée, dans le cas où il n’y a pas de charges. C’est l’équation de la propagation des ondes électromagnétiques. Par contre, l’équation de Maxwell-Ampère est modifiée par un changement de repère de référence. Le terme relatif aux charges s’exprime par le vecteur intensité. Son module est le débit de charges. Or, ce débit, comme dans les fluides, dépend de la vitesse des électrons. Dans le cas des courants dans les conducteurs, c’est facile, il suffit de faire attention de ne considérer que cette vitesse. Lors d’un changement de repère de référence, on ne change pas ce terme. Il faut bien sûr, au départ, s’assurer qu’il est rapporté au conducteur. Ensuite, on ne le change plus. Pourquoi ? Simplement parce que l’on sait que tout changement de repère changerait le débit de charges. Un changement de repère de référence est une opération mathématique. Comment le mathématicien n’est-il pas horrifié que l’on se permette d’exclure un des termes d’une équation du processus du changement de coordonnées. Le scientifique se réserve le droit d’être intelligent et de n’appliquer les règles des mathématiques que pour autant qu’elles ne viennent pas perturber le bel ordonnancement de ses postulats. On ferme les yeux et on continue. Mais, que va faire le scientifique pour les faisceaux cathodiques ? Quel est le repère de référence qui permet de fixer la valeur de leur champ magnétique ? En quoi la loi de Maxwell-Ampère pourra l’éclairer sur le mouvement des électrons à prendre en compte ? Avant de s’élancer, tête baissée, dans les calculs, il faut examiner, analyser, juger. Le scientifique n’a pas d’autres possibilités que d’analyser l’ensemble de la trajectoire de ces électrons. Il lui faut remonter jusqu’à la cathode émettrice. Puis chercher l’anode. Il lui faut aussi savoir que c’est bien là que la vitesse des électrons se trouve déterminée. Ce sera la référence initiale. C’est bien la réalité. Ce scientifique est-il vraiment dans le cadre de la Relativité des phénomènes ? N’est-il pas plutôt en plein relativisme ? Il n’est plus l’instrument passif enregistrant l’objet de ses mesures. Il doit remonter aux sources. Il est un homme qui analyse une situation. Aucun appareil n’est capable d’une telle analyse. L’observateur doit être objectif, j’entends bien, il doit aussi penser. Aucun appareil n’est capable d’une telle pensée. Le physicien doit aussi juger. Aucun appareil n’est capable d’un tel jugement. Mais il y a pire encore. Quelle est la référence du jugement du scientifique ? Le paradigme officiel. Ce serait la vérité incontestable dont il n’a pas la possibilité de sortir. Il ne peut voir la réalité qu’à travers le prisme relativiste. La notion d’observateur parfaitement objectif des relativistes est une escroquerie. Leur observateur est relativiste !

 

La vitesse de la Terre autour du Soleil est de l’ordre de 30 Km/s. Cette vitesse est 100 000 fois plus élevée que celle des électrons dans les conducteurs. Elle est encore très faible par rapport à la célérité de la lumière. Comment se fait-il alors que les formules de Lorentz permettent d’expliquer le résultat de l’expérience de Michelson ? Elle utilise le phénomène d’interférences optiques qui est extrêmement sensible.

 

Cette expérience concerne la célérité de la lumière. On aurait dû constater que ces 30 Km/s s’ajoutent où se retranchent de la célérité de la lumière émise dans une direction donnée par rapport à la surface de la Terre, selon l’heure de la mesure.

 

On se plaçait à cette époque, dans l’hypothèse d’un éther, un milieu mécanique, fixe, absolument fixe, remplissant tout l’Univers. La Terre se serait déplacée dans ce milieu. Non seulement, sa vitesse par rapport à ce milieu aurait changé en fonction de sa position sur sa trajectoire autour du Soleil, mais aussi en fonction de l’heure. Si à midi et à minuit, en heure solaire, l’interféromètre est parallèle à la trajectoire de la Terre, à 6 heures et 18 heures, il se trouve dans un plan perpendiculaire à cette trajectoire.

 

Les formules de Lorentz annulent la vitesse de la Terre par rapport à cet éther pour les phénomènes liés à la propagation des ondes électromagnétiques. De plus, la célérité de la lumière serait un absolu. On ne pourrait rien lui ajouter ou lui retrancher. Les formules de Lorentz permettent aussi de corriger l’inertie des particules dans les accélérateurs. Là aussi, le résultat est conforme à ce qui est mesuré.

 

La mécanique de Newton autant que la Relativité Générale posent un autre problème, lié à la mathématisation des lois de la Nature. Dans la théorie de la gravitation, on écrit que l’action du Soleil sur la Terre est égale à l’action de la Terre sur le Soleil. Le problème est le même si l’on parle en termes de courbure d’espace. Cette courbure traduit une accélération. Il s’agit de l’égalité de deux actions. Où sont les réactions ?

 

En quoi la Terre réagit à l’action de l’attraction solaire, et réciproquement en quoi le Soleil réagit à l’attraction terrestre ? L’action d’attirer n’est pas identique à l’action d’être attiré. Mathématiquement, on voit bien que les masses sont interchangeables. Dans un sens, la masse intervient pour attirer, dans l’autre, pour être attirée. Mais, l’interchangeabilité des masses ne signifie nullement l’identité des phénomènes. Le fait d’attirer une masse n’est pas la même chose que le fait de subir l’attraction de cette masse. Dans la mécanique des fluides, un fluide en mouvement agit par frottement ou par pression sur les corps. Les corps réagissent à cette action du fluide par des contraintes. En mécanique, un support réagit à la charge par des contraintes. La réaction est égale à l’action, mais action et réaction ne sont pas de même nature.

 

C’est bien pourquoi la mécanique des fluides n’entre pas dans la Science pure. C’est de la physique empirique. Dans cette physique impure, l’action n’est pas du même ordre que la réaction. Les scientifiques partisans de la Science pure n’ont nulle obligation de différencier une action d’une réaction. Pour eux, il n’y a que des concepts mathématiques. Or action et réaction sont des accélérations que rien ne peut donc distinguer. Il suffit donc que les actions soient égales entre elles pour que les réactions le soient aussi et égales aux actions.

 

Dans la théorie de Newton, il n’y a pas de réaction en réalité. L’action d’attraction du Soleil sur la Terre n’est nullement une réaction à l’attraction de la Terre sur le Soleil. L’attraction du Soleil existe même là où il n’y a pas de corps à attirer. C’est encore plus évident avec la courbure d’espace. L’espace est courbé même s’il n’y a pas de corps à accélérer. Le fait de placer un corps dans cet espace ne provoque nullement l’attraction du Soleil. Elle était préexistante. Il faut bien que cette attraction provoque une réaction du corps. Ce corps aurait lui-même sa métrique avec lui. Sa capacité d’attraction n’est nullement créée par sa mise en place dans le système solaire. Elle aussi était préexistante. En réalité, il manque les réactions.

 

Les actions à distance posent un autre problème. La réaction ne peut pas être instantanée. La réaction est différée par la distance entre les corps. L’égalité de l’action et de la réaction n’est donc assurée qu’à terme. Cette nécessité disparaît si on confond l’action et la réaction. Le problème est réglé par l’axiomatique. Les actions gravitationnelles sont aussi bien des réactions : les masses sont parfaitement interchangeables dans les équations. La courbure de l’espace-temps semble apporter la réponse à ce problème puisque, aussi bien, la courbure agit à l’endroit même où se trouve le corps attiré. Pourtant, la réaction devrait se propager jusqu’au corps attirant et réciproquement. Là aussi, il faut que l’action et la réaction ne fassent qu’un.

 

Les axiomes de l’égalité des actions des deux corps entre eux et de l’identité des actions aux réactions donnent des résultats conformes aux faits, il n’y aurait donc pas de questions à se poser !

 

L’axiomatique me fait penser à la méthode Brejnev ! C’est une plaisanterie russe de l’époque soviétique. Staline, Khrouchtchev et Brejnev sont dans un train immobilisé en pleine voie. On envoie Staline voir ce qui se passe. Il revient triomphant. Le train va repartir. Qu’as-tu fait, camarade ? J’ai fait exécuter le chauffeur et mettre le mécanicien au Goulag. Le train reste immobile. On envoie Khrouchtchev. Voilà, nous partons ! Qu’as-tu fait, camarade ? J’ai fait réhabiliter le chauffeur et libérer le mécanicien. Le train ne bouge pas davantage. Brejnev se lève et ferme les rideaux : faisons comme si le train était parti. Voilà l’axiomatique. Circulez, il n’y a rien à voir. On peut tout se permettre pourvu que cela marche. Voilà comment l’action gravitationnelle est en même temps une réaction. Que cela ne soit pas autorisé dans la mécanique des fluides et dans la résistance des matériaux, quoi de plus normal. Ces techniques sont déjà assez mauvaises par elles-mêmes pour qu’il soit toléré qu’elles s’appuient sur la méthode axiomatique strictement réservée à la Science pure. On accepterait difficilement un naufrage axiomatique ou une chute d’avion axiomatique. L’ingénieur n’a pas droit aux axiomes.

 

Un axiome serait valable s’il donne des résultats conformes aux expériences et s’il entre dans le cadre de la « logique scientifique », vers l’unification des forces. La Science pure serait à un stade mathématique irréversible. L’axiomatique constitue le fondement des mathématiques. Cette méthode serait donc parfaitement justifiée dans la Science pure.


 

 

 

Chapitre 2

 

Les paradoxes

 

 

 

La magnifique Science pure a malheureusement quelques problèmes, bassement expérimentaux. On les appelle le plus souvent des paradoxes. La Science pure est confrontée à une accumulation de paradoxes.

 

Une théorie inspirée de Hegel règne encore dans certains milieux dits avancés ou progressistes. L’accumulation quantitative de certains éléments devrait conduire à un saut qualitatif. C’est la vision du matérialisme historique, la dialectique marxiste, qui prédomine encore largement dans les milieux scientifiques et chez beaucoup de soi-disant intellectuels.

 

Le compositeur de musique accumule les dissonances en espérant le saut qualitatif vers la musique universelle, la musique absolue. Il reste aujourd’hui bien seul. Une autre musique a pris un autre chemin et les chansons qu’elle accompagne ont envahi la Planète.

 

Les peintres s’y sont mis sans attendre : accumulons les horreurs ! Des visages carrés, des yeux décalés, des mains destructurées. Accumulons, accumulons les horreurs ! Viendra le saut qualitatif, la peinture universelle, la peinture absolue.

 

On attend un saut qualitatif de la connaissance scientifique par accumulation quantitative des paradoxes.

 

L’expérience de Michelson n’a pas donné un résultat entièrement négatif. Les résultats ont été considérés comme aléatoires, mais ils peuvent atteindre 9 Km/s, ce qui n’est pas rien par rapport aux 30 Km/s attendus. Il s’agirait de l’incertitude des mesures, la marge d’erreur. Les résultats auraient un caractère aléatoire. Ce serait donc bien un problème d’erreurs de mesures. Les scientifiques ont aussi évoqué l’influence de la température, sans jamais donner de justification chiffrée.

 

Par malchance, Miller a repris les mesures sur une base systématique, en faisant des dizaines de milliers de mesures sur des mois. Il a réalisé 200 000 lectures avec 6400 tours d’horizon, pendant quatre périodes de six à huit jours. Bien plus, les mesures ont été faites dans des lieux très éloignés les uns des autres. Ces chiffres rendent improbable un artefact. Le résultat n’est pas aléatoire. Miller a trouvé une corrélation annuelle. Le professeur Allais a trouvé d’autres corrélations en reprenant ces résultats et en tenant compte de l’heure sidérale des mesures et non du temps local. Allais conclut à une anisotropie irréfutable de l’espace optique.

 

En analysant les résultats de Miller avec les techniques les plus récentes de la statistique mathématique, le professeur Allais a démontré, au début des années 90, qu’il ne peut y avoir aucune corrélation avec un problème de température. Il a trouvé des corrélations avec les fréquences astronomiques annuelles, mensuelles et diurnes qui ne peuvent être conciliées avec des variations de température. On a calculé qu’il fallait un écart d’au moins 10°C pour obtenir le résultat de Miller. C’est énorme. Comment imaginer une telle variation de température ? Même en plein vent, c’est inimaginable sur une durée de quelques minutes. Il n’en faut pas plus pour opérer la rotation de l’appareil et faire la seconde mesure. Le principe de l’expérience de Michelson consiste à réaliser deux mesures, avant et après rotation d’un quart de tour.

 

Les outils d’analyse statistique sont parfaitement mathématiques et ne laissent pas de place à l’interprétation personnelle. La condition de base est le nombre suffisant de données. La loi des grands nombres. Ce n’est absolument pas le cas de la météorologie ou des statistiques démographiques. Les données sont en nombre limité. Dans ces domaines, le résultat des analyses statistiques n’est pas sans valeur, mais l’indice de confiance est alors faible.

 

Einstein était informé des résultats obtenus par Miller en 1925, avec un interféromètre beaucoup plus précis que celui utilisé en 1881 par Michelson et en 1887 par Michelson et Morley. Miller déclara avoir découvert un effet d’environ 10 Km/s. Ce n’était que le tiers de la valeur attendue avant les mesures de Michelson. Ce n’est pourtant pas négligeable.

 

On a trouvé une lettre d’Einstein à son ami Besso qui mentionne cette expérience. Einstein a aussitôt attribué ce résultat à un problème de température. Il a admis spontanément les résultats de l’expérience d’Eötvös, pourtant critiquables. Cette expérience a été sévèrement remise en cause par la suite. Einstein a rejeté ceux de l’expérience de Miller. « C’est une attitude partiale, sans doute, mais un choix plein de sagesse, inspiré par une intuition sûre » nous explique la professeur Tonnelat. C’est la thèse de Bonald : la vérité vient de l’autorité ! C’était la thèse soviétique aussi bien.

 

Sur la base de ses analyses statistiques, le professeur Allais conclut qu’il est possible de déterminer le mouvement de la Terre autour du Soleil par des expériences d’optique, ce qui est entièrement contraire à la théorie de la Relativité Restreinte. Le plus curieux est que des expériences sans aucun rapport avec l’interféromètre de Michelson confirment le point de vue d’Allais. Ce sont d’abord ses mesures de déviation du pendule de Foucault. Allais a amélioré ce pendule et lui a donné le nom de pendule paraconique. Il a éliminé le problème de torsion que pose la rotation du plan d’oscillation du pendule de Foucault. Là aussi, les mesures se sont étalées sur des mois, et ont été réalisées en plusieurs endroits. Voilà donc une expérience de mécanique qui montre la même anisotropie de l’espace que des mesures interférométriques. Le même résultat a été obtenu avec des visées optiques. Allais a, en effet, repris les fameuses mesures d’Esclangon et parvient au même résultat. Les écarts de visée constatés restent inexpliqués.

 

Les expériences et calculs du professeur Allais ont été examinées par des commissions de l’Académie des sciences. Elles ont toutes été rejetées en leur temps. L’auteur n’aurait pas apporté de preuves de l’absence de perturbations extérieures. On peut, là encore, imaginer une foule de perturbations. À l’auteur d’apporter des preuves. Allais a répondu. On n’a plus écouté cet empêcheur de tourner en rond.

 

Les mesures des anomalies des visées optiques d’Ernest Esclangon à l’observatoire de Strasbourg sont totalement ignorées. Un rayon lumineux observé avec un collimateur situé à quelques mètres de la source se déplace sensiblement en fonction de l’heure. Ces mesures ont été confirmées d’abord par le professeur Allais en 1958, puis, en 2008, par l’ingénieur en chef de l’armement Pierre Fuerxer et le professeur Vincent Morin.

 

Toutes ces expériences montrent qu’il est possible de mettre en évidence un mouvement de translation par des expériences de mécanique et d’optique. Ces résultats sont résumés dans la troisième partie de cet ouvrage. Ils sont entièrement contraires aux postulats relativistes. Allais attribue ces résultats à une anisotropie de l’espace. Il a proposé plusieurs causes de cette anisotropie. Toutes sont liées à l’existence d’un éther, le milieu de l’Espace, et aux mouvements relatifs du Soleil, de la Lune et de la Terre. Nous examinerons ces diverses solutions dans la deuxième partie de cet ouvrage.

 

Dès 1918, Harress puis Sagnac ont réussi à mettre en évidence un écart des chemins optiques entre deux rayons lumineux parcourant chacun dans un sens la périphérie d’un disque en rotation. Harress réalisa l’expérience dans l’eau, Sagnac dans l’air. L’expérience de Sagnac est le principe des gyrolasers. Tous les avions modernes sont équipés de gyrolasers. Ils remplacent les gyroscopes mécaniques. Comment un instrument d’ingénieur pourrait-il prétendre perturber l’ordre mythique de la Science pure ?

 

Le problème est que, depuis 1918, la métrique relativiste, qui permettrait d’expliquer cette expérience par la Relativité Générale, n’a toujours pas été trouvée. Dans l’expérience de Michelson, il y a bien aussi une rotation. Mais, on effectue deux mesures dans deux positions différentes. La rotation de l’appareil n’intervient pas. C’est un problème de Relativité Restreinte. Dans le cas de l’expérience de Sagnac, au contraire, le déplacement des franges d’interférences dépend de la vitesse de rotation de l’appareil.

 

Madame Tonnelat montre, dans un de ses ouvrages, que la Relativité Restreinte explique l’expérience de Sagnac en première approximation. Comment est-ce possible ? La vitesse tangentielle du disque de Sagnac ne peut pas se composer avec la célérité de la lumière. Le problème n’aurait de solution rigoureuse que dans le cadre de la Relativité Générale. Cette solution n’a jamais été trouvée.

 

La professeur Tonnelat reprend « l’interprétation euclidienne classique de l’expérience de Sagnac, valable seulement de manière approchée », due au professeur Jean Perrin.

 

Une première chose frappe l’esprit dans cette démonstration. Elle commence par un interminable calcul relatif à la mesure des longueurs qui n’est pas utilisé dans la suite. Seul le calcul, tout aussi interminable, de la mesure du temps est utilisé. Pourquoi la mesure des longueurs n’intervient-elle pas ? Pourquoi avoir développé un calcul qui ne sert à rien ? De plus, elle utilise une définition de la simultanéité qui est considérée aujourd’hui comme très contestable.

 

Elle intègre finalement le chemin optique dans l’espace lié à l’observateur regardant le disque tourner, alors que tous les calculs qui précèdent sont relatifs à un repère de référence lié au disque tournant. L’espace de l’observateur est tangent à l’instant t à l’espace lié au disque. C’est là que se situe le retour à la vision euclidienne. Ce tour de passe-passe est justifié par la notion de référentiel d’inertie. L’appareil de Sagnac est dans le repère inertiel du laboratoire. On est donc en droit de faire abstraction de la Relativité Générale. Elle procède, à ce point de la démonstration, à un changement de repère de référence. Le point essentiel est le problème de la simultanéité. La tangence à l’instant t n’implique nullement la tangence à l’instant t+dt. C’est pourtant ce que suppose sa démonstration. Elle obtient en fin de compte un résultat approximativement conforme à l’expérience.

 

Son interprétation de la simultanéité est contraire aux postulats relativistes. Son changement de repère de référence est absolument interdit par la théorie de la Relativité Restreinte sans appliquer les formules de Lorentz. Ces formules annulent tout changement de chemin optique entre les deux rayons lumineux tournant en sens inverses à la périphérie du disque. On peut vérifier l’impossibilité du résultat obtenu par Tonnelat en le dérivant. On trouve que la vitesse tangentielle du disque s’ajoute ou se retranche de la célérité de la lumière, ce qui est impossible en termes relativistes. Elle a utilisé une interprétation de la simultanéité qui n’est pas conforme aux postulats relativistes. Cette critique est le fondement de la plupart des mises en cause de l’explication relativiste de l’expérience de Sagnac. Il est vraiment impossible d’expliquer l’expérience de Sagnac par la Relativité Restreinte ; pas même de manière approchée.

 

Finalement, le professeur Selleri a démontré, en 2003, que toute explication de ce genre est nécessairement paradoxale.

 

En lisant jusqu’au bout le texte de la professeur Tonnelat, le lecteur qui n’a pas été rebuté par la longueur des calculs, somme toute assez simples, tombe sur cette affirmation : « L’impossibilité de démontrer le résultat de l’expérience du disque tournant par la Relativité Restreinte est une preuve de la validité de la Relativité Générale, et c’est même la meilleure preuve ». On reste pantois devant une tel argument ! Il faudrait démontrer l’unicité, pour que le suffisant devienne nécessaire ! Il faudrait démontrer qu’il n’y a pas d’autres solutions. Mais, ce sont là des vues philosophiques. La Science pure ne s’arrête pas à ces considérations dépassées. La Relativité a suffisamment démontré son caractère inéluctable pour que soient pris en compte des états d’âme philosophiques.

 

Madame Tonnelat a placé l’expérience de Sagnac en tête de son livre consacré, justement, aux preuves de la validité de la Relativité Générale ! C’est évident ! Si l’explication n’est pas possible avec la Relativité Restreinte, il faut bien qu’elle le soit par la Relativité Générale. C’est ainsi que la Relativité Générale est prouvée et par contrecoup aussi la Relativité Restreinte qui en fait partie.

 

Finalement, Madame Tonnelat traite l’expérience de Sagnac d’expérience interne à un référentiel d’inertie. Dans ces repères, les phénomènes se produisent conformément à la métrique classique euclidienne. Le laboratoire où est réalisée l’expérience de Sagnac en est un. Mais bien sûr, les interféromètres de Sagnac, les gyroscopes optiques, installés dans les avions sont, en eux-mêmes, des repères de référence inertiels. Mais là, plane comme un doute. On s’interroge. On se garde de conclure : pas de vagues ! Et en plus, on dissimule soigneusement le problème de la simultanéité dans ces repères de référence. L’idée d’expérience interne arrive comme un chien dans un jeu de quilles dans son histoire du principe de Relativité. On sent qu’un doute, une ombre, tourne insidieusement derrière ces beaux calculs et ces belles paroles.

 

L’enjeu aujourd’hui, c’est la cosmogonie. La crise réduit les budgets de la recherche. Il était essentiel de consacrer tous les moyens à la détermination de l’âge de l’Univers, à la mesure de la température résiduelle du big-bang, au nombre de dimensions des défuntes cordes de la théorie quantique des champs !

 

Esclangon, Allais, Sagnac sont à l’origine de trois grands paradoxes. Ce ne sont pas les seuls, tant s’en faut. Il y a quatre grandes catégories de mesures de vitesses dépassant la célérité de la lumière :

 

-    Les neutrinos supraluminiques. Des neutrinos outrepassent la célérité de la lumière. Des neutrinos émis par les considérables énergies de l’accélérateur du CERN, près de Genève, le VLHC, sont parvenus sur les photomultiplicateurs du laboratoire OPERA du Gran Sasso, au sud de Rome, plus rapidement que prévu. Ils ont dépassé la célérité absolue de la lumière. L’erreur de câblage initiale a été réparée et les nouvelles mesures confirment des vitesses des neutrinos supérieures à la vitesse de la lumière, résultat obtenu également par les mesures faites auparavant sur l’installation MINOS.

 

-    L’effet Hartman-Fletcher, ou effet tunnel, concerne le passage de la lumière d’un milieu à un autre en conservant sa vitesse qui peut donc être supérieure à la vitesse de la lumière dans le second milieu. L’Effet Vavilov-Tcherenkov peut se rattacher à cette catégorie. Il s’agit d’un éclair lors d’un tel changement de milieu analogue à l’effet Mach dans l’air.

 

-    Des jets des quasars ont des vitesses supérieures à la célérité de la lumière dans le vide.

 

-    La quatrième catégorie est plus large. Elle regroupe les phénomènes de vitesses de crêtes et de phase des ondes lumineuses. La vitesse de groupe est supérieure à celle de la lumière pour un courant électrique dans un câble coaxial. Là aussi, il n’y a ni transfert de matière ni d’information plus rapide que la célérité de la lumière dans le vide. En général, une partie du train d’ondes dépasse la célérité de la lumière alors que le reste a une vitesse inférieure, en sorte que l’information transmise par l’ensemble du train d’ondes se fait en réalité à la célérité de la lumière.

 

 

A part la vitesse des neutrinos, qui reste à confirmer, ces catégories ont toutes trouvé des explications dédiées, c’est-à-dire spécifiques à chaque cas. Pourquoi pas ? On ne touche pas au dogme !

 

Par contre, il n’y a aucune explication aux paradoxes de la masse et de l’énergie sombres.

 

Les galaxies ne tournent pas en conformité avec la Relativité Générale, ni même d’ailleurs avec la loi de Newton. Les gaz et les étoiles des galaxies tournent à vitesse constante. Bien pire, leur vitesse dépasse celle que permet de calculer la masse visible des galaxies. Les relativistes ont donc inventé la matière sombre, aussi appelée masse manquante, masse noire ou matière transparente. Cette matière doit se trouver répartie de manière homogène dans les galaxies. Elle représenterait 80% de la masse des galaxies. Ce phénomène avait déjà été découvert pour le mouvement relatif des couples de galaxies. À aucun moment, les relativistes n’ont voulu voir là un phénomène mettant en cause leur doctrine.

 

Malheureusement, les astronomes ont découvert que la masse visible des galaxies varie en fonction de la puissance quatre de la vitesse de rotation des étoiles. Ce lien entre la vitesse des étoiles et la masse de leur galaxie revient à relier la masse visible et la masse noire. Ce résultat a reçu le nom de l’astronome qui a mis en évidence les cas les plus nombreux et les plus significatifs. C’est la loi de Stacy McGaugh, à vrai dire déjà remarquée par Tully et Fisher en 1977. Ce lien entre la matière sombre et la masse visible est entièrement contraire à la théorie de la Relativité Générale. Le drame est que les multiples expériences tentées pour mettre en évidence cette fameuse masse sombre depuis le milieu du siècle dernier ont toutes échoué.

 

Un problème semblable se pose pour l’expansion de l’Univers depuis le Big Bang. Il ne s’agit plus d’une simple expansion qui finirait par s’arrêter, comme on le pensait. Une cinquantaine d’explosions d’étoiles lointaines situées de 1 à 6 milliards d’années-lumière ont été observées. Or, ces supernovae lointaines ont une lumière plus faible que prévu dans un Univers en extension. Il faut donc que leur galaxie se trouve à une distance plus grande que prévu. L’Univers s’étend donc plus vite que prévu. Une mystérieuse énergie sombre est nécessaire pour expliquer cette accélération. L’origine de cette énergie est absolument inconnue.

 

L’énergie sombre, dite aussi manquante, serait une sorte d’antigravitation. Elle serait liée aux observations astronomiques des années 2000, montrant une accélération de l’expansion de l’Univers dans le cadre de la théorie de la Relativité Générale. 68 % de la densité d’énergie totale de l’Univers manquerait à l’appel !

 

Après des années de manipulations, les résultats de l’expérience Gravity Probe B, semblent montrer l’effet d’entraînement du champ de gravitation terrestre résultant de la Relativité Générale. En fait, la période choisit correspond à une période de l’année où la Terre se rapproche du Soleil. Il reste une profonde ambiguïté. En outre, les résultats mettent en évidence un phénomène périodique qui coïncide avec les horaires des marées, phénomène totalement inexpliqué.

 

La Relativité Générale prévoit des ondes gravitationnelles lors de certains phénomènes cosmiques liés aux étoiles à neutrons ou aux trous noirs. Si les calculs des relativistes montrent que l’observation de la perte d’énergie des pulsars correspond à l’émission de telles ondes, il n’a pas encore été possible d’en détecter à leur arrivée sur Terre. Essentiellement deux types de mesures sont utilisés. Le premier repose sur le déplacement d’un miroir mesuré par interférométrie comme dans l’expérience de Michelson. Ces engins monstrueux, les LIGO n’ont encore jamais rien détecté et on prévoit d’en construire un nouveau encore plus grand. Le second type de mesure utilise un cylindre isolé de toute vibration et placé dans une énorme enceinte cryogénique (ALLEGRO, NAUTILUS et AURIGA). Les premières mesures positives n’ont jamais pu être renouvelées.

 

Dans un tout autre domaine, plusieurs expériences d’optiques, dont celles du professeur Aspect, devraient nécessiter des transferts d’information plus rapides que la lumière. Les physiciens ont imaginé l’intrication quantique pour répondre à ce défi. Les particules et les photons portent des informations liées.

 

On savait depuis longtemps que deux photons émis simultanément par un atome doivent se déplacer dans des directions exactement opposées pour des raisons de symétrie. Lorsque l’un détecteur indique l’arrivée d’un photon, le détecteur placé du côté opposé voit aussi arriver un photon. D’après la Mécanique Quantique, les photons n’ont pas de direction particulière avant d’être détectés. Ils n’ont qu’une probabilité de présence identique dans toutes les directions tant qu’ils ne parviennent pas à un récepteur.

 

Les deux photons ne prennent une direction déterminée qu’au moment où ils arrivent sur les capteurs. Et ces deux photons prennent alors des directions exactement opposées. Comment les deux photons peuvent-ils atteindre simultanément les deux capteurs qui peuvent être très éloignés, s’ils n’ont pas échangé d’information au départ ?

 

C’est le paradoxe d’Einstein-Podolsky-Rosen, le paradoxe EPR. Il a été imaginé au départ pour mettre en cause la vision quantique. Mais il s’est avéré être conforme à l’expérience, malgré son caractère complètement irrationnel. C’est que la raison n’aurait pas de raison d’être dans le monde microscopique, contrairement au monde macroscopique comme dans la mécanique des fluides, qui, rappelons-le, n’entre pas dans la Science pure !

 

Il faut ici renoncer à la vision rationnelle. Les deux photons ne sont pas des entités distinctes avec des propriétés propres et donc locales. Le paradoxe disparaît si l’on suppose que les deux photons forment un système avec des propriétés qui ne sont pas localisées dans l’un ou l’autre.

 

Les deux photons, même situés à des millions d’années-lumière l’un de l’autre, restent en contact permanent et sans aucun délai. Ils leur seraient impossible d’échanger des informations en raison de la limite absolue de la vitesse, celle de la lumière. Lorsque l’un est détecté, l’autre en est informé de manière instantanée. Les deux photons apparaissent dans des directions opposées sans se consulter. Ils ne sont pas séparables en quelque sorte : c’est le principe quantique de la non-séparabilité. Si les photons ne sont pas toujours tout à fait indépendants, ils constituent parfois des éléments d’un ensemble inséparable.

 

Dans l’expérience d’Aspect, ce résultat est utilisé avec des photons polarisés. Des paires de photons sont produites par une source constituée d’atomes de calcium. On compte les photons et leur direction de polarisation dans deux directions d’un côté de la source et dans deux directions du côté opposé.

 

Ces comptages montrent de corrélations des directions de polarisation. La probabilité de ces corrélations correspond aux valeurs calculées d’après des axiomes de la Mécanique Quantique. Des expériences récentes plus rigoureuses ont confirmé ce résultat. La probabilité de ces corrélations s’écarte notablement des règles de la statistique. C’est le même genre de raisonnement qui a permis au professeur Allais d’affirmer que les résultats des mesures de Miller à l’interféromètre de Michelson ne peuvent en aucun cas résulter de variations de la température et rendent indubitables ses corrélations aux positions respectives de la Terre du Soleil et de la Lune.

 

Mais, de très loin, le paradoxe le plus célèbre de la Science pure est l’incompatibilité entre la vision déterministe de la Relativité et la vision probabiliste de la Mécanique Quantique. On a mis de grands espoirs dans la théorie des cordes associées à des particules qui échangeraient les forces de la Science pure comme les joueurs de rugby s’échangent le ballon ovale en restant groupés sur le terrain. La comparaison n’est pas de moi, mais du professeur Louis Leprince-Ringuet. On espère encore en la gravitation quantique. Les scientifiques ont fait de multiples hypothèses. C’est la grande divergence. On rejoint les paradigmes alternatifs.

 

Pourtant, les partisans de la Science pure restent inébranlables. Ils sont nécessairement sur le chemin de la connaissance de la réalité. Les analyses des résultats de Miller par Allais, pas plus que l’expérience de Sagnac, ne peuvent, en aucune manière, émousser leurs certitudes. Ce sont d’infimes détails, des faux problèmes. Ce sont des fantasmes de quelques esprits obscurcis par des visions passéistes. Ils s’intégreront inévitablement dans l’inévitable unification de toutes les forces de la Nature. Ces expériences bassement matérielles ne peuvent certainement pas gêner la marche triomphale de la Science pure vers son achèvement.

 

Les savants sont sur le point de mettre un point final à la connaissance de l’Univers. Si ces rares expériences, d’apparence contraire, ne peuvent en rien ralentir leur élan adamique, ce ne sont certainement pas les objections de quelques philosophes qui pourront s’interposer.

 

Alain s’est opposé à la Relativité jusqu’à sa mort. Il a pris position dans plusieurs propos, mais essentiellement dans ce passage des « Entretiens au bord de la mer » : « La courbure d’espace est ici une forme d’enseigne. Averti par cette erreur énorme, par cet effronté passage de forme à mouvement, j’ai aperçu dans la doctrine du mouvement relatif, une erreur du même ordre, qui est à vouloir que la relation soit inhérente à la chose ».

 

Si l’on en croit madame Tonnelat : « La philosophie ne joue plus que le rôle d’un fonds historique, d’un contexte littéraire ». Alain en serait resté à la vision de Platon, au « moment kantien, où le sujet se donne à lui-même, en tant que raisonnable, sa propre loi universelle ».

 

Dans ces deux premiers chapitres, nous avons examiné le problème de la relativité du mouvement et les expériences qui lui sont liées : essentiellement les mesures de Miller et l’expérience de Sagnac.

 

 Les trois chapitres suivants sont consacrés à des questions de logique. Nous allons remonter aux quelques concepts qui ont servi de cadre au développement de la doctrine relativiste.


 

 

 

 

Chapitre 3

 

La quatrième dimension

 

 

 

Poincaré a écrit que ce sont nos sens qui sont limités à la perception de trois dimensions, mais rien ne dit que l’espace n’en ait pas davantage. Prenons le problème au départ. Un Univers à une seule dimension est-il possible ? Pourquoi cet Univers serait-il parfaitement rectiligne ? Comment ses habitants pourraient-ils le savoir ? Voilà une partie courbe. Alors apparaît un moment cinétique. L’accélération de Coriolis me projette dès lors dans une dimension locale perpendiculaire. L’espace doit donc localement avoir au moins deux dimensions. Nous voici déjà amenés à deux dimensions. Là, rien ne peut m’interdire de vouloir tourner en rond dans mon plan. C’est perdre mon temps ? Peut-être ! Et voilà encore un moment cinétique qui me projette dans une nécessaire troisième dimension pour peu que je veuille me déplacer dans mon plan tout en tournant.

 

La solution relativiste est d’interdire de tourner dans les espaces à moins de trois dimensions. Il n’y aurait pas de rotation possible dans un espace à une dimension. Les espaces à une dimension ne pourraient donc être que des droites, des vraies, pas des fausses droites de la géométrie riemannienne. Dans les espaces à deux dimensions, on ne pourrait pas tourner autour d’un axe situé dans cet espace sans en sortir. On ne pourrait donc tourner qu’autour d’un point. Mais alors le moment cinétique du corps tournant ainsi serait perpendiculaire à cet espace à deux dimensions. Et si en plus, cet espace glisse sur un autre, c’en est fait des deux dimensions, car le corps serait projeté hors du plan par l’accélération complémentaire.

 

Les modèles mathématiques cosmogoniques n’envisagent que des espaces à plus de trois dimensions. Poursuivons donc l’escalade. Voici une quatrième dimension. Supposons d’abord, comme Poincaré, qu’il existe une quatrième dimension qui aurait le même étalon des longueurs que les trois dimensions de nos perceptions. Quelle que soit la courbe plane que je décrive dans le bon vieil espace à trois dimensions, le moment cinétique restera dans les trois dimensions. La projection d’un moment cinétique sur un axe autre que la droite qui le porte n’a aucun sens. La rotation autour d’un axe ne peut en aucun cas être décomposée en rotations autour de plusieurs axes. Un corps ne peut en aucune manière tourner autour de plusieurs axes fixes. Il faut des cardans. Les axes d’ordre inférieur au dernier cardan sont entraînés en rotation par les cardans successifs. On voit ainsi que, si l’espace lui-même tourne autour d’un axe, les autres axes sont entraînés en rotation. Le quatrième axe serait ainsi mis en rotation. Il en résulterait un effet dû à l’équivalent en quatre dimensions de l’effet Coriolis dans les dimensions perpendiculaires, c’est-à-dire dans l’espace à trois dimensions. Ce n’est nullement le cas. Ce genre de rotation est donc interdit par les partisans des quatre dimensions. Dans de tels espaces, ils n’admettent que les « rotations autour d’un plan » bien que cela n’ait strictement aucun sens physique et ne puisse s’exprimer par des mots. Il faut ajouter qu’une des dimensions de ce plan-axe de rotation est nécessairement la quatrième dimension ajoutée aux trois dimensions habituelles. Si les deux dimensions de cet hyperaxe étaient deux dimensions usuelles, toute rotation ferait sortir les corps des deux autres dimensions dès lors qu’ils se déplacent le long de ces dimensions. Cela ne s’est jamais vu. Il est donc impossible que la quatrième dimension puisse jouer un rôle équivalent aux trois dimensions usuelles. Cette quatrième dimension doit toujours être une des directions de tout plan de rotation.

 

L’hypothèse n’est sans doute pas absurde géométriquement, c’est un non-sens du point de vue de la mécanique. Ce problème de moment cinétique se pose bien sûr indéfiniment avec l’augmentation du nombre de dimensions. Il ne peut donc exister que trois dimensions comme nous les concevons et comme nous le constatons d’après les données de nos perceptions.

 

La Relativité ajoute une quatrième dimension qui est le temps. Mais ce temps est ramené à une longueur par sa multiplication par la célérité de la lumière. Dans l’espace relativiste, les quatre dimensions sont des longueurs dont la somme des carrés des éléments différentiels constitue le carré de l’élément différentiel relativiste de longueur, le fameux ds² de l’équation de Schwarzschild. S’il y avait rotation autour d’un « hyperaxe » contenant le temps, la quatrième dimension, alors les planètes seraient éjectées hors de leur orbite. Réciproquement, tout corps reposant à la surface d’une planète et en translation selon l’axe du temps, la quatrième dimension, serait projeté en dehors du temps par l’équivalent en quatre dimensions de l’accélération de Coriolis lors d’une rotation autour d’un « hyperaxe » ne contenant pas le temps.

 

Ces considérations sur la quatrième dimension sont entièrement indépendantes de la théorie de la gravitation envisagée. Les effets Lense-Thirring et Sitter-Fokker résultent de l’application du principe de relativité à la gravitation. Ils viendraient s’ajouter à l’effet du pendant quadridimensionnel de l’effet Coriolis. Cet effet quadridimensionnel existerait aussi bien dans la seule vision newtonienne ou dans l’hypothèse de Mach.

 

Dans le cadre de la théorie quantique des champs, on a mis sur pied des théories d’espace à 11 dimensions, après en avoir envisagé 24, les malheureuses cordes aujourd’hui abandonnées. Cela n’a aucun sens. On peut imaginer des géométries à n dimensions. On peut appliquer ces géométries à des problèmes de physique à n paramètres et, peut-être, en tirer des conclusions intéressantes. Il ne s’agit pas pour autant de dimensions de l’Espace.

 

Le problème du temps pris comme une quatrième dimension de l’espace cache un problème beaucoup plus crucial. Les relativistes imposent une existence physique et mesurable au temps. Le temps semble bien exister. Ma montre en donne, semble-t-il, une mesure. La première question est de savoir si le temps est perceptible ? On a bien l’impression de vivre dans le temps ! Comment le percevez-vous ? Avec les yeux, les oreilles, le nez, la langue ou avec les mains ?

 

C’est une impression qui n’est pas perceptible. Il y a bien des choses que l’on ne peut percevoir avec nos sens qui existent cependant. La diffusion X nous montre le noyau des atomes et des nuages d’électrons. Ce que nous voyons sur les plaques photographiques n’est peut-être pas exactement ce qui existe, mais il existe quelque chose physiquement. Je n’en doute pas. La pesanteur est un phénomène de la nature, nous en ressentons les effets. Je ne doute pas davantage qu’il s’agit de quelque chose qui existe physiquement. Mais le temps existe-t-il comme ces choses ?

 

Le temps n’est pas une sorte de râpe qui userait les choses. Ce sont les mouvements relatifs qui font que les choses s’usent mutuellement. Aurions-nous d’ailleurs un mouvement par rapport au temps ? Évidemment, le temps passe. Le temps s’écoule. Il n’est plus la même heure que lorsque vous avez commencé ce livre. Il est passé, et l’instant futur n’existe pas encore. Nous avons l’impression de vivre dans le temps, mais le passé n’existe plus et le futur n’existe pas encore. Que veut-on dire par existence du temps ? Comment avoir une impression réelle dans ce qui n’existe pas? On pourrait dire que l’instant existe. C’est là où nous sommes.

 

Ainsi, nous existerions dans l’instant, qui serait la réalité physique du temps. Remarquez que la mesure du temps commence à apparaître assez délicate. On mesurerait du passé qui n’existe plus. L’instant lui-même n’est pas très long. Il faut bien reconnaître que l’instant n’a pas de durée.

 

Nous sommes arrivés à cette idée que seul l’instant existe. C’est donc seulement cette infime partie du temps, cette durée nulle, qui existe dans la réalité ? Le temps n’existe donc pas du tout ? Pourtant, l’instant existe. Nous y sommes. Exister, c’est exister dans l’instant.

 

Nous voilà dans le syndrome du dictionnaire ! Je crains que l’on ne puisse rien dire de plus de l’instant. Mais le temps ?

 

C’est une idée. Un concept qui ne vient d’aucune perception, car rien de tel n’existe. C’est une idée qui trouve sa source, peut-être, dans la mémoire et dans la perception que ce qui existait a changé. Mais ni la mémoire, ni le changement ne sont le temps.

 

Les historiens nous rapportent que, dans un lointain passé, des sinistres individus, qui marchaient en bandes, brandissant leurs poings fermés, ont tenté de submerger l’Univers avec une doctrine qui prenait l’idée de temps comme une vulgaire copie d’un temps qui aurait existé réellement. Leur génial gourou disait : « le temps, ce n’est que des heures ». On les appelait les marxistes, je crois. Des survivants se cacheraient, paraît-il, dans la jungle progressiste. Est-ce possible ?

 

Les relativistes aussi mettent le temps au rang des réalités. Ils prétendent le mesurer. Il lui donne un écoulement, une vitesse en fin de compte.

 

Regardez ce vieux régulateur. Il ne marche plus depuis longtemps. Le pendule oscillait. Il battait la seconde. Un système d’échappement et de roues dentées faisait avancer les aiguilles. Les aiguilles ajoutaient les secondes aux secondes, les minutes aux minutes, les heures aux heures. Elles comptaient en quelque sorte. Où est l’étalon de temps ? C’est le pendule ? Un étalon de temps doit être un temps. Le pendule est-il un temps ? Il a un mouvement. Il a des positions successives. Le temps est-il le mouvement ? Est-il une succession de positions ? Le cadran donne des nombres de secondes, de minutes, d’heures. Le temps est-il sur le cadran ? Est-il un nombre. Où donc est le temps dans tout cela ?

 

Les montres utilisent aujourd’hui les oscillations du quartz. Ce sont de très petites oscillations, mais on sait les amplifier électroniquement et les compter. Il n’y a aucune différence avec le régulateur. Voilà ce que les relativistes appellent mesurer le temps.

 

L’idée de temps a quelque chose d’un écoulement du passé vers le futur, à travers le présent. C’est bien cela l’idée de temps. L’impression ne vient pas de la réalité, mais de l’esprit. De la pensée. Et puisque cette impression vient de l’esprit, l’idée devait y être avant toute perception.

 

Pourtant, les relativistes prétendent avoir prouvé par l’expérience que le temps change avec la vitesse. En réalité, ils ont constaté des phénomènes qui se produisent dans un nombre plus faible d’oscillations de leurs horloges, lorsqu’il y a translation. Ainsi, un atome en mouvement vibre moins vite. La durée de vie d’une particule est plus longue lorsqu’elle se déplace. Ces phénomènes semblent donc plus lents. Ils prétendent que c’est le temps qui change. Ils n’en savent rien. Ils constatent seulement l’allongement des phénomènes, nullement un ralentissement du temps lui-même. C’est la doctrine relativiste qui prétend que le temps s’allonge. La théorie donne un résultat confirmé par l’expérience, mais l’expérience ne prouve pas la théorie. On peut faire une autre théorie dans laquelle le mouvement de la particule ou de l’atome, dans un milieu, en modifie la durée de vie ou la longueur d’onde des oscillations.

 

L’autre problème est celui de ce fameux écoulement du temps. L’écoulement serait variable. Le temps aurait donc une vitesse d’écoulement variable. À vrai dire, les choses sont un peu plus compliquées. On ne pourrait pas constater de changement dans son propre repère de référence. On ne verrait que les changements qui affectent les autres choses lorsqu’elles se déplacent par rapport à nous. Nos horloges respectives n’iraient pas à la même vitesse les unes par rapport aux autres. Les repères sont en mouvement les uns par rapport aux autres. Mais on ne pourrait pas dire lequel est en mouvement. C’est le fameux problème des trains relativistes !

 

Cela dit, le temps aurait une vitesse, puisqu’il pourrait s’écouler de manière différente selon le mouvement de ce que l’on observe. Or, que signifient les mots vitesse du temps ? La vitesse caractérise le déplacement d’un corps dans l’espace. Dans quoi se déplace le temps ? L’instant lui-même, sans durée, peut-il avoir une vitesse ? Dans leurs attendus justificatifs, les relativistes parlent de simultanéité. Ils envisagent des instants qui pourraient ne pas être en même temps, au même instant.

 

Alain a écrit dès 1926 : « On ne trouvera jamais un nombre premier entre 13 et 17. On ne trouvera jamais deux instants simultanés. On ne trouvera jamais un temps plus lent qu’un autre ».

 

Le vrai problème est que la doctrine relativiste utilise le temps comme une réalité physique mesurable. C’est une négation de la première des idées, du premier concept de la philosophie. Mettre le temps dans le monde expérimental, c’est la négation de toute forme de transcendance. La philosophie est annihilée. Le piège s’est fermé. Le nominalisme relativiste ne peut plus être critiqué, il serait la réalité. Juger la doctrine relativiste, ce serait nier la réalité.

 

Laissons leurs certitudes abyssales aux scientifiques relativistes. Nous mettons ce que nous percevons dans le temps. Kant a exprimé cette profonde vérité en disant que le temps est une forme de l’entendement. Kant va encore plus loin. L’espace n’a pas non plus la moindre réalité matérielle. C’est une forme d’existence très semblable à celle du temps. Il y a quelques différences cependant.

 

L’ensemble des lieux que nous percevons, voilà, semble-t-il, en quoi consiste l’espace. Quand je parle de lieu, je veux dire que ce chien, par exemple, a une position par rapport aux choses qui l’entourent. Il était couché près de cette porte. Il est entré et il s’est couché sous la table. Il y a du sucre dans ce placard ! Serais-je assez gentil pour tendre le bras et lui en attraper un ? Il attend. Sait-on jamais ! Mais ces lieux sont-ils ce que nous appelons l’espace. Où sont-ils à présent ? Nous ne sommes pas dans un bateau. Rien ne semble bouger. Mais, la Terre tourne et se déplace. Ces lieux sont très loin déjà de là où ils étaient. Le Soleil nous entraîne à 300 Km/s dans la rotation galactique ! Où sont les lieux ? La Galaxie elle-même se déplace dans notre amas. Qu’est ce qu’un lieu ?

 

Pourtant, nous sommes quelque part dans l’Univers. Même si tout bouge, nous sommes bien quelque part ? Où est l’Univers ? Nous ne pouvons pas dire que l’espace est l’ensemble des lieux. La différence avec le temps est que nous percevons ce que nous pensons être un lieu. Mais, nous ne pouvons pas percevoir l’instant. Ensuite, tout revient au même. Les lieux nous échappent comme le passé et le futur. Nous mettons ces lieux dans l’espace que nous imaginons immobile d’abord. Les anciens rapportaient l’espace à la Terre supposée immobile au centre du monde. Copernic rapporta l’espace au Soleil supposé immobile à son nouveau centre du monde. Plus récemment, on a voulu le rapporter à un solide élastique globalement immobile qui aurait rempli l’Univers. On l’a appelé l’éther. Or, cet éther est impossible. On ne trouvera jamais de référence absolue pas plus qu’un espace immobile ou en translation.

 

Les relativistes ont fort justement rejeté cette idée d’éther immobile, de référence absolue. Mais le contraire d’une erreur n’est pas la vérité ! On ne trouvera jamais un espace immobile, on ne trouvera jamais non plus deux espaces en mouvement l’un par rapport à l’autre. Les relativistes ont rejeté une erreur pour une autre. Ils ont supposé une vitesse absolue : la célérité de la lumière. Mais ils supposent aussi qu’il peut exister plusieurs espaces. Ils appellent cela des repères de référence.

 

C’est bien ainsi que l’on étudie le mouvement en mathématiques. On dessine des repères en indiquant par une flèche leur vitesse relative ! Existe-t-il dans la nature de tels repères avec des flèches ?

 

Percevons-nous autre chose que des corps, les feuilles qui tombent, les chiens qui courent, les poissons qui nagent, les oiseaux qui volent ? Où sont ces fameux repères ? Comment pourraient-ils contenir quelque chose ? Ont-ils des pitons pour s’accrocher comme aux parois rocheuses ?

 

À présent, faudrait-il admettre que notre pensée dispose d’une référence absolue où nous plaçons les choses ? Le mot absolu constitue tout le nœud de la question. C’est le problème de la pensée. Nous pensons par référence à des idées absolues. Mais il nous est impossible de faire coïncider notre pensée avec nos perceptions. Il n’y a pas de référence absolue dans la Nature qui pourrait soutenir notre idée d’espace, d’espace absolu si je puis énoncer ce pléonasme.

 

Il y a là des similitudes avec le temps, mais il y a d’abord une différence. On mesure une longueur avec un étalon de longueur. On compte ensuite un nombre d’étalons. Ce nombre n’est pas davantage longueur que le nombre d’oscillations du quartz n’est une durée. Mais, ici l’étalon a quelque chose de la longueur qu’il mesure. Le lieu a quelque chose de plus, en apparence, que l’instant. La longueur a quelque chose de plus, en apparence, que la durée.

 

La durée a été mesurée dans le passé. Il ne reste que la mémoire de la mesure et du résultat, même enregistré ; c’est du passé. La longueur est encore là. On peut refaire la mesure.

 

On peut aussi mesurer à nouveau la durée. Il suffit de recommencer l’expérience par exemple. Il semble que ce soit plus facile pour les distances. Ce n’est qu’une apparence. Si on mesure une distance parcourue, il faut recommencer aussi l’expérience, à moins d’avoir laissé des repères. Où sont les repères ? Je ne pense pas au facétieux qui serait venu les changer de place. Je pense à ce que nous avons dit du lieu. Les repères ne sont plus là où ils étaient ! Leur distance est-elle restée inchangée ? On le suppose. En général, il n’y a pas de problème. Le patron de la couturière donnera toujours la même robe, même si l’humidité a changé et que le papier s’est quelque peu agrandi. L’écart n’est pas perceptible. Le problème se pose pour le scientifique. L’écart diminue lorsqu’il y a mouvement relatif. Le scientifique relativiste affirme que c’est l’espace, sa métrique, qui a changé. Il n’en sait rien. Si son étalon donne un nombre différent, c’est que les choses ont changé. Il n’a jamais eu accès à l’espace. Voilà pourquoi je disais que ce n’est qu’en apparence que la longueur a quelque chose de plus que la durée. L’existence de l’espace est du même ordre que celle du temps. C’est ce que Kant disait. Il n’a pas dit que l’espace est une manière de représenter les choses, mais une manière de présenter les choses. C’est notre manière de présenter les choses. Nous plaçons ce que nous voyons dans l’espace. Mais cet espace n’est attaché à rien de réel.

 

 

 

Il n’y a pas d’absolu dans le monde expérimental.


 

 

 

Chapitre 4

 

Les géométries non euclidiennes

 

 

 

La réalité matérielle du temps et de l’espace a été postulée par la doctrine du matérialisme dialectique. Ce postulat était déjà présent dans la philosophie de Hume et a été adopté par Newton. Il est depuis resté profondément ancré dans les esprits. Il est l’une des conditions fondamentales de la doctrine relativiste. La Relativité Restreinte repose essentiellement sur cette idée que le temps et l’espace dont des réalités matérielles.

 

Une erreur du même ordre a permis le passage à la Relativité Générale. C’est l’idée de géométries non-euclidiennes. On a établi des géométries qui n’ont pas donné de résultats contradictoires et sont donc considérées comme possibles. Pratiquement, dans ces géométries, le théorème de Pythagore n’est pas vrai. La somme des carrés des côtés d’un triangle rectangle est, soit supérieure, soit inférieure au carré de l’hypoténuse.

 

Est-ce possible ? Tout part de la définition de la droite ? On nous apprend que la droite est la plus courte distance entre deux points. Il y a un premier problème. Une telle droite est limitée, au lieu que la droite est infinie. On définit ainsi un segment de droite. Il y a un second problème. Cette définition n’implique pas que la droite est continue. Mais, peu importe.

 

Comment s’assurer que la distance est la plus courte ? Par une mesure avec un étalon de longueur, bien entendu. C’est facile ! Mais oui bien sûr ! Qu’est-ce qu’un étalon de longueur ? Un segment de droite. Qu’est-ce qu’un segment de droite ? La plus courte distance entre deux points ! On définit la droite avec la définition de la droite. C’est très intéressant !

 

Le principe de l’unicité causale spécifique peut s’appliquer dans le domaine des mathématiques. C’est la raison immédiate qui permet d’affirmer qu’une hypothèse de la géométrie est démontrable de manière absolue. La validité de l’hypothèse ne résulte pas seulement de l’absence de résultats contraires. Les objets de l’hypothèse doivent être absolus. Si les objets de l’hypothèse n’ont qu’une valeur relative, ni la preuve de la validité, ni la preuve de l’erreur ne peuvent être apportées. Il n’y a de preuve possible que si les objets de l’hypothèse sont spécifiques.

 

Les diverses hypothèses des géométries non euclidiennes n’ont, en aucune manière, valeur spécifique. Les objets de ces hypothèses ne sont nullement absolus : la définition de la droite, point de départ de ces constructions, n’est pas absolue. La droite est définie comme étant la plus courte distance entre deux points. Cette définition contient la définition elle-même. Cette définition attribue à la droite une valeur expérimentale. La connaissance de la droite passe par une mesure. La mesure est une relation. La droite serait ainsi une notion relative. Cette définition ruine toute possibilité de spécificité et donc toute valeur mathématique, absolue, aux énoncés des géométries non euclidiennes. L’absence de résultats contradictoires ne permet nullement d’attribuer aux géométries non-euclidiennes une validité apodictique. Les objets de ces géométries devraient être spécifiques, absolus. Les droites des géométries non-euclidiennes ne sont pas absolues. Ce sont des objets répondant à une définition dépourvue de valeur.

 

Dans l’espace à trois dimensions, les droites non-euclidiennes sont des courbes tracées sur des surfaces concaves ou convexes, selon le résultat du théorème de Pythagore. Les scientifiques utilisent ces êtres fictifs dans des espaces à quatre dimensions pour la Relativité Générale. L’Univers serait en extension dans un espace à quatre dimensions.

 

Le décalage vers le rouge ; le fameux redshift a été mis en évidence par l’astronome Hubble, il y a près de quatre-vingts ans. Ce décalage de la longueur d’onde de la lumière émise par les galaxies semble indiquer qu’elles s’éloignent de nous. Leur vitesse de fuite est proportionnelle à leur distance. Ce décalage serait identique vu de tous points de l’Espace. L’Univers gonfle comme le polystyrène expansé. Cette extension devrait se ralentir. En réalité, on pense à présent que l’extension s’accélère. Cette accélération est à l’origine de l’invention des fameuses masse et énergie sombres. Il ne faut pas confondre la masse sombre, d’origine cosmologique, avec la masse manquante. La masse manquante ne résulte pas d’une hypothèse cosmologique, mais du mouvement des étoiles dans les galaxies. La courbe des vitesses des étoiles en fonction de leur distance au centre de leur galaxie n’est pas conforme à la loi de Newton.

 

La défunte théorie quantique des champs utilisait également les géométries non-euclidiennes dans des espaces à 11 dimensions. Des tentatives sans résultat avaient même été faites avec 24 dimensions. C’était la fameuse théorie des cordes et des membranes. Dans ces espaces, les fausses droites des géométries non-euclidiennes, non représentables, ont quelque chose comme des courbures et des torsions. Tout déplacement sur ces fameux ersatz de droite implique donc un moment cinétique, d’ailleurs variable. Que devient le théorème du moment cinétique ? Il faut équilibrer les moments cinétiques. Il faut des moments opposés en tout point de l’espace. Il faut un champ de dipôles dans l’espace non-euclidien correspondant.

 

La courbure correspond à la mise à disposition locale de l’observateur d’étalons de longueur et de temps. En chaque point de l’espace à quatre dimensions, les étalons de longueur et de temps sont déterminés par la valeur locale du champ de gravitation.

 

En passant d’un point à un autre, ces étalons changent de valeur. L’observateur doit penser que ces étalons sont invariables. Il n’a aucun moyen pour mesurer les écarts. La Relativité Générale postule qu’il n’y a pas d’étalons de référence, pas d’étalons absolus. L’observateur aura donc l’impression d’être accéléré ou décéléré selon le sens de variation des étalons. Lorsque l’étalon de temps s’allonge, il compte moins d’oscillations. Il a l’impression que le temps passe toujours à la même vitesse, alors que, vu de l’extérieur, son temps passe moins vite. Lorsque l’étalon de longueur se raccourcit, il comptera davantage d’occurrence d’étalon dans les longueurs qu’il mesure. Vu de l’extérieur, les longueurs s’allongent. Mais l’observateur n’a aucun moyen de s’en apercevoir puisqu’il n’a sa disposition que les étalons locaux. Le bilan, vu de l’extérieur, de ces deux modifications est une accélération. Les étalons sont liés à chaque point de l’espace à quatre dimensions. La modification des étalons résulte de la gravitation produite par les masses. Les masses déforment donc l’espace-temps autour d’elle. L’accélération qui en résulte est géométrique. Du point de vue mécanique, l’observateur reste dans le cadre du principe d’inertie. En chaque point de l’espace-temps, le rapport de l’étalon de longueur à l’étalon de temps reste invariable. L’étalon change de longueur, mais il reste l’unité de longueur. De même pour le temps. Le rapport de ces deux unités reste toujours égal à 1. Chaque observateur est dans son espace-temps, comme on est dans une maison ! Par rapport à l’espace-temps lié à la masse attirante, l’observateur est accéléré, attiré. On pourrait se demander ce que signifie l’expression : vu de l’extérieur. Qu’est-ce que l’extérieur d’un espace-temps ? Cette question n’a pas de réponse. Elle n’a pas même été posée !

 

L’idée que nous avons les pieds sur Terre par l’action de la courbure de l’espace-temps a quelque peine à s’imposer au commun des mortels. Aussi, il existe un point de vue différent : la théorie quantique des champs. Les forces de la Nature seraient colportées par des corpuscules. Ce point de vue a tenté de résoudre un autre problème fondamental.

 

Si l’objet soumis à la gravitation a une charge électrique, il est soumis à des forces électromagnétiques. Il faut aussi une métrique d’espace-temps pour ces champs. Il faut des étalons locaux qui ne sont pas les mêmes que pour la gravitation. C’est la raison des 11 dimensions de la théorie des cordes. Pour éviter que l’observateur ne doive faire preuve de discernement pour choisir les bons étalons et faire les bonnes mesures, ils sont liés à un sélecteur, en anglais manifold, qui se charge de délivrer les bons étalons correspondant respectivement à la masse, la charge, le champ magnétique et autres du corps présent.

 

Les relativistes ont échoué dans toutes leurs tentatives d’unification des forces de la Nature. Les spécialistes de la Mécanique Quantique ont volé à leur secours. La Mécanique Quantique peut tout expliquer. Elle explique les matrices de tourbillons dans les superfluides en rotation dans un cylindre. En réalité, les spécialistes de mécanique des fluides ont démontré qu’il s’agit tout simplement du phénomène bien connu des rues de tourbillons de von Karmann. Ce serait beaucoup trop simple. La Mécanique Quantique explique les vagues solitaires. Des vagues pourraient pomper l’énergie des vagues qui l’entourent de manière aléatoire. En réalité, les spécialistes de mécanique des fluides ont montré qu’il s’agit d’un effet Cherenkoff. Il se produit lorsque des ondes volumiques rencontrent une diminution rapide de la profondeur. Il est amplifié par les courants océaniques. Il n’y a pas que des courants thermiques dans les océans. Les courants thermiques sont repérés de l’Espace par des photographies infrarouges. Mais, il y a des courants océaniques inexpliqués. C’est le cas du courant antarctique qui fait le tour complet de l’Antarctique à température constante. On ne le voit pas sur les photographies infrarouges spatiales. Ce courant est la cause des deux cas de vagues solitaires qui se sont produites dans l’Antarctique, sans faire de victimes heureusement.

 

La Mécanique Quantique explique tout, elle doit donc expliquer aussi le problème des métriques de l’espace-temps. C’est la théorie quantique des champs.

 

Le premier problème est la connexion des corps dans l’espace aux métriques qui correspondent aux divers champs de forces en présence. Cette connexion doit tenir compte de la masse et des propriétés du corps. Il y a, en chaque point de l’espace-temps, un sélecteur qui délivre les bons étalons aux corps qui s’y trouvent. Mais, nous sommes en Mécanique Quantique : le sélecteur n’est plus une formule magique mathématique, mais un corpuscule. Il y a des corpuscules dans l’espace-temps qui transportent les métriques et les délivrent aux particules en mouvement. C’est la théorie des jauges.

 

Le principe d’invariance des lois de la physique impose des règles de symétrie. L’idée de brisure de symétrie a été introduite pour tenter d’expliquer le caractère particulier des interactions dites faibles. Le photon est le corpuscule des actions électromagnétiques. Le graviton joue le même rôle pour la gravitation, mais il n’a pas encore été mis en évidence. Des corpuscules sont les agents des forces de la Nature. L’unification des forces n’est pas l’unification des métriques, des étalons de longueur et de temps, mais l’unification du principe de ces forces. Elles sont toutes portées par des corpuscules répondant à un modèle unique : les cordes. Les cordes étaient des espaces ouverts ou fermés à plusieurs dimensions. Malheureusement, il n’y a plus rien à présent pour remplacer ces cordes fantasmagoriques.

 

Les yeux se tournaient vers le VLHC, le "Very Large Hadron Collider". Il devait révéler le corpuscule magique de la Science pure et permettre d’expliquer la création de l’Univers, rien de moins. Il devait sauver la perspective hégélienne et totalitaire d’un Univers totalement unifié. Il devait donner la masse aux choses. On en est encore loin !

 

La cosmologie est considérée comme la seule voie permettant de comprendre les forces de la Nature. Il faut remonter à l’instant 0 et tout va s’éclairer aussitôt. Las, au lieu d’éclairer le chemin qui devrait mener à la connaissance définitive et finale de la réalité, le mystère va s’épaississant.

 

Nous avons passé en revue les problèmes des géométries non-euclidiennes et de leur utilisation par les relativistes. Nous allons poursuivre avec le problème de l’absolu.


 

 

 

Chapitre 5

 

L’absolu

 

 

 

Tant qu’il s’agit d’expériences, de faits, on peut trouver des oreilles attentives, surtout s’ils entrent dans le cadre du paradigme de la Science pure. Mais les positions philosophiques à l’égard de la Science pure ne rencontrent que des sourires amusés, voire l’ironie.

 

Il s’agit ici de questions philosophiques. Pourtant, ce ne sont pas celles qui procurent les plus faibles convictions. Je me méfis des raisonnements purement mathématiques. J’en arrive à me demander si l’approche positiviste, et donc aussi relativiste, de la connaissance des phénomènes n’est pas la forme la plus pernicieuse d’anthropomorphisme. Les mathématiques sont des outils de l’esprit, des moyens humains. En voulant ramener la connaissance à la seule expression mathématique des phénomènes, on les ramène à l’homme, comme on mettait la Terre au centre du Monde. Je ne dis pas qu’il ne faut pas de mathématiques. Encore que la puissance croissante des ordinateurs permet d’envisager des simulations directes des phénomènes.

 

La conviction générale est que l’expression mathématique des phénomènes du monde expérimental constitue l’objectif essentiel de la science. C’est la vision positiviste et progressiste. Auguste Comte a été le grand prophète de la doctrine positiviste. C’était la conséquence logique de la théorie de la gravitation de Newton, puis de la philosophie de Hume. Marx et Engels ont intégré cette position dans leur doctrine du matérialisme dialectique. Maxwell a développé sa théorie électromagnétique en complète conformité avec le postulat positiviste. Poincaré, en pur mathématicien, puis les relativistes ont, bien entendu, adopté cette vision de la physique sans penser un seul instant qu’il pourrait en être autrement. Or, la puissance grandissante des ordinateurs ouvre aujourd’hui une perspective bien plus puissante : la modélisation informatique directe des phénomènes du monde expérimental. Les mathématiques sont reléguées à un rôle secondaire. On peut même à terme envisager de s’en passer en simulant directement les phénomènes sans chercher à les formuler par des équations mathématiques.

Mais il y a pire. Les relativistes ont voulu faire de l’expression mathématique l’essence même des phénomènes du monde expérimental. Je pense que cette idée que les mathématiques non seulement régissent les phénomènes, mais en constituent l’essence même, comme la courbure d’espace pour la pesanteur, est un anthropomorphisme.

 

On dira que ce serait un anthropomorphisme si les relativistes cherchaient à connaître le pourquoi des choses et qu’ils pensaient que ce pourquoi est mathématique. Ils prétendent que nous ne pouvons connaître que le comment et le comment serait d’essence mathématique. Pourtant, les cosmogonies sont bien des recherches du pourquoi. Quand on cherche à remonter au Big Bang, on s’intéresse bien au pourquoi de l’existence du monde, derrière les modalités du comment, du déroulement des faits.

 

C’est, d’ailleurs, une autre source de perplexité. La matière est caractérisée par les champs qui en émanent. Ne parlons que du champ de pesanteur. Aussi concentrée que soit la matière à l’origine, lors du prétendu Big Bang, elle a un champ de gravitation. L’antimatière a un champ de gravitation exactement identique à celui de la matière. Ce champ a une action qui s’étend dans l’Espace. Il y a donc propagation du champ de gravitation dans l’Espace dès l’origine. Et cette propagation est nécessairement plus rapide que l’expansion de l’Univers. Que l’Univers se contracte ou non après une phase d’expansion, ne renverse nullement l’extension de ce champ. Il est sans doute de plus en plus faible, mais il se propage indéfiniment, il reste en extension perpétuelle.

 

Cette courbure d’espace s’étend dès l’origine vers les confins de l’Univers. Elle ne peut pas rester confinée dans le noyau de matière en extension. Cette courbure a la faculté d’attirer et donc il y de l’énergie qui se répartit dès l’origine dans l’infini de l’espace. De l’énergie, donc de la masse ? Si cette courbure est portée par des particules, alors l’Univers se remplit de particules dès l’origine.

 

L’extension continue du champ de gravitation pose ainsi le problème de la dimension de l’Univers relativiste. De plus, les relativistes attribuent une nature physique aux champs de gravitation résultant d’une structure d’espace-temps définie. L’espace-temps qui s’étend indéfiniment est un hypervolume centré sur l’énergie initiale. Les esprits bornés ne voudront pas voir que cet hypervolume a tout d’un référentiel absolu.

 

Je n’ai jamais trouvé l’ombre d’une réponse à l’ombre d’une question se rapportant à l’ombre de ce problème.

 

Par contre, c’est indubitablement un absolu qui est postulé pour la célérité de la lumière. Aucun corps ni aucune information ne pourraient dépasser la célérité de la lumière. Il existe pourtant, comme nous avons vu, quatre catégories de phénomènes où ce postulat semble mis en cause.

 

Tous ces problèmes se rattachent à l’ambiguïté de la notion d’absolu lorsqu’elle est utilisée pour des phénomènes du monde expérimental. Il n’est nullement prouvé expérimentalement qu’il n’y a pas d’autres phénomènes. Bien sûr, dans le cadre des théories unificatrices, les théories du Tout (TOE de l’anglais theory of everything) comme la Relativité, toutes les forces relèvent du même principe y compris les forces électromagnétiques et la gravitation. Dans ces conditions, il ne resterait rien dehors de ces forces et de la lumière, elle-même de nature postulée électromagnétique. On ne pourrait donc rien trouver d’autre. Mais de nombreux auteurs s’opposent à cette vision. Il y a d’une part ceux qui séparent la gravitation de l’électromagnétisme et lui attribue une célérité de propagation supra luminique. Ce sont les plus nombreux. Les autres séparent les champs électromagnétiques de la lumière et de la gravitation, dans une vision ouverte, laissant la place à de multiples développements futurs de la physique. Ils attribuent des vitesses supra luminiques à l’un ou aux deux types d’actions.

 

Il est parfaitement arbitraire de supposer que, pour les phénomènes relatifs à la lumière, à la gravitation, aux charges électriques, aux aimants et aux autres forces de la Nature, on pourrait se passer entièrement d’une quelconque réalité sous-jacente et se contenter de la modélisation mathématique. Il faut d’abord remarquer que la modélisation mathématique, elle-même fait implicitement appel à un modèle physique : c’est en général celui de la mécanique des fluides et de la théorie cinétique des gaz. Le relativiste prend comme modèle les équations de la mécanique des fluides, et il ajoute des hypothèses de son cru, aussi peu naturelles que certains vins corses.

 

La mécanique du point matériel développée dans le cadre de la gravitation ne fait apparemment pas appel à un modèle physique. Ce n’est qu’une apparence. Le mouvement n’apparaît pas ex nihilo. Il faut une action, appelée force, pour qu’il y ait accélération.

 

Se contenter de modèles mathématiques, c’est seulement refuser de reconnaître son ignorance, l’absence d’explication.

 

 

Le gouffre devient sans fond dès lors que l’on fait intervenir dans le modèle des paramètres qui ne sont pas perceptibles comme le temps. Et l’erreur absolue est à considérer que les phénomènes physiques eux-mêmes puissent résulter des variations de tels paramètres. Que la courbure de l’espace-temps, qui traduirait pour une part la modification de l’écoulement du temps, puisse avoir un effet sur la matière est réellement une absurdité sans précédent. Car, le temps ni l’espace mathématique ne peuvent agir sur la matière n’ayant nulle possibilité de contact avec cette matière. Ce n’est pas l’espace euclidien qui fait aller en ligne droite un corps lancé en dehors de toute action extérieure. C’est seulement l’absence d’action extérieure qui le fait aller droit. Pas davantage, un espace non euclidien ne peut faire tourner un corps, car l’espace mathématique ne contient pas de corps susceptibles d’interaction avec la matière.

 

L’Univers est donc rempli, et entièrement, par le réel. Ce qui renvoie à Descartes. Le néant n’est point réel, mais idée. Les matérialistes remarquent que notre esprit est dans l’Univers et donc que les idées s’y trouvent par là même. Les idées seraient les images des choses. L’idée de néant serait donc l’image de la chose néant. Le néant existerait donc physiquement. Est-ce encore le néant ? Si l’esprit, support des idées, est bien réel et dans l’Univers physique, on sait depuis Socrate que les idées n’y sont point.

 

Le rapport de l’esprit avec l’absolu et l’infini est l’apanage de la philosophie. Quant à atteindre l’absolu et l’infini même, c’est absurde en soi-même. Percevoir l’absolu directement ou par l’expérience est tout aussi absurde. La perception, comme l’expérience, est relation. L’absolu ne peut pas être l’objet de relation. Pourtant, le relativiste prétend avoir réussi à mesurer l’absolu : la célérité de la lumière. Il brandit ses trophées, en s’agitant sur les estrades comme les vainqueurs sportifs.

 

Écoutons celui-là, il parle pour tous les autres :

 

« On a réussi, de cette façon, le tour de force qui consiste à exprimer l’absolu au moyen du relatif ». « L’essentiel, c’est que malgré cette relativité, des mesures de temps et d’espace doivent toujours pouvoir être mises sous forme de relations précises entre tenseurs (vecteurs à quatre dimensions), c’est-à-dire entre absolus ». « C’est le sujet qui construit la science, mais le but de ses efforts constructifs est de connaître la nature indépendamment de ses activités de sujet ». « La Théorie de la Relativité est la théorie de l’absolu à travers le relatif et par le relatif » (M. Metz : intervention à la société française de philosophie en septembre 1966).

 

Un autre, plus célèbre, confirme d’ailleurs :

 

« La méthode einsteinienne consiste essentiellement à chercher une représentation mathématique des choses, indépendante du point de vue de l’observateur, et qui constitue un ensemble de relations absolues » (Bergson, La Pensée et le mouvant p. 37, italique dans le texte).

 

Je fais grâce au lecteur, pour l’instant, des interminables errements bachelardiens, en vertu de l’adage : « Qui trop embrasse mal étreint ». À vouloir trop justifier, on fait se lever comme un doute.

 

On pense naturellement à la célérité de la lumière, postulée absolue, bien qu’accédée. La réalité perçue aurait ainsi atteint à l’absolu que le pauvre philosophe, insensible à la grandeur de la pensée relativiste, persiste à lui refuser. Tant s’en faut que le cas soit unique. La science actuelle a postulé tous azimuts. L’équation de Maxwell-Ampère ? Un postulat absolu ! La structure de la matière ? Invariante, absolue ! La masse et la charge de l’électron ? Invariante, absolue aussi ! Qui a osé écrire que tout s’écoule ? Toute la Science pure s’écroule si tout s’écoule ! Elle repose sur une accumulation d’absolus, d’invariants.

 

Ces postulats étayés par d’innombrables confirmations expérimentales éclatantes ont pétrifié la pensée. Tant dans leur force que dans leur forme, je veux dire tant en quantité qu’en qualité, les composantes essentielles de l’Univers sont définitivement fixées. L’axiomatique, cette forme pernicieuse du nominalisme millénaire, règne sans partage.

 

C’est la tentation de la fin de l’Histoire.

 

Cette Histoire n’est qu’une apparence. Celle des feuilles agitées par la brise, qui tombent l’automne venu, et qui pourrissent enfin au sol. Mais l’arbre lui-même a d’autres mouvements.

 

Par la conscience d’être révolutionnaire, la Science pure ne doute point d’elle-même. Elle est expérimentale et ne saurait donc se comparer aux constructions philosophiques du passé. Elle pense fonder la certitude, oubliant que ce qui était condamnable dans la pensée passée ce n’est point la pensée elle-même, mais la certitude qui s’y attachait. L’homme actuel est encore plus profondément ancré dans l’erreur. Car, cette erreur repose sur des propositions opposées à la pensée passée par quoi elles seraient justifiées. Or, la connaissance scientifique ne peut être, en aucun cas, considérée comme juste pour cette seule raison qu’elle s’oppose à la pensée passée. Dire que le relativiste s’oppose à l’éther de Lorentz ne signifie pas que ses théories soient justifiées, même partiellement conformes à l’expérience de Michelson. C’est une étroite vision dialectique, à vrai dire de mauvaise dialectique, car il faudrait qu’il y ait fusion de l’erreur ancienne avec son contraire, ce qui n’est pas le cas, et la réalité serait cette fusion ce qui n’est pas le cas non plus. Ces deux contraires sont seulement deux erreurs et je prétends que la réalité est sans rapport ni avec l’une ni avec l’autre ni avec leur interpénétration car elles équivalent toutes deux au néant et ne peuvent rien engendrer quel que soit l’opérateur qui les lie.

 

Pourquoi, alors, un tel engouement ?

 

« On redemande de ces choses scientifiques parfaitement inintelligibles qui fascinent comme tout ce qui est profond, mystérieux, incompréhensible. » (Balzac, Illusions perdues).

 

« Plus le fait est invraisemblable, plus ils s’empressent d’y croire. Leur vanité est intéressée. Ils rient et applaudissent pour montrer qu’ils ont bien compris. L’homme éprouve son suprême plaisir à ce qui lui est suprêmement étranger. » (Erasme, Éloge de la folie).


 

 

 

Chapitre 6

 

Les moments cinétiques

 

 

 

La Science pure considère la gravitation comme un phénomène isotrope. L’effet de la pesanteur d’un corps ne dépend que de la distance à son centre. La gravitation possède essentiellement une symétrie sphérique.

 

Or, l’immense majorité des systèmes de l’Univers a une symétrie axiale. C’est le cas de toutes les planètes, de la position de leurs satellites et, le cas échéant, de leurs anneaux. C’est le cas du système solaire, avec l’exception d’une partie des comètes et des astéroïdes. Mais, c’est essentiellement le cas des galaxies, des milliards de galaxies.

 

La pesanteur est effectivement isotrope, mais elle doit s’accompagner d’un phénomène à symétrie axiale. La Science pure ne rend pas compte du moment cinétique des astres et des systèmes comme les galaxies. Qu’il y ait, globalement, annulation des moments cinétiques, c’est certain. La Science pure n’explique pas comment se produit cette annulation. Lorsque la vitesse de rotation d’un astre varie, comment se produit la compensation indispensable ? Il faudrait là une autre action à distance.

 

Newton a bien pensé qu’il pourrait y avoir une difficulté. Il a demandé qu’on lui donne la vitesse tangentielle pour construire un système solaire. Il y a rotation, donc moment cinétique. Les astres tournent aussi sur eux-mêmes. D’où viennent tous ces moments cinétiques ? Comment peuvent-ils s’équilibrer à distance ? Personne n’a laissé d’écrits sur ce problème.

 

La symétrie axiale se caractérise par des propriétés zonales. Cet aspect zonal de la gravitation ne se limite pas aux courbes des vitesses de rotation de la surface des planètes gazeuses. Elles ont toutes un caractère zonal. Les océans de la Terre ont des courants zonaux. Les courants équatoriaux et tropicaux ont un caractère zonal très prononcé. On a tenté de donner une explication thermo-saline de ces courants océaniques. Pourtant, le courant antarctique est à température constante. Cette explication ne tient pas. Faute de mieux, on attribue ce courant aux vents. Que le vent puisse entraîner l’eau sur des centaines de mètres de profondeur est en complète contradiction avec les plus élémentaires notions de mécanique des fluides. Et on ne peut pas prétendre développer des explications dédiées pour chaque occurrence d’un même phénomène.

 

Les zones des planètes sont séparées par des régions à caractère tourbillonnaire. La grande tache rouge de Jupiter en est la meilleure illustration. Le Soleil ne tourne pas en bloc comme un corps solide. Sa vitesse angulaire est plus rapide dans son plan équatorial qu’au pôle. C’est aussi un phénomène zonal. La variation de la vitesse est continue au lieu que, pour les planètes gazeuses, les zones sont séparées. Mais le système solaire présente une particularité remarquable. Tous les corps de son système ne gravitent pas dans le voisinage de son plan équatorial. Leurs inclinaisons ne sont pas réparties au hasard. La répartition statistique est zonale. Le problème est que les corps qui ont une inclinaison importante traversent plusieurs zones au cours de leur périple. L’effet zonal ne peut être mis en évidence que pour les inclinaisons relativement faibles. Au-delà de 25°, la répartition est aléatoire. Cette répartition zonale présente une caractéristique très curieuse : des lacunes de cette répartition sont occupées par des comètes rétrogrades.

 

La statistique n’est pas considérée comme un moyen de preuve par la plupart de nos contemporains. Il y a, derrière cela, une méconnaissance totale des principes mêmes de cette partie des mathématiques. Regardez pour les inondations ! La dernière grande inondation à Paris a eu lieu en 1910, il y a un siècle. On attend donc une nouvelle crue centenaire de la Seine d’une année à l’autre. C’est stupide ! La prochaine crue centenaire pourrait aussi bien survenir dans un siècle. Il pourrait fort bien s’écouler deux siècles entre deux crues centenaires.

 

Il faut dire que la statistique est une science assez ingrate. On voit bien à quoi correspondent les figures de la géométrie. À quoi correspondent, concrètement, la variance ou la signature d’une répartition statistique ? C’est beaucoup plus difficile à concevoir. La statistique est très abstraite. J’ai l’impression que les spécialistes sont très satisfaits de cette particularité.

 

Il y a aussi un phénomène très surprenant. Il n’y a pas de corps qui gravitent dans le voisinage immédiat du plan équatorial du Soleil. Les étoiles des galaxies sont toutes concentrées dans leur plan principal, qui joue le rôle de plan équatorial. Plusieurs planètes ont des anneaux situés exactement dans leur plan équatorial. Il y a un problème dans le plan équatorial du Soleil.

 

Or, il y a aussi un problème dans le plan principal des galaxies. Toutes les étoiles se trouvent pratiquement dans ce plan. Mais, elles ne tournent pas normalement. La vitesse tangentielle des étoiles des galaxies devrait décroître avec la distance. En réalité, la vitesse tangentielle des étoiles reste constante, entre 250 et 400 Km/s selon les galaxies. C’est le problème de la masse manquante. Ce phénomène reste totalement inexpliqué.

 

Il a été découvert en 1933 par Zwicky. Il calcula la masse totale de l’amas de Coma, en étudiant la répartition des vitesses des sept galaxies qui le composent. Il constata que les vitesses observées dans l’amas étaient très élevées. La masse newtonienne serait 400 fois plus grande que la masse visible. Smith fit le même calcul, en 1936, pour l’amas de la Vierge. Il fit la même constatation que Zwicky.

 

La question se reposa de manière plus cruciale quarante ans plus tard. Rubin étudia la rotation des galaxies spirales. La vitesse maximale de rotation d’une galaxie spirale se trouve à quelques kilo-parsecs du centre, puis elle devrait décroître selon les lois de Kepler. Or, les vitesses restent constantes au fur et à mesure que l’on s’éloigne du centre des galaxies. La masse visible ne représente pas plus, et au mieux, que 10 % de la masse des galaxies. Il faut ajouter 90 % de la masse totale de la galaxie, voire plus dans certaines galaxies naines, pour obtenir cette courbe des vitesses. Cette énorme masse complémentaire ne peut pas être ajoutée au centre de la galaxie. La courbe de Kepler serait rehaussée, mais on obtiendrait, malgré cela, une courbe képlérienne en s’éloignant du centre.

 

On a imaginé un gigantesque halo de matière non visible, au sein même des galaxies. C’est la masse sombre ou manquante. Tous les télescopes ont été mobilisés pendant des années pour mettre en évidence la masse manquante. On a trouvé quelques systèmes planétaires, pris de fort belles photographies. Mais pas l’ombre de la masse manquante.

 

Le phénomène confirme les mouvements relatifs des galaxies mis en évidence par Zwicky et Smith. On retrouve le même défaut de masse pour les déviations optiques, les fameuses lentilles gravitationnelles. Il existe même des effets de lentille gravitationnelle sans que le moindre amas de galaxies ne se trouve sur le trajet optique. Dans ces cas, il manquerait 100 % de la masse. Des exceptions ? On a trouvé, jusqu’ici, 60 000 cas. C’est du moins l’estimation obtenue en considérant qu’elles sont réparties uniformément.

 

De multiples candidats ont été imaginés pour remplir les galaxies et l’espace intergalactique. Outre de la matière ordinaire, froide, donc invisible, les neutrinos continuent à mobiliser d’importants moyens. Les cordes, candidates à tout, comme la Mécanique Quantique, dont elles sont issues, vont tomber dans l’oubli après leur échec total dans le cadre de l’approche quantique des champs.

 

On a aussi imaginé qu’il n’y a pas de masse manquante, mais un problème avec la loi de Newton. On a tenté, par exemple, de la faire varier avec la distance.

 

Les relativistes pensent que c’est seulement un problème de masse. La masse manquante est cachée. On finira par la trouver. Ils ne cessent de le répéter, pensant peut-être nous convaincre. Ils finissent par créer le doute. On commence à penser que c’est un vrai problème.

 

Le pire était à venir ! Dès 1977, une anomalie a été découverte. C’est la loi de Tully-Fisher. Les vitesses des galaxies spirales sont liées à leur luminosité, donc à leur masse perceptible. Cette loi a été confirmée en 2010 par Mac Caugh pour tous les types de galaxies. La masse manquante des galaxies se trouve donc en proportion de la masse perceptible et localisée au même endroit. Une telle répartition conduit également à des résultats contraires à la loi de Newton. L’idée de masse manquante ne marche pas. On entend, au loin, comme des trompes sonnant l’hallali.

 

Voilà un faisceau de problèmes relatifs à la rotation des astres. Un problème de rotation doit d’abord être considéré comme un problème de moment cinétique.

 

Il y a, aujourd’hui, un faisceau de problèmes de moment cinétique. Pris séparément, ils ne sont pas inquiétants. Ensemble, ils posent une question : que fait la Science pure du théorème du moment cinétique ?

 

Il y a un problème de moment cinétique, tant pour les galaxies que pour le Soleil. Il y a un problème de moment cinétique dans l’Espace. L’expérience de Michelson met en évidence ce problème de rotation. Il est confirmé par les analyses du professeur Allais. L’expérience de Sagnac est aussi un problème de rotation dans l’Espace.

 

La boutade de Newton cache un problème majeur des champs de gravitation. Le produit de la masse d’une planète par sa vitesse et par sa distance au Soleil représente son moment cinétique dans sa rotation autour du Soleil. Or, les mesures montrent que ce moment cinétique n’est constant pour aucun corps céleste. Que les moments cinétiques de l’ensemble des astres et d’une manière générale, de l’ensemble de la matière de l’Espace se compensent globalement, voilà déjà une hypothèse nécessaire. Il faut aussi que les variations soient compensées à chaque instant. Comment les autres corps célestes pourraient-ils être informés qu’ils doivent augmenter leur moment cinétique pour compenser un ralentissement de la vitesse de rotation de la Terre, par exemple ? Le philosophe Emmanuel Kant a attribué le ralentissement de sa vitesse de rotation sur elle-même aux frottements hydrauliques dus aux marées. De tels frottements ne peuvent, en aucun cas, compenser une diminution du moment cinétique de la Terre puisque les océans tournent avec la Terre. On pense aujourd’hui que c’est la Lune qui est ralentie par les marées. Le bourrelet fluide retarde sur le mouvement de la Lune créant une action de rappel. On a aussi pensé que les jet-streams atmosphériques, ces vents de très haute altitude dont profitent les avions, pourraient compenser, par frottements, les variations de moments cinétiques. On comprendrait bien que les frottements viennent équilibrer le bilan énergétique de l’ensemble. La conservation du moment cinétique est tout aussi impérative et ne peut être réalisée que par transmission d’une variation d’un moment cinétique exactement inverse. Il faudrait donc une autre forme d’action à distance, en complément à la transmission de la gravité. Or, le succès de la Relativité Générale résultait justement du fait que cette théorie avait la prétention de supprimer la nécessité de la transmission à distance des forces de gravitation. Comment à présent accepter une autre forme aussi inconcevable d’action à distance ?

 

Personne ne se préoccupe de l’équilibre des moments cinétiques dans le système solaire, dans les galaxies, dans l’Univers. Il y a nécessairement compensation globale au niveau de l’Univers. Aux niveaux inférieurs, on pense peut-être que la compensation n’a pas d’influence sur le mouvement des astres, on ne s’en préoccupe pas le moins du monde.


 

 

 

Chapitre 7

 

Le probabilisme et le déterminisme

 

 

 

L’effet Doppler résulte d’un fait extrêmement simple. Lorsque la source d’une onde sonore est immobile par rapport à l’air et par rapport au capteur, l’oreille par exemple, la longueur d’onde émise est la même que la longueur d’onde reçue. Mais si l’observateur se déplace par rapport à l’air qui porte les ondes, alors l’observateur constatera que les crêtes des ondes se succèdent plus ou moins vite, selon le sens de sa vitesse par rapport à l’air. S’il va à la rencontre des ondes, le son paraîtra plus aigu car les crêtes lui paraîtront plus rapprochées. Sa vitesse s’ajoute ou se retranche à celle du son dans l’air puisqu’il se déplace par rapport à l’air. Symétriquement, si la source se déplace, les crêtes du son émis seront plus ou moins rapprochées selon la vitesse de la source. La vitesse du son par rapport à l’air n’est pas changée, bien sûr. C’est la distance entre crêtes qui est modifiée. Dans ce cas, la distance entre crêtes des ondes sonores est réellement allongée ou raccourcie. La vitesse de la source ne s’ajoute pas à la vitesse du son dans l’air ; elle ne se retranche pas non plus.

 

Pour la lumière, on parle de l’effet Fizeau. La lumière est une onde. L’explication devrait donc être la même que pour le son. Or, c’est impossible selon la doctrine relativiste. Les crêtes de l’onde lumineuse s’avancent vers l’observateur à la célérité de la lumière. L’observateur qui s’avance vers le photon ne peut pas les voir arriver plus vite que la lumière. Les crêtes des ondes lumineuses lui parviennent donc toujours à leur distance réelle. Pour que la distance entre les crêtes soit réduite, il faudrait que la vitesse de l’observateur s’ajoute à la vitesse des crêtes par rapport à lui-même. Il ne peut pas non plus les voir arriver moins vite s’il va dans le sens du photon. Ce n’est pas davantage un problème de vitesse de phase. L’effet Fizeau existe en lumière monochromatique. Ce ne peut donc pas être un problème de vitesse de phase ou de vitesse de groupe. Ce sont des notions relatives aux lumières polychromatiques.

 

Puisque la célérité de la lumière ne peut se composer à aucune vitesse, l’effet Fizeau ne peut pas s’expliquer comme l’effet Doppler dans l’air. Cet effet est le résultat d’une composition de vitesses impossible pour le photon. L’effet Fizeau est une propriété de la lumière qui n’a rien à voir avec l’effet Doppler. En fait, pour les relativistes, l’effet Fizeau est le résultat de l’application des formules mathématiques de Lorentz.

 

L’application des formules de Lorentz donne d’ailleurs un complément relativiste transversal qui n’existe pas pour l’effet Doppler dans l’air. Cet effet complémentaire a été mis en évidence par les mesures expérimentales. Il renforce la conviction des relativistes d’être sur la voie unique de la connaissance de la réalité.

 

On demandait à Churchill le secret de sa prodigieuse réussite politique. « Je suis allé d’échec en échec ». On demandera aux scientifiques partisans de la Science pure la cause de leur dramatique échec : « Nous sommes allés de succès en succès ».

 

Voici un photon émis par un atome d’une source en mouvement. Un observateur mesure la longueur d’onde de l’atome. Ce photon ne peut en aucune manière savoir à quel observateur il est destiné. Il ne peut donc porter aucune information de vitesse relative par rapport à un quelconque observateur.

 

Il faut considérer les conditions d’espace-temps de la source et celle du récepteur nous disent les scientifiques ! Ces deux espaces-temps ont une vitesse relative. Il faut donc appliquer les formules de Lorentz. Du point de vue mathématique, c’est parfait. Mais physiquement ? Comment le photon peut-il avoir la connaissance des conditions de réception par rapport aux conditions d’émission ? Comment peut-il avoir connaissance des conditions d’espace et temps dans le référentiel où il arrive ? Le problème est le même que pour la gravitation. Comment une métrique peut-elle communiquer une énergie à un corps ? Comment un être mathématique peut-il se matérialiser en action ? C’est un des mystères que la Mécanique Quantique tente de résoudre, en remplaçant les métriques par des particules, où plutôt en intégrant les métriques dans des particules. Mais ce n’est pas plus compréhensible. Je vois bien que je suis irrécupérable ; je n’ai pas encore compris qu’il ne s’agit plus de comprendre depuis longtemps, mais d’aligner seulement des formules mathématiques.

 

C’est exactement la même question que pour l’expérience d’Aspect.

 

 

 

 

Il faut une source d’information de la vitesse, comme il faut une source d’information de l’état initial de polarisation. Il faut aussi une information de position pour les interférences en faible éclairement. C’est un problème général du photon, et non un cas particulier de la polarisation et des interférences.

 

Les expériences d’Aspect rendent cette position intenable. Il faut que le photon soit informé de la trajectoire qu’il devra prendre avant d’arriver au récepteur. Le paradoxe est qu’il faudrait alors un signal plus rapide que la lumière. La réponse est l’intrication quantique. Vous ne comprenez pas ? Mais il n’y a rien à comprendre dans la méthode axiomatique ! Aristote aurait dit que c’est la nature des choses. Point.

 

Une onde dans un fluide peut se subdiviser en deux ondes d’amplitude moitié. On ne peut pas diviser le photon en deux. Le photon ne peut passer que par l’une des fentes de l’interféromètre. Or, si l’on émet une lumière très faible, si faible même que les photons se suivent à des intervalles de temps mesurables, on observe quand même des interférences. Chaque photon passant par une seule fente doit donc savoir où il doit aller sur l’écran pour ne pas éclairer une zone de frange sombre.

 

Pour expliquer ce paradoxe, on a inventé la probabilité de présence. Le photon a la même probabilité de passer par l’une ou l’autre des fentes. C’est une application du principe d’incertitude. On se retrouve donc avec une sorte de milieu de probabilité. C’est ainsi que l’on explique que les photons se regroupent sur les franges claires où leur probabilité ondulatoire de présence est la plus forte.

 

Les partisans de la Mécanique Quantique affirment que la nature des choses est d’être gouvernées par leurs probabilités. Cette position est déterministe dans le cadre d’une vue d’ensemble de la Nature. Ils affirment connaître la cause exclusive des phénomènes. Cette cause est déterminée par une approche probabiliste. Chaque élément, chaque phénomène de la Nature, serait probabiliste. Les interférences observées résulteraient de la probabilité de présence des photons. Pourtant, le résultat global est parfaitement déterminé. Les interférences observées n’ont pas de caractère probabiliste. C’est là une grave incohérence de l’approche probabiliste de la connaissance de la Nature. Ils ont évidemment une réponse. Les raies appartiennent au monde macroscopique et donc la probabilité n’est plus perceptible.

 

On peut noter au passage que des ayatollahs de la Mécanique Quantique ont été jusqu’à attribuer à cette vision probabiliste la possibilité du libre arbitre, dans un Univers régi par la causalité. C’est là un point de vue dramatiquement anthropomorphique. En effet, la causalité est un concept absolu qui n’appartient qu’à l’esprit. Nous ne pouvons pas penser autrement que dans le temps, dans l’espace et selon la causalité, ce qui n’implique nullement que le temps, l’espace et la causalité appartiennent au monde expérimental. Pas plus que la droite et le cercle de la géométrie n’appartiennent à ce monde physique.

 

Je ne suis pas sûr que la Mécanique Quantique puisse apporter la solution à un problème lié au mouvement. Einstein a écrit un ouvrage reconnaissant la nécessité de l’éther. Cet éther ne pouvait en aucune manière porter la lumière comme l’éther de Lorentz. Puisque la lumière, ce sont des photons. Il s’agissait en fait de l’espace même avec les métriques des champs qui le remplissent. Ce texte était destiné à emporter l’adhésion des ultimes partisans de l’éther. Comment concevoir un tel espace sans revenir à un référentiel quasi-absolu ? Je dis quasi-absolu, car il n’aurait pas la rigidité de l’éther de Lorentz. Il aurait eu une forme variable, une métrique selon les champs locaux, mais à grande distance des astres et en l’absence de matière, un tel éther, mathématique en quelque sorte, aurait pu jouer le rôle de référentiel des vitesses. Le problème de l’effet Fizeau aurait là une réponse évidente, mais avec un retour à une sorte de référentiel absolu, fondamentalement contraire au principe de Relativité.

 

Les problèmes soulevés par les expériences dans le cadre de la doctrine relativiste ont entraîné une approche probabiliste de la Science pure. Cette approche avait été rendue nécessaire dans le cadre de la Mécanique Quantique pour expliquer les propriétés des couches électroniques des atomes.

 

L’aspect le plus troublant de cette approche provient de l’usage qui est fait des statistiques. Le principe même de toute approche statistique est que le lot d’objets étudiés soit en nombre suffisant. La statistique est la science des grands nombres. Or la Mécanique Quantique applique cet outil mathématique à des êtres uniques. Chaque électron et chaque photon a une probabilité de présence en un point de l’Espace. C’est une utilisation en contradiction avec le principe même de la statistique. La probabilité d’occurrence d’un événement est calculée sur un grand nombre d’événements semblables. La probabilité liée à un être unique n’a rien à voir avec la statistique. C’est une pure fiction, une pure théorie sans aucun support mathématique.

 

Ce même photon se voit en même temps attribuer une célérité absolue, parfaitement déterminée. La caractéristique essentielle du photon, sa vitesse de propagation, est ainsi de nature parfaitement déterministe. Par contre, sa position serait probabiliste. C’est là une incohérence majeure. Le même être, observé dans les mêmes conditions, a deux caractéristiques contradictoires, inconciliables. C’est la Grande Incohérence.


 

 

 

Chapitre 8

 

Le champ magnétique des électrons

 

 

 

Avant de découvrir les électrons, on a donné la mauvaise direction au courant électrique dans un conducteur. Le courant électrique va du plus vers le moins, alors que les électrons vont en sens contraire. Or, il n’y a que les électrons qui se déplacent dans les conducteurs, à une vitesse très faible de quelques cm/s seulement. Vitesse qui n’a d’ailleurs jamais été mesurée.

 

La même inversion a été faite lors de la définition de la propriété magnétique intrinsèque des électrons : leur moment magnétique.

 

La mauvaise solution a été choisie dans les deux cas.

 

La définition erronée a été choisie à la suite d’une longue histoire. Le champ magnétique des courants électriques est actuellement considéré comme un effet de la vitesse de translation des électrons à l’intérieur des conducteurs. Cet effet a été découvert par Gian Domenico Romagnosi en mai 1802. Romagnosi a informé l’Académie des sciences de Paris de ce phénomène. L’Académie n’a pas enregistré la découverte. Le scientifique danois Hans Christian Ørsted a fait la même découverte vingt ans plus tard et l’Académie Danoise a publiée immédiatement son rapport. Néanmoins, Ørsted a reconnu qu’il était informé de l’expérience de Romagnosi.

 

Les rayons cathodiques ont été découverts à la fin du 19e siècle. En 1895, l’expérience de Perrin a montré qu’ils sont chargés négativement. Thomson a fait, en 1897, la suggestion audacieuse que les rayons cathodiques sont des corpuscules constituants des atomes. Les expériences de Stoney, réalisées en 1874, étaient ainsi confirmées et le nom d’électron qu’il avait imaginé désigna dorénavant ces particules. A cette époque, la loi de Maxwell-Ampère a été modifiée pour prendre en compte l’existence des électrons. Mais la cause du champ magnétique n’a pas été remise en cause.

 

Le choix de la définition du modèle standard des électrons a été considéré comme confirmé par l’expérience de Rowland effectué en 1876. Néanmoins, dans l’expérience de Rowland les disques chargés tournent. Cette expérience montre que la rotation d’une charge électrique produit un champ magnétique, mais une rotation ne peut pas être considérée comme une translation. Il est entièrement incohérent de rejeter l’explication du disque tournant de l’expérience de Sagnac, même pour les très faibles vitesses de rotation, comme un effet de la translation et, dans le même temps, d’accepter que la rotation d’une charge pourrait être équivalente à une translation.

 

L’électron est considéré dans le modèle standard de la Mécanique Quantique comme un dipôle magnétique. Il serait donc analogue à une minuscule barre aimantée.

 

 

 

 

 

 

 

 

 

 

 

 

En réalité, le champ magnétique des électrons est l’inverse géométrique du champ d’un dipôle tel que stipulé par le modèle standard. Le champ magnétique des électrons a une structure rotationnelle. Ce champ magnétique est la cause directe du champ magnétique des courants électriques dans les conducteurs et des rayons cathodiques.

 

Dans l’approche axiomatique de la Mécanique Quantique, il est postulé que le moment magnétique des électrons est toujours maintenu stochastique, tant au sein de conducteurs que dans les rayons cathodiques, qui sont censés ne pas être polarisés. Comme les moments magnétiques des électrons sont distribués au hasard, ils ne créeraient pas de champ magnétique dans les conducteurs ni dans les rayons cathodiques.

 

Une preuve indirecte du caractère erroné du modèle standard de l’électron résulte de l’échec de la magnéto-hydrodynamique, la MHD. Ce fut le rêve des années 1960 pour produire directement de l’électricité sans turbine en faisant circuler un fluide chargé électriquement. Il a échoué. Il y a seulement quelques expériences qui ont réussi à obtenir un effet très faible, mais elles ont utilisé des supraconducteurs où le rôle principal résulte de la structure atomique et non du seul fait de déplacer les charges. Le champ magnétique des courants électriques ne provient donc pas du déplacement des charges électriques.

 

Le modèle standard de la Mécanique Quantique conduit à l’existence de deux causes possibles coexistantes du champ magnétique d’un flux d’électrons : la vitesse de translation et le « moment magnétique intrinsèque ». Le « moment magnétique intrinsèque » des électrons est actuellement considéré comme un résultat de la rotation de la charge des électrons, de sorte que le mouvement de la charge est considéré comme la seule cause du magnétisme. Néanmoins, dans un conducteur ou dans un rayon cathodique, les électrons ont finalement deux moyens possibles de production du champ magnétique. Cette redondance est contraire au principe d’unicité causale spécifique applicable pour les concepts de base de la physique ainsi que pour la géométrie. Elle est aussi contraire au principe de simplicité d’Ockham. C’est le principe d’économie, le Rasoir d’Ockham : « On ne doit jamais multiplier les êtres sans nécessité (numquam pluritas est ponenda sine necessitate) ». Ce célèbre énoncé est aussi la quinzième conclusion du Traité du premier principe de Duns Scot. Il est dû, en réalité, à Aristote.

 

L’inversion du champ magnétique des électrons permet d’attribuer le champ magnétique des courants électriques et des rayons cathodiques directement au véritable champ magnétique de l’électron, inverse géométrique du champ de dipôle de la Mécanique Quantique.

 

 Il se pose, a contrario, un problème pour les aimants. Le champ magnétique rotationnel des électrons ne peut pas être directement la cause de leur champ magnétique. Le champ magnétique des aimants résulte de l’arrangement des électrons dans des structures toriques, ce qui crée donc une topologie de champ conforme à la réalité. Les domaines de Weiss seraient donc des structures différentes de celles qui sont impliquées par le modèle standard.

 

Cette inversion de topologie permettrait d’envisager une explication quantitative de l’effet de la Barnett qui reste purement qualitative pour le moment. On pourrait penser que les structures toriques des domaines de Weiss des aimants contenant les électrons sont inclinées par l’accélération de Coriolis résultant de la rotation, donnant ainsi un facteur d’amplification important qui n’existe pas dans le modèle standard de la Mécanique Quantique.

 

Il existe un moyen de vérifier que le champ magnétique d’un rayon cathodique ne dépend pas de la translation des électrons. Les champs électriques ne changent pas la propriété magnétique des électrons. Si un rayon cathodique pulsé est dévié de 90 ° par un champ électrique, le champ magnétique des électrons reste tel qu’il était avant la déviation, de sorte que le champ magnétique du rayon cathodique ne doit plus être mesuré par des bobines placées dans un plan contenant le faisceau après la déviation, contrairement à ce qui peut être observé avant la déviation.

 

Ce petit changement de structure du champ magnétique des électrons a une petite conséquence. Il faudra bien convenir que le problème de relativité de Poincaré ne se pose plus. Pourquoi ? Le champ magnétique rotationnel des électrons reste invariant dans un changement de repère galiléen ! Il n’y a donc pas de problème de relativité dans les phénomènes électromagnétiques.

 

Reste l’expérience de Michelson. Descartes avait trouvé une solution bien avant qu’elle ne soit réalisée. Dans les tourbillons de son Monde, il est impossible de constater un déplacement de la Terre par rapport au fluide de sa lumière, le milieu de l’Espace, car la Terre se déplace avec ce milieu. Bien plus elle est entraînée par ce milieu qui, pour Descartes, est à la fois le support de la gravitation et le support de la lumière. C’est ce que confirment entièrement les expériences et statistiques du professeur Allais, l’expérience de Sagnac et les visées d’Esclangon.

 


 

 

 

Chapitre 9

 

Les paradigmes

 

 

 

Le problème de la valeur des théories scientifiques a fait l’objet d’une abondante littérature dans la seconde moitié du XXe siècle. De nombreux philosophes ont tenté de justifier, ou au contraire de critiquer, la valeur de la science. Je me suis référé à Russell (1872-1970), Bachelard (1884-1962), Popper (1902-1994), Ramsey (1903-1930), Prigogine (1917-1998), Lakatos (1922-1974), Kuhn (1922-1996), Feyerabend (1924-1994), Lyotard (1924-1998), Chalmers (1936-2005), Putnam et Onfray.

 

Ces philosophes appartiennent au courant de la philosophie analytique, dite école américaine, par opposition aux approches phénoménologiques, propres aux écoles continentales dont la plus célèbre est l’école de Marbourg. Ces dernières sont les derniers refuges de la philosophie après le naufrage du kantisme, position rendue intenable par les postulats relativistes : « La philosophie générale ne joue plus que le rôle d’un fonds historique, d’un contexte littéraire », et dans la même veine : « Les diverses branches de la sociologie, des sciences économiques, historiques, de la psychologie se partagent les restes d’une vétuste Morale et d’une Philosophie Générale périmée » (M.A. Tonnelat, Histoire du principe de Relativité, © Flammarion, 1971, p. 485 et 486).

 

Russel distingue deux types de connaissance : « La connaissance par expérience directe et la connaissance par description ». Ces deux connaissances seraient liées par un principe : « Toute proposition [connaissance par description] que nous pouvons comprendre, doit être composée uniquement de constituants dont nous avons [connaissance par] l’expérience directe » (Russel, Problèmes de philosophie, © Payot, 1989 p 69 et 80). Le problème de la valeur d’une proposition se trouverait rapporté à l’exactitude de la connaissance par l’expérience directe. L’expérience directe est la perception sensible, le sense-data.

 

La perception sensible est toujours vraie, pour reprendre la grande pensée d’Alain. Mais elle ne peut rien exprimer par elle-même. La perception sensible est évaluée par la pensée pour être mémorisée selon des déterminations. La pensée lui associe des mots qui en permettent l’expression. Ce n’est nullement la perception sensible qui forme un « constituant » de la proposition, ce sont les mots qui expriment le jugement de l’esprit sur la perception. Russel, plus loin dans son livre, analyse cette opération de jugement, mais dans le contexte plus général de la validité des raisonnements. Il n’a, à aucun moment, envisagé les problèmes fondamentaux de toutes les formes de jugement : la nature et l’origine des critères du jugement. Russel rejette le système de Kant. Pour Kant, les critères du jugement sont les concepts du monde transcendantal. Ils sont indépendants du juge : l’esprit. Sans cette indépendance, il n’y a pas plus de pensée qu’il n’y aurait plus de justice si le juge pouvait légiférer selon son bon vouloir !

 

Russel rejette le monde transcendantal de Kant. Sa démarche s’inspire directement des approches matérialistes : « Par abstraction, je découvre ce que les déterminations ont en commun. C’est de cette façon que j’obtiens l’expérience directe de la relation en tant qu’Universel » (p.126). « Toute connaissance a priori concerne exclusivement les relations entre Universaux » (p.127). « C’est habituellement en passant par des instances particulières que nous devenons capables de percevoir le principe général » (p.137). Et pour terminer : la « nature de la vérité » est « la correspondance avec les faits » (p.147). Russel ramène donc le problème de la vérité des théories à deux problèmes : qu’est-ce que le fait ? Que faut-il entendre par correspondance ?

 

Ce qu’il prend pour des faits, qu’ils soient ses sense-data ou ses « Universels, ou idées abstraites » (page 71), sont des pensées dans tous les cas. L’esprit exprime ce qu’il pense des perceptions et non la perception elle-même ; le juge prononce la sentence, un jugement sur des faits tels qu’il les comprend. Il y a jugement dès le niveau de l’expression des faits. La connaissance des Universels, l’autre catégorie de faits, chez Russel, résulterait de perceptions, des sense-data répétées. En réalité, une telle acquisition ne peut reposer que sur les déterminations des perceptions, ce que Russel a, d’ailleurs, écrit, et donc des pensées, des jugements. À défaut de toute forme de critères indépendants, ses Universels ne peuvent pas prétendre à la moindre vérité.

 

On peut rester un peu sceptique sur la conclusion de Russel : « À la différence de la connaissance des choses, la connaissance des vérités a un opposé : l’erreur. » (p.143). La connaissance des choses est certaine pour Russel puisqu’elle repose sur les faits : sur ses sense-data et sur ses Universels. Il n’en est rien en réalité, car les Universels résultent de pensées et que les sense-data sont eux-mêmes des interprétations, des jugements. On peut aussi penser que la formation des Universels fait intervenir des procédures de la logique. Et en plus, il y a cercle !

 

Il faut ensuite une correspondance des théories avec ces faits. On s’attend à voir ce second niveau de jugement faire appel à toutes les procédures de la logique. Il n’en est rien. Il suffit que « le faux, opposé du vrai, soit possible, que la vérité soit une propriété de la croyance, mais une propriété qui dépende entièrement des relations entre la croyance et quelque chose d’extérieur » (p.147). Cette règle d’obtention de la vérité présente l’avantage de contenir le résultat cherché. L’objectif est de distinguer les bonnes théories scientifiques des mauvaises. Pour qu’une théorie soit vraie, elle doit pouvoir être fausse. On sait donc ce qui distingue le vrai du faux, ce qui est le but cherché.

 

Si la distinction entre vrai et faux était toujours possible, il n’y aurait jamais d’erreur. On ne s’aperçoit, le plus souvent, qu’une proposition est fausse que des années, des siècles, des millénaires après. Songez à Aristote ! Russel pense à la science actuelle. Il a lancé cette thèse en 1912. La science règne sans partage. Il ne s’agit plus de réfléchir aux principes philosophiques qui permettent à l’esprit de juger, mais d’imposer à la philosophie les fondements de la Science pure, nécessairement vrais.

 

Par crainte, cependant, que des esprits idéalistes et obtus ne trouvent quelque biais, Russel inclut la vérité dans la croyance. Est-elle aussi dans le quelque chose d’extérieur ? Quelle est cette chose extérieure : le fait. Or, Russel nous l’a dit d’emblée, le fait est vérité. Conclusion : la Science pure est vérité !

 

La plus grande partie des œuvres de Bachelard est consacrée à l’épistémologie. De son temps, cette activité n’avait pas d’autre but que de donner aux démarches relativiste et quantique une justification historique et une valeur scientifique définitive. Toute démarche philosophique contraire à ces démarches devait relever d’un idéalisme subjectif fondamentalement erroné. La vraie voie était tracée comme en filigrane dans l’histoire de la philosophie, il suffisait de savoir trier le bon grain. Le premier pas est de voir que l’histoire est faite de révolutions, de sauts qualitatifs. Nous y voilà : c’est l’Histoire racontée par les marxistes ! Bachelard nous mène dans l’histoire de la physique, armé de la dialectique marxiste. Nous avançons sous bonne garde, comme des zeks dans les archipels du goulag, les camps de déportation soviétiques. Nous apprenons que « l’histoire des sciences est menée par une sorte de nécessité autonome » (Bachelard, L’activité rationaliste © PUF 1965 p. 47). Il était question de la possibilité pour la philosophie de justifier la valeur d’une théorie. Non, la science ne peut être jugée que par elle-même. Je vous disais bien que c’est de la dialectique marxiste. L’expert prononce ses dires selon ses propres critères. Bachelard ne prend « à l’histoire des sciences que ce qui peut éclairer la philosophie des sciences contemporaines » (p.58). L’histoire du mouvement ne commence qu’avec Newton.

 

On entre dès lors dans les nouvelles certitudes : « Il y a des concepts indispensables dans une culture scientifique qu’on ne conçoit pas qu’on puisse être amené à les abandonner. Ils cessent d’être contingents. » (p 26). Certes, il y a des erreurs, mais « il y a des barrières qui empêchent pour toujours l’esprit humain de rétrograder ». Il fallait une certaine dose d’inconscience, une dose certaine même, pour écrire cela après les horreurs de deux guerres mondiales, et les hécatombes marxistes ! On dira que Bachelard ne parle que de la science, et plus précisément de la physique. La science est-elle dans un monde à part ? Dans quel monde est Hiroshima ?

 

Le scientifique actuel « ne peut plus accepter qu’on pose du dehors le problème de la valeur de la science » (p. 4). La science se juge elle-même selon ses propres critères. Exit Kant : « La raison, dans la culture scientifique, n’est pas éclairée par la lumière naturelle ». Exit tous les philosophes : « L’esprit scientifique se comprend dans ses productions, il forme avec aisance le langage de ses productions » (p.5). Sur ces prémisses lumineuses, s’ouvre la perspective grandiose d’une science nécessairement véritable, et à la fécondité inépuisable. La culture scientifique nouvelle « impose ses tâches, sa ligne de croissance ». Non, je ne traduis pas un texte de Souslov, je lis bien du Bachelard. Vous en voulez encore ? « Exister par le livre, c’est déjà une existence. Le nombre de livres écrits sur l’électron dépasse le nombre de livres écrits sur la Lune » (p. 7 avec quelques coupures qui ne changent pas le sens). Conclusion de Bachelard : l’électron existe nécessairement.

 

Conclusion de la conclusion : si j’avais la fortune de Bill Gates, j’écrirais plein de livres et je les ferais distribuer à des millions d’exemplaires : ainsi mes idées seraient vraies !

 

Cette importance donnée au livre n’est que l’expression de la nature véritable de la science selon Bachelard. Il faut d’abord assimiler les livres avant de pouvoir prétendre œuvrer à l’avancement de la science. On est revenu au Moyen Âge. Le référentiel est documenté, hors du référentiel, point de vérité. C’était Aristote. Mais, en plus, la science nouvelle est sociale. Le référentiel de la science actuelle porte une multitude de noms de savants. La science est une activité démocratique. Nous sommes loin d’un richissime Lavoisier expérimentant dans son laboratoire privé. Une époque définitivement révolue affirme Bachelard. « Le philosophe doit infléchir son langage pour traduire la pensée scientifique contemporaine » (Le nouvel esprit scientifique © PUF 1934, 1963 p 3).

 

Il faut prendre, « comme un fait à expliquer », « le double sens de la preuve scientifique qui s’affirme dans l’expérience aussi bien que dans le raisonnement » (id). Cette position peut paraître exprimer une profonde vérité si l’on fait abstraction de l’idée qu’il s’agirait d’un fait, donc incontestable pour un matérialiste comme Bachelard, et qu’il s’agit de preuve. Or cette affirmation n’est pas un fait, c’est une proposition de l’esprit. Aucune perception sensible ne comporte une telle somme d’informations. Quand bien même ce serait la conceptualisation d’un nombre énorme de constats expérimentaux, la logique ne permet pas, un seul instant, de penser qu’une preuve soit possible.

 

Popper a montré qu’un ensemble d’observations, même en grand nombre, ne permet pas d’en tirer une proposition générale. Sa critique de l’induction conduisit Popper à remettre en cause la notion de vérification expérimentale. Une hypothèse ne peut en aucune manière être validée par des expériences, même en très grand nombre. Une hypothèse, un postulat, est toujours réfutable. Si on trouve une expérience contraire, la proposition sera réfutée. Ce processus d’hypothèses et de réfutations serait, selon Popper, la base même du progrès des connaissances.

 

En réalité, je pense qu’il n’y a jamais d’expérience contraire. C’est un problème de logique. Si aucune somme d’expériences ne peut prouver une théorie, aucune expérience ne peut prouver la théorie contraire, c’est-à-dire, d’abord, que la théorie est fausse. La logique est formelle, âpre. C’est un chemin « étroit, pierreux et raboteux, bordé de précipices », le chemin d’Hannibal à la traversée des Alpes allobroges. Elle est indépendante de la nature même de la théorie à prouver. L’affirmation de la fausseté d’une théorie est, sur le plan purement logique, une autre théorie, même si son contenu est pauvre de cette seule négation. Les principes logiques qui s’appliquent à la vérification d’une théorie sont identiques à ceux qui concernent la négation de cette théorie. La complexité des théories a pour conséquence qu’il est impossible d’appliquer le principe de l’unicité causale spécifique. Il s’agit d’une multitude de faits. L’unicité causale spécifique est la seule voie de la preuve. Elle est ici exclue.

 

Le réfutationisme de Popper a été critiqué, notamment, par Lakatos. La science ne consiste pas uniquement à réfuter des théories ou à les prouver. Lakatos propose le principe de « programme de recherche ». Un programme de recherche est une démarche heuristique, c’est-à-dire d’enrichissement progressif. Les postulats de base, le « noyau dur », sont déclarés irréfutables. Le programme définit les procédures méthodologiques et les orientations de recherche. Il devrait aussi éliminer les orientations considérées comme stériles. La meilleure théorie est celle qui a le plus fort potentiel heuristique. C’est un critère d’efficacité. C’est la thèse honteuse de Darwin appliquée à la science. C’est les « plus meilleurs » qui éliminent les autres !  On retrouve l’approche de l’école anglo-écossaise de la pensée. Lakatos comme Popper se rattache au système d’Aristote.

 

Je voudrais, plus sérieusement, citer un passage de Habermas sur la science : « Dans l’observation contrôlée, qui prend souvent la forme de l’expérimentation, nous produisons des conditions de départ et nous mesurons le succès des opérations exécutées. Or, c’est au niveau des observations formulées dans les énoncés de base (Basissätze) que l’empirisme voudrait ancrer l’illusion objectiviste : à l’en croire, elles nous assurent en effet un donné immédiat dans l’évidence et sans qu’intervienne la subjectivité. Mais, à vrai dire, les énoncés de base ne sont pas les copies de faits en soi, ils expriment au contraire les succès ou insuccès des opérations que nous avons entreprises. On peut dire que les faits et les relations qu’il y a entre eux sont appréhendés sur un mode descriptif ; mais cette façon de parler ne doit pas cacher qu’en eux-mêmes les faits significatifs pour les sciences expérimentales ne se constituent qu’à travers une organisation préalable de notre expérience dans le domaine où s’exerce l’activité instrumentale » (La technique et la science comme idéologie © 1968, Gallimard p. 146-147). C’est un premier pas vers une authentique objectivité. Il reste que les mots mêmes qui constituent les énoncés, ne sont pas neutres. Eux-mêmes sont des préalables à notre expérience.

 

La réalisation d’une expérience résulte toujours, non seulement d’une intention, mais aussi d’un cadre scientifique défini. Ce cadre peut être conforme au paradigme officiel ou, aussi bien, en contradiction avec lui. L’expérience est conditionnée par une intention dans le cadre de l’une ou l’autre de ces deux approches. Le matériel expérimental lui-même n’est pas neutre. Les appareils de mesure sont imprégnés du paradigme existant. Mais surtout, ce que Habermas ne dit pas, c’est que les énoncés sont eux-mêmes imprégnés de ce paradigme. Les mots qui le composent sont définis à l’intérieur même du paradigme. Le sens qui leur est donné n’est pas séparé de la vision des choses inhérente au paradigme. Le pire est que ce paradigme peut comporter des énoncés si anciens qu’ils sont comme naturels. C’est vraiment le cas du champ magnétique des courants électriques qui résulterait de la translation des électrons. La première réaction devant la mise en cause de ce postulat deux fois séculaire est la plus profonde incrédibilité.

 

 

Cette position de Habermas, déjà ancienne, est assez éloignée de celle exprimée dans les ouvrages plus récents. Il s’est rangé derrière le consensus communicationnel. Cette position ne diffère de celle de Kuhn que par la procédure. À vrai dire, Kuhn n’a pas posé le problème de la procédure. Le cas le plus structuré de procédure d’agrément est le groupe d’experts. On pense qu’un groupe d’experts acquiert, du fait du groupe, une capacité d’indépendance que chaque membre pris individuellement, ne peut revendiquer. Dans les domaines technologiques, le groupe a une réelle supériorité. Il accumule l’expérience. Les risques d’erreur sont minimisés. Mais, les experts sont malheureusement conditionnés par leurs connaissances technologiques communes. Le groupe limite l’erreur, il n’apporte qu’une indépendance relative. La situation est améliorée en lui adjoignant des experts de domaines indépendants. On parvient ainsi à une forme de jugement humainement acceptable. L’indépendance absolue de la « raison pure » est une perfection inaccessible. Il faut bien composer avec la réalité de « la raison pratique ». La perfection n’est nullement niée par ce relativisme. Elle est reconnue pour ce qu’elle est : un absolu. Et l’absolu nous tire vers une perfection toujours plus grande. On trouvera certainement mieux un jour que la procédure de groupe d’experts élargi ou que toute autre procédure communicationnelle existante. C’est ce que je comprends chez Habermas.

 

Feyerabend n’acceptait pas de règles méthodologiques universelles. Anarchiste de la connaissance, il s’est opposé à la vision basée sur l’efficacité. D’abord partisan du relativisme : « La validité d’une affirmation est relative à un individu ou à un groupe social », il a été amené à prendre une position plus nuancée : « Les cultures sont des entités plus ou moins fermées avec leurs propres normes et procédures. Elles ont une valeur intrinsèque » (Tuer le temps, © Le Seuil, 1996, p.191). Des penseurs, des scientifiques, ont aussitôt rejeté l’application de cette position au domaine scientifique. Comment donc ? Il n’y a qu’une seule science. Elle est universelle. Ce principe est au-delà du « noyau dur » de Lakatos. La vérité est accédée par la science actuelle. Cette vérité accédée n’est passible que d’améliorations. La science, pardon, la Science, aurait ainsi une sorte de fin comme l’Histoire pour les marxistes ?

 

Ramsey a soutenu qu’ « une croyance est une sorte de guide pour notre action, et une croyance est vraie si elle est utile ». Ce retour à l’approche anglo-écossaise et darwinienne a été contré récemment par Dokic et Engel « l’échec peut-être dû non pas à une fausse croyance, mais à une ignorance ». On sait que Ramsey était, à sa mort, en train de revoir ses positions de jeunesse, si l’on peut dire, il n’avait pas 27 ans.

 

Putnam fut l’un des premiers philosophes à s’intéresser à la révolution informatique. L’inventeur du fonctionnalisme affirmait, dans les années 60, que l’esprit n’est qu’une machine bâtie sur le modèle des ordinateurs. Il n’aurait qu’un caractère fonctionnel, apte seulement à traiter des signes. Cette conception est à la base des développements informatiques abusivement désignés sous le nom d’intelligence artificielle. La Bourse, déjà, suivit en fanfare cette mode nouvelle. La chute fut en proportion du rêve. Il en reste, malgré tout, quelques idées reprises dans les systèmes de base de données dites relationnelles et les moteurs de recherche. Mais, Putnam a réfléchi depuis lors. Il a pris une position plus cartésienne de l’esprit humain.

 

Kuhn pensait qu’un ensemble « d’idées et de pratiques imprègnent les esprits à un moment donné ». Il appelait cet ensemble le « paradigme en cours ». Dès que des difficultés s’accumulent, et qu’un nouveau paradigme est proposé, il se produirait un changement brutal de paradigme : une révolution scientifique. On reconnaît, bien sûr, un des dogmes de la doctrine marxiste, inspiré de la dialectique hégélienne. « L’accumulation quantitative » engendre des « sauts qualitatifs ». On peut reporter ces naïvetés au rang des fossiles. Elles n’en affectent pas moins encore profondément la pensée actuelle, principalement dans les milieux scientifiques, qui restent, une fois n’est pas coutume, très largement en retrait du renouveau intellectuel qui marque la philosophie.

 

Il n’est jamais arrivé que la totalité d’un paradigme, caractérisant une époque, ait été brutalement remplacée. Un paradigme, d’abord, n’est pas un ensemble homogène. Il se compose de deux classes de données juxtaposées, mais distinctes.

 

La première classe est celle des faits, des résultats expérimentaux. Il est absurde de douter absolument des faits. Le pyrrhonisme conduit au néant. Il est stupide de vouloir douter du principe d’Archimède, des expériences atmosphériques de Pascal, de la chimie de Lavoisier. Il est tout aussi stérile de douter que l’expérience de Michelson montre l’impossibilité du système de Lorentz, de douter que les équations de Maxwell sont invariantes dans la transformation de ce même Lorentz. J’introduis ici une sorte de sous-classe des faits, les résultats des calculs mathématiques.

 

Ce sont là des faits. Les faits sont-ils absolument incontestables ? Certes, non. Ils sont raisonnablement incontestables. On pourrait les affecter d’une probabilité selon le vœu de Cournot. Les faits sont très probables. On pourrait soupçonner la mauvaise foi ou l’intention chez celui qui chercherait à en douter. « Auschwitz est bien la plus réelle des réalités ». Le Goulag, le Dalstroï, son émanation de la mortelle Kolyma, et Pol Pot aussi bien. Budapest, Prague, Tienanmen : l’ordre maintenu à la mitrailleuse lourde, montée sur les tanks marxistes. Le massacre de Kronstadt : des milliers de chômeurs misérables, des marins débarqués, le lumpen-prolétariat, écrasés par les rouges, le péché originel des trotskistes. Autant de très « réelles réalités ».

 

Alain rapporte ce mot de Hegel devant les sommets alpins : « C’est ainsi ». Il lui reproche de ne pas s’en être assez convaincu en écrivant sa Phénoménologie de l’esprit. Je n’ai pas retrouvé ce mot chez Hegel, mais ce qu’Alain veut nous dire, c’est que la perception ne nous trompe pas. Un coup sur l’œil produit un éclat, comme la lumière. L’éclat n’est pas douteux. Mais la perception est interprétée par l’esprit. C’est aussi le problème de la perception du cube : on ne percevra jamais un cube. On perçoit un objet étalé sur la rétine, avec des ombres et des rapports de dimensions. Cette perception est vraie. L’esprit juge la perception et pense le cube. Est-ce vraiment un cube ? Où est le critère du jugement ? C’est la question de Kant.

 

Le même problème se pose pour le temps. Qu’est-ce que le temps ? Que fait le relativiste ? Il nous invite à constater la difficulté de mesurer une longueur, et à juste titre ! Comment pourrions-nous être assurés de la coïncidence des extrémités de la longueur à mesurer, condition de la validité de la mesure, puisqu’il s’écoule toujours un certain temps entre les deux constats ? Or, il n’y a pas de moyen de communication instantané. Le même personnage prétend mesurer le temps ! Or, la mesure du temps commence par la mesure d’une longueur, la longueur d’onde de l’atome utilisé. La mesure du temps consiste ensuite à compter des battements. Où est le temps dans ces deux actions : une longueur inaccessible ? un nombre ? Alain n’est pas allé dans ce détail d’analyse. Il a seulement affirmé que « le temps n’a point de vitesse » (Alain, Entretiens au bord de la mer© Gallimard, 1949, p.106) et dans ses propos répétés (31 octobre 1921, 12 avril 1922, 12 mars 1923, 25 février 1933, 1 janvier 1936, 14 février 1936) : « On ne trouvera jamais un nombre premier entre 13 et 17 ; on ne trouvera jamais deux instants simultanés ; on ne trouvera jamais un temps plus lent qu’un autre ». L’anathème a été lancé ; le lèse Relativité dûment châtié. Silence ! Inclinez-vous, c’est la Science qui passe ! Et pourtant, si le temps avait une vitesse d’écoulement, par quoi serait mesurée cette vitesse ? Dans quoi s’écoulerait le temps ?

 

L’enchaînement des faits est la base de la tâche de l’historien et de l’épistémologue. Or, le seul enchaînement comporte un jugement. On s’éloigne déjà des faits. Bien sûr, certains faits peuvent avoir été enregistrés, et, à ce titre, l’enchaînement peut relever des faits. L’historien et l’épistémologue s’élancent ensuite vers les causes. Leurs thèses font partie de la classe des théories. C’est la seconde classe des données du paradigme.

 

Les deux classes du paradigme sont inconciliables par rapport au doute. La classe des faits n’est nullement le champ du doute cartésien. S’il est absurde de douter absolument des faits, il est tout aussi absurde de refuser absolument de douter des théories, des hypothèses, des postulats, des axiomes. Mais, il est vrai, aux confins des faits, l’hypothèse ; aux confins des hypothèses, le fait.

 

Kuhn rappelait, qu’historiquement, il n’est jamais arrivé qu’une théorie soit rejetée parce qu’elle a été réfutée. Il affirmait aussi qu’il faut que la théorie puisse être remplacée, c’est-à-dire qu’il existe d’autres propositions. Mach avait une position plus plaisante : « L’innovation a pour farouches opposants tous ceux qui réussissaient dans les conditions antérieures, et pour tièdes défenseurs ceux qui sont susceptibles de réussir dans les nouvelles conditions ». Il aurait aussi affirmé qu’une théorie ne disparaît pas suite à une expérience contraire, mais par la mort de son auteur, et l’arrivée de nouvelles idées.

 

Le paradigme d’Aristote a été réfuté pendant deux mille ans par une fraction de penseurs. Des thèses essentielles ont été rejetées et remplacées par Ptolémée. Dans le même temps, une multitude de thèses se sont agglomérées autour de ce que Lakatos appelle le « noyau dur ». La découverte d’Archimède s’est intégrée au paradigme aristotélicien. Copernic n’a pas remis en cause le « noyau dur » du paradigme aristotélicien. Ce noyau dur avait trois composantes fondamentales, la nature parfaite du mouvement circulaire inhérent à l’éther, l’inhérence des deux mouvements linéaires aux éléments feu et terre et l’existence corrélative d’un centre du monde. Pour Copernic, le centre du monde était le Soleil et non la Terre. Il a conservé l’idée de centre du monde. Il n’a pas modifié les deux autres postulats aristotéliciens.

 

Il ne faut pas s’étonner de cette concordance avec la thèse de Kuhn. Ce fut la base même de ses réflexions. Mais il ne subsistait plus alors qu’une partie du « noyau dur » du paradigme d’Aristote. Les thèses associées accumulées quantitativement, pour reprendre le vocabulaire marxiste, étaient indépendantes du « noyau dur ». Il ne s’est produit, en aucune manière, ce que les marxistes appellent un « saut qualitatif ». Ce n’est nullement le paradigme dans son ensemble qui a été remplacé, comme le prétend Kuhn. Non seulement les faits, les résultats expérimentaux, ont tous été conservés, mais aussi toutes les théories associées. Galilée s’est trouvé devant un paradigme encore considéré comme aristotélicien. En réalité, il ne restait du paradigme d’Aristote qu’une partie du « noyau dur ».

 

Galilée a tapé dans le mille en montrant les satellites de Jupiter. Des corps tournent autour de Jupiter : Jupiter est aussi un centre du monde, donc il y a plusieurs centres du monde, ce qui est impossible. Les satellites de Jupiter ont un mouvement circulaire qui n’est pas celui de l’éther. L’expérience de Pise ruinait déjà le second postulat. Le reste du « noyau dur » était intenable, il a sauté. La plupart des savants et des théologiens de l’époque s’opposèrent à Galilée. Galilée était pourtant soutenu par le pape lui-même et par de nombreux cardinaux.

 

Ces savants opposés à Galilée ont mis en cause ses observations et même sa lunette astronomique. L’aveuglement est la cause essentielle des erreurs. C’est l’amour-propre aussi bien, le refus d’avoir tort. Cette attitude est renforcée, comme les psychologues l’ont montré, par l’effet de groupe, connu sous le nom d’effet spectateur dans les situations d’agression. L’homme privilégie l’avis du groupe sur sa propre perception.

 

Enfin, le paradigme d’Aristote ne s’est nullement effondré devant un autre paradigme : Galilée n’a pas proposé de nouveau paradigme. Il a seulement réduit à néant le « dernier carré », le « noyau dur ». Il n’a pas proposé de thèse de remplacement. Ce fut l’œuvre de Descartes, lui-même remplacé par Newton. Il a fallu ensuite un demi-millénaire pour arriver à un nouvel ensemble contradictoire, incohérent, brinquebalant entre le déterminisme relativiste et le probabilisme quantique. Un monstre !

 

Il n’y a, tout simplement, plus de paradigme au sens de Kuhn. Il en était d’ailleurs conscient : « Il n’est pas rare dans l’histoire que plusieurs écoles coexistent dans une relation d’opposition et d’ignorance réciproques ». C’est donc que la notion de paradigme de Kuhn est fausse. Il n’y a jamais eu, à aucune époque, de consensus général sur la classe des théories. La classe des théories a toujours été multiforme, paradoxale, incohérente. On pourrait dire que les théories et leurs multiples hypothèses et postulats constituent des paradigmes coexistants, mais inconciliables. Les faits constituent par eux-mêmes un paradigme unique, commun aux paradigmes des théories. Il n’est pas remplaçable. Il est tout au plus révisable parfois. Le problème est celui de la distinction entre les faits et les théories. Ce sujet est abordé dans un autre ouvrage.

 

La position de Lyotard n’est pas vraiment claire : « There are no longer absolute and Universal rules or conditions that are valid for all statements. Verifiability or falsifiability are only valid for scientific, cognitive, constative statements ». Les exceptions me semblent à la fois excessives et sans limites. La notion de « statement » ne se limite en aucune manière aux faits. Les postulats seraient vérifiables ? Ce n’est pas sérieux.

 

Chalmers a réalisé une synthèse critique des diverses positions sur la validité des théories scientifiques. Il commence par une critique sévère de l’inductivisme comme moyen de connaissance. L’induction est la base de la justification du raisonnement scientifique. « Les énoncés généraux contiennent des affirmations concernant les propriétés d’un aspect de l’Univers. À la différence des énoncés singuliers, ils portent sur la totalité des événements d’un type particulier, en tous lieux et en tous temps » (Chalmers, Qu’est-ce que la science ? © La Découverte, 1987 p 24). Chalmers poursuit : « Les lois et les théories qui constituent le savoir scientifique sont toutes des affirmations générales de ce type, que l’on appelle énoncés universels ». Les conditions de validité de ces énoncés inductifs sont leur nombre élevé, la répétitivité dans une grande variété de conditions et il ne doit exister aucun énoncé contraire. Chalmers nie toute valeur logique à ces conditions.

 

Sur le plan logique, le grand nombre et la multiplicité des conditions ne donnent aucune garantie contre l’exception. C’est la « dinde de Russel ». Elle avait la connaissance inductive d’être nourrie chaque matin à neuf heures dans toutes les conditions environnementales rencontrées, dans l’élevage où elle vit. Seulement la veille de Noël, à neuf heures, on lui a coupé la tête. Chalmers rappelle aussi l’impossibilité montrée par Hume de déduire l’induction de l’expérience. La répétitivité de l’induction ne peut démontrer l’induction, puisque cette démonstration utilise inévitablement l’induction. Pourtant, il conserve la position de Popper sur la possibilité de rejeter une théorie par l’existence d’exceptions, ce qui n’est nullement le cas. La dinde morte ne peut plus modifier sa théorie. J’ignore si l’on garde des dindes reproductrices, comme on faisait pour les truites en Dauphiné. Imaginons une telle reproductrice. Elle instruira toutes les dindes d’une nouvelle théorie. Les dindes de cet élevage sont nourries à neuf heures jusqu’à leur mort, la veille de Noël. Cette théorie a été vérifiée sur des milliers de dindes et même sur des reproductrices. C’est scientifique. Or, il n’en est rien. L’éleveur se heurte à une forte concurrence des dindes importées. Il se convertit au foie gras. Tout est changé. Il n’attend pas Noël. On ne peut jamais affirmer l’absence de l’exception, du phénomène imprévisible. La logique n’est pas une affaire de concessions, qui se réglerait entre collègues, sur un coin de table, au cours d’un congrès, quand bien même il serait international.

 

Chalmers a montré que « la logique n’impose pas de rejeter systématiquement la théorie en cas de conflit avec l’observation ». Il s’appuie sur la possibilité de rejet « d’un énoncé d’observation faillible, tout en maintenant la théorie faillible avec laquelle il entre en conflit » (Chalmers, Qu’est-ce que la science ? © La Découverte, 1987 p 107).

 

Mais la logique n’impose jamais un tel rejet. Le rejet ne s’est, d’ailleurs, jamais produit ni sur la base de l’expérience, même répétée sur un très grand nombre de cas indépendants les uns des autres, encore moins sur la base de la logique. Les partisans d’une théorie gardent, jusqu’à leur mort, l’espoir de contre-falsifications des falsifications. La logique n’y peut rien, car la chute d’une théorie n’a rien à voir avec la logique. Les théories sont d’abord soumises aux passions humaines. La notion de chute d’une théorie est d’ailleurs une idée naïve. Quand doit-on dire qu’une théorie est fausse et la suivante acceptable ? Faut-il faire un sondage et statuer à la majorité ?

 

De très grands savants, Kepler et Tycho Brahé n’ont pas accepté le système extrêmement complexe de Copernic, avec ses trois mouvements de la Terre. Kepler n’a accepté que la position centrale du Soleil. Comme Copernic d’ailleurs, il n’a rejeté qu’une partie du système d’Aristote. Kepler a démontré que le système de Copernic introduisait en réalité une augmentation du nombre des sphères porteuses des astres et était donc plus complexe que celui de Ptolémée. Galilée n’a repris aucune des thèses de Copernic. Il a affirmé qu’il y avait des centres du monde partout. Il n’a donc pas repris l’idée de Copernic du Soleil au centre du monde. Il a éliminé la théorie des sphères porteuses des astres, théorie commune à Aristote, à Copernic et à Kepler, sans parler de Tycho Brahé. Galilée n’a pas non plus repris les trois mouvements de la Terre de Copernic, incompréhensibles, écrivait Kepler. Galilée pensait qu’il ne restait rien d’Aristote. Il ne restait rien non plus de Copernic, malgré les apparences. Mais la plupart des savants de son époque n’ont pas voulu l’écouter. Il revenait à une nouvelle génération d’aborder la question sans idées préconçues. C’est là un enseignement fondamental qui donne raison, dans une certaine mesure, à Vico.

 

La science est d’abord une affaire d’hommes, soumise aux états d’âme : l’amour-propre d’abord. Une affaire de passion humaine avant d’être une affaire de logique. La logique finit par l’emporter. Au prix de combien de luttes, de haine ? Et tout est à recommencer, toujours. Roule ta pierre, Sisyphe !

 

Chalmers conclut son analyse des thèses antérieures : « Lakatos visait à donner un point de vue rationaliste de la science, mais il a échoué, alors que Kuhn niait qu’il visait à donner un point de vue relativiste [au sens de lié au relativisme], mais en a néanmoins donné un » (Qu’est-ce que la science ? © La Découverte, 1987 p.181).

 

Sa thèse se résume par ses propres mots : « Une science se développe un peu comme on construit une cathédrale ; elle résulte de la collaboration de nombreux travailleurs qui mettent en commun leur savoir-faire » (p.193). Il l’appelle l’objectivisme. L’objectivisme considère la science comme une pratique sociale. L’individu ne possède que des connaissances partielles. Il n’imagine pas toutes les conséquences de ses idées. Il n’interprète pas les faits comme un autre individu. Il se trompe dans ses propres déductions. Il ne faut pas se limiter à la présentation d’ensemble de celui qui est considéré comme un fondateur, Newton, Maxwell. Il faut intégrer la somme des expériences, des hypothèses, des justifications mathématiques, à chaque instant. Cet ensemble vivant avance tant bien que mal. Il est alimenté en permanence par les découvertes dues aussi bien au hasard qu’à des objectifs précis, par des justifications mathématiques, par de nouvelles idées, alors que sont abandonnés au bord de la route des erreurs, des faits. Chalmers pense même que la science peut fouiller dans les poubelles et ressortir des faits ou idées abandonnées dans le passé.

 

Cette approche n’est applicable toutefois que depuis Galilée. Il fallait d’abord introduire l’expérience et la mathématisation. Dès lors, la science n’est plus qu’un fleuve, pas toujours tranquille, qui s’écoule ! Des méandres certes, on revient tout près d’un passage précédent, mais on ne remonte pas. Cette vision est celle de Marx, et Chalmers ne s’en cache pas « le matérialisme historique de Marx est une théorie objectiviste » (p. 198).

 

La vision sociale progressiste de Chalmers se traduit par l’existence de nombreuses équipes animées par des personnes différentes partant de points de vue variés. Dans ce cadre, le changement de théorie repose « sur son degré de fécondité » (p.210). Les équipes qui travaillent sur des modèles peu féconds ne trouveront rien et seront éliminées progressivement au profit des équipes qui ont choisi les voies les plus fécondes. On plonge encore au tréfonds de l’horreur de la sélection darwinienne !

 

C’est une vision d’intellectuel cloîtré dans son Université et totalement étranger aux réalités du monde de la recherche scientifique publique ou privée. La fécondité est truquée par l’influence. Le critère utilisé encore très largement est le nombre de communications. C’est le royaume de la lutte pour la vie. Tous les moyens sont bons. Le pire dans tout cela est que les communications sont jugées par des pairs. Le système totalitaire soviétique est l’archétype de l’application du système de Chalmers. Il est non pas seulement interdit, mais impossible de sortir du lit du fleuve. Chalmers attribue à la science actuelle une valeur per se. Il est pour le changement, il ne changera jamais, pour rappeler une formule communiste qui a eu son heure de célébrité. En permettant à des jeunes ingénieurs, sans a priori, de développer des techniques informatiques dans un garage d’arrière-cour, le système libéral a propulsé l’humanité dans une autre ère. Dans cette ère, celle d’Internet, un ingénieur sans autre titre, pourrait, sans aucune autorisation, agrément ou soutien d’aucune sorte, proposer un système du monde qui renverse entièrement la vision scientifique actuelle du monde, sur la base même du paradigme expérimental ? C’est impossible pour les penseurs marxistes comme Kuhn et Chalmers. Le fondement expérimental et mathématique de la Science pure en rendrait les fondements inaltérables, irréfragables.

 

Onfray a écrit une chose surprenante qui montre qu’une part de conditionnement de la pensée aux positions dominantes du moment est malheureusement inévitable : « Parfois, quelques vérités incontestables (en physique, en biologie, en chimie, en histoire : des faits, des dates, des formules) ne souffrent pas la discussion, car une expérience sans cesse possible à répéter atteste leur validité et les certifie en tous lieux et en tous temps, mais en dehors de ce petit capital de vérité irréfutable, il n’existe que du changement.» (Antimanuel de philosophie, © Bréal, 2001 p. 297). Je voudrais bien voir la liste des vérités scientifiques, des théories incontestables ! Le professeur Allais nous incite à contester une de ces grandes vérités, qui remonte au début du siècle passé. Est-elle sur la liste ? Diogène n’aurait pas eu cette faiblesse. Serais-je plus cynique qu’Onfray ? Je nie absolument toute vérité absolue même d’ordre scientifique, quel que soit le nombre de témoins qui se présentent, quel que soit le nombre de répétitions de l’expérience qui ferait preuve, car, selon l’idée forte d’Alain, l’expérience est pensée, interprétée par la raison. J’accepte le résultat de l’expérience ; je doute de la preuve. La raison infaillible ? Diogène rigole carrément !

 

Paradoxalement, en apparence, je suis moins sceptique sur le plan historique. Que des faits aient effectivement eu lieu à des dates connues, incontestables, voilà ce qui peut-être certain dans de nombreux cas. De même, d’innombrables résultats expérimentaux, de multiples faits, sont incontestables : les pierres tombent, la Terre tourne autour du Soleil et il y a ainsi une multitude de faits certains. Est-ce le problème de la vérité scientifique ? Les faits en eux-mêmes sont relatifs à la mémoire, d’une manière très générale. La vérité est relative à la raison. Parler de la vérité des faits n’a aucun sens philosophique. On ne peut que chercher à savoir si l’interprétation des faits est vraie ou non. La recherche de la vérité n’a de sens qu’en rapport à la raison et non pas en rapport aux enregistrements des faits, aux traces du passé. Je sais bien que le fait peut n’être déjà qu’une interprétation. Aux confins des faits, l’hypothèse !

 

La recherche de la vérité passe par le doute cartésien. Le doute cartésien ne porte pas sur les faits : « La pensée void bien qu’elle a un juste sujet de se défier de la vérité de tout ce qu’elle n’apperçoit pas distinctement » (Descartes, Les principes de la philosophie, Girard, Libraire, 1681 p. 9). Parallèlement à sa distinction entre les idées simples et les idées composées, Descartes sépare les deux classes des données du paradigme. On peut se limiter à ne citer que les extraits qui arrangent. La mauvaise foi, ou l’ignorance évoquée par Dokic et Engel, ne peuvent tromper durablement. Le doute cartésien concerne la classe des théories, des édifices de la pensée. En aucune manière la classe des faits « apperçus ».

 

Les réalistes, et principalement les physicalistes, rejettent le monde transcendantal de Kant : comment des concepts absolus pourraient exister dans le cerveau ? C’est le paradoxe du système de Kant. C’était déjà un peu la question du Sophiste de Platon. Il n’y a pas de réponse. On peut poser, cependant, une question insidieuse. Comment les physicalistes peuvent-ils refuser l’accès de l’esprit à la transcendance, à l’absolu, et accepter la présence de l’absolu dans le monde expérimental ?

 

Quand bien même on admettrait cette incohérence, comment les perceptions sensibles, relatives par nature, pourraient avoir accès à ces absolus ? C’est l’équivalent du fameux problème du « troisième homme », du point de vue du monde expérimental.

 

Si l’absolu était dans le monde expérimental, les sens devraient avoir une dimension transcendantale pour le percevoir, et le cerveau, une part transcendantale pour accueillir l’absolu ainsi perçu. On pense sortir de l’impasse, de la caverne, par la conceptualisation. Ce serait nécessairement une fonction transcendantale, transformant les perceptions en absolus, puisque c’est bien l’absolu qu’il s’agit de penser : la célérité absolue de la lumière, absolu accédé par le photon, réalité du monde expérimental ; les invariants de la physique, sans nombre, accédés et réels eux aussi. Que deviendraient, d’ailleurs, tous ces absolus que l’on accepte dans le monde expérimental ? Ils ne seraient pas perçus en tant qu’absolus, puisqu’il faudrait les conceptualiser.

 

On nous raconte que l’on ne peut plus raisonner comme avant ! Nous ne sommes plus à l’âge préscientifique ni, moins encore, à l’âge de l’archéologie de la science. Les mathématiques ont été introduites partout dans la physique. Elles sont un rempart contre les interprétations erronées, un gage de certitude. Il n’y a plus de place dans les sciences pour les sentiments et les impressions. Nous sommes à l’âge scientifique.

 

Un postulat est-il autre chose qu’une conviction ? Le résultat d’une démarche mathématique est peut-être certain. Mais les postulats, les axiomes ne sont nullement des résultats de la démarche mathématique. Ce sont autant de points de départ posés par volonté et non pas donnés par eux-mêmes.

 

 


 

 

 

 

 

 

 

 

 

 

Deuxième partie

 

Les paradigmes alternatifs

 


 

 

 

Introduction

 

 

 

La liste des dissidents (The Worldwide list of dissident scientists) mise à jour au cours de l’année 2015 comporte un peu plus de 8000 noms.

 

La quasi-totalité de ces 8000 dissidents appartient évidemment au milieu scientifique. Quelques professeurs de philosophie ont été insérés dans la liste pour la force de leur argumentaire critique, en particulier des partisans de l’école de philosophie analytique.

 

On compte plus de 3000 docteurs ès sciences, docteurs ingénieurs ou ingénieurs diplômés, dont 1400 sont de plus professeurs ou professeurs adjoints d’Université. Il faut noter que ces chiffres sont certainement largement en dessous de la réalité. La position des scientifiques Chinois, en particulier, n’est pas facile à déterminer. De plus, la plupart des revues scientifiques ne précisent pas les titres des auteurs. Tous les autres n’en sont pas moins des scientifiques et généralement d’un niveau équivalent à la maîtrise. Les rares exceptions concernent quelques adeptes des nouvelles énergies sans connaissances théoriques fondamentales.

 

751 auteurs dissidents au moins sont décédés. Il y en certainement beaucoup plus, mais il est difficile de le mettre en évidence sur Internet.

 

On constate curieusement le nombre élevé de sites de dissidents en français ouverts au Canada, en Belgique et en Suisse par rapport aux sites ouverts en France. Le nombre très limité de sites en France doit, peut-être, trouver son explication dans l’existence pendant longtemps d’une sorte de censure quelque peu contraire à la Convention des Droits de l’Homme. L’organisme de censure, digne des plus sombres périodes de l’Inquisition, le Comité pour l’Orthodoxie de la Physique sur Internet, a dû interrompre ses activités après avoir fait effacer le contenu de sites localisés en Suisse et au Canada.

 

Une dizaine de dissidents ne sont pas dans l’Internet. Ils ont publié des ouvrages, parfois introuvables sur le marché. Il convient de rappeler que seuls les auteurs nés après 1905 ont été retenus.

 

Il faut noter qu’une écrasante majorité des systèmes alternatifs ont été élaborés par des spécialistes de l’électromagnétisme. On trouve quelques informaticiens. Cinq systèmes seulement relèvent de notables mécaniciens des fluides. Trois ont un site Internet. Les deux autres ont publié des ouvrages imprimés. L’un des deux est décédé. Il en résulte une prépondérance des systèmes du monde dit électromagnétiques. Toutes les forces sont la conséquence de la charge électrique et, en particulier, la gravitation est produite par un phénomène électromagnétique, en général différentiel pour expliquer l’absence de répulsion gravifique. Ces Univers électromagnétiques sont souvent liés à un retour aux idées de Tesla (mentionné par 222 auteurs) qui reçoit ainsi une consécration posthume. On compte ainsi 503 Univers électromagnétiques dont une partie seulement électrique, parfois avec un éther. Cette catégorie se trouve donc répartie entre les diverses autres catégories.

 

1887 dissidents proposent des théories alternatives au paradigme officiel actuel regroupant les théories de la Relativité Restreinte et Générale et la Mécanique Quantique, supportées par une multitude de théories annexes dédiées aux innombrables résultats expérimentaux inexpliqués, voire paradoxaux comme l’expérience de Sagnac.

 

Ils se répartissent en quatre grandes catégories :

-         550 systèmes se basent sur un éther. Ils sont classés en quatre catégories : les deux premières catégories comportent des éthers de nature énergétique (80) ou géométrique (30). Les deux autres proposent des solides élastiques type Lorentz (52) ou des éthers fluides (387). Ces derniers ont été répartis en huit sous-catégories : Les éthers fluides type Yarkowski (86), type Le Sage (80), Newton (41), Descartes (21), superfluides (12), plasma (7), un éther composé de deux fluides (1) et autres sans précision (140). Il faut noter qu’une partie des éthers énergétiques comportent des structures toriques ou des tourbillons sans pour autant qu’il ne soit question de fluide. De plus, certains auteurs considèrent que leur théorie est un éther, alors qu’ils supposent l’existence de particules ou d’ondes remplissant l’espace, mais sans interactions mutuelles comme dans les solides ou les fluides.

 

-         485 systèmes sans éther se répartissent en douze sous-catégories. Les systèmes qui considèrent la gravitation comme un aspect de l’électromagnétisme (147), ceux qui se basent sur la présence d’information dans l’espace (120), les systèmes qui considèrent l’Univers comme fractal (45), ceux qui se rapprochent de la conception de Mach (44), les systèmes basés sur une modification de la loi de Newton (41) et même une antigravité (32), ceux qui considèrent l’Univers comme un hologramme (26), les systèmes qui reprennent la théorie émissive de la lumière de Ritz (22), enfin les systèmes attribuant la gravitation à l’expansion des astres dans le cadre de l’expansion de l’Univers (8).

 

-         570 systèmes ont été rassemblés dans une catégorie qualifiée d’innovatrice. Ils sont d’une extrême variété depuis une équivalence de la masse et du temps et l’existence d’une cinquième dimension jusqu’à un temps à plusieurs dimensions. Ont été ajoutées à cette catégorie les théories supposant l’existence de plusieurs univers coexistants (9), un temps quantifié (25), un éther de bosons de Higgs (1).

 

-         Enfin, des théories vont au-delà des théories de la Relativité (210) ou de la Mécanique Quantique (72). Les auteurs sont considérés comme dissidents, car leurs théories ne sont en général pas reconnues par les autres scientifiques tenant du paradigme officiel.

 

Les affirmations très générales ne peuvent pas être considérées comme des théories. Il y a ainsi 356 auteurs partisans d’un Univers électrique ou magnétique. Ils ne donnent en général aucune précision. D’abord ceux qui considèrent que la gravitation est électromagnétique (162) et les théories qui lui attribuent une origine électrique (142). Les partisans des théories du tout, les fameuses TOE, theories of everything (52) ne donnent pas plus de détails si ce n’est qu’il s’agit toujours une unification électromagnétique.

 

On peut noter que, parmi l’ensemble des propositions alternatives, 278 systèmes comportent des hypothèses relatives aux particules.

 

-         89 systèmes considèrent que les particules sont des ondes.

-         81 systèmes considèrent que les particules sont des vortex ou des spirales.

-         49 systèmes considèrent que les particules sont des paires associées.

-         38 systèmes considèrent que les particules sont des anneaux.

-         14 systèmes considèrent que les particules sont des hélices.

-           5 systèmes considèrent que les particules sont des puits.

-           1 système considère que les particules sont des bulles (+ 1 sont aussi des puits).

-           1 système considère que les particules sont des sources.

 

Les chapitres qui suivent présentent plus en détail certaines de ces catégories de théories alternatives.

 

Les catégories de théories alternatives sont conformes à un nombre plus ou moins grand d’expériences présentées dans les deux chapitres de la quatrième partie. 20 expériences de chacun des deux chapitres ont été retenues. Il est évident que toutes les théories prétendent expliquer l’expérience de Michelson. Elle n’a pas été retenue. Par contre, les résultats des analyses d’Allais des mesures de Miller avec l’interféromètre de Michelson font partie de ces 40 expériences.

 

Il est tout aussi évident que les exigences d’apparence logique ne font pas partie de ce paradigme expérimental. C’est le cas du principe de relativité. C’est également le cas de l’unification des forces. Cet objectif fait l’objet d’un assez large consensus, mais ce n’est, en aucun cas, un fait d’expérience.

 

Un indicateur de conformité a été adopté pour chaque expérience : 2 conforme quantitativement, 1 conforme qualitativement, 0.5 sans réponse et 0 non conforme. Un indice global de conformité (de 0 à 10) a été calculé, en sorte qu’une théorie qui n’expliquerait rien obtiendrait 0.

 

L’indice du paradigme de la Science pure est de 6. Ce n’est pas surprenant. Cet indice résulte des expériences sélectionnées. À titre d’exemple, le paradigme de la Science pure est considéré en contradiction avec l’expérience de Sagnac et les analyses d’Allais. A contrario, le paradigme de la Science pure bénéficie de nombreuses hypothèses dédiées et de valeurs d’invariants ad hoc qui ne résultent nullement des doctrines relativiste et quantique elles-mêmes. Sans ces multiples coups de pouce, on verrait son indice de conformité frôler les abysses.

 

Le meilleur indice est de 9. Il a été obtenu par une théorie du type éther de Descartes, dans lequel la lumière et la gravitation ont le même support fluide. Encore faut-il remarquer que c’est l’absence d’explication quantitative dans quelques cas, qui empêche cette théorie d’obtenir le maximum.

 

Ce sont les seuls indices relatifs à des théories spécifiées, qui sont indiqués dans cet ouvrage. Les autres indices sont relatifs, globalement, aux catégories de systèmes du monde étudiées dans les chapitres qui suivent.

 

Les catégories avec des éthers fluides obtiennent les meilleurs indices : catégories type Descartes, type Yarkowski et type Lesage indice 6. La catégorie éther à vortex ou anneaux obtient 5, l’éther type Newton et l’éther type Lorentz 4.

 

Les systèmes unifiés par des particules ont un indice 3.

 

Les théories innovatrices ont des caractéristiques communes qui leur permettent, curieusement, d’atteindre également l’indice 3. Les auteurs partagent une bonne connaissance du paradigme expérimental. C’est sans doute le résultat d’une réflexion plus approfondie, en réaction aux critiques très vives dont ils font l’objet. Ils se sont efforcés de trouver des réponses, au moins qualitatives.

 

Le plus bas indice est 2. C’est l’indice des théories alternatives relevant de la catégorie des unifications par des ondes, sans éther. Cette catégorie ne fournit aucune explicitation pour la plupart des quarante expériences retenues, et elle est plombée par des incompatibilités avec plusieurs autres. Les théories de cette catégorie ont bénéficié de très peu de développements. L’indice est certainement très injuste dans leur cas. Il bénéfice a contrario à la catégorie des éthers type Lorentz. Dans cette catégorie, on a pu prendre le meilleur de chaque système, en essayant d’éviter les incompatibilités.

 

Les théories de l’information n’ont pas fait l’objet du calcul de l’indice. Le transfert d’informations ne concerne que quelques expériences particulières. Ces théories ne constituent pas des paradigmes et sont d’ailleurs le plus souvent associées à une des catégories précédentes.

 

Les critères retenus sont certainement discutables. Ils traduisent le problème fondamental qui se pose aujourd’hui. C’est l’absence de prise en compte du théorème du moment cinétique tant au niveau des particules qu’au niveau des astres. D’un autre côté, les résultats auraient été beaucoup plus dramatiques s’il avait été tenu compte de l’impossibilité d’une quatrième dimension, impossibilité qui résulte justement de l’application de ce théorème, et de quelques exigences de pure logique développées dans la première partie de cet ouvrage.


 

 

 

Chapitre 1

 

Théories innovatrices

 

 

 

Ce chapitre regroupe des visions très variées de systèmes du Monde. Je n’insisterai pas sur plusieurs modèles à plus de trois dimensions, non temporelles. L’un de ces modèles a d’ailleurs été placé dans la catégorie des éthers type Descartes ; une quatrième dimension y joue le rôle d’exutoire. Dans ce cas particulier, il n’y a pas de mouvement de la matière dans la quatrième dimension. Ces espaces multidimensionnels sont impossibles. Ils sont incompatibles avec le théorème du moment cinétique. Les corps doivent être absolument immobiles dans toutes les dimensions au-delà de trois. Les auteurs ont placé, dans leur espace multidimensionnel, divers types de composants qui les rattachent aux autres catégories. 

 

Un premier type ne relève pas à proprement parler des théories alternatives. Ce sont des tentatives de sauvetage des Relativités Restreinte et Générale par l’acharnement thérapeutique à grand renfort de développements exclusivement mathématiques. Certains de ces scientifiques tentent le fameux saut qualitatif des dialecticiens, le bond en avant. C’est dans cette catégorie que serait entrée la regrettée théorie des cordes, jetée à présent dans la poubelle de l’Histoire des sciences.

 

Le problème des bonds en avant est de savoir d’où l’on part. Si l’on est déjà au bord du gouffre, évidemment le risque est assez grand de s’y trouver précipité. L’ensemble de ces scientifiques reste profondément attaché à l’unification des forces, bien entendu. Il n’est pas scientifiquement correct de nier ce dogme progressiste.

 

Les regroupements des autres théories innovatrices sont très artificiels. En réalité, tous les paradigmes proposés sont différents. Les différences ne proviennent pas de détails dans les développements, mais de positions de départ fondamentalement différentes. Il en résulte que chaque auteur travaille de son côté et se trouve dans l’impossibilité d’utiliser les résultats des autres auteurs. On a pu envisager des grandes lignes convergentes dans les critiques du paradigme officiel de la Science pure. Toutes les tentatives de conciliation dans le domaine des propositions alternatives se terminent par des heurts plus ou moins vifs.

 

Il faut toutefois mentionner plusieurs théories que j’appellerais binaires ou dialectiques. Toutes les formes de dissociation en paires ont été imaginées. La plus connue est la dissymétrie utilisée par la Mécanique Quantique. C’est bien évidemment une rémanence du vieux mythe dialectique : la lutte des contraires. À vrai dire, il y a une grande différence entre les concepts de dissymétrie et de contraires. Historiquement, il faut savoir que Mao Tse Dong s’est opposé aux symétries et aux ruptures de symétrie de la Mécanique quantique, qui lui paraissaient contraires au matérialisme dialectique, le fondement de la pensée marxiste, pour autant que l’on puisse parler de pensée. Ce fut l’origine de la puissante école Chinoise de physique non conformiste qui explique le nombre de sites dissidents Chinois sur l’Internet. Un sondage effectué il y a une dizaine d’années dans l’Université de Pékin montra que plus de 50 % des membres de l’enseignement pensent que le paradigme officiel actuel est erroné et doit être entièrement reconstruit. 

 

Dans ces théories binaires, les particules vont par couples indissociables et coexistants. Certaines de ces paires sont orbitales, d’autres simplement de natures opposées. On trouve une théorie disposant de deux types de photons : les réels et les virtuels. Ces derniers se déplacent de manière aléatoire. Ils constituent, en fait, une sorte d’éther fluide. Si j’ai bien compris, ce système se rattacherait au type Newton. Leur caractère virtuel les mets au rang des systèmes innovateurs.

 

Un autre système utilise des particules de charges imaginaires ie et –ie, en plus des charges e et -e. La loi de Newton est la loi des flux. L’auteur utilise les propriétés des angles solides pour justifier cette loi par un flux de particules émanant des astres. Des fusions énergétiques de ces particules imaginaires, au sens mathématique, avec les autres particules, lui permettent de rendre compte de l’attraction de la gravitation et des autres forces de la Nature. Cette théorie est donc unifiée.

 

Parmi les autres formes de différenciations permettant de constituer des paires de particules, on peut mentionner, dans le désordre : les particules infra luminiques et supra luminiques, les masses positives et négatives, les structures hélicoïdales contrarotatives, les particules puits et sources ou encore gravifiques et antigravifiques qui s’en apparentent et les particules réelles et imaginaires au sens des nombres complexes, déjà évoquées en ce qui concerne la charge électrique, mais appliquées à la masse, à l’énergie ou aux champs des particules.

 

Au lieu d’une différenciation des particules, une autre démarche de nature dialectique consiste à supposer des Univers en équilibre ou en déséquilibre. D’autres formes d’anisotropies ont été imaginées comme origine de la gravitation. On trouve aussi la coexistence de mondes jumeaux qui ne relèvent plus de la dialectique des contraires, mais s’apparente à la tendance à la diversité qui caractérise la pensée du XXIe siècle après deux siècles de totalitarisme progressiste d’inspiration positiviste.

 

Inspirés par les jets des quasars et des galaxies, des dissidents proposent d’attribuer de tels jets aux particules ou aux atomes. Dans un cas, le jet pénètre d’abord dans les particules avant d’être éjecté après retournement de 360°.

 

Il faut mentionner la tentation quantique chez plusieurs scientifiques. On quantifie le temps, l’espace, la vitesse et l’accélération aussi bien.

 

Un groupe de quelques dissidents se rattachent à la théorie MOND. Cette théorie propose une modification de la loi de Newton avec la distance. Cette modification est destinée à rendre compte de la masse manquante. Ces dissidents se distinguent entre eux par la forme de la modification. Un de ces auteurs ne propose pas de modifier la loi de Newton, mais aboutit au même résultat en considérant qu’une énergie est répartie dans l’Espace. L’absorption de cette énergie par la matière conduit à une modification de l’effet de la gravitation sur les corps. L’avantage de cette proposition est de justifier le changement de la loi de Newton.

 

Dans le même ordre d’idées, des auteurs proposent une expansion de l’éther ou de l’énergie du vide en même temps que l’expansion de l’Univers. Il en résulte une variation de la gravitation. Le même résultat est obtenu par quelques auteurs en supposant que la gravitation diminue avec le temps. Bien plus, quelques-uns se sont aperçus que l’expansion des astres, qu’ils considèrent corrélative à l’expansion de l’Univers, donne une sorte de gravitation. Il y a cependant un problème, si cette expansion est constante, elle ne donne pas d’accélération. Un ascenseur à vitesse constante ne produit aucune accélération évidemment. On ne sent son poids qu’au démarrage et à l’arrivée. Il faut donc supposer que l’expansion s’accélère. On peut reprendre la réponse du relativiste devant ses paradoxes : pourquoi pas !

 

Une très curieuse hypothèse permet à un auteur d’obtenir des résultats intéressants. Les photons ne sont pas des particules, mais des trous dans l’éther. Ces trous se déplacent à la célérité de la lumière par postulat, c’est là une faiblesse du système. Ils ont une nature ondulatoire par leurs déplacements dans l’éther, comme un navire dans la mer, accompagné d’un système de vagues. Il n’y a pas d’exemples de trous se propageant dans les fluides ordinaires en dehors des vortex des rues de Karman. Or, ces vortex se déplacent avec le fluide environnant. Ils ne sont pas accompagnés d’ondes. Les trous ont un effet corpusculaire lié à leur nature discrète, individualisée. La gravitation résulte ici de vents d’éther, c’est-à-dire de courants. Il se pose là de nombreuses questions qui seront abordées dans la catégorie des éthers de Descartes.

 

Nous venons de mentionner les trous dans l’éther. On trouve également des trous dans les champs qu’ils soient électriques, magnétiques ou gravitationnels. On reconnaît là une démarche inspirée par la théorie des semi-conducteurs.

 

Une des projections futuristes est la vision fractale. Chaque échelle de la matière est la reproduction, en plus grand, de l’échelle inférieure comme dans les figures fractales. C’était le système d’Aristote dans le domaine de la biologie. Le semblable vient du semblable. La graine de l’arbre contient un arbre en petit. Dans un cas, un Univers fractal est effectivement contenu dans les particules du niveau supérieur au lieu d’être simplement imbriqué dans l’Univers de niveau supérieur. La macrostructure est la copie de la microstructure. La copie n’est cependant pas identique. Ces poupées russes sont difficiles à défendre. Les auteurs évitent donc de s’aventurer en plus dans la mise en cause du paradigme de la Science pure officielle.

 

Cette approche fractale était déjà présente dans la théorie mythique de l’atome de Bohr. L’atome de Bohr était planétaire. Dans ce nouveau point de vue, la règle est générale. Mais, les forces qui s’exercent à chaque niveau ne peuvent pas être de même nature, même si elles sont semblables. Elles sont nécessairement différentes, au moins parce qu’elles ne sont pas au même niveau fractal. Cette approche contient en germe cette idée que l’unification des forces pourrait bien n’être qu’un leurre. On comprend que ces auteurs nient avec prudence ce diktat.

 

Il faut mentionner enfin des positions plus philosophiques, inspirées par la thèse cartésienne de l’identité de l’espace et de l’existence ou par celle de Heidegger de l’identité du temps et de l’existence. Il s’agit d’identifier également le temps à l’énergie, à la vitesse ou même à l’accélération.

 

À ces hypothèses extrêmement variées, il faut ajouter un autre facteur de différenciation. Les théories qui ne sont pas unifiées rattachent la gravitation et les forces électromagnétiques à des niveaux différents de la constitution de l’Univers. Chacun des niveaux se voit attribuer des vitesses différentes de propagation des phénomènes. La différence porte sur l’ordre de grandeur de ces vitesses et non sur les vitesses elles-mêmes. L’écart est du même ordre que la différence de la célérité de la lumière et la vitesse du son. Pour certains, la gravitation est caractérisée par une vitesse de propagation d’un ordre de grandeur inférieur à l’ordre de grandeur de la vitesse de la lumière. Ce sont toujours ceux qui veulent absolument retrouver les formules de Lorentz qui interdisent des vitesses supra luminiques. Pour d’autres, c’est l’inverse. Leur objectif est de montrer qu’il peut exister des énergies infiniment plus grandes que le fameux mc2. Entre les deux, de très rares auteurs séparent les actions électromagnétiques de la propagation des ondes comme la lumière, qui n’auraient rien d’électromagnétique en elles-mêmes.

 

Par un moyen ou par un autre, de nombreux auteurs de théories innovatrices adoptent ou retrouvent le groupe de Lorentz. Il y a deux types d’exceptions notoires. L’hypothèse des tachyons, particules plus rapides que la lumière, est reprise par plusieurs de ces théories innovatrices avec quelques résultats intéressants. Réciproquement, certaines théories considèrent une diminution progressive de la vitesse de la lumière au cours du déplacement des photons par une sorte de vieillissement. Ces hypothèses sont destinées à expliquer des phénomènes particuliers, en particulier le redshift cosmologique.

 

Il faut mentionner enfin un cas extrême qui consiste à rejeter le concept de masse. Il s’agit d’ailleurs d’une question qui apparaît dans plusieurs sites, mais on trouve très peu de propositions concrètes. Une de ces propositions consiste en un flux d’un type de particules qui traverseraient les autres types de particules à la vitesse de la lumière. Il en résulterait un effet de traînée, l’inertie, opposé aux effets inverses, mais exclusivement extérieurs, des autres particules, qui représenteraient ainsi les différents types de forces. Cette première approche ne supprime pas vraiment la masse d’inertie. La traînée suppose une masse. Une amélioration consiste à ne plus parler de traînée, mais uniquement de vitesses relatives. Les particules n’agissant pas de la même manière, il en résulte des mouvements différents. On ne voit pas clairement comment ces actions pourraient se concevoir sans masse d’inertie.

 

Ces dernières approches peuvent paraître audacieuses. Pourtant, elles posent un problème réel. On a choisi la masse comme unité fondamentale au lieu de la force. Or, la masse n’est pas constatée par elle-même. On ne constate pas davantage, expérimentalement, des forces, mais seulement des équilibres ou des mouvements. Les changements du mouvement, que l’on constate expérimentalement, nécessitent une cause que l’on appelle force. La même masse intervient dans des circonstances variées, dans le choc, par exemple, sans intervention d’aucune force avant la rencontre. Le choix de la masse comme unité est donc judicieux. Les forces et les masses restent des concepts mathématiques qui permettent de calculer les mouvements. On parle des forces de la Nature parce que l’on ignore la cause de l’action qu’elles manifestent. La thèse de la Science pure est qu’il n’y a pas à rechercher la cause des forces, à rechercher la cause agissante derrière la force des calculs mathématiques.

 

Or, je pensais, naïvement, que le but de la science était de remonter dans le mécanisme des causes. L’échec de la Science pure me donne l’espoir de ne pas avoir essayé en vain de ne pas mourir idiot.


 

 

 

 

Chapitre 2

 

Théories de l’information

 

 

 

Il s’agit ici des systèmes qui présentent des éthers communs à la matière et à l’information, voire à la pensée et de nature parapsychologique. Une partie de ces systèmes a été rattachée aux systèmes précédents. Dans ces cas, l’aspect transport de l’information ne représente qu’un aspect limité du système.

 

La présence d’informations dans l’espace est nécessitée dans le cadre du paradigme officiel par les résultats de quelques expériences troublantes. D’une manière générale, ces systèmes ont leur origine dans les problèmes rencontrés en Mécanique Quantique avec les interférences en faible éclairement et l’expérience d’Aspect. Les diverses hypothèses nécessaires pour expliquer ces phénomènes relèvent de ce qui a été appelé l’intrication quantique. Comment le photon qui passe par une fente de l’interféromètre sait-il qu’il doit aller vers une raie qui sera blanche ou vers une raie noire ? S’il avait une chance de rencontrer un autre photon en arrivant sur l’écran, il pourrait peut-être s’informer du décalage de phase. Il faut bien une information provenant de l’autre photon. Comment le photon pourrait-il interférer avec lui-même? On nous dit que les probabilités de présence expliquent tout. Qui peut prétendre honnêtement avoir compris ? Quelle drôle de question ! La Science pure ne cherche pas à faire comprendre. Elle cherche la loi mathématique. Elle l’a trouvée. C’est un résultat probabiliste. Il n’y a rien à ajouter. Cette approche s’est trouvée considérablement renforcée par la fameuse expérience d’Aspect qui met en jeu des états de polarisation.

 

On trouve dans ce type les systèmes des auteurs qui ont des visions orientales du cosmos ou des visions bibliques et coraniques. Le Coran s’en tient strictement au système du Monde d’Aristote, comme d’ailleurs la vision de saint Thomas d’Aquin qui a encore bon nombre d’adeptes, essentiellement dans les milieux créationnistes. Peu nombreuses, ces visions émanent pour la plupart du puissant mouvement évangéliste, opposé à des aspects de la Science pure autant qu’à la théorie de Darwin par la lutte et l’élimination au profit des espèces les plus adaptées : c’est le « plus meilleur » qui gagne. Selon ce dogme progressiste, je n’ai aucune chance d’être écouté, d’ailleurs je n’ai pas de Rolex ; j’ai dû rater ma vie !

 

On peut rappeler ici que Darwin n’est nullement l’inventeur de l’idée positiviste d’évolution des espèces. La théorie de Darwin ne porte que sur les modalités de cette évolution. Les espèces les plus adaptées élimineraient les autres. Son point de vue dialectique a été généralisé dans la lutte des classes et les thèses bourdieusiennes tirées des visions de Weber.

 

Les systèmes reposant sur le principe de Mach entrent dans cette catégorie. Les positions relatives de l’ensemble des astres, base même du système de Mach, sont des informations qui ne peuvent être connues à distance que par l’existence d’un éther d’information qui conditionne le mouvement des corps qui s’y trouvent.

 


 

 

 

Chapitre 3

 

Unification par des particules

 

 

 

Les systèmes de cette catégorie procèdent d’une unification des forces électromagnétiques, de la force de gravitation et des interactions nucléaires sur la base de particules en mouvement dans le vide, c’est-à-dire sans éther. Certains auteurs de cette catégorie considèrent que leur théorie est un éther, alors qu’ils supposent l’existence de particules remplissant l’espace, mais de manière indépendante les unes des autres. Un éther est caractérisé par une structure de nature cristalline, ou par la présence de particules en mouvement et se heurtant de manière aléatoire. L’éther de Lorentz entre dans le premier cas. Les éthers fluides, dans le second. Ce n’est nullement le cas ici.

 

Le succès des éthers provient du fait qu’ils expliquent la célérité de la lumière. La célérité des ondes dans un éther fluide est la vitesse quadratique moyenne des particules qui forment le fluide. C’est un résultat fondamental de la théorie cinétique des gaz. La mécanique des milieux continus donne un résultat analogue. Il faut noter que le qualificatif continu est tout à fait inadapté. L’acier n’est nullement un milieu continu. Il est fait de molécules réparties selon des structures géométriques affectées d’une multitude de ruptures microscopiques qui expliquent son élasticité et donc la transmission d’ondes.

 

La vision corpusculaire de la lumière ne permet pas d’expliquer la célérité de la lumière. C’était la théorie de la lumière de Newton. Elle est à l’origine de la doctrine relativiste avec le photon. Ritz a également adopté la vision corpusculaire dans sa théorie balistique. Pour Ritz, la lumière est émise à la vitesse de la lumière relative à la source. Par contre, pour les relativistes, la célérité du photon est indépendante des vitesses des sources et récepteur. Dans tous ces cas, c’est une loi de la Nature dont il serait parfaitement vain de chercher l’explication.

 

Les théories de cette catégorie s’inspirent de la théorie quantique des champs. Les particules en jeu ont ici de multiples formes. La plupart des auteurs pensent que la gravité résulte de combinaisons de charges électriques. On trouve ainsi des paires indissociables, en mouvement relatif, créant des champs de dipôle ou, plus simplement, des structures particulières des particules susceptibles de créer de tels champs. La gravitation est attribuée à ces champs, par opposition aux champs électromagnétiques créés par le simple déplacement des charges.

 

On trouve trente-deux propositions utilisant l’antigravité. Il convient de rappeler que l’antimatière ne diffère de la matière que par les charges qui se trouvent inversées. Mais l’antimatière est soumise à la gravitation comme la matière. Cette antigravité est le résultat direct soit d’un type de particules, soit de la possibilité de diminution de la masse. Les cas de masses négatives ont été classés dans les théories innovatrices.

 

Un auteur de cette catégorie a tenté une théorie basée sur les moments cinétiques. Le point de départ est difficile à comprendre. Comment un mouvement linéaire peut-il de facto comporter un moment cinétique ? S’agit-il seulement d’une constatation ? De fait, il n’y a point d’astre qui ne tourne sur lui-même tout en parcourant son orbite. Mais, il n’y a pas de lien de cause à effet. Une fois admis cette prémisse, la différenciation qui en résulte est utilisée pour expliquer les divers types de forces. Toute différenciation offre les mêmes possibilités. Les plus utilisées sont l’opposition et la symétrie. L’utilisation du moment cinétique est plus originale.


 

 

 

Chapitre 4

 

Unification par des ondes

 

 

 

Ces systèmes unifiés considèrent que les particules sont des ondes en elles-mêmes. L’éther serait inutile. Les théories qui supposent que les particules sont des ondes dans un éther sont exposées dans les chapitres suivants. Dans le présent chapitre, chaque particule est un train d’ondes. Les trains d’ondes ont des dimensions limitées. Leur support est soit une sorte d’énergie oscillant sur elle-même, soit un ensemble limité de particules, affectées de vibrations et se déplaçant de conserve comme une escadre navale, mais ces trains d’ondes se déplacent dans le vide. Il est probable que ces théories s’inspirent de la défunte théorie des cordes. Certaines, d’ailleurs, s’y réfèrent explicitement pour mieux marquer la différence d’approche, cependant nous n’avons pas ici de dimensions supplémentaires aux 3 dimensions de l’espace.

 

Les auteurs de théories basées sur des trains d’ondes autoportés, si l’on peut dire, se trouvent dans la même situation que les relativistes avec leur photon. Mais, à l’impossibilité d’expliquer leur vitesse de propagation, s’ajoute la difficulté d’expliquer l’effet corpusculaire de la lumière. Un train d’ondes, isolé dans l’espace, n’a aucune raison logique de se déplacer à une vitesse déterminée. La situation est la même que pour les particules du chapitre précédent. C’est un comble pour une théorie ondulatoire. Les auteurs attribuent cette vitesse à la nature ondulatoire de leurs trains d’ondes.

 

Les relativistes justifient la célérité de la lumière par l’augmentation de la masse. C’est une limite, car la masse atteindrait une valeur infinie à cette vitesse. Le malheur est que la célérité de la lumière est accédée par le photon. Le photon va effectivement à la célérité de la lumière, qui est donc une réalité du monde expérimental. L’absolu serait ainsi perceptible et mesurable. Une telle hypothèse est absurde sur le plan logique, comme nous l’avons vu dans la première partie, car la mesure et la perception sont des relations. Une relation ne peut pas porter sur un absolu, car l’absolu est justement, par axiome ou définition, comme vous voudrez, ce qui échappe à la relation.

 

Les relativistes considèrent que le photon n’a pas de masse. Mais alors, comment cette célérité serait-elle aussi une limite pour le photon ? S’il n’a pas de masse, la justification par la limite n’existe plus. C’est un pur postulat. Un postulat arbitraire, si vous me pardonnez ce pléonasme assez grossier.

 

Il n’y a qu’une seule théorie dans la catégorie de l’unification par des ondes, qui utilise une différenciation. Il s’agit ici d’un état de vibration en phase ou en opposition de phase. Il en résulterait une attraction ou une répulsion entre les trains d’ondes. Un phénomène de ce genre existe réellement pour les vortex dans les fluides. Sans doute, l’auteur s’y réfère-t-il ? Pourtant, il est difficile de comprendre comment ces actions peuvent exister s’il n’y a pas d’intermédiaire entre les trains d’ondes. Une fois admise cette possibilité, on peut obtenir les types les plus divers de forces, et même en imaginer plus qu’il n’en existe, avec un nombre limité d’hypothèses. L’auteur en question applique le groupe de Lorentz, comme la chose la plus naturelle du monde. C’est d’ailleurs le cas de la plupart des autres propositions de cette catégorie.

 

Cette approche n’en finit pas de se heurter à des difficultés. Que penser de la nature transversale de la lumière ? Le photon étant une particule associée à une onde électromagnétique, sa vibration est transversale comme les vecteurs électromagnétiques qui représentent cette vibration.

 

Ces systèmes ondulatoires dissocient en général la lumière des phénomènes électromagnétiques. Divers phénomènes de mécanique des fluides ou des particules énergétiques sont utilisés pour expliquer les forces électromagnétiques. Quelques auteurs ne voient pas la nécessité de la nature électromagnétique de la lumière.

 

La lumière et les ondes, dites électromagnétiques, sont émises par les électrons ou d’autres particules lors de leurs mouvements sous l’effet de champs électromagnétiques. De même, la lumière et les ondes, dites électromagnétiques, ont des effets électromagnétiques en déplaçant des charges électriques dans les conducteurs, comme les antennes. On ne voit vraiment pas pourquoi ces ondes devraient, en elles-mêmes, avoir, en plus, une nature électromagnétique. C’est l’archétype des redondances qui ne devrait pas être acceptées dans les sciences. La plupart des auteurs rejettent cette vision, mais le plus souvent sans l’avoir vraiment voulu. C’est leur système qui leur impose une approche plus rationnelle.

 

Il n’en reste pas moins que la polarisation est une propriété transversale qui n’est nullement dans la nature des phénomènes ondulatoires. À défaut d’explication, il serait assez surprenant que l’on en vienne à interdire à ces auteurs de poser cette nature transversale en postulat. J’en connais qui font des postulats pour bien moins que cela !

 

Un argument général des auteurs des théories corpusculaires de la lumière est qu’elle ne se comporte pas comme des ondes dans les fluides.

 

Les auteurs des systèmes du présent chapitre s’appuient sur le même argument. Les ondes dans les liquides ne sont pas des rayons. Or, l’une de ces derniers, malheureusement décédée alors même qu’elle élaborait son système, a utilisé une solution qui se retrouvera souvent dans les systèmes avec éther proprement dit. Mais, au lieu de justifier son approche par une sorte de postulat, Caroline Thompson propose une solution à ce problème des interférences. Cette solution s’applique pourtant très mal sans éther. Ses ondes ne sont pas des ondes de pression dans l’éther. Ce sont des ondes énergétiques qui se propagent indépendamment bien qu’elle suppose l’existence d’un éther. Cet éther est entraîné en translation et rotation par les atomes. Je pense que l’évolution de ses idées l’aurait inévitablement menée à un système de type cartésien.

 

Or, il se trouve que cet auteur cherchait depuis plusieurs années à comprendre pourquoi la Science pure est mise en échec. Elle en était arrivée à remonter au tout début du développement de l’électromagnétisme, bien avant Maxwell.

 

Plus on approfondit la démarche scientifique depuis deux siècles, plus on est impressionné par la logique des enchaînements. Il est hautement improbable que l’on ait pu aboutir à une autre situation. L’existence de tant de dissidents vient du fait que l’on a été obligé d’adopter des postulats et des hypothèses contraires aux vues rationnelles utilisées jusqu’alors, en particulier dans les techniques de l’ingénieur. Mais il n’y avait alors pas le choix !

 

Cet auteur en est venue au point d’attribuer les immenses problèmes qui font le pain quotidien des physiciens dans les Universités du monde entier, à une erreur dans les tous débuts de la théorie électromagnétique, à la source. Elle a été emportée par un cancer fulgurant au moment même, j’en suis profondément convaincu, où ses analyses allaient l’amener à réexaminer l’énoncé d’Ørsted. Or, c’est bien l’énoncé d’Ørsted qui est la cause de tous les malheurs. Elle aurait ainsi découvert que le déplacement des électrons n’est pas la cause des champs magnétiques ! Qu’il n’y a pas de problème de relativité dans les phénomènes électromagnétiques !

 

Il reste le problème de la nature transversale de la lumière. Cette nature reste un postulat. On ne verra émerger une solution relevant de la physique et non des mathématiques pures, que beaucoup plus loin dans cette présentation. Elle nécessite une connaissance approfondie de la mécanique des fluides, non pas tant de ses résultats, mais d’abord des principes de base de l’élaboration de cette science d’ingénieur. Ces principes de base sont loin d’être simples à comprendre. On se contente dans les Écoles de les présenter. Or, certains de ces principes n’ont été retenus que parce qu’ils donnent des résultats acceptables. Mais, ils ne s’imposent nullement pour des raisons logiques. Un exemple est l’utilisation systématique de variables d’Euler au détriment de variables de Lagrange. Il est incompréhensible, par contre, de persister à vouloir déduire les équations de la mécanique des fluides en coordonnées cylindriques des équations en coordonnées cartésiennes. L’utilisation du théorème du moment cinétique donne directement et très simplement les équations en coordonnées cylindriques. Elle permet aussi de comprendre la présence de différentielles surprenantes dans le cas des fluides réels, c’est-à-dire avec frottements. Elle fait apparaître un terme singulier qui se trouve négligeable dans les fluides comme l’eau et l’air et même dans les superfluides. Il faut pouvoir expliquer pourquoi il est négligeable. Ce n’est pas immédiat.

 

Les moments cinétiques ne sont pas intuitifs ; leur théorème fait peur, même aux initiés. Voilà des mécanismes qui tournent bien tranquillement, de simples toupies par exemple. Touchez-les, ils sursautent, ils bondissent, comme les chats.  76 dissidents ont, d'ailleurs pensé avoir trouvé dans l’effet gyroscopique une source d’énergie nouvelle mettant en cause le deuxième principe de la thermodynamique ou principe de Carnot.


 

 

 

Chapitre 5

 

Ether et photons (Newton)

 

 

 

Nous abordons à présent les paradigmes alternatifs avec éther. Ces théories reprennent les caractéristiques communes à une grande partie des théories dissidentes. On rejette les dimensions multiples ; on rejette la réalité physique du temps, postulée par la doctrine relativiste ; on rejette la nature probabiliste des particules. Ce rejet ne signifie nullement le refus de la nature stochastique des fluides. Bien au contraire. Les mouvements browniens de la multitude de particules qui composent les éthers fluides sont traités par la statistique. La loi des grands nombres trouve là un terrain d’application idéal. L’approche probabiliste de la Mécanique Quantique est exactement le contraire de l’application de la statistique aux fluides. On prétend utiliser une théorie mathématique dédiée aux grands nombres, à chaque particule prise en elle-même. On se demande ce que peut bien signifier l’expression « probabilité de présence » pour un être unique. C’est la négation des principes mêmes de la statistique dont on prétend appliquer les règles.

 

Les auteurs qui retiennent des éthers ne supposent nullement l’impossibilité de définir la position et la vitesse d’une particule à un instant donné. Mais les particules sont en si grand nombre que la connaissance de ces états n’aurait aucun intérêt. Ils examinent, non pas les propriétés individuelles des particules, mais les propriétés qui résultent de leur existence simultanée dans l’espace.

 

Les éthers type Newton constituent un intermédiaire entre les théories basées sur des corpuscules ou des ondes avec les théories basées exclusivement sur des éthers fluides.

 

L’éther de Newton ne portait pas la lumière. C’était un fluide, de densité variable, remplissant plus ou moins l’Espace entre les corps. Il était plutôt confiné autour des corps. La lumière était constituée de corpuscules émis par la matière, mais sans rapport avec l’éther. Ces corpuscules en déplacement à la célérité de la lumière pénétraient dans l’éther entourant les corps en provoquant des ondes, comme un caillou à la surface de l’eau. C’est ainsi que Newton expliquait les interférences qu’il venait de découvrir. La découverte des interférences non localisées mit un terme à cette vision compliquée. Ce système n’a pas survécu à son inventeur. Les interférences ne peuvent résulter que d’une nature ondulatoire de la lumière. L’éther a été rapidement pris pour le seul moyen d’expliquer la célérité des ondes. Cette évidence n’a pas été mise en cause pendant plus de deux siècles. Les relativistes sont revenus, par nécessité, à des corpuscules de lumière. Ils affirment que leur célérité est un phénomène de la Nature qu’il serait vain de vouloir expliquer. C’est le postulat fondamental des relativistes.

 

Les systèmes de la catégorie type Newton, reprennent l’éther de densité variable de Newton. Ils reprennent cette idée que Newton a présentée dans à la fin de son traité d’optique pour expliquer la gravitation par effet Archimède. La lumière et les autres ondes électromagnétiques sont, en général, portées par des corpuscules. Mais on trouve aussi des trains d’ondes comme dans le chapitre précédent.

 

La densité de l’éther de Newton diminue en se rapprochant de la matière. La poussée d’Archimède doit donc augmenter. Les corps se trouvent ainsi d’autant plus accélérés qu’ils se trouvent près les uns des autres. On entrevoit quelques difficultés. Comment se mélangent les éthers des deux corps qui semblent s’attirer par cette variation de densité ? Il est difficile d’expliquer cette diminution de la densité de l’éther en se rapprochant des corps. Plusieurs auteurs ont ajouté une absorption de l’éther par les corps pour expliquer cette diminution. La matière serait un puits d’éther. Le mot puits fait ici référence à un type bien connu d’écoulement de la mécanique des fluides. Il a la particularité d’être irrotationnel. Il en résulte que l’écoulement présente les mêmes caractéristiques en fluides parfaits qu’en fluides visqueux, avec frottements.

 

Dans ces conditions, il y a redondance de moyens. Cette redondance est en opposition avec le principe de simplicité, le fameux rasoir d’Ockham. Il y a redondance, car l’écoulement de l’éther vers la matière provoque par lui-même une poussée des corps les uns vers les autres. Les puits de la mécanique des fluides tendent inévitablement à se rapprocher et à se fondre en un seul puits. Il faut ajouter que l’idée de puits ou de condensation de l’éther dans les particules de la matière entraîne une augmentation de la masse de ces particules. On retrouve ici les idées d'Ivan Osipovich Yarkovsky, en 1888, basées sur la condensation de l’éther dans les atomes, qui aurait expliqué la gravitation. Cette approche a été reprise par Christophe Hilgenberg en 1933. Certains auteurs ont proposé des corpuscules de l’éther sans masse. Il devient alors impossible d’expliquer un quelconque effet dynamique de l’éther sur la matière.

 

Les vitesses radiales de l’éther dans un puits, c’est-à-dire les vitesses naturellement dirigées vers le centre du puits, sont inversement proportionnelles au carré de la distance au centre du puits. C’est la loi mathématique des flux. Cette loi n’est valable que si la densité de l’éther est constante. Elle est valide pour tous les types de fluides sans aucune exception, même pour les superfluides. Elle ne convient pas pour les éthers du type Newton. La densité de ces éthers est variable.

 

Les éthers type Newton posent un autre problème. Tout se passe bien tant que les corps ne font que se rapprocher. Dès lors qu’ils se déplacent transversalement les uns par rapport aux autres, se pose le problème de la composition des vitesses relatives à l’éther. Si l’éther a un effet sur les corps et peut les mettre en mouvement, alors, réciproquement tout mouvement des corps dans l’éther doit entraîner un effet de l’éther modifiant leur propre mouvement. La seule poussée d’Archimède et la mise en vitesse des corps qui en résulte, implique que le déplacement des corps par rapport à l’éther ne peut pas être sans effet sur ces corps eux-mêmes. Cet effet est indissociable des poussées qui résultent des écoulements puits.

 

Dans le cas des mises en mouvement par le seul effet de la densité, le cas des éthers de Newton, on peut supposer que le fluide est parfait, sans frottement. Pourtant, même dans les fluides parfaits, le déplacement des corps ne reste pas sans effet. Dès lors que l’éther transporte des ondes, et c’est le cas de certains paradigmes alternatifs basés sur un éther type Newton avec une densité variable, il faut prendre en compte, en plus de la mécanique des fluides, la théorie cinétique des gaz, la seule qui explique la vitesse de propagation des ondes dans les fluides.

 

Nous verrons dans la troisième partie qu’un corps en mouvement dans un fluide parfait, considéré également comme un gaz parfait, a une traînée lorsqu’il se déplace par rapport à ce fluide. Selon la théorie des fluides parfaits, un corps en mouvement dans un tel fluide théorique n’éprouve aucune traînée. C’est le paradoxe de d’Alembert. Mais, il n’en va pas de même dans la théorie des gaz parfaits. C’est ce qui permet d’utiliser l’écoulement puits de la mécanique des fluides, même lorsque le fluide est parfait, c’est-à-dire sans frottement, si l’on suppose aussi qu’il s’agit d’un gaz parfait. Cette différence de comportement entre les fluides parfaits et les gaz parfaits est symptomatique de la différence entre les approches mathématiques et les approches corpusculaires. L’approche mathématique de la mécanique des fluides repose sur des équations essentiellement continues, alors que l’approche corpusculaire de la théorie cinétique des gaz est essentiellement discontinue.

 

Il n’en reste pas moins que, si l’existence d’un éther de Newton permet d’expliquer un effet gravitationnel, il reste à rendre compte de la proportionnalité de la poussée à la masse. Il faut aussi expliquer comment le déplacement transversal des corps dans le flux d’un autre ne produit pas de traînée. Il y a inévitablement composition des vitesses ! C’est un aspect des critiques de Poincaré et de Russel, l’astronome, contre l’éther.

 

Certains auteurs de cette catégorie ont bien compris ce problème. Une solution consiste à faire tourner l’éther autour des corps. On considère qu’ils ont le même mouvement que les corps en orbite. Mais, ces auteurs ne proposent pas d’explication à cette rotation et apparaît, en outre, un problème de moments cinétiques.

 

Peut-être pour éviter cette difficulté, un auteur a proposé une solution en faisant appel à l’effet Magnus. L’effet Magnus est une portance qui résulte de la rotation propre d’un corps dans un fluide. C’est le principe même des balles coupées au tennis. La raquette leur imprime une rotation sur elle-même. La portance qui résulte de cette rotation propre, l’effet Magnus, fait décrire à la balle une trajectoire courbe. Le même phénomène désespère le golfeur qui ne sait pas maîtriser les slices et les hooks. Une mauvaise position du club met la balle en rotation sur elle-même. La vitesse très élevée de la balle masque l’effet sur la plus grande partie de la trajectoire. Mais vers la fin, l’effet Magnus l’emporte et la balle prend la tangente, si l’on peut dire.

 

L’auteur pense ainsi compenser la traînée transversale. La difficulté ici est de justifier la vitesse de rotation des corpuscules de l’éther sans multiplier les facteurs ad hoc.

 

Une variante de l’éther de Newton consiste à prendre les ondelettes de Huygens pour des réalités. La lumière est, en quelque sorte, réémise à chaque saut des photons en déplacement par interférence, sans doute avec un éther sous-jacent. Ce point n’est pas très clair. L’intérêt de la démarche est d’expliquer l’expérience de Sagnac de manière simple, et, bien entendu, l’expérience de Michelson proprement dite. L’auteur ne connaissait pas les mesures de Miller. Mais sa thèse les explique qualitativement.

 

Les théories de l’éther peuvent être unifiées. L’éther devrait être considéré comme constitutif exclusif de la matière et expliquer tous les types de force de la Nature. Il n’y a que de rares théories de l’éther dans ce cas. Plusieurs d’entre elles font appel à des phénomènes très différents pour expliquer ces forces dont l’intensité présente d’ailleurs des écarts considérables.

 

Il faut noter, dans la catégorie des éthers type Newton, la présence d’un auteur qui rejette explicitement la nécessité d’une unification des forces de la nature. Il attribue la gravitation à son éther, mais ne voit pas pourquoi il serait impératif de procéder à une unification des forces. Il ne voit pas pourquoi on devrait exiger que sa théorie explique aussi les forces électromagnétiques et les forces de cohésion de la matière. Il considère cette exigence comme purement philosophique. Ce n’est pas très aimable pour les philosophes qui se trouvent assimilés à des personnes qui énonceraient des diktats injustifiés. Ce n’est pas une exigence philosophique. C’est une exigence parfaitement arbitraire. Elle entre dans la grande illusion progressiste. C’est l’idée de fin de la science, héritée du positivisme. C’est bien la fin de la Science pure, son échec total, qui survient. Mais ce n’était pas la fin attendue.

 

On espérait atteindre à une vision unitaire, globale, de l’Univers donnant à l’homme la clé de toutes les connaissances. L’utopie montre aujourd’hui son vrai visage : l’absurde. Le saut qualitatif dans le néant !


 

 

 

Chapitre 6

 

Ether et vortex ou anneaux

 

 

 

Dans ce chapitre, l’éther est un fluide qui remplit l’Espace. La nature de ce fluide a fait l’objet de nombreuses hypothèses. Les fluides que nous connaissons, les liquides, les gaz, les superfluides, les plasmas, ne conviennent pas pour rendre compte du comportement de l’éther en lui-même et par rapport aux corps qui s’y meuvent. D’une manière générale, les auteurs ne retiennent donc que certaines propriétés des fluides et ils ajoutent des hypothèses dédiées. Leur éther est différent des fluides tels que nous les connaissons, mais, à une seule exception, ils ne proposent pas de justification théorique à leur nouveau fluide. Bien plus, les variantes proposées sont toutes différentes !

 

Deux des théories de la catégorie de ce chapitre cumulent les anneaux ou tubes, et les tourbillons, qu’ils appellent des vortex. Les autres se répartissent de manière égale entre utilisation d’anneaux ou tubes et utilisation de vortex.

 

Une théorie attribue les propriétés transversales de la lumière à la propagation d’une perturbation en spirale dans l’éther. Une spirale comporte une vitesse transversale, une composante perpendiculaire à la propagation de la perturbation. On peut concevoir un tel écoulement dans le cadre des tubes d’Helmholtz. Une difficulté est de concevoir la limitation transversale des tubes. Cette limitation n’apparaît pas dans les solutions connues. La stabilité des tubes d’Helmholtz résulte de l’absence de limitation.

 

Dans une autre théorie, l’une des plus complètes en matière de mécanique des fluides, les particules de la matière sont des tores. Les tores de sens de rotation opposés s’attirent et qu’ils se repoussent si leurs sens de rotation sont identiques. Beaucoup de théories utilisent ce phénomène pour expliquer les charges électriques. Ici, il explique aussi les champs électromagnétiques.

 

Il faut noter que le même éther porte les ondes spirales, la lumière, et les propriétés électromagnétiques de la matière. Mais les ondes spirales ne sont pas électromagnétiques. C’est là une différenciation qui va à l’encontre de la théorie de Maxwell. La nature électromagnétique de la lumière, affirmée par Maxwell, n’est qu’un postulat. La quatrième partie de cet ouvrage expose le paradigme des faits. Les expériences mentionnées montrent qu’il n’y a aucun effet direct des champs électromagnétiques sur la lumière. Dans toutes les expériences connues, c’est la modification d’un milieu par les champs électromagnétiques qui est la cause directe de la modification du comportement de la lumière, de la polarisation en particulier, mais il n’y a jamais effet direct des champs électromagnétiques sur la lumière.

 

Il en va tout autrement pour la gravitation. Descartes et Newton ont tous les deux prévu un effet de la gravitation sur la lumière. Le plus curieux est que Newton n’explique, finalement, que la moitié de cet effet. Or, l’effet Newton n’a pas la même cause que l’effet prévu par Descartes. Voilà qui est vraiment singulier ! Pour Descartes, c’est son tourbillon qui courbe la lumière.

 

Dans la théorie que nous examinons, la gravitation résulte du déplacement de l’éther causé par les tores. C’est là un point difficile à comprendre.

 

Une variante des tubes d’Helmholtz est la génération d’une structure hélicoïdale à partir du tore. Le tore est, en quelque sorte, coupé transversalement et étiré pour former une spirale qui peut, par torsion, comporter plusieurs enroulements. Un enroulement hélicoïdal plus petit, de sens contraire, referme le tore par l’intérieur. Il est difficile de comprendre comment les limites de cette structure se forment dans l’éther. Le fumeur de cigares qui produit de beaux tores pense peut-être que la structure de ses tores se déplace indépendamment de l’air. En réalité, l’air, qui entoure la partie visible de l’écoulement, matérialisée par la fumée, tourne également, en même temps que le tore de fumée, avec une vitesse inversement proportionnelle à la distance à l’axe du tore. La stabilité des tubes et tores d’Helmholtz se démontre au sein de toute la masse fluide et non pas dans une zone cylindrique limitée, d’axe rectiligne ou courbe.

 

Toutefois, on peut prendre pour modèle la partie visible du tore du fumeur. La fumée représenterait la partie massive, si l’on peut dire, des particules de l’éther. Si l’on parvient à démontrer la stabilité de cette structure, elle présenterait un intérêt considérable. La masse serait concentrée à la périphérie du tore. Dans ces conditions, l’effet d’un courant d’éther serait proportionnel à la masse du tore, elle-même proportionnelle à la surface apparente du tore, par rapport à l’écoulement. C’est exactement la même chose pour les structures de particules en bulle. C’est la réponse à l’une des questions cruciales que pose l’utilisation de l’éther pour la gravitation. Elle est commune aux tores et aux bulles. Pour les bulles, on conçoit bien les interfaces internes et externes de la partie matérielle, condensée si l’on veut, et de l’éther. On comprend donc aisément l’action du fluide. La théorie des tores en tant que domaine topologique, défini par des surfaces d’interfaces interne et externe avec l’éther, reste à développer pour s’assurer de sa faisabilité. Elle présente des différences essentielles avec le modèle d’Helmholtz, qui ne permettent pas d’utiliser ses résultats.

 


 

 

 

Chapitre 7

 

Ether absolu élastique (Lorentz)

 

 

 

La nature transversale de la lumière est mise en évidence par la polarisation. La conception électromagnétique des autres d’ondes du même genre, la théorie de Maxwell, postule également une nature transversale de ces ondes.

 

La théorie de Maxwell repose sur l’idée que ces ondes doivent être électromagnétiques en elles-mêmes. La prémisse majeure de cette pure induction est que ces ondes ont des causes électromagnétiques. Elles résultent essentiellement des oscillations des électrons dans la matière et dans les conducteurs. La mineure est que ces ondes ont des effets électromagnétiques sur la matière. Elles mettent en mouvement les électrons.

 

C’est une pure induction, car rien, aucune expérience, ne montre que ces ondes sont électromagnétiques par elles-mêmes. On ne voit pas pourquoi des électrons en mouvement doivent produire des ondes électromagnétiques ? On ne voit pas davantage pourquoi des ondes doivent absolument être électromagnétiques pour mettre des électrons en mouvement. C’est un postulat de Maxwell.

 

Il n’en reste pas moins que la polarisation est un phénomène transversal. Or, seuls les solides peuvent transmettre des ondes transversales. Pourtant, dans les solides, les ondes transversales sont toujours associées à des ondes longitudinales. Il faut donc supposer que les éthers de Maxwell et de Lorentz sont des solides très particuliers : ils ne transportent pas d’ondes longitudinales.

 

Un autre problème est de comprendre comment des corps peuvent se déplacer dans un solide. Le modèle de l’éther de Lorentz est une pure fiction. L’expérience de Michelson a mis à rude épreuve cette forme d’éther. Le prétendu principe de relativité a mis fin à cette théorie qui a été remplacée par la théorie corpusculaire du photon. Seulement, au passage, on a jeté toute possibilité d’expliquer la célérité de la lumière. C’est donc un postulat. On a lâché la proie pour l’ombre. Il subsiste quelques auteurs qui persistent à penser qu’il est plus essentiel d’expliquer la célérité des ondes que l’expérience de Michelson. Ils sont confortés dans leur position par les analyses d’Allais qui a démontré que les valeurs obtenues par Miller avec l’interféromètre de Michelson ne sont pas liées à l’incertitude des mesures. L’analyse statistique est formelle, incontournable, irréfragable. Les valeurs mesurées répondent à une distribution liée à l’heure sidérale. Il ne s’agit donc pas d’erreurs systématiques de mesure comme un effet de la température.

 

Cette remise en cause des fondements mêmes de la Science pure est récente. C’est pourquoi très peu d’auteurs en tiennent compte. Ils reviennent à la position de Bouasse et de quelques grands physiciens du début du siècle précédent. Il est préférable d’expliquer d’abord les phénomènes les plus généraux plutôt que les plus singuliers. Pourtant, l’éther solide reste très douteux. Il faut des hypothèses dédiées. C’est un solide, mais pas tout à fait, car les corps s’y déplacent librement. C’est un solide, mais il ne transmet pas d’onde longitudinale.

 

D’où la proposition d’inverser la situation. L’éther est un milieu énergétique qui a quelques propriétés des solides, comme la vitesse des ondes et leur nature transversale, mais ce n’est pas un solide. Ce milieu énergétique est de nature électromagnétique. La moitié des auteurs de cette catégorie considèrent l’unification des forces comme une nécessité. Aussi, ils attribuent la gravitation à une manifestation de l’électromagnétisme.

 

Il est plus difficile de comprendre pourquoi certains auteurs conservent les photons, et en font même le composant ultime de la matière. Parfois, il y a deux types de photons, dont l’un peut même être virtuel. On ne trouve qu’un exemple d’une telle théorie. Une variante consiste à utiliser le photon et l’absence de photon, le trou dans l’éther, comme mode de différenciation. On retrouve évidemment une influence de la théorie des semi-conducteurs. Une position originale consiste à considérer que les photons vont par paires, liés par une sorte de ressort. Ils formeraient ainsi un système ondulatoire, sans la fastueuse conjecture de la double nature du photon, particule ou onde, selon les conditions expérimentales.

 

Les auteurs qui ont rejeté la redondance éther et photons, proposent d’expliquer les forces de la Nature par des particules énergétiques de formes très diverses. On retrouve, bien sûr, des visions dialectiques avec des doublets de charges opposées, des dipôles.

 

L’antigravité reste une question. L’idée de masses positives et négatives est une forme de réponse, bien qu’il n’y ait alors qu’attraction, dont l’effet sur une masse négative est inverse de l’effet sur une masse positive. Mais la thèse d’attraction et de répulsion existe aussi ; ce serait proprement une antigravité associée à la gravité. Dans les fluides, ce sont les puits et les sources qui matérialisent ces deux actions.

 

Plus généralement, 20 % de ces éthers énergétiques considèrent que les particules sont des ondes. Ces ondes sont en général des perturbations du milieu énergétique, de l’éther. Quant à la matière, elle serait une composition de ces singulières particules. Il s’agit là d’un point commun à beaucoup de théorie. Une sorte de principe constitutif. Les composants de l’éther composent la matière.

 

Une différenciation entre les ondes est nécessaire pour expliquer les diverses forces de la Nature. L’avance et le retard de phase ont été mis à contribution pour jouer ce rôle.

 

L’unification des forces est-elle vraiment nécessaire ? Pourquoi la force de mes bras, il est vrai assez faible, ne serait pas aussi unifiée ? Plus sérieusement, pourquoi les forces hydrodynamiques et aérodynamiques ne seraient-elles pas unifiées avec les autres forces de la Nature ? Ah, je mélange tout ! Comment la Science pure pourrait-elle s’intéresser à ces basses œuvres des techniques d’ingénieurs ! Je ne suis qu’un pauvre lumpen-physicien.

 

Quelques anciens, dans le lot, ne peuvent concevoir que la science puisse connaître des retours sur le passé. La Science pure ne pourrait, en aucun cas, être un autre phénix. Ils ne veulent voir qu’une issue. Le grand bond en avant. Le saut dans la connaissance ultime. Ils attendent plus sûrement la fin de la science que le croyant n’espère le paradis. Or, il n’y a devant la Science pure qu’un seul avenir, une seule espérance, une seule fin : la décharge. Pire, il n’y a pas de recyclage !

 

Ces irréductibles ne veulent pas vraiment d’éther. Ils appellent éther un espace géométrique non-euclidien, pourvu du temps comme quatrième dimension. En se raccrochant à un éther mathématique, il pense pourtant pouvoir expliquer la vitesse des ondes. L’énergie électromagnétique est supposée transversale. Le tour est ainsi joué pour la polarisation. On zappe dans les propriétés des solides, des liquides, des gaz, des plasmas, des fluides et des superfluides, dans la géométrie. On remplit son panier virtuel avec quelques vortex et des tubes d’Helmholtz, des trains d’ondes chargés, des particules aussi. On ajoute quelques hypothèses hardies de la Science pure. On y jette la transformation de Lorentz, les cordes, sans prendre soin de vérifier les dates de péremption. Tout cela délayé dans une multitude d’équations propres à impressionner les foules, donnera quelques centaines de pages ésotériques qui expliquent tout. 

 

Je soupçonne qu’il y ait parmi eux quelques relativistes convaincus. Ils mettent leur nom parmi ceux des dissidents. Sait-on jamais !

 

Mais, puisque nous sommes dans la géométrie, un pas supplémentaire mérite d’être signalé. Pourquoi ne pas faire appel à d’autres notions mathématiques ? C’est déjà ce qu’avait fait Lorentz avec son groupe transformation, les fameuses formules de Lorentz. C’est le cadre même de la Relativité Générale, avec ses courbures d’espace. Un auteur utilise le formalisme mathématique sans idées préconçues. Il suppose l’existence d’opérateurs. Ces opérateurs doivent bien être dans la Nature, bien qu’il se garde de le dire. Ils transforment une variable énergétique, tout aussi naturelle, en toutes les espèces de forces et de particules qui existent. L’idée est assez proche de la défunte théorie des cordes. Lesdites cordes étaient aussi des êtres mathématiques. Déchues d’une position ambitieuse à 24 dimensions, elles étaient retombées à 11 avant de passer à la trappe, entraînées peut-être par un boulet encore trop lourd. Elles devaient expliquer toutes les forces de la Nature.

 

On peut se refermer sur ses convictions ; refuser d’examiner tout ce qui sort du cadre officiel. Y a-t-il encore un cadre d’ailleurs ? Mais on peut aussi suivre le précieux conseil de Marcel Gauchet. La tolérance réciproque. On découvre alors une richesse insoupçonnée. L’imagination humaine semble sans bornes. Il n’y a pas deux théories semblables parmi les 1887 que ces pages ont la prétention de cataloguer et de résumer. Le lecteur a compris, depuis longtemps, que j’ai un tout autre but. De cet énorme volume de pages web, j’extrais ce qui m’est nécessaire pour mieux exposer les problèmes que pose le paradigme des faits énumérés dans la dernière partie de cet ouvrage. Chaque auteur s’est intéressé à un groupe plus ou moins étendu de faits expérimentaux qui lui paraissent essentiels. Or, il n’y a pas de faits secondaires, négligeables. Les plus prodigieuses théories, étayées par les calculs les plus impressionnants, sont les premières victimes des faits délaissés. Qui a dit « l’ensemble n’est rien, tout est dans le détail » ? C’est digne d’un homme de guerre. Ce n’est pas Clausewitz, j’ai vérifié ! C’est Dufaud, un maître de forges. Victor Hugo dramatise : « L'ensemble accabl(e), le détail torture ».

Voici à présent une thèse qui pourrait recevoir une palme d’originalité. L’éther énergétique a les quatre dimensions des relativistes. Il est rempli d’un matériau sans dimensions, ni durée. Ce matériau est régénéré en matière, c’est-à-dire en particules, dans l’opposé des très hypothétiques trous noirs, des trous blancs. Ce matériau constitue les 90 % de masse manquante de l’Univers. Il est curieux de constater cette tendance humaine vers les visions dialectiques ou manichéennes. S’il y a des trous noirs, il faut bien que quelqu’un imagine aussi des trous blancs ! Ce sont les équivalents des écoulements puits et sources de la mécanique des fluides. Une variante n’attribue qu’une seule dimension au composant énergétique ultime de la matière.

 

Bien que de nature énergétique, certains éthers de cette catégorie présentent une densité d’autant plus élevée que l’on se rapproche de la matière. Ils utilisent le modèle Newton. Ils ont donné à leur éther une des propriétés des fluides. Cette disposition est destinée à expliquer la gravitation. Un auteur hésite entre cette hypothèse de Newton et l’effet d’écran qui caractérise l’hypothèse de Lesage.

 

Il est plus difficile de concevoir cet espace parcouru par une multitude de points géométriques énergétiques qui ne se rencontrent pas entre eux. Ce sont des points. Ils peuvent par contre rencontrer la matière et ces interactions expliquent les diverses forces de la Nature.

 

Trois autres auteurs de cette catégorie font la liaison avec les éthers fluides des catégories qui suivent. Ils ont attribué à leur éther énergétique quelques propriétés des fluides. Ils ont pu ainsi supposer des mouvements d’ensemble de l’éther qui peuvent expliquer l’anisotropie de l’espace, découverte par Allais.

 

Enfin, on voit apparaître ici les moments cinétiques. Je serais bien en peine d’exposer le système de cet auteur. Mais il est troublé par le problème des moments cinétiques. Il considère que l’énergie des neutrinos comporte une énergie cinétique de rotation qu’ils se transmettent entre eux comme se transmet la quantité de mouvement.

 

C’est là une première approche du problème plus général des degrés de liberté des particules des éthers fluides comme nous le verrons. Nous pouvons ici entrevoir les conséquences incalculables de cette profonde nécessité. On ne peut pas ignorer l’énergie cinétique de rotation ni au niveau des particules, ni au niveau des astres.


 

 

 

Chapitre 8

 

Ether absolu fluide (Lesage)

(et Variante de Yarkowski avec condensation)

 

 

 

Lesage a proposé, en 1784 d’expliquer la gravitation par un effet d’écran entre les corps. Pour exprimer les choses dans le langage actuel, l’éther serait un fluide stochastique conforme à la théorie cinétique des gaz. L’éther remplit l’espace. Si les libres parcours moyens des particules de cet éther sont suffisants, alors une dépression peut subsister entre les corps. Il faut, qu’au départ, ils aient été rassemblés et se soient trouvés ensuite dispersés.

 

Dans son livre « La science et l’hypothèse », Poincaré analyse la théorie de Lesage. Poincaré affirme que la dépression supposée par Lesage ne peut se maintenir, puisque, écrit-il, de nouveaux corpuscules se réfléchiront sur les corps et combleront le déficit de Lesage. Il se place dans la vision d’un gaz parfait pour affirmer que les corpuscules de l’éther de Lesage ne peuvent donc pas être élastiques. Puis, il montre que l’hypothèse de corpuscule de l’éther plastique, c'est-à-dire pouvant céder de l’énergie, est elle-même impossible. La Terre, par exemple, verrait sa température augmenter de 1013°/s.

 

Poincaré a éliminé l’éther de Lesage en ne voulant pas penser à cette possibilité de libres parcours moyens suffisants devant la distance entre les astres. C’est évidemment une hypothèse audacieuse que Lesage ne pouvait pas évoquer à son époque. Mais, une fois encore, pourquoi pas ? Poincaré ne pouvait pas ignorer cette possibilité. Son but était d’éliminer ce qui ne rentre pas dans sa vision du Monde.

 

Cet éther est le support de la lumière. Lesage s’est affranchi de l’hypothèse redondante des corpuscules de lumière de Newton.

 

V. V. Radzieskij a exposé de manière très complète l’historique et les problèmes de la théorie de Lesage et de ses variantes, en particulier les travaux de Lomonossov et de Majorana. Sa conclusion est que ce système ne peut permettre de rendre compte de la gravitation que dans sa variante ondulatoire. Or, le plus curieux de cette longue polémique est, qu’à aucun moment, on a envisagé la question dans le cadre statistique qui caractérise l’action d’un milieu particulaire, base même du système dit de Lesage. Avec des chocs élastiques, l’effet de masque peut se maintenir si les libres parcours moyens sont suffisants, ce qui n’est pas sans poser, d’ailleurs, des problèmes. À la limite, si les corps sont joints, le vide relatif se maintient pendant une durée qui se calcule statistiquement.

 

Le phénomène existe dans l’air. Il est lié à la pression atmosphérique : il explique la difficulté rencontrée en voulant séparer, par traction, deux plaques de verre ou de marbre poli. En matière de gravitation, on pourrait concevoir une action type Lesage entre deux noyaux d’atome d’une molécule, mais il semble bien difficile de l’appliquer entre des atomes de deux astres !

 

Comme R.P. Feynman l’a signalé, le vrai problème de ces systèmes est relatif à la composition des vitesses par rapport à l’éther. Ce problème conditionne la conformité aux lois de Kepler.

 

Les équations de la mécanique des fluides parfaits conduisent au paradoxe de d’Alembert. L’écoulement théorique autour d’une plaque est symétrique. Il n’y a pas de portance. On introduit empiriquement les frottements, la viscosité, dans les équations pour obtenir un effet de traînée. En réalité, l’effet de traînée existe en fluide parfait, même s’il est en général négligeable. L’effet d’un fluide sans viscosité sur un corps en déplacement relatif au fluide ne peut se comprendre que par l’approche statistique de la théorie cinétique des gaz. La vitesse d’un corps par rapport au fluide modifie d’autant la vitesse quadratique moyenne apparente d’agitation des particules du fluide et donc la pression sur le corps dans la direction du déplacement. Elle est augmentée côté amont et diminuée côté aval. Il y a donc traînée. Il peut y avoir portance. Cette action n’est sensible dans l’air qu’à partir des vitesses transsoniques. Mais, à ces vitesses, les ondes qui en résultent provoquent une traînée largement prépondérante. C’est ce qui explique que cette question n’ait pas été davantage approfondie par les adeptes de la théorie de Lesage. 

 

Une variante intéressante de la théorie de Lesage est l’utilisation de la pression d’ondes. Cette hypothèse est retenue par les auteurs qui attribuent aux particules une nature exclusivement ondulatoire. Cette approche ne règle pas le problème de la traînée tangentielle des astres en rotation autour d’un autre. C’est le problème de la composition des vitesses par rapport à l’éther.

 

C’est la véritable justification de la remarque de Feynman. Elle interdit l’application de la théorie de Lesage à la gravitation sans hypothèses supplémentaires. Certains auteurs ont utilisé l’effet Magnus ou l’effet Helmholtz pour remédier à ce problème. La rotation des corps toriques sur eux-mêmes dans l’éther provoque une portance par l’introduction d’une « circulation ». Dans les fluides parfaits, il s’agit là d’une fiction mathématique. Sans frottements, un cylindre en rotation ne peut nullement entraîner le fluide. Une telle portance n’existe que dans les fluides visqueux. C’est une difficulté qui conduit à des calculs très complexes pour justifier la gravitation, action dirigée vers le centre des astres, et la portance qui permet de compenser la traînée tangentielle des astres tournant autour d’un autre. Il faut un lien entre la vitesse de rotation, qui entre dans la fameuse « circulation », et donc dans la portance, et l’effet de la gravitation. Ce lien n’existe pas pour les planètes.

 

D’autres auteurs n’ont utilisé l’effet d’écran de Lesage que pour expliquer la stabilité des noyaux des atomes. Ils ont introduit une condensation de l’éther dans la matière pour expliquer la gravitation par un effet de masque maintenu par cette condensation. La condensation provoque une dépression entre les corps. On tombe sur un problème de redondance, car la condensation, à elle seule, provoque des vents d’éther orientés vers le centre des astres.

 

Curieusement un auteur a proposé une évaporation de l’éther. La matière est une source d’éther. L’effet d’écran provoque une dépression qui augmente l’évaporation entre les deux corps. Il en résulte une pression différentielle. Mais dans ce cas, il n’y a pas de redondance, car l’évaporation produirait un éloignement des corps. De même, un corps en mouvement provoquerait une diminution de l’évaporation en éther à l’amont. Cet effet viendrait compenser la traînée. Je pense que ces modifications de l’évaporation de la matière en éther résultent de la nature ondulatoire des particules de l’éther. On devrait pouvoir prendre comme explication une diminution de l’énergie reçue par les corps par effet d’écran. Là encore, il faut un lien entre l’évaporation radiale de l’astre central et l’évaporation liée au déplacement tangentiel dans l’éther. Aucun calcul justificatif n’a été produit à ce jour par ces auteurs. La difficulté est immense.

 

La polarisation a stimulé particulièrement l’imagination des auteurs. Une des hypothèses consiste à assimiler la polarisation à un phénomène d’interférences. La mise en œuvre de cette idée est complexe. Mais , on conçoit bien que l’on puisse rapprocher les raies noires des interférences à une extinction par polarisation.

 

Il faut signaler une proposition qui va prendre tout son sens au chapitre suivant. Nous allons voir que le problème fondamental des systèmes qui s’inspirent des tourbillons de Descartes résulte du théorème du moment cinétique. Or, un des auteurs d’une théorie reposant sur l’effet d’écran de Lesage attribue la polarisation de la lumière au spin des particules de l’éther. La notion de spin comporte de profondes limitations. On ne peut pas vraiment prendre le spin pour un moment cinétique des particules, d’autant moins que l’auteur considère des valeurs de spin de signes contraires. Il s’agit toutefois d’un premier pas vers l’unification cartésienne de la lumière et de la gravitation.

 

Le problème du moment cinétique perturbe visiblement plusieurs auteurs. La plupart de ceux qui ont réfléchi à ce problème ont adopté des éthers type Descartes. Il y a ici une exception. L’auteur en question n’a pas supposé de tourbillons mais un, ou plutôt, sans doute, des mouvements de rotation de l’Univers entier. Il a cherché à compenser les moments cinétiques des rotations des galaxies et des systèmes stellaires comme le système solaire. Son système de la gravitation en reste à l’effet d’écran de Lesage.

 

Avant d’adopter sa gravitation archimédienne, la première tentative de Newton consistait en une condensation d’un fluide à la surface des corps. Cette explication de la pesanteur fut reprise par Riemann en 1853. Riemann pensait que le fluide de la gravité était évacué dans un autre Univers, par une sorte de trou noir. Ivan Osipovich Yarkovsky reprit l’idée de Newton en 1888. Il fut conduit à penser à un accroissement progressif de la masse des atomes par condensation de l’éther. Cette idée arrangerait bien les affaires des partisans du grossissement des planètes pour expliquer la dérive des continents. Cette hypothèse permettait aussi de résoudre le problème de l’énergie que pose la solution de Newton. Ces tentatives se heurtèrent toutes au problème de la composition des vitesses des astres. Si un fluide pousse les corps les uns vers les autres, un déplacement dans le fluide provoque nécessairement une traînée. Cette traînée est inconciliable avec les lois de Kepler. En outre, l’action d’un fluide sur un corps dépend d’abord de sa section apparente et non pas de sa masse. Ni Newton, ni Riemann ne pouvaient penser à quel point la matière est vide, tant elle paraît résistante.

 


 

 

 

Chapitre 9

 

Ether et tourbillons (Descartes)

 

 

 

Les systèmes reposant sur le système du Monde de Descartes sont les seuls, de tous les systèmes existants, qui permettent d’expliquer simultanément les résultats des expériences de Michelson et de Sagnac, l’aberration des étoiles fixes et l’absence d’aberration des étoiles non fixes, vérifiée aussi pour les satellites. L’explication est, dans chaque cas, parfaitement évidente, on pourrait même dire intuitive, tant l’explication est simple. De plus, ce sont les seuls qui pourraient rendre compte, également sans hypothèses dédiées, des résultats des analyses réalisées par Allais à partir des mesures de Miller et ses propres expériences sur la lumière reprenant les mesures d’Esclangon. Ces systèmes introduisent de facto une anisotropie. Pour comprendre ces performances inattendues d’un système tombé dans l’oubli le plus total, il faut en rappeler les grandes lignes.

 

Le système de Descartes est la première tentative de paradigme unifié. La lumière, la gravitation et l’électromagnétisme sont portés par un éther unique.

 

Les astres, le Soleil, la Terre, les planètes sont entourés d’immenses tourbillons d’éther qui entraînent en rotation les corps qui s’en approchent. L’éther de Descartes est, avant la lettre, un fluide parfait. Les tourbillons se maintiennent indéfiniment.

 

La gravité est un phénomène lié aux tourbillons. Elle est provoquée par l’effet gyrocyclone. Les particules solides dans un fluide mis en rotation se rassemblent près de l’axe de rotation. On peut s’en assurer dans sa tasse de thé. Les parcelles de thé que la passoire n’a pas arrêtées se rassemblent au centre de la tasse lorsque le thé est mis en rotation. Cet effet s’oppose à l’accélération centrifuge. Newton a eu tort d’affirmer que Descartes n’aurait pas équilibré l’accélération centrifuge alors qu’il a consacré de nombreuses pages et plusieurs dessins à ce problème. Descartes, il est vrai, n’a pas équilibré quantitativement les deux effets. Si l’on fait exception de sa Dioptrique, l’œuvre de Descartes est essentiellement qualitative et descriptive.

 

La lumière est une perturbation qui se propage dans l’éther, déjà support de la gravitation. Descartes a comparé cette perturbation au mouvement d’un bâton qui vient heurter un obstacle. Il ne concevait pas la propagation de cette perturbation comme celle des phénomènes ondulatoires, les vagues et le son. La lumière semble si rapide qu’il lui attribua un effet instantané.

 

Le magnétisme résulterait de la forme en hélice des particules de l’éther.

 

Le succès de Newton, puis de la Relativité a relégué ce système dans les oubliettes. Une vingtaine d’auteurs de théories alternatives ont relevé le défi. Deux d’entre eux ont apporté une modification radicale au système de Descartes. Ils ont introduit une hypothèse que nous avons déjà rencontrée. Ils ont supposé que l’éther se condense dans la matière expliquant ainsi la loi de Newton. Comme tous les flux centraux, le flux de l’éther en condensation a une vitesse radiale inversement proportionnelle au carré de la distance au centre de l’astre central. La condensation est un phénomène de surface qui se produit dans les particules qui composent la matière. Ces deux auteurs ont supposé que les particules et les noyaux de la matière sont des bulles. Il en résulte, assez naturellement, que le flux d’éther en condensation est proportionnel à la masse des particules qui composent la matière. Mais la masse des bulles, comme des tores d’ailleurs, étant proportionnelle à leur surface apparente, l’action des vents d’éther sur les corps est proportionnelle à leur masse. Enfin, le tourbillon d’éther entraînant la matière, il n’y a pas de problème de vitesse relative transversale, pas de traînée contrairement aux éthers de Lesage et de Newton. D’ores et déjà se trouvent expliquées les expériences de Sagnac et de Michelson, sans que le moindre calcul soit nécessaire. Bien plus, on détient une explication des analyses statistiques des mesures de Miller par Allais et des décalages des visées d’Esclangon.

 

Or, ces résultats impressionnants se trouvent anéantis par une simple remarque. La loi des vitesses tangentielles dans les tourbillons des fluides est inversement proportionnelle à la distance au centre de l’astre central. Ce système n’est pas conforme aux lois de Kepler. Ces vitesses devraient être proportionnelles à la racine carrée de la distance à l’astre central.

 

C’est là où les deux auteurs se séparent. L’un a choisi une solution proche des conceptions de la Science pure avec des courbures d’espace. Une approche géométrique de la gravitation.

 

L’autre bouleverse le système de Descartes. Comment régler un problème de moments cinétiques ? En commençant par des moments cinétiques. Cet auteur attribue aux particules de l’éther des moments cinétiques stochastiques, en plus de leur quantité de mouvement.

 

Tout bascule dès lors. Dans cet éther fluide, les particules ont six degrés de liberté, les trois composantes de la quantité de mouvement et les trois composantes du moment cinétique. Le principe d’équipartition peut s’appliquer, mais à une condition : il faut que le moment cinétique se transmette dans le choc de deux particules de l’éther en même temps que la quantité de mouvement. Or, c’est là une découverte majeure, l’hypothèse des sphères élastiques, déjà utilisée pour la transmission de la quantité de mouvement dans la théorie cinétique des gaz, permet d’expliquer la transmission du moment cinétique. L’élasticité des corps provoque une déformation locale des corps au point de rencontre. Cette déformation est augmentée progressivement par les rotations propres des corps. Plus la rotation est rapide plus importante est la déformation dissymétrique qui emmagasine une énergie de déformation restituée lors du rebond en assurant, par la dissymétrie de la déformation, la transmission des moments cinétiques.

 

La prise en compte de l’énergie cinétique de rotation et le principe d’équipartition de l’énergie entraînent le doublement d’un des termes de l’équation de Lagrange. La solution de la nouvelle équation est une loi des vitesses tangentielles inversement proportionnelles à la racine carrée de la distance au centre de l’astre central. C’est exactement ce que donnent les lois de Kepler.

 

Ce phénomène est impossible dans un fluide constitué de molécules, comme l’air et l’eau. Les formes des molécules sont complexes. Les rotations propres ne peuvent se maintenir.

 

Cette modification des équations de la mécanique des fluides, que l’on pourrait appeler dès lors « mécanique de l’éther », a une apparence infime. Mais ses conséquences sont immenses.

 

Bien sûr, tous les problèmes d’action à distance sont résolus autant pour l’accélération dirigée vers l’astre central que pour les moments cinétiques. Mais ce n’est encore que peu de chose. Seule la composante transversale des moments cinétiques peut intervenir dans la transmission des moments cinétiques. Les particules de l’éther sont élastiques. Elles s’aplatissent lors des chocs entre elles. Cet aplatissement les empêche de glisser l’une sur l’autre et permet la transmission du moment cinétique. C’est une propriété transversale qui apporte enfin une réponse évidente à la polarisation de la lumière. Ce n’est encore qu’un détail.

 

Nous verrons dans la quatrième partie que, dans les tourbillons de la mécanique des fluides parfaits ou visqueux, la rotation propre des particules du fluide est exactement égale et opposée à leur rotation dans le mouvement d’ensemble du tourbillon.

 

Dans la mécanique de l’éther, il n’en va pas ainsi. Il y a un excédent de moment cinétique dans la rotation d’ensemble sur la rotation propre des particules du fluide, du fait de la modification de l’équation de Lagrange dont nous venons de parler. Cet écart doit être compensé. Il n’y a qu’une seule source possible, c’est le moment cinétique propre des particules. Il diminue au fur et à mesure que l’on se rapproche de l’astre central. Mais l’équation de Lagrange doit être modifiée progressivement puisque l’équipartition n’est plus strictement respectée. Cette composante du moment cinétique est progressivement pompée par le tourbillon. Le principe de conservation du moment cinétique est respecté, mais une partie de la rotation propre des particules fluides se retrouve dans le mouvement d’ensemble du tourbillon, c’est-à-dire dans un autre terme de l’équation de l’éther. Lorsque le moment cinétique propre des particules de l’éther est entièrement annulé, on retombe sur les équations de la mécanique des fluides parfaits et leur solution de la vitesse tangentielle en 1/r. La zone de passage de l’une à l’autre des configurations se fait à vitesse tangentielle constante, c’est la loi des vitesses tangentielles des galaxies. Ce phénomène explique l’anomalie du mouvement de Mercure, mais aussi celle de Phobos.

 

La déviation de la lumière par les astres est, en gros, le double de la valeur qui résulte de la loi de Newton. C’est la somme de l’effet Newton et de l’effet Descartes. La moitié est due à la condensation de l’éther, la seconde moitié à la rotation de l’éther, au tourbillon cartésien, qui entraîne les ondes qu’il porte.

 

La valeur maximale de la vitesse de la Terre par rapport à l’éther a été mesurée par Miller avec l’interféromètre de Michelson à 6 heures et 18 heures sidérales. Cette heure correspond au moment où le Soleil se trouve dans le plan de l’interféromètre. On mesure à cet instant la vitesse radiale de l’éther dirigée vers le Soleil, ajoutée ou retranchée à la vitesse tangentielle du tourbillon zonal de la Terre. L’auteur en a déduit la vitesse verticale de l’éther en condensation dans les atomes de la Terre. Cette vitesse dépasse les 5000 Km/s. Une telle vitesse est compatible avec les mesures de la verticale, avec les déviations optiques des visées sur mires et sur collimateurs mesurées par Esclangon et Allais, enfin avec les anomalies mesurées par Vignal pour la correction des mesures de nivellement. Les courbes sinusoïdales obtenues par l’auteur sont identiques à celles d’Allais. Elles ont été obtenues en utilisant uniquement la valeur maximale mesurée par Miller.

 

Comme toutes les théories introduisant une condensation, cette théorie cartésienne de l’éther conduit à un accroissement de la masse des atomes avec le temps. La première conséquence est un décalage progressif du spectre de la lumière émise avec le temps. Les galaxies éloignées doivent donc nous apparaître avec un spectre décalé. C’est évidemment une explication d’une extrême simplicité du décalage galactique vers le rouge, dit de Hubble, le fameux redshift.

 

La masse des corps augmente. Qu’il n’y ait rien d’absolument constant, d’absolu, dans la Nature, n’est pas surprenant. C’est la position de l’auteur. Il tire de cet accroissement une conséquence remarquable. La matière est plus dense au centre de la Terre qu’à la surface. Si la densité était constante, la surface augmenterait en proportion de l’augmentation du volume. Mais, cette densité variable entraîne que le volume de la matière augmente plus vite au centre de la Terre qu’à la surface qui doit donc s’étirer si elle est élastique, ou se fissurer. En tout état de cause, malgré les énormes éruptions magmatiques des massifs montagneux et les volcans, la pression interne de la Terre est maintenue. Les tremblements de Terre et les tsunamis qui en résultent sont des manifestations de la condensation de l’éther, plus importante au centre de la Terre qu’à la périphérie. Ce sont des conséquences, certes, dramatiques, mais inévitables, du processus de la gravitation.

 

Enfin, les ondes des éthers fluides ne sont en aucune manière des ondes sphériques. La lumière est constituée de trains d’ondes dont les dimensions transversales sont celles de l’électron émetteur. La forme sphérique quasi parfaite des particules de l’éther évite la diffusion de ces trains d’ondes. Les particules n’entraînent pas leurs voisines comme dans l’air mais surtout dans l’eau.  L’auteur explique ainsi les propriétés corpusculaires de la lumière. Toutes les propriétés corpusculaires de ces trains d’ondes sont identiques à celles des photons. En particulier, les vibrations d’un électron provoquent des trains d’ondes dans deux directions exactement opposées. Ce phénomène est utilisé dans l’expérience d’Aspect. La conformité au paradigme expérimental est donc quantitative. Aucune nouvelle hypothèse n’est nécessaire.

 

Par contre, cette théorie n’est pas unifiée. La lumière n’est pas électromagnétique en elle-même. C’est le premier point. L’auteur ne prétend nullement tout expliquer. Il n’explique pas les champs électromagnétiques. Sa thèse est que les phénomènes électromagnétiques relèvent d’une autre approche, mettant en jeu des vitesses d’un ordre de grandeur largement supérieur à la célérité de la lumière. Il n’a pas non plus de théorie des particules. Il rejette l’idée que l’échange de particules puisse être la source d’accélérations. Plus généralement, en attribuant les champs magnétiques au champ magnétique des électrons et non à leur translation, il énumère un certain nombre de simplifications à la compréhension du problème des raies spectrales, base de la Mécanique Quantique. On hésite à préciser qu’il ne croit pas une seconde à la thèse probabiliste, rejetée unanimement par tous les auteurs de théories alternatives. Et pourtant, son éther est essentiellement le lieu de mouvements stochastiques des particules qui le composent.

 


 

 

 

Conclusion

 

 

 

En conclusion de cette analyse des systèmes alternatifs, on peut dire qu’il y a actuellement dans l’Internet et dans la littérature (postérieure à 1905) 1887 paradigmes alternatifs irréconciliables. Devant une telle atomisation de l’offre, on pourrait penser que le paradigme actuel de la Science pure est assuré d’une durée de vie très confortable, malgré les énormes difficultés rencontrées durant cette même période. Le problème est que ces difficultés touchent au fondement même des doctrines relativiste et quantique. Ce ne sont pas ici seulement des centaines de scientifiques qui vont chacun leur chemin avec la certitude d’être dans la bonne direction. Ce sont des dizaines de milliers d’enseignants qui ne croient plus à rien, qui ne se parlent plus. Et ils sont confrontés à des étudiants, le peu qui restent dans la voie scientifique, qui se marrent positivement dès lors qu’il est question de vitesse absolue indépassable, de probabilité de présence ou de vitesse du temps. Ah ! Oui, il y en a deux ou trois, au premier rang, qui enregistrent passivement le dogme énoncé d’une voix neutre par un homme qui n’y croit plus. Ils veulent un papier à la fin de l’année pour trouver un emploi. Pas de vagues.

 

En marge de la lutte pour les attributions des fonds publics et des donations, chacun a son idée pour en sortir ou sa conviction qu’il n’y a pas d’issue, pas même de porte de secours. Les divisions sont tout autant dramatiques qu’entre les dissidents. C’est le chaos, un tohu-bohu épouvantable !

 

Toutes les tentatives de conciliation se terminent par des heurts plus ou moins vifs. Même les auteurs, qui ont des visions assez proches au départ, finissent par se séparer. Bien plus, les auteurs qui partent des postulats d’un « ancien », s’en éloignent plus ou moins tôt pour finir par s’y opposer entièrement. Aristote et son maître Platon constituent l’exemple historique s’il en est.

 

S’il avait tort pour l’évolution dans la Nature, Darwin aurait-il raison dans le domaine des théories ? Mais laquelle est la meilleure ? La plus partagée ? La plus révolutionnaire ? La plus étendue ? Quel est le critère du meilleur ? Les théories qui expliquent le plus de faits sont-elles les meilleures ? L’expérience ne fera jamais preuve ! Nous allons examiner, dans la quatrième partie, le paradigme des faits, les expériences qui ont marqué l’histoire de la physique depuis Ørsted.

 

Avant cela, je vous propose d’examiner plus en détail les problèmes que pose la mécanique des fluides appliquée à la gravitation. Les fluides sont en effet les milieux les plus utilisés pour modéliser l’éther.

 


 

 

 

 

 

 

 

 

 

Troisième partie

 

Les problèmes de l’utilisation

de la mécanique des fluides en cosmologie

 

 


 

 

 

Chapitre 1

 

Problèmes relatifs à la gravitation

 

 

 

La mécanique des fluides parfaits est régie par des équations différentielles de type elliptique : elles n’ont de solutions mathématiques que dans les très rares cas où elles se simplifient en formes intégrables. Ce sont les écoulements dits à potentiels de vitesses. Tous ces écoulements sont à deux dimensions. Ils sont plans. Il n’y a que quelques rares solutions connues : l’écoulement plan permanent, avec ou sans surface de discontinuité, l’écoulement tourbillon, avec ou sans vortex, c’est-à-dire creux ou plein en son centre, les écoulements source et puits, qui ne diffèrent que par le signe.

 

Les écoulements plans avec surface de discontinuité ont été les plus étudiés. Les écoulements autour des plaques et des cylindres sont les bases de toute la théorie des profils d’aile des avions. La transformation mathématique du cylindre permet d’étudier toutes sortes de profils théoriques. L’expérience montre cependant que ces profils ne donnent pas les meilleurs résultats. Il a fallu définir expérimentalement des types de profils améliorés qui ne sont pas des solutions des équations de la mécanique des fluides. Un des problèmes de l’approche théorique est l’angle de décollement des filets fluides qui n’est pas conforme aux résultats expérimentaux. Ce problème n’existe bien sûr que pour les fluides visqueux. Il ne se pose pas dans les applications à l’éther et il n’est donc pas nécessaire de l’aborder ici.

 

L’effet Magnus entre dans le cadre de la théorie des profils d’aile des avions. À l’écoulement autour d’un cylindre, on ajoute une circulation autour du cylindre. Cette circulation crée une dissymétrie des pressions du fluide lors de l’écoulement autour du cylindre et donc une portance.

 

L’effet Magnus est une portance qui résulte de la rotation propre d’un corps dans un fluide. C’est le principe même des balles coupées au tennis et des slices et des hooks au golf comme nous avons vu. La balle est mise en rotation sur elle-même lors du choc du club. La vitesse très élevée de la balle masque l’effet sur la plus grande partie de la trajectoire. Mais vers la fin, l’effet Magnus l’emporte et la balle part brutalement à droite ou gauche selon le cas.

 

Les écoulements purement puits ou source sont métastables en raison du principe de Hamilton. Il n’y a d’écoulements puits ou sources stables qu’avec un tourbillon.

 

Les écoulements puits-tourbillons sont des écoulements irrotationnels, comme chacune des composantes d’ailleurs. Contrairement à l’apparence, les particules fluides ne tournent pas. Elles font un tour sur elle-même dans le sens contraire de la rotation du tourbillon lors d’une rotation d’ensemble complète, en sorte qu’à chaque instant, le moment cinétique de leur rotation propre est exactement inverse et opposé au moment cinétique qui correspond au mouvement d’ensemble du tourbillon. C’est une propriété remarquable de ces écoulements. Cette caractéristique explique que les écoulements puits-tourbillons sont exactement identiques dans les fluides visqueux : les frottements n’interviennent pas.

 

Il faut ajouter cependant que la théorie de ces écoulements n’est pas conforme à l’expérience. La surface libre des puits-tourbillons se trouve au-dessus de la surface libre théorique. Ce problème n’est pas dû à la viscosité puisque la solution en fluide visqueux est identique. On a attribué cet écart à l’entraînement de l’air. Or, le calcul montre que l’ordre de grandeur de l’effet de cet entraînement est 4 fois plus faible que l’ordre de grandeur de l’effet observé. Ce phénomène résulte des frottements des particules fluides en rotation différentielle les unes par rapport aux autres, qui n’est pas pris en compte dans la théorie des fluides visqueux. Dans cette théorie, on considère que les frottements dans les fluides ne résultent que des vitesses relatives des particules fluides comme pour les solides. On ne prend pas en compte les rotations.

 

Les tubes d’Helmholtz sont des structures stables en fluide parfait. Le tube à axe rectiligne indéfini est la base de la théorie des tourbillons. Dans le cas des fluides à surface libre, la surface se creuse en raison de l’énergie mobilisée par la mise en vitesse qui est prise sur l’énergie potentielle, c’est-à-dire la hauteur du liquide, comme le pendule ou la balançoire font passer l’énergie cinétique en énergie potentielle.

 

Un cas particulier des tubes d’Helmholtz est l’anneau ou tore d’Helmholtz. Les mouvements circulaires sont centrés sur un cercle situé dans un plan perpendiculaire à l’axe de l’anneau. Ce mouvement est tridimensionnel. Il n’y a pas d’expression de cette solution des équations de la mécanique des fluides. Toutefois leur stabilité est la conséquence de ces équations. L’anneau présente une rotation autour de son cercle principal, mais il ne peut avoir une rotation d’ensemble autour de l’axe du tore. Il se désagrégerait par absence de réaction à l’accélération centrifuge.

 

Un tel anneau se déplace dans le fluide par effet Magnus le long de son axe, selon son sens de rotation propre. Bien entendu, il n’y a pas d’anneau sans fluide. Dans les fluides visqueux, la rotation propre de l’anneau provoque un écoulement du fluide à travers sa partie centrale. Deux anneaux de même axe s’attirent donc ou se repoussent selon les rotations se produisent en sens contraire ou dans le même sens.

 

Les équations dites de Navier-Stokes, pour les fluides visqueux newtoniens, n’ont qu’une seule solution connue. C’est l’écoulement puits-tourbillon. Cette solution est exactement la même que la solution en fluide parfait : les termes de frottements s’annulent. Dans les deux cas, les vitesses tangentielles sont inversement proportionnelles à la distance au centre de l’écoulement. Les vitesses radiales sont proportionnelles à la distance. Il s’agit en effet d’écoulements plans, cylindriques. Le flux du fluide à travers le cylindre est constant et donc proportionnel au rayon du cylindre.

 

L’écoulement puits pur est la seule solution connue en trois dimensions. Elle est identique en fluide visqueux à la solution en fluide parfait. La vitesse radiale est inversement proportionnelle au carré de la distance au centre du puits. L’application du principe de Hamilton montre que cette solution n’est pas stable. Il y a mise en rotation. Or, la rotation implique l’existence d’un axe. La rotation est donc un mouvement plan. Un théorème de Poincaré montre que le tourbillon se concentre dans un plan perpendiculaire à l’axe de rotation du tourbillon. Dans ces conditions, l’écoulement, en dehors de ce plan principal de l’écoulement puits-tourbillon spatial, n’est plus conforme au principe de Hamilton. Il en résulte une mise en rotation zonale de chaque côté du plan principal. Chaque zone sera comme comprimée vers le plan principal. Le même raisonnement s’applique à nouveau de chaque côté en sorte que, finalement, l’écoulement soit d’apparence sphérique avec une succession de zones. Dans ces zones latérales, il n’y a plus équilibre des moments cinétiques des particules du fluide. Il faut donc que la rotation du tourbillon de chaque zone soit de sens inverse des rotations des zones voisines. Entre les zones, des vortex transversaux prennent naissance par frottements. Les axes de ces vortex sont radiaux, c’est-à-dire dirigés vers le centre du tourbillon principal qui est également le centre de l’écoulement puits. Les zones tourbillonnaires intermédiaires agissent comme des zones de roulement.

 

Les vitesses tangentielles du fluide dans les tourbillons zonaux sont inversement proportionnelles à la distance à l’axe du tourbillon principal. C’est ce qui rend les puits- tourbillons de la mécanique des fluides inutilisables pour la gravitation. Il faut une hypothèse supplémentaire. Nous l’avons vu, c’est l’introduction du moment cinétique des particules du fluide. L’équipartition double le terme relatif à l’énergie cinétique et conduit à une vitesse tangentielle inversement proportionnelle à la racine carrée de la distance au puits.

 

Un cas intéressant est la formation de tubes d’Helmholtz dans les discontinuités des écoulements plans avec frottement. Ce sont les fameuses doubles rues alternées de Bénard-von Karman. Ce phénomène existe également dans les superfluides en rotation dans un cylindre, mais on n’observe alors qu’une seule ligne de vortex en spirale partant de la surface et allant vers le centre du cylindre. Cette ligne évolue vers une distribution matricielle lorsque la vitesse de rotation augmente.

 

Il n’y a pas de solutions en fluides non newtoniens. Dans ces fluides, les frottements sont proportionnels à la différence de vitesses entre les éléments fluides. C’est le cas des écoulements des sables et plus généralement des suspensions colloïdales. 

 

Contrairement à une idée très répandue, l’action d’un fluide parfait sur un corps en mouvement dans le fluide n’est pas nulle. On appelle paradoxe de d’Alembert cette absence d’effet qui résulte de la symétrie des solutions des équations de la mécanique des fluides parfaits. Mais, c’est là faire abstraction de la théorie cinétique des gaz. En réalité, l’effet de traînée existe en fluide parfait. L’effet d’un fluide sans viscosité sur un corps en déplacement relatif au fluide ne peut se comprendre que par l’approche statistique de la théorie cinétique des gaz. La vitesse d’un corps par rapport au fluide modifie d’autant la vitesse quadratique moyenne apparente d’agitation des particules du fluide et donc la pression sur le corps. Elle est augmentée côté amont et diminuée côté aval. Un corps en mouvement dans un fluide parfait, considéré également comme un gaz parfait, a donc une traînée lorsqu’il se déplace par rapport à ce fluide. Cette traînée permet d’utiliser l’écoulement puits de la mécanique des fluides même lorsque le fluide est parfait, c’est-à-dire sans frottements, pour expliquer l’effet de l’éther sur les corps.

 

Enfin il y a inévitablement composition des vitesses dans l’éther ! On ne peut pas proposer un éther, sans envisager les effets d’une vitesse relative des corps par rapport à l’éther qu’il soit assimilé à un fluide parfait ou à un fluide visqueux.


 

 

 

Chapitre 2

 

Problèmes relatifs à la lumière

 

 

 

Un intérêt majeur des fluides est d’expliquer la célérité des ondes qui s’y propagent. C’est un résultat majeur de la théorie cinétique des gaz et de la thermodynamique. La célérité des ondes est la vitesse quadratique moyenne des molécules du fluide en agitation brownienne. Cette loi est générale. Elle ne repose sur aucune hypothèse quant à la nature des composants du fluide.

 

C’est là, certainement, l’un des résultats les plus extraordinaires de toute la physique : il ne faut aucune hypothèse supplémentaire ! Bien sûr, l’application de la thermodynamique à l’éther n’est pas directement possible. La température est une caractéristique des atomes et de leurs couches électroniques. Ce phénomène n’existe pas si l’éther est constitué de particules élastiques. Il faut des hypothèses sur les propriétés de ces particules. Il en résulte que le calcul de la valeur de la célérité des ondes de l’éther n’est pas un copier-coller du calcul réalisé pour les gaz. Ceci étant, la théorie cinétique des gaz s’applique parfaitement. Le problème est la valeur de la célérité de la lumière. Le calcul de cette célérité nécessite des hypothèses sur les particules de l’éther.

 

Ces ondes sont la propagation d’une variation de pression. Elles sont essentiellement longitudinales. Les gaz ne transmettent pas d’ondes de striction, autrement dit transversales. Là aussi, il faut une hypothèse supplémentaire. Ce qui est remarquable est que c’est la même que pour la gravitation. Si les particules du fluide ont un moment cinétique, alors il se transmet transversalement lors du choc des particules entre elles. La déformation des particules du fluide les empêche de glisser l’une sur l’autre et le moment cinétique peut ainsi se transmettre transversalement.

 

Le second problème concerne les effets corpusculaires de la lumière.

 

Il est indubitable que les ondes dans les liquides sont sphériques. Si le liquide est à surface libre, comme les océans, il transporte des ondes dites justement de surface, en plus des ondes sphériques. À vrai dire, les ondes sphériques deviennent rapidement des ondes planes à cause du fond, ou des parois. Mais, ces ondes ne sont jamais assimilables à des rayons.

 

La situation est très différente dans l’atmosphère et dans les gaz en général. Si les ondes dans l’air étaient vraiment sphériques, on ne voit pas pourquoi on améliorerait leur portée en mettant ses mains en porte-voix devant la bouche. Les essais et les mesures du niveau de bruit des machines se font dans des chambres anéchoïdes, c’est-à-dire dépourvues d’échos. Les parois sont recouvertes d’une multitude de petites pyramides qui absorbent le son et donc ne le réfléchissent pas. Dans ces chambres, il faut se mettre en face de son interlocuteur pour entendre ce qu’il dit. Le son ne se propage nullement de manière sphérique. Dans une pièce normale, ce sont les échos qui donnent l’impression que le son se propage dans toutes les directions. En réalité, le son est constitué de trains d’ondes de dimensions transversales limitées. En sortant de la bouche, ces trains d’ondes ont la dimension de la bouche. Cette dimension transversale s’accroît avec la distance. Ce phénomène résulte de la forme complexe des molécules de l’air. Les molécules de la périphérie des trains d’ondes entraînent leurs voisines par frottement.

 

Un éther composé de particules assez proches de sphères ne présente pas une telle dispersion, par défaut de frottements. La dispersion doit être d’autant plus faible que la surface des corpuscules est lisse. Ce sont des hypothèses faciles à concevoir. On peut donc parfaitement modéliser la lumière et les ondes du même genre sous la forme de trains d’ondes dans un fluide quasi-parfait, au sens de la mécanique des fluides ; ces trains d’ondes ont une dimension transversale limitée. Leur dimension transversale est celle des électrons ou des autres particules qui leur donnent naissance par leurs propres oscillations. La durée de ces oscillations conditionne la longueur de ces trains d’ondes. Leur longueur d’onde est l’amplitude de l’oscillation des particules. En outre, la vibration d’un électron entraîne la formation de trains d’ondes dans les deux directions opposées correspondant à sa vibration. Cette particularité explique les problèmes de symétrie rencontrés dans certaines expériences comme celle d’Aspect.

 

En conclusion, les résultats de la théorie cinétique des gaz et de la mécanique des fluides ne peuvent s’appliquer directement à des éthers fluides pour expliquer la gravitation et la lumière. De tels éthers ne peuvent être conformes aux expériences.

 

Les problèmes cruciaux sont la nature transversale de la lumière, l’action des fluides proportionnelle à la surface apparente des corps et la loi des vitesses tangentielles dans les tourbillons. Ces vitesses ne dépendent pas de la distance dans les galaxies et elles sont inversement proportionnelles à la racine carrée de la distance au Soleil dans le système solaire et pour les satellites des planètes.

 

C’est pourquoi tous les auteurs proposent des hypothèses supplémentaires et principalement la rotation sur elles-mêmes des particules de l’éther.


 

 

 

 

 

 

Quatrième partie

 

Le paradigme des faits

 

 

 


 

 

 

Introduction

 

 

 

La quatrième partie de cet ouvrage est consacrée au paradigme des faits. Il s’agit essentiellement des expériences relatives à la gravitation et à la lumière. Ce n’est qu’une infime partie du paradigme de la physique. Elle ne contient pratiquement aucune des expériences, même les plus fondamentales, sur les particules. Il n’y a que quelques expériences relatives aux raies spectrales des atomes.

 

Les phénomènes électromagnétiques ont été limités à ceux qui mettent en jeu la propagation et la polarisation de la lumière.

 

Le retour à l’éther rassemble un très large consensus. L’éther n’est possible qu’à condition de rendre compte de l’ensemble des faits du paradigme expérimental, éventuellement en attribuant certains de ces faits à des causes différentes, encore faut-il s’en préoccuper. Mais un éther qui ne répondrait pas aux expériences exposées n’a guère de chance de succès.

 

Les manques de conformité ne sont jamais absolument rédhibitoires. Des difficultés ont pu échapper aux auteurs des théories. L’ampleur de la tâche impose une grande prudence dans le jugement de conformité. On connaît la réponse de Churchill à une question sur l’explication de son ascension politique : « Je suis allé d’échec en échec ». L’échec est un défi. Les meilleures idées viennent après les pires difficultés.

 


 

 

 

Chapitre 1

 

Gravité et inertie

 

 

 

1.  MECANIQUE GEOMETRIQUE

 

1.1.           Remarques préliminaires

 

La mécanique géométrique est l’étude du mouvement théorique d’un point de masse définie, par l’analyse différentielle et la géométrie. Il s’agit évidemment d’une fiction. Un point ne peut avoir de masse. d'autre part, le mouvement ne peut en aucun cas se trouver dans un corps. La mécanique géométrique retire de la nature certains mouvements sans s’inquiéter de leurs causes ni de leurs conditions. Ces hypothèses montrent assez les limitations de cette méthode.

 

1.2.           Espaces et repères de référence

 

Les repères de référence sont directement liés à la notion géométrique d’espace. L’espace serait une réalité. Dans la doctrine relativiste, le photon se déplace à une vitesse totalement indépendante de tout. La mécanique géométrique serait donc l’expression directe de la réalité. Le mouvement devrait être rapporté à un repère de référence et il pourrait ainsi être étudié comme une détermination propre. Il résulterait des postulats de base des théories de la Relativité, que les distances ne seraient pas de simples déterminations relatives, mais, outre qu’il leur est attribué une réalité matérielle mesurable, elles seraient modifiées par la vitesse.


Le mouvement du photon est indépendant du repère de référence choisi. Le mouvement du photon est un absolu.

 

 

 

 

 

 

 

 

 

 


1.3.           Temps

 

Dans le cadre de la doctrine relativiste, le temps est considéré comme une réalité, au même titre que l’espace. Le temps se mesure, bien qu’il soit impossible de comparer directement des durées. Il faudrait rester dans le passé pour s’assurer que l’instant initial reste en coïncidence avec le début de l’étalon de temps, tout en attendant le futur pour vérifier la coïncidence de l’extrémité de cet étalon avec la durée à mesurer. On ne mesure, en fait, que des distances ou des angles. On ne peut juxtaposer que des longueurs ou des angles. On ne peut comparer que des longueurs ou des angles. Et encore, cela ne va-t-il pas sans d’immenses difficultés, comme Einstein l’a parfaitement montré. Comment, en effet, s’assurer que les deux extrémités de l’étalon de longueur restent en coïncidence avec les deux extrémités de la longueur à mesurer si l’on ne dispose pas d’un moyen de transmission de l’information de vitesse infinie ? En effet, aussi énorme que soit cette vitesse, tant qu’elle reste finie, la coïncidence ne peut plus être assurée sans un risque d’erreur provenant d’un déplacement d’une de ces extrémités pendant l’intervalle de temps nécessaire à la transmission de l’information. En corollaire, les relativistes considèrent qu’il n’est pas possible d’être assuré que deux instants sont simultanés et ainsi d’être assuré d’une simultanéité.

 

1.4.           Conservation de la Masse, ou principe de Lavoisier

 

La masse est considérée comme ce qui existe dans les choses. Aussi doit-elle rester strictement invariante globalement. Cependant, les atomes présentent un défaut de masse d’autant plus grand qu’ils sont plus stables. On appelle défaut de masse la différence entre la masse effective des atomes, mesurée au spectrographe, et la masse totale des constituants.

 

Lors d’une fission ou d’une fusion d’atomes, on observe une perte de masse, ou un gain de masse dans certaines fusions. Cette variation de masse correspond à un gain ou à une perte de stabilité des éléments formés par rapport aux éléments initiaux. Pour les relativistes, la masse serait équivalente à l’énergie. La masse se transformerait en énergie lors des réactions nucléaires. C’est la fameuse relation E=mc2.

 

1.5.      Conservation de l’énergie

 

Dans le cadre de la doctrine relativiste, c’est la somme masse plus énergie qui se conserve. L’énergie seule ne se conserverait donc pas.

 

1.6.           Principe de Hamilton

 

L’action est toujours un extremum. Il faut considérer que les mouvements qui se produisent sont toujours ceux qui conduisent à la plus grande dissipation d’énergie.

 

Ce principe est considéré comme le seul valable à la suite des bouleversements apportés par les théories d’Einstein et la Mécanique Quantique.


2.  MECANIQUE ONDULATOIRE

 

2.1.           Remarques préliminaires

 

La mécanique ondulatoire est l’étude de la propagation des ondes.

 

2.2.           La célérité de la lumière

 

Dans le cadre de la doctrine relativiste, la célérité de la lumière dans le vide et hors des champs de gravitation est une limite absolue.

 

2.3.           Les propriétés ondulatoires des électrons

 

On sait que l’on peut obtenir des anneaux de diffraction avec un faisceau d’électrons homocinétiques. Dans la théorie quantique de l’onde associée, les électrons sont indissolublement liés à une onde. C’est cette face des électrons qui permet de rendre compte du phénomène.

 

Il faut ajouter à cela que l’électron ne pourrait être localisé que par une certaine probabilité de présence. C’est-à-dire que son existence est probabiliste, alors que son onde associée est, en quelque sorte, déterministe.

 

3.  MECANIQUE PHYSIQUE

 

3.1            La mécanique physique est l’étude des mouvements des corps par les principes de la mécanique.

 

Dans le cadre de la théorie de la Relativité Générale, la pesanteur est considérée comme un phénomène continu.

 

3.2            Principe d’inertie

 

En l’absence de frottements et d’obstacles, le mouvement des corps se poursuit sans altération de la vitesse. Ce principe ne fait aucune supposition sur la nature du mouvement ni sur sa cause. Il est pourtant à la source de toutes les erreurs du type aristotélicien ou nominaliste ; le mouvement ou la vitesse serait contenu dans les choses.

 

3.3.           Durée de vie du neutron

 

La durée de vie des neutrons en mouvement est plus longue que leur durée de vie immobiles. Ces neutrons sont formés et mis en mouvement par les rayons cosmiques lors de leur pénétration dans l’atmosphère.

 

3.4.           L’horloge astronomique en mouvement retarde

 

Une Horloge astronomique a été transportée en avion. On a constaté qu’elle retardait.

 

3.5.           Effet Cherenkov

 

Un électron pénétrant dans un milieu comme l’eau à une vitesse supérieure à la célérité de la lumière dans ce milieu provoque une radiation dite de Cherenkov. On compare ce phénomène à l’onde de choc provoquée dans un gaz par un projectile se déplaçant à une vitesse supérieure à la vitesse du son dans ce gaz.

 

3.6            Mouvement de l’électron

 

L’énergie nécessaire à l’accélération d’un électron par un champ électrique ou magnétique s’accroît considérablement dès que l’on approche de la célérité de la lumière.

 

3.7            Expériences de Cavendish (1798) et de Boys (1895)

 

Dans les deux cas, il s’agit de mesurer l’attraction due à la pesanteur entre des corps. Ces expériences ont été reprises en 1927 et 1930 par Heyl.

 

Deux masses sont fixées aux extrémités d’un pendule de torsion soigneusement isolé des variations de température et des courants d’air même les plus faibles. Deux masses plus importantes sont placées à proximité des extrémités du pendule. On mesure l’angle de rotation du pendule en fonction de la distance de ces dernières masses à celles qui sont fixées au pendule. Une méthode plus précise consiste à mesurer la période d’oscillation du pendule. Ces mesures permettent de calculer la constante d’attraction par pesanteur, constante universelle. C’est à partir de la connaissance de cette valeur que l’on détermine la masse des astres.


 

 

 

 

 

 

 

 

 

 

 

 


3.8            Expérience d’Eötvös et Zeemann (1890)

 

L’expérience d’Eötvös et Zeemann utilise aussi un pendule de torsion portant à ses extrémités des masses égales à des altitudes différentes, pour créer une dissymétrie. On peut accroître la dissymétrie en utilisant des masses inégales. On mesure l’action de la pesanteur terrestre et de l’accélération centrifuge due à la rotation de la Terre. Cette expérience montre que l’on ne peut distinguer la pesanteur de l’accélération.

 

 

Le pendule d’Eötvös et Zeemann

 

m2, altitude h2

 
 

 

 

 

 

 

 

 

 

 

 


 


4.  MECANIQUE COSMIQUE

4.1            La mécanique cosmique est l’étude du mouvement des astres et des satellites dans l’Espace.

4.2            Le pendule de Foucault (1851)

 

Le pendule de Foucault n’est qu’un morceau de fer suspendu par un fil d’acier. Il oscille, mais il tourne aussi. Le pendule de Foucault met en évidence la rotation de la Terre.

 

 

 

 

 

 

 

 

 

 

 

 


4.3.           Avance du périhélie le Mercure

 

Le grand axe de l’ellipse décrite par Mercure, tourne autour du Soleil.

 

4.4            Accélération de Phobos

 

Phobos est accéléré progressivement dans sa rotation autour de Mars. La vitesse de Phobos est trop faible pour que la théorie de la Relativité Générale explique ce phénomène. Ce phénomène n’a pas, aujourd’hui, d’explication chiffrée reconnue par l’ensemble de la communauté scientifique.

 

 

 

 

 

4.5            Mouvements des satellites

 

Les satellites ont des mouvements très irréguliers. En particulier, ils sont affectés de perturbations zonales qui restent inexpliquées, bien que parfaitement connues et utilisées dans les corrections de trajectoires des satellites artificiels.

 

4.6            Ecliptique

 

L’ensemble des planètes se trouve dans la proximité du plan équatorial du Soleil. C’est le cas de la Terre. Le plan de la trajectoire de la Terre est appelé Ecliptique. Ce plan n’a aucun rôle privilégié. C’est par une forme d’anthropomorphisme que l’on a ramené les plans des trajectoires des autres planètes au plan de l’écliptique. Ce phénomène n’a pas d’explication reconnue par l’ensemble de la communauté scientifique.

 

Poincaré a publié en 1901 (Poincaré, Œuvres mathématiques, © Gauthier-Villars, 1951 Tome VII p 41 à 217) d’importants mémoires sur les masses fluides en rotation. Il a mis en évidence, mathématiquement, l’apparition de figures piriformes dans les fluides en condensation et en rotation. Ces formes constituent un mode de formation des astres très différent de l’accrétion par influence externe actuellement admise. Ce phénomène a été évoqué à plusieurs reprises et d’un point de vue qualitatif pour expliquer la concentration équatoriale des astres. Pourtant, les études complexes de Cournot (addition à la traduction du Système de Herschel, sur la distribution des orbites cométaires) semblent montrer pour le Soleil, une lacune par rapport à la répartition gaussienne.

 


4.7            Satellites naturels

 

La plupart des satellites se trouvent par rapport à leur planète dans la position des planètes par rapport au Soleil. Ce phénomène reste inexpliqué.

 

4.8            Galaxies

 

Toutes les étoiles se trouvent dans la proximité du plan équatorial des galaxies. Ce phénomène n’a pas d’explication reconnue par l’ensemble de la communauté scientifique.

 

4.9            Les Quasars

 

On observe des corps éjectés par les quasars ; il semble que les vitesses d’éjection soient de cinq à dix fois la célérité de la lumière. Ce phénomène est expliqué par l’hypothèse que nous voyons ces corps de chant. (entre autres : Another source exceeding the speed limit ; Mon.Not.R.Astr. Soc. 1976-177)

 

4.10   Les anneaux de Saturne

 

Ce phénomène reste inexpliqué.

 

4.11          Les Océans sont parcourus par un contre-courant équatorial et par deux courants tropicaux. On peut aussi distinguer des contre-courants dans les latitudes tempérées et des courants polaires.

 

Les théories avancées ne font pas appel aux conceptions actuelles de la gravitation. La théorie des échanges thermo-salins ne tient pas. Une différence de température ne peut provoquer que des courants verticaux ou des diffusions. La théorie de la salinité ne rend aucun compte de la disposition généralisée de ces courants dans tous les Océans, pratiquement indépendante de la forme et de la position des continents et des fonds marins. Cette théorie ne peut, en aucun cas, s’appliquer au courant antarctique qui a lieu à température constante. Toutes les théories proposées ne s’appliquent qu’à la Terre, alors que la surface du Soleil et celle des planètes gazeuses sont parcourues également par des courants différentiels qui restent inexpliqués.

 

4.12          Le Soleil et les planètes dites gazeuses tournent sur elles-mêmes. La vitesse de rotation de chacun de ces astres sur lui-même décroît avec la latitude.

 

Ce phénomène reste inexpliqué.

 

4.13                      Rotation des galaxies

 

La vitesse tangentielle des astres dans les galaxies n’est pas compatible avec la masse des corps visibles des galaxies. On mesure la vitesse des gaz ionisés présents dans les galaxies. La vitesse de rotation, de 200 à 400 Km/s est indépendante de la distance. Il manque 90 % de la masse des galaxies. Cette masse ne peut pas se trouver au centre des galaxies, la vitesse devrait décroître un peu moins vite que selon les lois de Newton, en raison de la présence d’étoiles visibles. En réalité, elle ne décroît pas du tout. La même proportion de masse manquante est obtenue en mesurant la déviation de la lumière par les galaxies. On obtient aussi le même résultat en mesurant les vitesses des galaxies en rotation les unes autour des autres.

 

Non seulement ce phénomène reste inexpliqué, mais il est devenu inexplicable dès lors que la masse manquante est en proportion de la masse perceptible et localisée au même endroit, comme cela a été montré pour tous les types de galaxies.

 


4.14                      Entraînement des repères par la rotation de la Terre

 

Les orbites des satellites Lageos I et II ont été déplacées de 2 m par an dans le sens de rotation de la Terre. Les orbites de ces satellites circumpolaires sont modifiées par les tourbillons de la Terre. Les satellites ne peuvent avoir une trajectoire képlérienne du fait de la traînée de l’éther. Ils ne sont pas dans le tourbillon équatorial. A aucun moment, ils n’ont la même vitesse que l’éther. De plus, ils traversent successivement tous les tourbillons de la Terre. Ils doivent donc décrire une sorte de sinusoïde képlérienne autour de la trajectoire plane théorique. Cette sinusoïde doit être décalée. L’action de l’éther est immédiate, dès l’entrée du satellite dans une zone tourbillonnaire. Mais la déviation de la trajectoire ne peut se constater qu’après un certain temps en raison de l’inertie du satellite. La moyenne des vitesses des tourbillons n’est pas nulle en sorte que le plan de leur trajectoire moyenne doit tourner lentement autour de la Terre. Seul ce dernier phénomène a été mis en évidence pour les satellites Lageos I et II, puisqu’il s’agit d’un effet cumulé sur plusieurs années.

 

L’expérience Gravity Probe B, destinée mettre en évidence cet entraînement, a échoué. Malgré des années de manipulations des résultats des mesures, on n’a réussi à mettre en évidence que des effets du Soleil et de la Lune. Le problème est que les fréquences observées sont le double de la fréquence bimensuelle des marées les plus hautes.

 


 

 

 

Chapitre 2

 

Lumières et ondes

 

 

 

1.  OPTIQUE GEOMETRIQUE

 

1.1.                      Remarques préliminaires

 

L’optique géométrique repose sur la notion fondamentale de rayon lumineux et sur le principe de Fermat. Son but est d’utiliser les résultats de la géométrie et de la trigonométrie pour étudier une partie des propriétés des ondes se propageant dans un milieu. Il existe une acoustique géométrique au même titre qu’une optique géométrique.

 

On peut se contenter de vérifier a posteriori que l’expérience confirme les résultats de ce point de vue théorique, mais l’optique géométrique donne d’excellents résultats en regard de la précision de nos mesures. Il sera donc plutôt question ici de chercher les raisons de cette adéquation.

 

1.2.                      La propagation rectiligne

 

Dans son état actuel, faisant intervenir des probabilités de présence, on peut dire que le photon a une certaine probabilité de se propager en ligne droite. On peut donc admettre que la théorie du photon rend compte de cette notion de propagation rectiligne.

 

1.3.           Le principe de Fermat

 

Le photon d’Einstein vérifie le principe de Hamilton qui est une généralisation du principe de Fermat.

 

 

1.4                        Célérité de la lumière

 

On ne peut totalement séparer l’optique géométrique de l’optique physique. Quoique ce problème ait été examiné dans la section précédente, il est nécessaire de l’évoquer ici, car le principe de Fermat suppose connues les célérités de la lumière dans les milieux.

 

La vitesse du photon est fixée par un des postulats d’Einstein. C’est un absolu appelé célérité de la lumière, bien que ce soit aussi la vitesse de toutes les ondes électromagnétiques. La vitesse de la lumière dépend du milieu où elle se propage.

 

1.5            L’aberration des étoiles fixes

 

Les lunettes astronomiques mettent en évidence un déplacement apparent des étoiles dites fixes. Ces étoiles peuvent être considérées comme fixes en raison de la durée des mesures et de leur distance à la Terre.

 

Ce mouvement apparent est dû au déplacement de la Terre. Ce phénomène a été découvert en 1728 par Bradley. L’expérience analogue de Boscovitch-Airy sera examinée avec l’expérience de Fizeau au chapitre suivant.

 

 

 

 

 

 

 

 

 

 


Il ne devrait y avoir aucune différence entre une étoile ayant une vitesse par rapport à un observateur et un observateur se déplaçant par rapport à une étoile. L’aberration n’existe pas si c’est l’étoile qui se déplace par rapport à la Terre.


 

1.6            La parallaxe des étoiles fixes.

 

 

 

 

 

 

 

 

 

 


Bessel mis en évidence, en 1840, la parallaxe des étoiles fixes. Elle résulte du changement de direction d’un astre lorsque l’observateur passe d’un point de l’espace à un autre. C’est de la simple géométrie.

 

1.7            La dispersion de la lumière

 

Ce phénomène est connu depuis des temps immémoriaux par les arcs-en-ciel. Il a été expliqué par Descartes en tant que conséquence des lois de la réfraction, mais Newton fut le premier à l’attribuer à la célérité de la lumière dans les milieux réfringents en montrant qu’elle dépend de la couleur et donc de la longueur d’onde. Il s’agit d’une conséquence de la nature ondulatoire du photon.

 

 

 

 

 

 

 

 


1.8.           Effet Doppler-Fizeau

 

L’explication de l’effet Doppler dans l’air fait intervenir des vitesses différentes du son par rapport aux sources et aux observateurs en mouvement. Les ondes défilent plus vite devant un observateur se déplaçant en sens inverse que devant un observateur immobile et a fortiori que devant un observateur se déplaçant dans le sens des ondes. L’effet Doppler provient donc d’un mouvement de l’observateur ou de la source par rapport au milieu qui porte les ondes.

 

Pour le photon, ce phénomène résulte de l’allongement du temps et raccourcissement des longueurs, dans les repères considérés en mouvement. Il faut noter que les calculs effectués à partir des formules de Lorentz conduisent à des valeurs du décalage de longueur d’onde, dû à la vitesse, plus importantes que celles qui sont obtenues à partir de la formule de Doppler. Ces formules mettent en évidence également un effet transversal. Ce qui est confirmé par l’expérience.

 

 

 

 

 

 

 

 

 

 

 

 

 


1.9.           Expérience d’Ives et Stilwell

 

Cette expérience consiste à comparer les longueurs d’ondes d’atomes en mouvement, mesurées dans le sens de leur déplacement et en sens inverse. On mesure un écart de fréquence plus grand que ne le laisse prévoir le seul effet Doppler-Fizeau.

 

2.  OPTIQUE ONDULATOIRE

 

2.1            Remarques  préliminaires

 

L’optique ondulatoire rassemble les propriétés ondulatoires des ondes électromagnétiques.

 

2.2            La nature ondulatoire de la lumière

 

Ce phénomène a été mis en évidence par Newton dans l’expérience des anneaux qui portent son nom. Newton attribua ce phénomène à la pénétration de la lumière dans un milieu fluide qui aurait entouré la matière. Ce milieu aurait été mis en vibration comme l’eau sous l’action d’une pierre. La lumière elle-même n’aurait pas de nature ondulatoire. Depuis lors, il est apparu que les interférences ne se produisent pas seulement dans la proximité de la matière. C’est la lumière même qui est une vibration.

 

2.3            La diffraction

 

Les rayons lumineux subissent un déphasage en passant dans la proximité immédiate d’un écran. Il en résulte des phénomènes d’interférences avec les rayons passant plus au large.

 

La proximité de la matière, atomes ou molécules, a, d’après cette expérience, une influence sur le déplacement des photons. Un photon qui traverse la matière a une vitesse différente de celle des photons qui passent dans le vide. L’effet de diffraction est indépendant de la nature de l’écran. On ne peut donc pas attribuer ce phénomène à une action électromagnétique de la matière.

 

Le fait que l’on obtienne des diffractions avec des électrons est considéré une des preuves de la théorie de l’onde associée.

 

2.4            Les interférences en faible éclairement

 

Taylor a réussi à obtenir, en 1909, des interférences parfaitement normales en utilisant une source de lumière d’intensité extrêmement faible pendant un temps suffisant.

 

Cette expérience a entraîné l’introduction de la probabilité de présence du photon. Si le photon était un corpuscule localisé, il ne pourrait passer que par une des fentes de l’interféromètre. Chaque photon devrait frapper l’écran en un point déterminé. Bien qu’en raison du principe de Heisenberg, sa position ne puisse être connue qu’avec une certaine approximation, on démontre assez aisément que la condition nécessaire pour que le photon passe par une fente est incompatible avec la condition nécessaire pour qu’il y ait interférences. Il faut donc élargir la notion d’incertitude et parler de probabilité de présence. Le photon a la même probabilité de passer par les deux fentes. L’interférence se produit par le biais de cette probabilité.

 

 

 

 

 

 

 

 

 

 


2.5            La polarisation de la lumière

 

La polarisation par réfraction fut mise en évidence par Huygens en 1690. La polarisation par réflexion fut découverte par Malus en 1810. Ce phénomène se traduit concrètement par l’extinction d’un rayon lumineux après son passage dans des polariseurs convenablement orientés l’un par rapport à l’autre. Les polariseurs sont des corps biréfringents. Dans le cas de la polarisation par réflexion, la polarisation est obtenue à l’incidence dite brewstérienne.

 

La polarisation du photon résulte de la nature transversale de la vibration électromagnétique qui représente son onde associée. Il est considéré que c’est par la nature des choses que les corps polarisants et les miroirs à l’incidence brewstérienne polarisent les photons. Il y a un modèle électromagnétique, connu sous le nom de théorie de Silberstein, qui rend compte qualitativement de la biréfringence. On pense actuellement que la polarisation est liée d’abord à la structure de la matière. Il n’y aurait donc rien de surprenant que ce phénomène soit si mal connu.

 

2.6            Phénomène de Kerr

 

Kerr découvrit, en 1875, que l’on peut donner des propriétés biréfringentes à la plupart des liquides en les plaçant dans un champ électrique. C’est une preuve de l’exactitude des postulats de Maxwell. Cette expérience montre la nature électromagnétique de la lumière.

 

On peut remarquer que le liquide soumis à un champ électrique a une disposition assurant la biréfringence, même sans passage de lumière. Il y a un intermédiaire entre la lumière et le champ électrique.

 

Cette forme de biréfringente est liée aux moments magnétiques des électrons. Le modèle actuellement admis fait intervenir un moment cinétique des photons.

 

2.7            Biréfringence magnétique

Ce phénomène, découvert par Cotton et Mouton, est tout à fait comparable au précédent. Il suffit de remplacer « électrique » par « magnétique »

 

2.8            Biréfringences accidentelles

 

Des corps soumis à une compression et des liquides en écoulement ont des propriétés biréfringentes. Ces phénomènes n’apportent pas d’éléments nouveaux en ce qui concerne la polarisation.

 

2.9            Polarisation rotatoire

 

La polarisation rotatoire a été découverte par Arago en 1811. Les quartz, certains corps isotropes et certaines solutions ont la propriété de faire tourner la direction de polarisation de la lumière.

 

La théorie de Kuhn permet de rendre compte de ce phénomène dans un cas particulier. Ce modèle suppose que les ondes électromagnétiques induisent des moments magnétiques dans les molécules. Cette intéressante théorie se trouve, aujourd’hui, supplantée par la prise en compte des moments cinétiques des électrons et des photons, comme pour le phénomène de Kerr.

 

2.10          Polarisation rotatoire magnétique

 

Cette expérience, effectuée en 1846 par Faraday, montre que les champs magnétiques modifient la disposition des molécules des liquides tels que le sulfure de carbone ou de certains corps transparents comme les flints. C’est cette modification qui provoque la polarisation rotatoire. Il n’y a pas, en réalité, action directe des champs sur la lumière.

 

Cette expérience est donc à rattacher aux deux précédentes.

 

2.11          Dispersion rotatoire

 

La dispersion rotatoire a été mise en évidence par Biot et Arago. La rotation de la direction de polarisation, dans les expériences précédentes, dépend de la longueur d’onde de la lumière.

 

La théorie de Kuhn ne donne qu’un résultat qualitatif, comme d’ailleurs la position actuelle consistant à considérer les moments cinétiques des photons.

 

2.12          Effet Zeemann et effet Stark

 

Les phénomènes de décomposition des raies par les champs magnétiques, effet Stark, et électriques, effet Zeemann, sont liés à la dispersion rotatoire.

 

 

3.  OPTIQUE PHYSIQUE

 

3.1            Remarques préliminaires

 

L’optique physique sera limitée aux phénomènes optiques liés à la propagation.

 

 

3.2            La célérité de la lumière

 

La célérité de la lumière est posée, dans le cadre de la théorie de la Relativité, comme une loi absolue de la nature. La valeur correspondante est parfaitement déterminée et invariante. Cette valeur a été mesurée à de nombreuses reprises et dans de nombreuses circonstances. Elle dépend du milieu de propagation.

 

3.3            L’expérience de Fizeau

 

Cette expérience met en évidence une différence de chemin optique entre le trajet de la lumière dans un liquide s’écoulant dans le sens de la lumière et le même trajet dans un liquide s’écoulant en sens inverse. Fizeau a mis en évidence une différence de chemin optique qu’il a attribuée à un coefficient d’entraînement de la lumière par le fluide.

 

 

 

 

 

 

 

 

 

 


3.4            Expérience de Boscovitch et Airy

 

Il s’agit ici du phénomène d’aberration des étoiles fixes observées avec une lunette pleine d’eau. Le but était de mettre en évidence un entraînement de la lumière par l’eau, c’est-à-dire de confirmer l’expérience de Fizeau décrite ci-dessus.

 

Le résultat de l’expérience de Boscovitch et Airy reçoit la même explication que l’expérience de Fizeau.

 

3.5            Expérience de Michelson et Morley (1885)

 

Cette expérience consiste à mesurer l’effet de la vitesse de la Terre sur la célérité de la lumière. Elle montre qu’il n’y a qu’un effet résiduel au plus égal à quelques Km/s au lieu des 30 Km/s attendus dans le cadre de l’éther de Lorentz. Le caractère systématique de cet écart et sa variation lors de la rotation de la Terre sur elle-même et autour du Soleil ont été mis en évidence par Miller en 1928. Les résultats de Miller ont été analysés par Allais en 1998 avec les outils d’analyse statistique les plus récents et éprouvés. Les causes de cet écart n’ont pas encore pu être établies.

 

 

 

 

 

 

 

 

 


Nota : Cette expérience a pris une valeur hautement symbolique. Le calcul qui aurait justifié un déplacement des raies correspondant au mouvement de la Terre dans l’éther est donc reproduit ici, par exception à l’objectif de ce livre.

 

Le principe de l’interféromètre a été repris en partie par Sagnac, mais celui-ci envoyait les deux rayons sortant du miroir sans tain parcourir deux chemins de sens contraire sur le pourtour d’un plateau ou disque tournant.

 

Dans l’interféromètre de Michelson, les deux rayons font un ou plusieurs allers et retours, dans deux directions perpendiculaires, avant de repasser dans le miroir sans tain et d’aller interférer sur un dispositif de mesure des positions des raies.

 

Il s’agit essentiellement de deux bras métalliques perpendiculaires, le miroir sans tain étant fixé à leur intersection. La source est dans le prolongement d’un des bras, le dispositif interférométrique dans le prolongement de l’autre bras.

 

À la différence du disque ou plateau de Sagnac, l’interféromètre de Michelson n’est pas mis en rotation permanente. On part d’une position donnée et on fait tourner le dispositif de 90°, position où l’on mesure le décalage des raies par rapport à leur position initiale. Il s’agit de mesurer la variation entre deux positions de l’interféromètre de Michelson de la différence des chemins optiques le long des deux directions perpendiculaires. Cette différence de chemins optiques résulte de la géométrie de l’appareil. On cherche à déterminer la variation de cet écart.

 

Si l’une des directions est perpendiculaire à l’orbite de la Terre, en tournant l’appareil de 90° cette direction sera alors dans la direction de l’orbite. Le contraire se produit pour l’autre direction de propagation de la lumière dans l’appareil.

 

Le modèle d’éther de Lorentz conduisait à penser que les ondes électromagnétiques se propagent dans l’éther à la célérité de la lumière. Cette vitesse est naturellement indépendante de la vitesse de la source et de celle de l’écran d’observation des interférences. La situation est celle que l’on trouve dans tous les milieux : dès qu’elles sont émises, les ondes des milieux solides, liquides et gazeux se propagent à une vitesse liée au milieu et par rapport à ce milieu.

 

Mais l’éther de Lorentz étant supposé fixe dans l’Espace, la Terre aurait dû se déplacer par rapport à l’éther. Ainsi le bras OM1 étant placé dans la direction de la vitesse de la Terre dans l’éther, la lumière qui va de O à M1 parcourt une distance d1’ plus grande que la distance d de O à M1 puisque M1 s’est déplacé avec la Terre lorsque la lumière y parvient pour s’y réfléchir. De la même manière la distance d2’ parcourue par la lumière entre M1 et O se trouve plus courte que la distance M1O.

 

Le miroir M2 se déplace quant à lui transversalement. La distance d’’ parcourue par la lumière de O à M2 est donc plus grande que la distance d de O à M2. Il en est en même au retour de M2 à O. La lumière parcourt deux côtés d’un triangle OM2’O’ où M2’ est la position de M2 lorsque la lumière y parvient et O’ la position de O lorsqu’elle y est revenue.


 


les temps de parcours de chacun des bras de l’interféromètre par la lumière sont donc respectivement de :

 



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Les temps de parcours diffèrent par un facteur  tel que :

 


Il en résulte un déplacement de l’ensemble des franges d’interférence lorsque l’appareil est tourné de 90°.

 


3.6            Expérience de Hoek

 

L’expérience de Hoek est, comme celle de Fizeau, une comparaison de la célérité de la lumière entre deux trajets, mais l’un des trajets est parcouru dans l’eau, l’autre dans l’air. Il y a évidemment une différence de chemin optique. Mais il s’agissait d’en mesurer la variation suivant que l’expérience était réalisée dans le sens du déplacement de la Terre ou en sens contraire. On n’obtint aucune différence.

L’interféromètre de Hoek

 
 

 

 

 

 

 

 

 


3.7            L’expérience de Sagnac

 

Cette expérience a été réalisée en 1913, et dans, des conditions voisines par Harress dès 1912. Il s’agissait de mettre en évidence une composition de la célérité de la lumière avec la vitesse tangentielle d’un disque tournant.

 

Un miroir sans tain placé sur le disque tournant divise en deux le rayon lumineux provenant de la source. Chacun des rayons est successivement réfléchi par les trois miroirs placés à la périphérie du disque ; ils parcourent le même chemin, mais chacun dans un sens. Le miroir sans tain permet de recomposer une partie de ces rayons qui parviennent sur un interféromètre. Ce dernier permet de mesurer la différence de chemin optique entre les deux rayons.


 

Cette différence est nulle lorsque le disque est à l’arrêt. Mais, dès que le disque tourne, on observe un défilement des raies d’interférence montrant l’apparition d’une différence de chemin optique. Cette différence est exactement celle que l’on peut calculer en considérant que la vitesse tangentielle du disque le long des trajets des rayons s’ajoute ou se retranche à la célérité de la lumière suivant le sens de parcours.

 

 

 

 

 

 

 

 

 


La théorie de la Relativité Restreinte n’explique pas ce phénomène.

 

Cette expérience est considérée comme une preuve expérimentale de la validité de la Relativité Générale puisque, aussi bien, la Relativité Restreinte ne permet pas d’en justifier le résultat. La métrique correspondant au cas de la rotation du disque n’a pas encore pu être obtenue. On peut signaler aussi une explication récente basée sur des considérations de Mécanique Quantique.

 

4.  OPTIQUE QUANTIQUE

4.1            Remarques préliminaires

L’optique quantique regroupe les phénomènes qui résultent de la nature discontinue de la lumière constituée de photons.

 

4.2            Pression de radiation

 

La théorie des ondes dans les milieux permet de prévoir un effet de pression des ondes sur un obstacle. La théorie est vérifiée dans l’eau aussi bien que dans l’air. C’est la pression de Maxwell-Bartholi.

 

C’est par sa nature vibratoire que le photon exerce une pression de radiation.

 

4.3            Energie de la lumière

 

Toute onde transporte une énergie. Les vagues de la mer peuvent détruire les digues, les ondes de l’atmosphère, casser les vitres. Mais la comparaison s’arrête à cette image qualitative, car la lumière est corpusculaire et donc quantifiée.

 

La nature discontinue des spectres, dits spectres de raies des atomes, a conduit à poser que la lumière est constituée de quanta d’énergie, les photons. Les photons transportent une énergie proportionnelle à la fréquence.

 

4.4            L’effet photoélectrique

 

L’effet photoélectrique a été découvert par Hallwachs en 1888. La lumière peut arracher des électrons à certains corps. La vitesse d’éjection dépend de la longueur d’onde de la lumière utilisée, mais est indépendante de l’intensité. Par contre, le nombre d’électrons éjectés en dépend directement.

 

La loi de Planck w= hν explique cet effet.

 

4.5            Effet Compton

 

L’effet Compton est un genre d’effet photoélectrique où la lumière n’est pas complètement absorbée. En plus de l’électron émis, il reste une onde lumineuse de fréquence réduite en fonction de l’énergie nécessaire à l’éjection de l’électron.

 

La théorie du photon permet d’expliquer l’effet Compton comme l’effet photoélectrique. La fréquence incidente est ici supérieure à la fréquence nécessaire à l’éjection d’un électron.

 

4.6            Expérience d’Aspect (1981)

 

Des paires de photons symétriques sont produites par une source constituée d’atomes de calcium. On compte les photons et leur direction de polarisation dans deux directions d’un côté de la source et dans deux directions du côté opposé.

 

Des corrélations des directions de polarisation sont mises en évidence par ces comptages. La probabilité de telles corrélations a été calculée sur les bases des axiomes de la Mécanique Quantique. Elle est vérifiée par l’expérience. Des expériences du même genre ont par la suite confirmé ce résultat.

 

Or cette probabilité est incompatible avec les inégalités de Bell qui régissent les phénomènes statistiques.

 

Pour certains physiciens, l’inséparabilité quantique, démontrée par cette expérience, doit conduire à abandonner la causalité relativiste.

 

 

 

5.  OPTIQUE COSMIQUE

 

5.1            Généralités

 

L’optique cosmique est l’étude des phénomènes liés à la propagation de la lumière et des ondes du même genre. Il faut noter que l’aberration des étoiles fixes a été étudiée dans l’optique géométrique, car elle ne met en cause que le mouvement de la Terre, en première approximation. En fait, il faudrait aussi examiner le cas réciproque de l’effet du mouvement des étoiles. Les résultats et les explications sont les mêmes. L’optique cosmique est donc limitée aux modifications que peut subir la lumière dans sa propagation, et en particulier à proximité des astres.

 

 

5.2            La déviation de 1a lumière par le Soleil

 

La théorie de la Relativité Générale permet de calculer une valeur égale à la déviation mesurée. La lumière est considérée comme obéissant aux lois de la mécanique dans un espace-temps tordu par la masse du Soleil. La pesanteur est en effet identifiée à une accélération.

 

 

 

 

 

 

 


5.3            Décalage solaire de la longueur d’onde vers le rouge

 

Il y a plusieurs expériences sur ce type de phénomène. Celle dont il est question ici concerne le décalage vers le rouge des raies spectrales des atomes situés à la surface du Soleil par rapport aux raies d’atomes identiques situés à la surface de la Terre.

 

La théorie de la Relativité Générale donne un résultat en accord avec les mesures, bien que diverses corrections soient apportées aux mesures. Ces corrections sont du même ordre de grandeur que le phénomène mesuré.

 

5.4            Décalage vers le rouge supplémentaire lorsqu’un astre passe derrière le Soleil

 

On a mesuré une chute de fréquence lors du passage de Taurus A derrière le, Soleil, en plus de la déviation.( The mass effect on Frequency, Science, 9 august 1968, NRL Washington DC)

 

Ce phénomène reste inexpliqué.

 

 

5.5            Décalage dû au champ de pesanteur de la Terre

 

On observe un décalage entre les longueurs d’ondes de deux atomes situés à des altitudes différentes sur une verticale. Cette expérience a été réalisée avec des masers. On utilise l’effet Mössbauer (on entre dans un domaine un peu complexe !).

 

5.6            Mesure de la durée du trajet Vénus-Terre par la lumière

 

Des expériences récentes ont montré qu’il y a une certaine probabilité pour que la célérité de la lumière ne soit pas indépendante des mouvements de la Terre et de Vénus, utilisée comme réflecteur d’ondes radar. Il s’agit de probabilité, car l’écart est faible et la mesure a été reprise un très grand nombre de fois. (Spectroscopy letters, 4 (3&4) 79-84 /1971). S’il était confirmé, ce phénomène serait inexpliqué.

 

5.7            Effet Hubble

 

On observe un décalage très important vers le rouge des raies d’absorption des atomes se trouvant dans les galaxies et dans les quasars.

 

Une légère dissymétrie dans l’effet Hubble, l’effet RFR, a été mise en évidence. Cette dissymétrie reste inexpliquée. Les modèles doivent faire appel, pour certains auteurs, à la notion nouvelle de vieillissement de la lumière ; pour d’autres, il faut supposer l’existence d’une nouvelle particule qui n’aurait pas encore été mise en évidence sur Terre.

 

Des galaxies très lointaines ont une luminosité inférieure à la valeur prévue. Ce phénomène reste inexpliqué.

 

L’ensemble de ces phénomènes est rapporté à l’hypothèse très contestée du Big Bang. L’expansion de l’Univers résulte de la théorie de la Relativité Générale et de cette théorie du Big Bang. Dans ce cadre, cette extension devrait ralentir avec le temps. Malheureusement, la faible luminosité des galaxies très éloignées montrerait que l’extension s’accélère. On a donc ajouté une hypothèse : l’énergie sombre ou noire.

 

 

 

5.8            Le fond diffus cosmologique ou Rayonnement cosmique fossile micro-onde (CMBR)

 

En 1964, les radioastronomes Penzias et Wilson ont découvert un rayonnement isotrope de 2.7°K d’origine inconnue. Il a été rattaché à la théorie du Big Bang. Ce serait un rayonnement résiduel.


                                                                    

Table des matières

 

Introduction                                                                                                 7

 

Première partie : Les questions et les échecs                                         10

 

Chapitre 1                        Le principe de Relativité                                 11

Chapitre 2                        Les paradoxes                                                  22

Chapitre 3                        La quatrième dimension                                  33

Chapitre 4                        Les géométries non euclidiennes                    41

Chapitre 5                        L’absolu                                                            46

Chapitre 6                        Les moments cinétiques                                  52

Chapitre 7                        Le probabilisme et le déterminisme    57

Chapitre 8                        Le champ magnétique des électrons   62

Chapitre 9                        Les paradigmes                                                67

 

Deuxième partie : Les paradigmes alternatifs                            84

 

Introduction                                                                                               85

 

Chapitre 1                        Théories innovatrices                                      91

Chapitre 2                        Théories de l’information                                97

Chapitre 3                        Unification par des particules                          99

Chapitre 4                        Unification par des ondes                              101

Chapitre 5                        Ether et photons (Newton)                            105

Chapitre 6                        Ether et vortex ou anneaux                           110

Chapitre 7                        Ether absolu élastique (Lorentz)                   113

Chapitre 8                        Ether absolu fluide (Lesage)             118

Chapitre 9                        Ether et tourbillons (Descartes)                    122

 

Conclusion                                                                                               128

 

Troisième partie :Les problèmes de l’utilisation                                  130

de la mécanique des fluides en cosmologie

 

Chapitre 1                        Problèmes relatifs à la gravitation                131

 

Chapitre 2                        Problèmes relatifs à la lumière                     136

 

Quatrième partie : Le paradigme des faits                                           139

 

Introduction                                                                                             140

 

Chapitre 1                        Gravité et inertie                                           141

Chapitre 2                        Lumière et ondes                                           152

 

Table des matières                                                                                 170