Jean de Climont

 

 

 

 

L'échec

de la

science pure

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Editions d'Assailly

 

 

 

 

 

 

 

 

 


 

 

 

 

 

 

 

 

 

 

 

 

 


L’ECHEC

DE LA

SCIENCE PURE

 

 



Jean de Climont

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L’ECHEC

DE LA

SCIENCE PURE

 

 

 

 

 

 

 

 

 

 

Editions d’Assailly


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

© Editions d’Assailly, 2009, 2010, 2011, 2016, 2018, 2019

ISBN 9782902425075

 

 


 

 

 

 

 

 

 

 

 

Table des matières

 

 

 

 

 

Introduction                                                                                                 9

 

Chapitre 1                        Le principe de Relativité                                 13

 

Chapitre 2                        Les paradoxes                                                  27

 

Chapitre 3                        La quatrième dimension                                  38

 

Chapitre 4                        Les géométries non euclidiennes                    47

 

Chapitre 5                        L’absolu                                                            52

 

Chapitre 6                        Les moments cinétiques                                  58

 

Chapitre 7                        Le probabilisme et le déterminisme    63

 

Chapitre 8                        Le champ magnétique des électrons   68

 

Chapitre 9                        Les paradigmes                                                74

 

 

 

 

 

 

 


Avertissement

 

 

Le livre L’ECHEC DE LA SCIENCE PURE a été divisée en deux.

 

Ce livre regroupe sous ce même titre les chapitres de la première partie présentant les arguments critiques contre le paradigme des modernes.

 

Les chapitres des trois autres parties sont regroupés dans un second ouvrage sous le titre  LES THEORIES ALTERNATIVES, (ISBN N° 9782902425341)

 

 

 

 


 

Introduction

 

 

Louis de Broglie a appelé « Science pure » la physique moderne. La Science pure, c’est la physique mathématique, par opposition aux sous-sciences, ces lumpen-science comme la mécanique des fluides et la mécanique de la rupture des matériaux. Le mot lumpen-science est d’Albert Einstein. Ces sciences « impures » utilisent bien des équations mathématiques, mais elles reposent essentiellement sur l’utilisation de données expérimentales. Que c’est laid ! La Science pure ne doit utiliser que le strict minimum de constantes universelles absolues et strictement invariables. Des équations mathématiques doivent ensuite permettre de retrouver les résultats expérimentaux.

 

Depuis Newton, en passant par Maxwell, la physique a été mathématisée à outrance. Aujourd’hui, aucune thèse ni aucun article scientifique n’est accepté ni publié s’il n’est émaillé de signes cabalistiques. Sans les sigmas et les deltas, sans les d droits et ronds des dérivées et les grands S des intégrales, sans rotationnels, sans divergences, sans laplaciens, ni hamiltoniens, ni d’alembertiens, noyés dans un éther de lettres grecques, un texte n’a la moindre chance de passer à travers les mailles de la revue par des pairs, le fameuse « peer review ». L’objectif positiviste a été pleinement atteint. Hors des mathématiques, point de science ! Il ne reste à trouver que l’équation de l’Univers ! Et avec l’inévitable découverte de la particule fondamentale, la physique aura enfin une fin. Tout sera expliqué, hormis quelques petits détails dont pourront s’occuper nos descendants.

 

Déjà, en 1824, le savant Jean-Baptiste Biot déclarait qu’avec les théories de Newton et de Coulomb, la physique est devenue un édifice quasiment achevé, une science faite, stable et impossible à renverser...". En 1900, le professeur William Thomson Lord Kelvin pensait que la physique était pratiquement complète : « il n’y a plus rien à découvrir en physique aujourd’hui, tout ce qui reste est d’améliorer la précision des mesures ».

 

La science pure mathématique a permis depuis plus d’un siècle d’expliquer un nombre considérable de faits expérimentaux. On a vu là la preuve de la validité de l’approche positiviste théorisée par Auguste Comte : expliquer tous les phénomènes de la Nature par les mathématiques.

 

Les énoncés des mathématiques tiennent leur autorité de la nature absolue des concepts qui les forment. Le caractère référent des syllogismes des mathématiques rend les conclusions apodictiques. On en a déduit qu’en appuyant la science sur les mathématiques, on devrait atteindre à ce même caractère apodictique des théories scientifiques. La physique, lorsqu’elle s’appuie sur les mathématiques dans ses énoncés, devrait entraîner la preuve de leur validité. Il y a une condition. Il faut que les concepts utilisés dans les énoncés soient absolus. S’il s’agit de phénomène du monde expérimental, les concepts utilisés ne peuvent en aucune manière être de nature absolue. L’expérience est essentiellement une relation. Dès lors la preuve s’échappe. L’énoncé n’est que probable. Or, avant de poser une équation mathématique, le physicien a accumulé les énoncés. Ce sont les définitions, les principes, les postulats et les hypothèses.

 

Malgré les prétentions des scientifiques, il n’y a qu’une seule linguistique. Bachelard a bien prétendu que « l’esprit scientifique se comprend dans ses productions, il forme avec aisance le langage de ses productions ». (Bachelard, L’activité rationaliste © PUF 1965 p. 47). Il y aurait une linguistique propre aux scientifiques. Cette linguistique reposerait essentiellement les mathématiques. Elle aurait ses règles propres. Elle serait le seul juge de sa valeur. Or justement le fait linguistique nécessite une référence indépendante sans laquelle il n’y a pas de langage. Il n’y a pas d’échappatoire aux thèses de Ferdinand de Saussure.

 

La même conclusion s’impose pour l’herméneutique. Il n’y a qu’une seule herméneutique. Les énoncés des sciences de la Nature n’ont aucune valeur apodictique. La formulation mathématique des énoncés de la physique ne leur apporte aucune valeur particulière. Les formulations mathématiques de la physique sont des syllogismes dont les prémisses sont des hypothèses et des postulats. Les hypothèses et les postulats n’énoncent nullement des faits. Ce sont des suppositions tirées d’interprétations d’expériences parfois fort rares. Les énoncés des expériences vont le plus souvent au-delà des simples résultats. Les résultats sont interprétés dans le cadre d’une théorie, du point de vue d’un paradigme. Les énoncés des expériences sont ainsi lourds des hypothèses et des postulats qui en font le sens. La valeur des sciences de la Nature est hypothéquée par des hypothèses et des postulats.

On peut présenter le problème d’une autre manière.

 

La démarche scientifique est essentiellement rationnelle. Elle s’appuie sur la logique comme les mathématiques évidemment. Les scientifiques pensent donc qu’ils peuvent parvenir à connaître toute la réalité en s’efforçant de rester parfaitement logique. La logique est un enchaînement d’énoncés. Ces énoncés s’enchaînent les uns aux autres. Ils se déduisent les uns des autres. Ils se complètent aussi. En l’absence d’induction intermédiaire, les scientifiques pensent être assurés de décrire la réalité.

 

Oui, mais ! Il y a un début à tout. Le raisonnement le plus logique que l’on puisse imaginer ne peut remonter à l’infini dans les causes. Il y a nécessairement un point de départ. C’est le principe, le postulat , l’hypothèse de base.

 

Or, il y a un cas où l’on a pensé s’être dispensé de toute hypothèse : la théorie électromagnétique de Maxwell. Depuis Ørsted tout s’enchaîne avec une logique parfaite  sans le moindre hiatus. Du moins on le pensait. Toute cette belle théorie repose en fait sur une interprétation de l’expérience d’ Ørsted : le champ magnétique du conducteur résulte du courant électrique et donc du mouvement des électrons. Or aussi inimaginable que cela puisse paraître au premier abord, il n’en est rien !

 

Pourtant, rien ne peut ébranler la foi aveugle et pathétique des scientifiques. Ils considèrent les dogmes relativistes et quantiques comme des vérités irréfragables.

 

Il y a bien quelques petits détails qui refusent d’entrer dans le sublime paradigme. Mais la Science pure ne tardera certainement pas à en rendre compte. D’ailleurs, de la même manière qu’il y a les vrais faits de la praxis des marxistes, il y a les bonnes expériences de la Science pure. Les autres faits, les autres expériences n’existent pas, tout simplement. Non licet esse !  Ils ne peuvent pas exister, pour reprendre un mot attribué au sympathique Néron. Ils ne veulent pas entendre parler des expériences de Sagnac, d’Esclangon et d’Allais et des résultats obtenus par Miller à l’interféromètre de Michelson.

 

Mais, l’incompatibilité entre cette vision probabiliste propre à la Mécanique Quantique et la vision déterministe des deux théories de la Relativité reste le paradoxe fondamental de la science pure. Il y a un autre paradoxe tout aussi fondamental, interne à la Mécanique Quantique elle-même. Comment concilier la nature indéterministe du photon avec sa vitesse non seulement parfaitement déterminée, mais absolue? Le photon n’a qu’une probabilité de présence, mais sa propriété essentielle, sa célérité, est elle-même parfaitement déterminée. Sa position n’existe vraiment que lors de son interception par un capteur. Sa longueur d’onde se dévoile à cet instant fatal. Sa direction de polarisation, également. Mais sa vitesse ? Elle est parfaitement déterminée, même si elle peut varier en fonction du milieu et de la présence des champs de gravitation.

 

C’est l’échec de la Science pure !

 

 

 


 

 

 

Chapitre premier

 

Le principe de relativité

 

 

 

« L’idée de la relativité et le relativisme ont été des préoccupations de tous les siècles. L’idée de relativité, comme la plupart des concepts de la Science pure, est une notion vivante dont le sens s’est précisé petit à petit au cours d’un développement tourmenté et incertain. Le nom s’est plus particulièrement attaché à la théorie d’Einstein en raison des circonstances qui ont marqué son origine. Jusqu’à Einstein, la notion de relativité s’est trouvée opposée au relativisme. Le relativisme est une notion aristocratique. Il implique une hiérarchie, des privilèges. Le privilège liait les prérogatives de l’observateur absolu à l’organisation du cosmos. Au contraire, la relativité est une notion démocratique qui suppose équivalence, égalité des observateurs. Notion démocratique, la relativité suppose une équivalence et s’exprime par une invariance. Cette relativité, c’est-à-dire cette indifférence, est une caractéristique de l’observateur et de son mouvement. Le contenu des concepts de relativisme des phénomènes et de relativité des observateurs varie donc en sens inverse. La relativité s’édifie et progresse aux dépens du relativisme. Tout saut qualitatif ne peut se faire que dans la douleur. La relativité constitue une authentique révolution, source même d’un nouvel humanisme. C’est un bond en avant sans précédent, un renouvellement inouï de l’histoire et de la philosophie. L’inéluctable relativité a suffisamment démontré son inépuisable fécondité pour qu’il soit enfin parfaitement vain de revenir sur une vision irremplaçable, sur un nouveau choix éthique transformant la philosophie, l’art et les sciences même en ferments inaltérables ».

 

Ce large extrait du maître ouvrage du professeur relativiste Marie-Antoinette Tonnelat, « Histoire du principe de relativité » rattache l’évolution des idées en physique au mythe du Grand Soir. On ne peut sous-estimer le lien entre le matérialisme historique, la vision marxiste, et le développement de la Science pure au XXe siècle. L’égalité des observateurs est un concept purement marxiste. La référence à l’égalitarisme prolétarien est évidente. Il a été inspiré à Albert Einstein par sa première épouse, Mileva Marić, une égérie communiste dont il s’est rapidement séparé en lui remettant, comme il l’avait promis, la moitié du montant de son prix Nobel, reconnaissant pas là son rôle dans l’élaboration de sa théorie de la Relativité. On peut rappeler d’ailleurs que le mot relativité ne plaisait pas à Einstein et qu’il avait appelé d’abord sa théorie : théorie des invariants, beaucoup plus proche de la réalité et en plein accord avec sa vision positiviste.

 

On ne peut ignorer la tentation marxiste chez de très nombreux scientifiques. Les philosophes, qui se sont intéressés à l’épistémologie, l’Histoire des sciences, reprennent tous aussi les thèses marxistes du matérialisme historique, à commencer par Bachelard, Kuhn et Chalmers. Cette approche n’est plus intellectuellement correcte.

 

Bien sûr, la justification politique que présentait la professeur Tonnelat n’est pas une raison suffisante pour étendre à la théorie de la Relativité le rejet, aujourd’hui général, de la doctrine marxiste. À tout le moins, elle peut inciter à se poser quelques questions.

 

Les physiciens appellent relativisme la dépendance de la physique vis-à-vis de l’observation et sa subordination à l’observateur. Ainsi, Lacan écrivait : « qu’est ce qui nous fait dire que l’alchimie n’est pas une science ? Quelque chose à mes yeux de décisif : que la pureté de l’âme de l’opérateur était comme telle, et de façon dénommée, un élément essentiel de l’affaire » (Lacan, Les quatre concepts fondamentaux de la psychanalyse © Editions du Seuil, Paris, 1973 p. 18). Ce ne serait plus le cas évidemment de l’opérateur relativiste, un observateur parfaitement objectif évidemment !

 

Que signifie indépendance de l’observateur ?

 

S’il s’agit d’une indépendance vis-à-vis des qualités, de l’habileté, ou des convictions personnelles de l’observateur, c’est bien évident.

 

S’il s’agit de sa position et de son mouvement, ce n’est certainement pas vrai dans la mécanique des fluides. Les mesures dépendent essentiellement de l’observateur. Je ne veux pas dire de son habileté, ni d’une autre de ses qualités, ni de ses convictions. Je veux dire qu’elles dépendent essentiellement de son mouvement. On obtient le débit d’un cours d’eau en mesurant la vitesse de l’eau en différents points. Connaissant la section du cours d’eau, on calcule le débit par une sorte d’intégration. Si l’observateur fait les mesures de vitesse dans une barque entraînée par le cours d’eau, il trouvera un débit presque nul et même négatif. À cause des frottements sur le fond, il mesurera des vitesses négatives. Il faut, évidemment, faire les mesures d'un pont. Il faut être fixe par rapport au lit du cours d’eau. La mécanique des fluides relève donc du relativisme. Du moins, dans le sens que les relativistes donnent à ce mot.

 

Avant les relativistes, le relativisme désignait l’impossibilité de concevoir un mouvement absolu. C’est la position de Socrate, de Platon, de Scot Érigène, de Descartes et de Kant. Dans le même esprit, c’est penser qu’il n’y a pas de position absolue. Aristote, Ptolémée et leurs lointains disciples Avicenne et saint Thomas d’Aquin ont, d’emblée, pris position contre Platon, contre le relativisme. Non seulement, Aristote et ses suiveurs, Mahomet et saint Thomas d’Aquin en particulier, ont supposé l’existence de mouvements absolus, mais ils ont aussi supposé que la Terre occupe une position absolue au centre de l’Univers. Elle est immobile et entourée des sphères célestes, les fameux orbes portant les astres.

 

Ces orbes, sphères ou cieux se retrouvent dans le Coran : « Dieu est Celui qui a créé pour vous tout ce qu’il y a sur terre, puis S’est tourné vers le ciel et y a parachevé sept Univers. » (Sourate 2-29 : Al-Baqarah), « Dieu a créé les sept cieux disposés par couches s’enveloppant les unes les autres » (Sourate 71-14 : Noé) et « c’est Dieu qui a créé les sept cieux et autant de terres » (Sourate 65-12 : Le divorce).

 

Saint Thomas d’Aquin (1225-1274) compte un ciel de plus que Mahomet (570 - 632) : « Le Ciel est divisé en huit orbes : l’orbe des étoiles fixes et les sept orbes des planètes. La Terre est au ciel ce que le centre est au cercle. Autour d’un centre, il peut y avoir plusieurs cercles, donc il peut y avoir plusieurs cieux » (Somme Théologique Q. LXVIII de l’œuvre du second jour). Abu al-Farabi (870-950), Avicenne (980-1037) et Averroès (1126-1198) reprennent entièrement la thèse d’Aristote tout en rejetant les améliorations apportées par Ptolémée (100-170), contrairement à Alhasen (965-1039) et Maimonide (1135-1204).

 

Saint Augustin (354-430) et Rabanus Maurus (780-856), n’ont pas cédé à cette géométrisation de l’Univers, la vision anthropomorphique, typiquement aristotélicienne.

 

À l’origine de ce relativisme, se trouve cette idée qu’il n’y a pas de grand ni de petit en soi. C’est la base de la pensée de Socrate et de Platon, comme celle de Scot Érigène, de Descartes et Kant. L’Univers entier pourrait aussi bien être deux fois plus grand ou deux fois plus petit, cela ne changerait rien. Le problème du mouvement est lié à cette vision adimensionnelle. S’il n’y a pas de dimension, de longueur en soi, il n’y a pas de vitesse en soi, et pas de temps en soi non plus. Le temps n’a pas d’existence physique.

 

C’est une vision qu’Aristote comme Hume, Newton comme Maxwell et naturellement comme Einstein rejetait entièrement. La Science pure rejette totalement le relativisme de Platon, de Scot Érigène, de Descartes et de Kant. Les relativistes qualifient d’archéologiques les systèmes du monde qui se réfèrent au relativisme. Bien qu’il soit difficile de comprendre comment Aristote, Ptolémée, Mahomet, Averroès, saint Thomas d’Aquin et Hume seraient moins archéologiques que Socrate, Platon, Scot Érigène, Descartes et Kant.

 

Le mot relativisme prête à confusion. Le relativisme de Socrate, Platon, Scot Érigène, Descartes et Kant se rapporte exclusivement à notre connaissance de la nature. Mais l’esprit, la pensée humaine, bien au contraire, repose sur des concepts absolus. Ces concepts ne sont nullement l’objet de la perception sensible, mais les outils de notre esprit pour penser. L’infini, l’absolu, le continu, le droit de la droite, ne seront jamais observés dans la nature, car nos perceptions sont des relations et l’absolu ne peut pas être l’objet d’une relation. D’ailleurs comment percevoir l’infini ? L’esprit a un référentiel absolu. Ce sont les quelques mots du dictionnaire qui sont indéfinissables, sans lesquels on tourne en rond indéfiniment, les mots se renvoyant les uns aux autres.

 

Aussi, le mot relativisme ne doit pas être pris au sens moral ni intellectuel, mais uniquement à l’égard de notre perception du monde expérimental, le monde physique.

 

Dans ce sens, le relativisme platonicien nie l’existence de lois de la Nature. La Nature n’a pas de lois. Ce que nos physiciens appellent lois de la Nature, c’est ce qu’ils ne peuvent pas expliquer. Il n’y a pas de lois dans la mécanique des fluides. On voit l’eau couler ; il n’y a pas de mystérieuse action de l’air sur les profils d’aile des avions. D’ailleurs, ces physiciens pensent avoir trouvé la nature de la gravitation : une courbure de leur fameux espace-temps, ils ne parlent donc plus de loi. Les lois, c’est ce que l’on ignore.

 

Dans la vision platonicienne, il n’y a pas non plus de constantes universelles, pas d’invariants, pas de célérité absolue de la lumière. Il y a d’ailleurs un paradoxe assez étrange dans l’approche relativiste. On recherche frénétiquement des lois immuables de la Nature et des invariants absolus alors que, dans le même temps, les scientifiques nous présentent un monde en perpétuel mouvement, en évolution permanente depuis le Big Bang. Comment concilier ces deux visions totalement opposées ? La Nature aurait-elle deux visages ? À vrai dire, nous allons voir que la Science pure nage dans un tel nombre de paradoxes que celui-là ne doit pas gêner nos scientifiques.

 

Mais bien plus, ces fameuses lois, dites de la Nature, posent un surprenant problème. La loi de Newton est relative à une hypothétique attraction ; ce serait une accélération. Elle serait donc indépendante de la vitesse de l’observateur.

 

La notion de relativité des relativistes ne tient que parce qu’ils considèrent que la pesanteur et les forces électromagnétiques, comme toutes les forces de la Nature, ne dépendraient pas d’une vitesse. Elles seraient des accélérations pures.

 

Newton a affirmé que la concavité de la surface de l’eau dans un seau mis en rotation avec une corde impliquait l’existence d’un référentiel absolu, l’Espace absolu. Il a aussi imaginé des espaces relatifs en mouvement dans l’Espace absolu  (Newton, Les Principes, Définitions).  Il est difficile de comprendre pourquoi de tels repères seraient nécessaires pour décrire les phénomènes de la Nature dans la mesure où la Mécanique des Fluides et la Résistance des Matériaux n’en font nul usage. Ces domaines de la Science ne s’intéressent qu’aux mouvements des parties des fluides et des corps les unes par rapport aux autres. Malgré le mépris des Relativistes pour la Mécanique des Fluides, les avions volent et les navires flottent grâce à ses calculs.

 

Le problème est que la conviction de Newton s’est forgée à partir de mouvements mettant en jeu des rotations et donc des accélérations. Newton a ainsi donné une réalité physique aux accélérations. L’erreur est énorme ! Les accélérations n’ont aucune existence physique. Ce qui existe ce sont les actions des corps les uns sur les autres, et exclusivement. Les accélérations sont la mesure de la variation de vitesse des corps et aucune variation de la vitesse d’un corps ne peut survenir sans une action extérieure, c’est-à-dire nécessairement par l’action d’autres corps.

 

La vision mathématique de Newton lui a caché la nature des accélérations. On la représente par un vecteur lié au corps, exactement comme on fait pour la vitesse. Or, déjà la vitesse n’est en aucun cas lié un quelconque espace de référence choisi pour positionner le corps. Les coordonnées du corps définissent sa position par rapport à ce que l’on aura choisi, que ce soit la Terre, le système solaire ou la galaxie par exemple. Mais dans l’instant, les corps sont uniques. Il n’y a pas près d’eux ces mêmes corps dans sa position de l’instant suivant. La vitesse ne peut pas apparaître dans un espace de référence à un instant donné. Elle n’apparaît pas non dans l’instant suivant. Représenter la vitesse dans un espace de référence est une pure fiction. Elle n’appartient en aucun cas à des repères de références. A fortiori, il est impossible qu’une accélération apparaisse dans un espace de référence.

 

Après Newton, les physiciens ne se sont intéressés qu’aux mouvements de points matériels  pris isolément, soumis à toutes sortes de forces. Cette vision isole des éléments de l’Univers et prétend ensuite dévoiler les lois de la Nature. Or tout est lié dans l’Univers.

 

L’hydraulicien qui cherche le débit d’un cours d’eau mesure des vitesses de l’eau par rapport au lit du cours d’eau. Il ne mesure nullement des accélérations. Ses mesures ne sont pas indépendantes de sa propre vitesse par rapport au lit du cours d’eau.

 

Pourtant, la résistance de l’air sur un avion est une force. Elle implique donc une accélération. Or, elle dépend de la vitesse de l’avion. La loi de la résistance de l’air dépend de la vitesse de l’avion par rapport à l’air. Pour la rapporter à la vitesse de l’avion par rapport au sol, il faut tenir compte du vent. Il faut augmenter ou diminuer la vitesse de l’avion par rapport au sol de la vitesse du vent pour obtenir la vitesse qui intervient dans le calcul de la résistance de l’air.

 

L’action d’un fluide sur un corps n’est, en aucune manière, une force de la Science pure. Elle n’est nullement invariante dans un changement de repère de référence galiléen. Les forces de la Science pure sont invariantes dans un tel changement de repère : elles ne dépendraient en rien d’une vitesse. La résistance des fluides n’est pas une force de ce genre. Un objectif de la Science pure est l’unification des forces. Il n’a jamais été question de faire entrer dans ces forces la résistance des fluides, pas plus que les contraintes de la théorie de l’élastoplasticité. L’idée d’unifier les contraintes mécaniques et les effets des fluides avec les forces de la Science pure ferait rire nos scientifiques. Les mécaniciens et les hydrauliciens sont, sans doute, des lumpen-ingénieurs qui s’occupent de lumpen-physique comme disait Einstein ! Ces pauvres bougres sont des sous-scientifiques en charge de sous-sciences. Je suis un de ces pauvres bougres.

 

Je penserais volontiers que les pauvres bougres sont plutôt ces paumés du Petit Matin qui n’attendent plus le Grand Soir ! On les voit errer, hagards. Ils croyaient à la Science, à la Science pure ! C’était une traînée !

 

La doctrine relativiste contient un postulat caché. Les lois de la physique ne porteraient que sur des accélérations ; elles ne dépendraient pas de la vitesse. Le postulat de la Relativité restreinte comporte un postulat sous-jacent. Les phénomènes de la Science pure ne sont que des forces, des accélérations. L’équivalence de la pesanteur à une accélération est une conséquence nécessaire de la Relativité Restreinte. Si la pesanteur était liée au mouvement d’un fluide, comme la résistance de l’air, alors elle ne serait pas indépendante de la vitesse. Dans la vision de la Science pure, la pesanteur ne peut être qu’une accélération.

 

Il y a derrière tout cela plus qu’un postulat : le principe de relativité, le fameux principe de Poincaré. Ce principe est entièrement sous-jacent à la théorie d’Einstein. On s’étonne que le nom d’Henri Poincaré ne lui ait pas été associé, et on a même accusé Albert Einstein de plagiat. En réalité, Einstein ne s’est pas approprié ce prétendu principe. Il a simplement mentionné le « principe de relativité », sans mentionner l’auteur. On peut comprendre une certaine réticence, en pleine affaire Dreyfus, à énoncer le nom d’un français qui, pourtant, intervint vigoureusement pour la révision du procès. Son cousin germain, Raymond Poincaré, a voulu occulter l’affaire, par esprit politique d’ailleurs et en aucun cas par racisme.

 

La mécanique de Newton rend la gravitation indépendante des systèmes de référence galiléens utilisés. La gravitation serait causée exclusivement par une accélération. Elle ne pourrait sous-tendre aucun déplacement, aucune vitesse. Il faut absolument remarquer ici que Newton lui-même n’a jamais cru à une telle stupidité. On appelle aujourd’hui Mécanique de Newton un ensemble de concepts qui ont été rassemblés après sa mort en particulier par Roberval auquel on attribue les mots « gravitation universelle » que Newton n’a jamais employés.

 

Newton a proposé d’ailleurs deux explications de la pesanteur par un fluide, l’éther. Sa première tentative fut une condensation d'un fluide à la surface du corps. Riemann utilisa plus tard cette explication de la gravité en 1853. Riemann pensait que le fluide de gravité était évacué vers un autre univers par une sorte de trou noir. Ivan Osipovich Yarkovsky a repris cette idée en 1888. Il a été amené à penser à une augmentation progressive de la masse des atomes. Cette hypothèse a permis de résoudre le problème de l'énergie posée par la solution de Newton. Ces tentatives se sont toutes heurtées au problème de la composition des vitesses des étoiles. Si un fluide pousse les corps l'un vers l'autre, un déplacement dans le fluide provoque nécessairement une traînée. Cette traînée est inconciliable avec les lois de Kepler. De plus, l'action d'un fluide sur un corps dépend tout d'abord de sa section apparente et non de sa masse. Ni Newton ni Riemann n'ont pu imaginer à quel point la matière est vide, car elle semble résistante.

 

Newton a proposé une autre explication physique de la gravité à la fin de son Traité d'Optique. L'espace serait rempli d'éther plus dense à mesure qu'on s'éloigne de la matière. La gravitation aurait été due à la variation de densité, de sorte que les corps sont poussés vers les parties les moins denses de l'éther. Cette densité aurait été extrêmement faible pour que le mouvement des étoiles ne soit pas affecté (Traité d'Optique, Question XXI). La poussée archimédienne de cet éther pose également le problème de la proportionnalité à la masse. Il faudrait que la masse des corps soit variable pour rester proportionnelle à la masse d'éther déplacé, lui-même variable. Mais le plus grave dans cette approche est que la poussée d’Archimède résulte de la gravité. Elle ne peut pas être la cause de la gravité! C'est une erreur dramatique résultant de la vision mathématique de Newton qui n'est pas vraiment liée à la réalité.

 

La courbure de la surface libre d’un fluide contenu dans un récipient en rotation est parabolique. Newton y voyait la preuve de l’existence d’un référentiel absolu. Or, la force centrifuge n’existe pas physiquement. Ce qui existe, c’est la paroi du récipient qui contraint l’eau à tourner malgré son inertie. L’accélération centrifuge n’a pas davantage d’existence physique. L’accélération est une formule mathématique qui donne la mesure de l’effet de la paroi sur l’eau. Ce qui existe physiquement, c’est la paroi et l’eau avec leurs mouvements respectifs. Ces mouvements ne sont que des vitesses relatives. On voit des corps en mouvement les uns par rapport aux autres. Il n’y a pas de support matériel de l’accélération centrifuge. Il n’y a pas de référentiel des accélérations parce que les accélérations n’ont pas d’existence physique.

 

L’erreur de Newton provient de sa méthode de dérivation basée sur la théorie des suites à la différence de l’approche de Leibniz basée sur les ordres de grandeur des infiniment  petits. L’approche de Newton a pour conséquence que les différentielles sont des quantités fines et non des infiniment petits comme dans l’approche de Leibniz. Le temps et l’espace seraient selon les partisans de Newton des grandeurs discontinues, on dirait aujourd’hui des quanta. Or, cette approche conduit à l’absurde en géométrie. Si la droite est faite de petits éléments jointifs, la distance entre deux de ces éléments est donc infiniment petite. D’ailleurs, s’ils n’étaient pas parfaitement jointifs et donc s’ils n’étaient pas séparés par une distance infiniment petite, une autre droite pourrait couper la première sans la rencontrer. Cette seconde droite serait donc parallèle à la première ce qui évidemment ne peut-être puisqu’elle a des points de chaque côté de la première.

 

Nier l’infiniment petit est donc totalement paradoxal. Mais ce n’est pas la seule erreur de Newton !

 

Newton a été amené à considérer que les accélérations sont relatives à des référentiels et qu’ainsi la courbure de la surface de l’eau dans le récipient tournant montrerait l’existence d’un mouvement « vrai », et donc absolu. C’est une erreur assez monstrueuse car les accélérations, comme les moments cinétiques, ne dépendent en rien d’un repère de référence galiléen. D’ailleurs, c’est évident. La dérivation de la loi de composition des vitesses entre deux repères galiléens annule la vitesse relative entre les deux repères. Cette vitesse est constante ! Les accélérations sont parfaitement invariantes dans les changements de repère de référence galiléens. Tous les problèmes de la théorie électromagnétique de Maxwell proviennent de l’introduction d’une vitesse dans l’expression de la loi des actions électromagnétiques. Ces actions se traduisent par des accélérations. En les faisant dépendre d’une vitesse, celle du déplacement des électrons, ces accélérations ne sont plus indépendantes du repère de référence galiléen.

 

Or, l’absence de champ magnétique des rayons cathodiques déviés de 90° par rapport au canon à électrons montre que les champs magnétiques ne résultent nullement du mouvement des électrons, mais uniquement de leur champ magnétique propre. Le problème de la relativité n’existe donc pas pour les phénomènes électromagnétiques.

 

L’erreur était double en quelque sorte. La vitesse des électrons n’intervient que dans le débit d’électrons et donc dans la grandeur du champ magnétique du courant électrique ou du rayon cathodique. Mais leur vitesse n’est nullement la cause du champ magnétique. La seconde erreur est qu’il n’est nullement nécessaire que les forces soient indépendantes des repères de références. Les forces exercées par les fluides dépendent de la vitesse relative du corps en mouvement par rapport au fluide. Elles ne sont pas invariantes dans un changement de repère de référence galiléen. Le changement de repère de référence doit être annulé pour ne pas initier un mouvement et donc une action qui n’existe pas.

L’accélération est la mesure du changement du mouvement, seul existe le mouvement et l’action physique qui vient le modifier, comme la corde de fronde vient changer la direction de la vitesse de la pierre. Sans la corde, la pierre irait tout droit. La corde l’oblige à incurver sa trajectoire. Ce changement de direction de la vitesse se mesure par une accélération centripète qui traduit la force de traction du lanceur sur la corde.

 

Pourtant, on peut voir la vitesse changer, c’est bien là constater une accélération. Si la vitesse change, c’est que quelque chose la fait changer. Il n’y a pas d’accélération sans cause. Ce n’est pas l’accélération qui existe physiquement, c’est la cause de l’accélération. Ce qui existe c’est la masse, l’inertie des corps, et l’action qui la fait tourner. Dans la fronde, la réalité est la traction de la main qui tient la corde. Elle contraint le corps à tourner.

 

Le principe de relativité est rendu nécessaire par la mécanique de Newton. La gravitation serait une accélération existant physiquement. Les masses existent. C’est l’inertie des corps. La pesanteur serait une accélération de ces masses dans les champs de pesanteur. Donc, la gravité serait une accélération qui existerait physiquement. Cette accélération existerait dans l’Espace. Il se pose dès lors un problème de repère de référence. Cette accélération est indépendante du mouvement relatif des repères galiléens en translation uniforme les uns par rapport aux autres. C’est uniquement parce que la mécanique newtonienne attribue une réalité physique à l’accélération de la gravitation, en tant qu’accélération exclusivement, qu’il faut un principe de relativité. Le principe de relativité ne peut, en aucune manière, s’appliquer dans la mécanique des fluides. Ce serait même complètement absurde. Ce qui compte dans les fluides, ce sont les actions de contact entre les particules du fluide et avec les parois des corps. Le problème du repère de référence ne se pose pas. Le principe de relativité ne s’applique qu’à la Science pure !

 

Si le champ électromagnétique des courants électriques résultait de la vitesse de translation des électrons dans les conducteurs et dans les rayons cathodiques comme on le croyait, il y aurait effectivement un problème de relativité. Ce phénomène serait lié à une vitesse. La loi de Maxwell-Ampère devrait donc être modifiée si on prenait un repère de référence en translation uniforme par rapport au conducteur. Or, la vitesse des électrons dans le conducteur n’est pas modifiée. Le champ magnétique n’est donc pas modifié, bien sûr. Si l’on écrit la loi de Maxwell-Ampère dans le nouveau repère, il faut supprimer cette vitesse fictive.

 

D’où les formules de Lorentz ? Malheureusement non ! Tout serait clair s’il en était ainsi. Les formules de Lorentz ne permettaient pas de rectifier cette situation. Il fallait faire comme pour le débit des cours d’eau : il ne fallait tenir compte que de la vitesse des électrons dans le conducteur. Le problème des faisceaux d’électrons est plus gênant. Il n’y a pas de conducteur. Quelle doit être la référence ? Personne ne s’en inquiétait.

 

Les formules de Lorentz concernent la propagation de la lumière et les vitesses qui ne sont pas négligeables par rapport à la célérité de la lumière, en aucun cas la vitesse des électrons dans les conducteurs : cette vitesse ne dépasse sans doute pas quelques cm/s. Le plus surprenant est que cette vitesse des électrons dans les conducteurs n’a jamais été mesurée ! L’expérience d’Ørsted est la base fondamentale de la théorie de Maxwell, la théorie des phénomènes électromagnétiques. En fait, c’est plutôt une interprétation de cette expérience. Le déplacement des électrons dans le conducteur serait la cause du magnétisme des courants électriques. Or, la vitesse des électrons dans les conducteurs n’a jamais été mesurée. C’est réellement stupéfiant. On a mesuré la vitesse des charges dans un bain électrolytique, mais jamais la vitesse des électrons.

 

Les formules de Lorentz ne rendent invariantes que l’équation de Maxwell-Hertz. C’est l’équation de Maxwell-Ampère simplifiée, dans le cas où il n’y a pas de charges. C’est l’équation de la propagation des ondes électromagnétiques. Par contre, l’équation de Maxwell-Ampère est modifiée par un changement de repère de référence. Le terme relatif aux charges s’exprime par le vecteur intensité. Son module est le débit de charges. Or, ce débit, comme dans les fluides, dépend de la vitesse des électrons. Dans le cas des courants dans les conducteurs, c’est facile, il suffit de faire attention de ne considérer que cette vitesse. Lors d’un changement de repère de référence, on ne change pas ce terme. Il faut bien sûr, au départ, s’assurer qu’il est rapporté au conducteur. Ensuite, on ne le change plus. Pourquoi ? Simplement parce que l’on sait que tout changement de repère changerait le débit de charges. Un changement de repère de référence est une opération mathématique. Comment le mathématicien n’est-il pas horrifié que l’on se permette d’exclure un des termes d’une équation du processus du changement de coordonnées. Le scientifique se réserve le droit d’être intelligent et de n’appliquer les règles des mathématiques que pour autant qu’elles ne viennent pas perturber le bel ordonnancement de ses postulats. On ferme les yeux et on continue. Mais, que va faire le scientifique pour les faisceaux cathodiques ? Quel est le repère de référence qui permet de fixer la valeur de leur champ magnétique ? En quoi la loi de Maxwell-Ampère pourra l’éclairer sur le mouvement des électrons à prendre en compte ? Avant de s’élancer, tête baissée, dans les calculs, il faut examiner, analyser, juger. Le scientifique n’a pas d’autres possibilités que d’analyser l’ensemble de la trajectoire de ces électrons. Il lui faut remonter jusqu’à la cathode émettrice. Puis chercher l’anode. Il lui faut aussi savoir que c’est bien là que la vitesse des électrons se trouve déterminée. Ce sera la référence initiale. C’est bien la réalité. Ce scientifique est-il vraiment dans le cadre de la Relativité des phénomènes ? N’est-il pas plutôt en plein relativisme ? Il n’est plus l’instrument passif enregistrant l’objet de ses mesures. Il doit remonter aux sources. Il est un homme qui analyse une situation. Aucun appareil n’est capable d’une telle analyse. L’observateur doit être objectif, j’entends bien, il doit aussi penser. Aucun appareil n’est capable d’une telle pensée. Le physicien doit aussi juger. Aucun appareil n’est capable d’un tel jugement. Mais il y a pire encore. Quelle est la référence du jugement du scientifique ? Le paradigme officiel. Ce serait la vérité incontestable dont il n’a pas la possibilité de sortir. Il ne peut voir la réalité qu’à travers le prisme relativiste. La notion d’observateur parfaitement objectif des relativistes est une escroquerie. Leur observateur est relativiste ! Comment serait-il objectif ? Il part d’une conviction inébranlable ! Mais elle repose sur des postulats !

 

La vitesse de la Terre autour du Soleil est de l’ordre de 30 Km/s. Cette vitesse est 100 000 fois plus élevée que celle des électrons dans les conducteurs. Elle est encore très faible par rapport à la célérité de la lumière. Comment se fait-il alors que les formules de Lorentz permettent d’expliquer le résultat de l’expérience de Michelson ? Elle utilise le phénomène d’interférences optiques qui est extrêmement sensible.

 

Cette expérience concerne la célérité de la lumière. On aurait dû constater que ces 30 km/s s’ajoutent où se retranchent de la célérité de la lumière émise dans une direction donnée par rapport à la surface de la Terre, selon l’heure de la mesure.

 

On se plaçait à cette époque, dans l’hypothèse d’un éther, un milieu mécanique, fixe, absolument fixe, remplissant tout l’Univers. La Terre se serait déplacée dans ce milieu. Non seulement, sa vitesse par rapport à ce milieu aurait changé en fonction de sa position sur sa trajectoire autour du Soleil, mais aussi en fonction de l’heure. Si à midi et à minuit, en heure solaire, l’interféromètre est parallèle à la trajectoire de la Terre, à 6 heures et 18 heures, il se trouve dans un plan perpendiculaire à cette trajectoire.

 

Les formules de Lorentz annulent la vitesse de la Terre par rapport à cet éther pour les phénomènes liés à la propagation des ondes électromagnétiques. De plus, la célérité de la lumière serait un absolu. On ne pourrait rien lui ajouter ou lui retrancher. Les formules de Lorentz permettent aussi de corriger l’inertie des particules dans les accélérateurs. Là aussi, le résultat est conforme à ce qui est mesuré.

 

La mécanique de Newton autant que la Relativité générale posent un autre problème, lié à la mathématisation des lois de la Nature. Dans la théorie de la gravitation, on écrit que l’action du Soleil sur la Terre est égale à l’action de la Terre sur le Soleil. Le problème est le même si l’on parle en termes de courbure d’espace. Cette courbure traduit une accélération. Il s’agit de l’égalité de deux actions. Où sont les réactions ?

 

En quoi la Terre réagit à l’action de l’attraction solaire, et réciproquement en quoi le Soleil réagit à l’attraction terrestre ? L’action d’attirer n’est pas identique à l’action d’être attiré. Mathématiquement, on voit bien que les masses sont interchangeables. Dans un sens, la masse intervient pour attirer, dans l’autre, pour être attirée. Mais, l’interchangeabilité des masses ne signifie nullement l’identité des phénomènes. Le fait d’attirer une masse n’est pas la même chose que le fait de subir l’attraction de cette masse. Dans la mécanique des fluides, un fluide en mouvement agit par frottement ou par pression sur les corps. Les corps réagissent à cette action du fluide par des contraintes. En mécanique, un support réagit à la charge par des contraintes. La réaction est égale à l’action, mais action et réaction ne sont pas de même nature.

 

C’est bien pourquoi la mécanique des fluides n’entre pas dans la Science pure. C’est de la physique empirique. Dans cette physique impure, l’action n’est pas du même ordre que la réaction. Les scientifiques partisans de la Science pure n’ont nulle obligation de différencier une action d’une réaction. Pour eux, il n’y a que des concepts mathématiques. Or action et réaction sont des accélérations que rien ne peut donc distinguer. Il suffit donc que les actions soient égales entre elles pour que les réactions le soient aussi et égales aux actions.

 

Dans la théorie de Newton, il n’y a pas de réaction en réalité. L’action d’attraction du Soleil sur la Terre n’est nullement une réaction à l’attraction de la Terre sur le Soleil. L’attraction du Soleil existe même là où il n’y a pas de corps à attirer. C’est encore plus évident avec la courbure d’espace. L’espace est courbé même s’il n’y a pas de corps à accélérer. Le fait de placer un corps dans cet espace ne provoque nullement l’attraction du Soleil. Elle était préexistante. Il faut bien que cette attraction provoque une réaction du corps. Ce corps aurait lui-même sa métrique avec lui. Sa capacité d’attraction n’est nullement créée par sa mise en place dans le système solaire. Elle aussi était préexistante. En réalité, il manque les réactions.

 

Les actions à distance posent un autre problème. La réaction ne peut pas être instantanée. La réaction est différée par la distance entre les corps. L’égalité de l’action et de la réaction n’est donc assurée qu’à terme. Cette nécessité disparaît si on confond l’action et la réaction. Le problème est réglé par l’axiomatique. Les actions gravitationnelles seraient alors aussi bien des réactions : les masses seraient parfaitement interchangeables dans les équations. La courbure de l’espace-temps semble apporter la réponse à ce problème puisque, aussi bien, la courbure agit à l’endroit même où se trouve le corps attiré. Pourtant, la réaction devrait se propager jusqu’au corps attirant et réciproquement. Là aussi, il faudrait que l’action et la réaction ne fassent qu’un.

 

Les axiomes de l’égalité des actions des deux corps entre eux et de l’identité des actions aux réactions donnent des résultats conformes aux faits, il n’y aurait donc pas de questions à se poser !

 

L’axiomatique me fait penser à la méthode Brejnev ! C’est une plaisanterie russe de l’époque soviétique. Staline, Khrouchtchev et Brejnev sont dans un train immobilisé en pleine voie. On envoie Staline voir ce qui se passe. Il revient triomphant. Le train va repartir. Qu’as-tu fait, camarade ? J’ai fait exécuter le chauffeur et mettre le mécanicien au Goulag. Le train reste immobile. On envoie Khrouchtchev. Voilà, nous partons ! Qu’as-tu fait, camarade ? J’ai fait réhabiliter le chauffeur et libérer le mécanicien. Le train ne bouge pas davantage. Brejnev se lève et ferme les rideaux : faisons comme si le train était parti. Voilà l’axiomatique. Circulez, il n’y a rien à voir. On peut tout se permettre pourvu que cela marche. Voilà comment l’action gravitationnelle est en même temps une réaction. Que cela ne soit pas autorisé dans la mécanique des fluides et dans la résistance des matériaux, quoi de plus normal. Ces techniques sont déjà assez mauvaises par elles-mêmes pour qu’il soit toléré qu’elles s’appuient sur la méthode axiomatique strictement réservée à la Science pure. On accepterait difficilement un naufrage axiomatique ou une chute d’avion axiomatique. L’ingénieur n’a pas droit aux axiomes.

 

Un axiome serait valable s’il donne des résultats conformes aux expériences et s’il entre dans le cadre de la « logique scientifique », vers l’unification des forces. La Science pure serait à un stade mathématique irréversible. L’axiomatique constitue le fondement des mathématiques. Cette méthode serait donc parfaitement justifiée dans la Science pure.


 

 

 

Chapitre 2

 

Les paradoxes

 

 

 

La magnifique Science pure a malheureusement quelques problèmes, bassement expérimentaux. On les appelle le plus souvent des paradoxes. La Science pure est confrontée à une accumulation de paradoxes.

 

Une théorie inspirée de Hegel règne encore dans certains milieux dits avancés ou progressistes. L’accumulation quantitative de certains éléments devrait conduire à un saut qualitatif. C’est la vision du matérialisme historique, la dialectique marxiste, qui prédomine encore largement dans les milieux scientifiques et chez beaucoup de soi-disant intellectuels.

 

Le compositeur de musique accumule quantitativement les dissonances en espérant le saut qualitatif vers la musique universelle, la musique absolue. Une autre musique a pris un autre chemin et les chansons du Pink Floyd ont envahi la Planète.

 

Les peintres s’y sont mis sans attendre : accumulons les horreurs ! Des visages carrés, des yeux décalés, des mains destructurées. Accumulons, accumulons les horreurs ! Viendra le saut qualitatif, la peinture universelle, la peinture absolue.

 

On attend un saut qualitatif de la connaissance scientifique par accumulation quantitative des paradoxes.

 

L’expérience de Michelson n’a pas donné un résultat entièrement négatif. Les résultats ont été considérés comme aléatoires, mais ils peuvent atteindre 9 Km/s, ce qui n’est pas rien par rapport aux 30 Km/s attendus. Il s’agirait de l’incertitude des mesures, la marge d’erreur. Les résultats auraient un caractère aléatoire. Ce serait donc un problème d’erreurs de mesures. Les scientifiques ont aussi évoqué l’influence de la température, sans jamais donner de justification chiffrée.

 

Par malchance, Miller a repris les mesures sur une base systématique, en faisant des dizaines de milliers de mesures sur des mois. Il a réalisé 200 000 lectures avec 6400 tours d’horizon, pendant quatre périodes de six à huit jours. Bien plus, les mesures ont été faites dans des lieux très éloignés les uns des autres. Ces chiffres rendent improbable un artefact. Le résultat n’est pas aléatoire. Miller a trouvé une corrélation annuelle. Le professeur Allais a trouvé d’autres corrélations en reprenant ces résultats et en tenant compte de l’heure sidérale des mesures et non du temps local. Allais conclut à une anisotropie irréfutable de l’espace optique.

 

En analysant les résultats de Miller avec les techniques les plus récentes de la statistique mathématique, le professeur Allais a démontré, au début des années 90, qu’il ne peut y avoir aucune corrélation avec un problème de température. Il a trouvé des corrélations avec les fréquences astronomiques annuelles, mensuelles et diurnes qui ne peuvent être conciliées avec des variations de température. On a calculé qu’il fallait un écart d’au moins 10°C pour obtenir le résultat de Miller. C’est énorme. Comment imaginer une telle variation de température ? Même en plein vent, c’est inimaginable sur une durée de quelques minutes. Il n’en faut pas plus pour opérer la rotation de l’appareil et faire la seconde mesure. Le principe de l’expérience de Michelson consiste à réaliser deux mesures, avant et après rotation d’un quart de tour.

 

Les outils d’analyse statistique sont parfaitement mathématiques et ne laissent pas de place à l’interprétation personnelle. La condition de base est le nombre suffisant de données. La loi des grands nombres. Ce n’est absolument pas le cas de la météorologie ou des statistiques démographiques. Les données sont en nombre limité. Dans ces domaines, le résultat des analyses statistiques n’est pas sans valeur, mais l’indice de confiance est alors faible.

 

Einstein était informé des résultats obtenus par Miller en 1925, avec un interféromètre beaucoup plus précis que celui utilisé en 1881 par Michelson et en 1887 par Michelson et Morley. Miller déclara avoir découvert un effet d’environ 10 Km/s. Ce n’était que le tiers de la valeur attendue avant les mesures de Michelson. Ce n’est pourtant pas négligeable.

 

On a trouvé une lettre d’Einstein à son ami Besso qui mentionne cette expérience. Einstein a aussitôt attribué ce résultat à un problème de température. Il a admis spontanément le résultat conforme à ses idées de l’expérience d’Eötvös, dont la précision est très contestable. Cette expérience a été reprise récemment dans un satellite artificiel et semble donner cependant le même résultat. Einstein a rejeté ceux de l’expérience de Miller. « C’est une attitude partiale, sans doute, mais un choix plein de sagesse, inspiré par une intuition sûre » nous explique la professeur Tonnelat. C’est la thèse de Bonald : la vérité vient de l’autorité ! C’était la thèse soviétique aussi bien.

 

Sur la base de ses analyses statistiques, le professeur Allais conclut qu’il est possible de déterminer le mouvement de la Terre autour du Soleil par des expériences d’optique, ce qui est entièrement contraire à la théorie de la Relativité Restreinte. Le plus curieux est que des expériences sans aucun rapport avec l’interféromètre de Michelson confirment le point de vue d’Allais. Ce sont d’abord ses mesures de déviation du pendule de Foucault. Allais a amélioré ce pendule et lui a donné le nom de pendule paraconique. Il a éliminé le problème de torsion que pose la rotation du plan d’oscillation du pendule de Foucault. Là aussi, les mesures se sont étalées sur des mois, et ont été réalisées en plusieurs endroits. Voilà donc une expérience de mécanique qui montre la même anisotropie de l’espace que des mesures interférométriques. Le même résultat a été obtenu avec des visées optiques. Allais a, en effet, repris les fameuses mesures d’Esclangon et parvient au même résultat. Les écarts de visée constatés restent inexpliqués.

 

Les expériences et calculs du professeur Allais ont été examinées par des commissions de l’Académie des sciences. Elles ont toutes été rejetées en leur temps. L’auteur n’aurait pas apporté de preuves de l’absence de perturbations extérieures. On peut, là encore, imaginer une foule de perturbations. À l’auteur d’apporter des preuves. Allais a répondu. On n’a plus écouté cet empêcheur de tourner en rond.

 

Les mesures des anomalies des visées optiques d’Ernest Esclangon à l’observatoire de Strasbourg sont totalement ignorées. Un rayon lumineux observé avec un collimateur situé à quelques mètres de la source se déplace sensiblement en fonction de l’heure. Ces mesures ont été confirmées d’abord par le professeur Allais en 1958, puis, en 2008, par l’ingénieur en chef de l’armement Pierre Fuerxer et le professeur Vincent Morin.

 

Toutes ces expériences montrent qu’il est possible de mettre en évidence un mouvement de translation par des expériences de mécanique et d’optique. Ces résultats sont résumés dans la troisième partie de cet ouvrage. Ils sont entièrement contraires aux postulats relativistes. Allais attribue ces résultats à une anisotropie de l’espace. Il a proposé plusieurs causes de cette anisotropie. Toutes sont liées à l’existence d’un éther, le milieu de l’Espace, et aux mouvements relatifs du Soleil, de la Lune et de la Terre. Nous examinerons ces diverses solutions dans la deuxième partie de cet ouvrage.

 

Dès 1918, Harress puis Sagnac ont réussi à mettre en évidence un écart des chemins optiques entre deux rayons lumineux parcourant chacun dans un sens la périphérie d’un disque en rotation. Harress réalisa l’expérience dans l’eau, Sagnac dans l’air. L’expérience de Sagnac est le principe des gyrolasers. Tous les avions modernes sont équipés de gyrolasers. Ils remplacent les gyroscopes mécaniques. Comment un instrument d’ingénieur pourrait-il prétendre perturber l’ordre mythique de la Science pure ?

 

Le problème est que, depuis 1918, la métrique relativiste, qui permettrait d’expliquer cette expérience par la Relativité générale, n’a toujours pas été trouvée. Dans l’expérience de Michelson, il y a bien aussi une rotation. Mais, on effectue deux mesures dans deux positions différentes. La rotation de l’appareil n’intervient pas. C’est un problème de Relativité Restreinte. Dans le cas de l’expérience de Sagnac, au contraire, le déplacement des franges d’interférences dépend de la vitesse de rotation de l’appareil.

 

L’expérience de Sagnac est utilisée dans les gyrolasers. Les gyrolasers peuvent détecter des vitesses inférieures au centième de degré par heure. Ils sont installés dans tous les avions.

 

La théorie de la relativité restreinte est une approximation de la relativité générale lorsque les champs sont très faibles. La relativité restreinte devrait donc pouvoir expliquer l’expérience de Sagnac pour les très faibles vitesses de rotation.

 

D’ailleurs, la théorie de la relativité restreinte est utilisée pour expliquer l’expérience de Michelson. La Terre tourne autour du Soleil à une vitesse inférieure à un vingt quatrième de degré par heure. C’est quatre fois la vitesse de rotation que les gyrolasers peuvent détecter.

 

Madame Tonnelat montre, dans un de ses ouvrages, que la Relativité restreinte explique l’expérience de Sagnac en première approximation. Comment est-ce possible ? La vitesse tangentielle du disque de Sagnac ne peut pas se composer avec la célérité de la lumière. Le problème n’aurait de solution rigoureuse que dans le cadre de la Relativité générale. Cette solution n’a jamais été trouvée.

 

La professeur Tonnelat reprend « l’interprétation euclidienne classique de l’expérience de Sagnac, valable seulement de manière approchée », due au professeur Jean Perrin.

 

Une première chose frappe l’esprit dans cette démonstration. Elle commence par un interminable calcul relatif à la mesure des longueurs qui n’est pas utilisé dans la suite. Seul le calcul, tout aussi interminable, de la mesure du temps est utilisé. Pourquoi la mesure des longueurs n’intervient-elle pas ? Pourquoi avoir développé un calcul qui ne sert à rien ? De plus, elle utilise une définition de la simultanéité qui est considérée aujourd’hui comme très contestable.

 

Elle intègre finalement le chemin optique dans l’espace lié à l’observateur regardant le disque tourner, alors que tous les calculs qui précèdent sont relatifs à un repère de référence lié au disque tournant. L’espace de l’observateur est tangent à l’instant t à l’espace lié au disque. C’est là que se situe le retour à la vision euclidienne. Ce tour de passe-passe est justifié par la notion de référentiel d’inertie. L’appareil de Sagnac est dans le repère inertiel du laboratoire. On est donc en droit de faire abstraction de la Relativité générale. Elle procède, à ce point de la démonstration, à un changement de repère de référence. Le point essentiel est le problème de la simultanéité. La tangence à l’instant t n’implique nullement la tangence à l’instant t+dt. C’est pourtant ce que suppose sa démonstration. Elle obtient en fin de compte un résultat approximativement conforme à l’expérience.

 

Son interprétation de la simultanéité est contraire aux postulats relativistes. Son changement de repère de référence est absolument interdit par la théorie de la Relativité restreinte sans appliquer les formules de Lorentz. Ces formules annulent tout changement de chemin optique entre les deux rayons lumineux tournant en sens inverses à la périphérie du disque. On peut vérifier l’impossibilité du résultat obtenu par Tonnelat en le dérivant. On trouve que la vitesse tangentielle du disque s’ajoute ou se retranche de la célérité de la lumière, ce qui est impossible en termes relativistes. Elle a utilisé une interprétation de la simultanéité qui n’est pas conforme aux postulats relativistes. Cette critique est le fondement de la plupart des mises en cause de l’explication relativiste de l’expérience de Sagnac. Il est vraiment impossible d’expliquer l’expérience de Sagnac par la Relativité restreinte ; pas même de manière approchée.

 

Finalement, le professeur Selleri a démontré, en 2003, que toute explication de ce genre est nécessairement paradoxale. Il est impossible d’expliquer l’expérience de Sagnac par la théorie de la Relativité restreinte.

 

En lisant jusqu’au bout le texte de la professeur Tonnelat, le lecteur qui n’a pas été rebuté par la longueur des calculs, somme toute assez simples, tombe sur cette affirmation : « L’impossibilité de démontrer le résultat de l’expérience du disque tournant par la Relativité restreinte est une preuve de la validité de la Relativité générale, et c’est même la meilleure preuve ». On reste pantois devant un tel argument ! Il faudrait démontrer l’unicité, pour que le suffisant devienne nécessaire ! Il faudrait démontrer qu’il n’y a pas d’autres solutions. Mais, ce sont là des vues philosophiques. La Science pure ne s’arrête pas à ces considérations dépassées. La Relativité a suffisamment démontré son caractère inéluctable pour que soient pris en compte des états d’âme philosophiques.

 

Madame Tonnelat a placé l’expérience de Sagnac en tête de son livre consacré, justement, aux preuves de la validité de la Relativité générale ! C’est évident ! Si l’explication n’est pas possible avec la Relativité Restreinte, il faut bien qu’elle le soit par la Relativité générale. C’est ainsi que la Relativité générale est prouvée et par contrecoup aussi la Relativité restreinte qui en fait partie.

 

Finalement, Madame Tonnelat traite l’expérience de Sagnac d’expérience interne à un référentiel d’inertie. Dans ces repères, les phénomènes se produisent conformément à la métrique classique euclidienne. Le laboratoire où est réalisée l’expérience de Sagnac en est un. Mais bien sûr, les interféromètres de Sagnac, les gyroscopes optiques, installés dans les avions sont, en eux-mêmes, des repères de référence inertiels. Mais là, plane comme un doute. On s’interroge. On se garde de conclure : pas de vagues ! Et en plus, on dissimule soigneusement le problème de la simultanéité dans ces repères de référence. L’idée d’expérience interne arrive comme un chien dans un jeu de quilles dans son histoire du principe de Relativité. On sent qu’un doute, une ombre, tourne insidieusement derrière ces beaux calculs et ces belles paroles.

 

L’enjeu aujourd’hui, c’est la cosmogonie. La crise réduit les budgets de la recherche. Il était essentiel de consacrer tous les moyens à la détermination de l’âge de l’Univers, à la mesure de la température résiduelle du big-bang, au nombre de dimensions des défuntes cordes de la théorie quantique des champs !

 

Esclangon, Allais, Sagnac sont à l’origine de trois grands paradoxes. Ce ne sont pas les seuls, tant s’en faut. Il y a trois grandes catégories de mesures de vitesses dépassant la célérité de la lumière :

 

 

-           L’effet Hartman-Fletcher, ou effet tunnel, concerne le passage de la lumière d’un milieu à un autre en conservant sa vitesse qui peut donc être supérieure à la vitesse de la lumière dans le second milieu. L’Effet Vavilov-Tcherenkov peut se rattacher à cette catégorie. Il s’agit d’un éclair lors d’un tel changement de milieu analogue à l’effet Mach dans l’air.

 

-           Des jets des quasars ont des vitesses supérieures à la célérité de la lumière dans le vide.

 

-           La quatrième catégorie est plus large. Elle regroupe les phénomènes de vitesses de crêtes et de phase des ondes lumineuses. La vitesse de groupe est supérieure à celle de la lumière pour un courant électrique dans un câble coaxial. Là aussi, il n’y a ni transfert de matière ni d’information plus rapide que la célérité de la lumière dans le vide. En général, une partie du train d’ondes dépasse la célérité de la lumière alors que le reste a une vitesse inférieure, en sorte que l’information transmise par l’ensemble du train d’ondes se fait en réalité à la célérité de la lumière.

 

Ces catégories ont toutes trouvé des explications dédiées, c’est-à-dire spécifiques à chaque cas. Pourquoi pas ? On ne touche pas au dogme !

 

Par contre, il n’y a aucune explication aux paradoxes de la masse et de l’énergie sombres.

 

Les galaxies ne tournent pas en conformité avec la Relativité générale, ni même d’ailleurs avec la loi de Newton. Les gaz et les étoiles des galaxies tournent à vitesse constante. Bien pire, leur vitesse dépasse celle que permet de calculer la masse visible des galaxies. Les relativistes ont donc inventé la matière sombre, aussi appelée masse manquante, masse noire ou matière transparente. Cette matière doit se trouver répartie de manière homogène dans les galaxies. Elle représenterait 80% de la masse des galaxies. Ce phénomène avait déjà été découvert pour le mouvement relatif des couples de galaxies. À aucun moment, les relativistes n’ont voulu voir là un phénomène mettant en cause leur doctrine.

 

Malheureusement, les astronomes ont découvert que la masse visible des galaxies varie en fonction de la puissance quatre de la vitesse de rotation des étoiles. Ce lien entre la vitesse des étoiles et la masse de leur galaxie revient à relier la masse visible et la masse noire. Ce résultat a reçu le nom de l’astronome qui a mis en évidence les cas les plus nombreux et les plus significatifs. C’est la loi de Stacy McGaugh, à vrai dire déjà remarquée par Tully et Fisher en 1977. Ce lien entre la matière sombre et la masse visible est entièrement contraire à la théorie de la Relativité générale. Le drame est que les multiples expériences tentées pour mettre en évidence cette fameuse masse sombre depuis le milieu du siècle dernier ont toutes échoué.

 

Un problème semblable se pose pour l’expansion de l’Univers depuis le Big Bang. Il ne s’agit plus d’une simple expansion qui finirait par s’arrêter, comme on le pensait. Une cinquantaine d’explosions d’étoiles lointaines situées de 1 à 6 milliards d’années-lumière ont été observées. Or, ces supernovae lointaines ont une lumière plus faible que prévu dans un Univers en extension. Il faut donc que leur galaxie se trouve à une distance plus grande que prévu. L’Univers s’étend donc plus vite que prévu. Une mystérieuse énergie sombre est nécessaire pour expliquer cette accélération. L’origine de cette énergie est absolument inconnue.

 

L’énergie sombre, dite aussi manquante, serait une sorte d’antigravitation. Elle serait liée aux observations astronomiques des années 2000, montrant une accélération de l’expansion de l’Univers dans le cadre de la théorie de la Relativité générale. 68 % de la densité d’énergie totale de l’Univers manquerait à l’appel !

 

Après des années de manipulations, les résultats de l’expérience Gravity Probe B, semblent montrer l’effet d’entraînement du champ de gravitation terrestre résultant de la Relativité générale. En fait, la période choisit correspond à une période de l’année où la Terre se rapproche du Soleil. Il reste une profonde ambiguïté. En outre, les résultats mettent en évidence un phénomène périodique qui coïncide avec les horaires des marées, phénomène totalement inexpliqué.

 

La Relativité générale prévoit des ondes gravitationnelles lors de certains phénomènes cosmiques liés aux étoiles à neutrons ou aux trous noirs. Les calculs des relativistes montrent que l’observation de la perte d’énergie des pulsars correspond à l’émission de telles ondes. De telles ondes auraient été détectées à leur arrivée sur Terre. Essentiellement deux types de mesures sont utilisés. Le premier repose sur le déplacement d’un miroir mesuré par interférométrie comme dans l’expérience de Michelson. Ces engins monstrueux, les LIGO permettent de détecter des longueurs d’ondes de l’ordre du attomètre (1 am = 10-18 m) alors que les ondes dites électromagnétiques descendent jusqu’au picomètre (1 pm = 10-12 m). Le second type de mesure utilise un cylindre isolé de toute vibration et placé dans une énorme enceinte cryogénique (ALLEGRO, NAUTILUS et AURIGA). Les premières mesures positives n’ont pas pu être renouvelées.

 

Dans un tout autre domaine, plusieurs expériences d’optiques, dont celles du professeur Aspect, devraient nécessiter des transferts d’information plus rapides que la lumière. Les physiciens ont imaginé l’intrication quantique pour répondre à ce défi. Les particules et les photons portent des informations liées.

 

On savait depuis longtemps que deux photons émis simultanément par un atome doivent se déplacer dans des directions exactement opposées pour des raisons de symétrie. Lorsque l’un détecteur indique l’arrivée d’un photon, le détecteur placé du côté opposé voit aussi arriver un photon. D’après la Mécanique Quantique, les photons n’ont pas de direction particulière avant d’être détectés. Ils n’ont qu’une probabilité de présence identique dans toutes les directions tant qu’ils ne parviennent pas à un récepteur.

 

Les deux photons ne prennent une direction déterminée qu’au moment où ils arrivent sur les capteurs. Et ces deux photons prennent alors des directions exactement opposées. Comment les deux photons peuvent-ils atteindre simultanément les deux capteurs qui peuvent être très éloignés, s’ils n’ont pas échangé d’information au départ ?

 

C’est le paradoxe d’Einstein-Podolsky-Rosen, le paradoxe EPR. Il a été imaginé au départ pour mettre en cause la vision quantique. Mais il s’est avéré être conforme à l’expérience, malgré son caractère complètement irrationnel. C’est que la raison n’aurait pas sa place dans le monde microscopique, contrairement au monde macroscopique comme dans la mécanique des fluides, qui, rappelons-le, n’entre pas dans la Science pure !

 

Il faut ici renoncer à la vision rationnelle. Les deux photons ne sont pas des entités distinctes avec des propriétés propres et donc locales. Le paradoxe disparaît si l’on suppose que les deux photons forment un système avec des propriétés qui ne sont pas localisées dans l’un ou l’autre.

 

Les deux photons, même situés à des millions d’années-lumière l’un de l’autre, restent en contact permanent et sans aucun délai. Ils leur seraient impossible d’échanger des informations en raison de la limite absolue de la vitesse, celle de la lumière. Lorsque l’un est détecté, l’autre en est informé de manière instantanée. Les deux photons apparaissent dans des directions opposées sans se consulter. Ils ne sont pas séparables en quelque sorte : c’est le principe quantique de la non-séparabilité. Si les photons ne sont pas toujours tout à fait indépendants, ils constituent parfois des éléments d’un ensemble inséparable.

 

Dans l’expérience d’Aspect, ce résultat est utilisé avec des photons polarisés. Des paires de photons sont produites par une source constituée d’atomes de calcium. On compte les photons et leur direction de polarisation dans deux directions d’un côté de la source et dans deux directions du côté opposé.

 

Ces comptages montrent de corrélations des directions de polarisation. La probabilité de ces corrélations correspond aux valeurs calculées d’après des axiomes de la Mécanique Quantique. Des expériences récentes plus rigoureuses ont confirmé ce résultat. La probabilité de ces corrélations s’écarte notablement des règles de la statistique. C’est le même genre de raisonnement qui a permis au professeur Allais d’affirmer que les résultats des mesures de Miller à l’interféromètre de Michelson ne peuvent en aucun cas résulter de variations de la température et rendent indubitables ses corrélations aux positions respectives de la Terre du Soleil et de la Lune.

 

Mais, de très loin, le paradoxe le plus célèbre de la Science pure est l’incompatibilité entre la vision déterministe de la Relativité et la vision probabiliste de la Mécanique Quantique. On a mis de grands espoirs dans la théorie des cordes associées à des particules qui échangeraient les forces de la Science pure comme les joueurs de rugby s’échangent le ballon ovale en restant groupés sur le terrain. La comparaison n’est pas de moi, mais du professeur Louis Leprince-Ringuet. On espère encore en la gravitation quantique. Les scientifiques ont fait de multiples hypothèses. C’est la grande divergence. On rejoint les paradigmes alternatifs.

 

Pourtant, les partisans de la Science pure restent inébranlables. Ils sont nécessairement sur le chemin de la connaissance de la réalité. Les analyses des résultats de Miller par Allais, pas plus que l’expérience de Sagnac, ne peuvent, en aucune manière, émousser leurs certitudes. Ce sont d’infimes détails, des faux problèmes. Ce sont des fantasmes de quelques esprits obscurcis par des visions passéistes. Ils s’intégreront inévitablement dans l’inévitable unification de toutes les forces de la Nature. Ces expériences bassement matérielles ne peuvent certainement pas gêner la marche triomphale de la Science pure vers son achèvement.

 

Les savants sont sur le point de mettre un point final à la connaissance de l’Univers. Si ces rares expériences, d’apparence contraire, ne peuvent en rien ralentir leur élan adamique, ce ne sont certainement pas les objections de quelques philosophes qui pourront s’interposer.

 

Alain s’est opposé à la Relativité jusqu’à sa mort. Il a pris position dans plusieurs propos, mais essentiellement dans ce passage des « Entretiens au bord de la mer » : « La courbure d’espace est ici une forme d’enseigne. Averti par cette erreur énorme, par cet effronté passage de forme à mouvement, j’ai aperçu dans la doctrine du mouvement relatif, une erreur du même ordre, qui est à vouloir que la relation soit inhérente à la chose ».

 

Si l’on en croit madame Tonnelat : « La philosophie ne joue plus que le rôle d’un fonds historique, d’un contexte littéraire ». Alain en serait resté à la vision de Platon, au « moment kantien, où le sujet se donne à lui-même, en tant que raisonnable, sa propre loi universelle ».

 

Dans ces deux premiers chapitres, nous avons examiné le problème de la relativité du mouvement et les expériences qui lui sont liées : essentiellement les mesures de Miller et l’expérience de Sagnac.

 

 Les trois chapitres suivants sont consacrés à des questions de logique. Nous allons remonter aux quelques concepts qui ont servi de cadre au développement de la doctrine relativiste.


 

 

 

 

Chapitre 3

 

La quatrième dimension

 

 

Newton a introduit le concept de référentiel dans la réalité même. Il a affirmé que la concavité de la surface de l’eau dans un seau mis en rotation avec une corde impliquait l’existence d’un référentiel absolu, l’Espace absolu. (Newton, Les Principes, Définitions).  Cette pensée résultait de sa vision mathématique de la réalité. Les vitesses et les accélérations seraient des réalités objectives et donc perceptibles directement ou par des instruments de mesure. Or si le mouvement caractérise tout ce qui existe matériellement dans l’Univers, avec l’inertie ou masse, ni la vitesse ni l’accélération ne peuvent exister physiquement. La vitesse implique non seulement la distance entre l’avant et après, mais donc le temps aussi. Or le temps ne peut pas exister physiquement. Il contient du passé qui n’existe plus et du futur qui n’existe pas encore, et ce sont deux infiniment grands devant l’instant qui est infiniment court sans quoi il contiendrait du passé et du futur qui ne peuvent exister. Or, l’instant existe : nous y sommes.

 

La vitesse est un concept purement intellectuel qui nous permet d’exprimer le mouvement des choses les unes par rapport aux autres. Il en est de même pour l’accélération.

 

L’espace et le temps sont des concepts qui permettent à notre esprit de concevoir le mouvement des choses et de l’exprimer. Je pense que l’on peut aisément saisir cette nature du temps après ce que je viens de dire sur le passé et le futur qui le composent, mais les choses paraissent d’abord peu acceptables pour l’espace. Il faut remarquer d’abord que cet espace n’est pas perceptible ni par les sens ni par des instruments de mesure. Les scientifiques parlent d’ailleurs d’espace « vide ». Il n’y a donc rien à percevoir. Comment ce rien, ce néant, pourrait-il exister ? On se rappellera ces mots pathétiques de Sartre : « le néant porte l’être en son cœur ». Ce serait donc que l’être est néantisé ! Le drame de l’approche de Newton est de prétendre isoler des corps dans son espace absolu et d’en étudier le mouvement. Or, un être isolé n’a non seulement aucun mouvement d’aucune sorte, mais on peut affirmer qu’il n’existe pas. L’existence est accomplie par des relations. Sans relations, l’être est le néant.

 

L’horizon des scientifiques est borné aux mathématiques. Ces considérations d’allure philosophique leur échappent complètement. Ils ont donc enfourché leurs espaces pour aller à la conquête de l’Univers. Abondance de biens ne saurait nuire, dit-on, aussi ont-ils multiplié les dimensions de leurs espaces.

 

Poincaré a écrit que ce sont nos sens qui sont limités à la perception de trois dimensions, mais rien ne dit que l’espace n’en ait pas davantage. Prenons le problème au départ. Un Univers à une seule dimension est-il possible ? Pourquoi cet Univers serait-il parfaitement rectiligne ? Comment ses habitants pourraient-ils le savoir ? Voilà une partie courbe. Alors apparaît un moment cinétique. L’accélération de Coriolis me projette dès lors dans une dimension locale perpendiculaire. L’espace doit donc localement avoir au moins deux dimensions. Nous voici déjà amenés à deux dimensions. Là, rien ne peut m’interdire de vouloir tourner en rond dans mon plan. C’est perdre mon temps ? Peut-être ! Et voilà encore un moment cinétique qui me projette dans une nécessaire troisième dimension pour peu que je veuille me déplacer dans mon plan tout en tournant.

 

La solution relativiste est d’interdire de tourner dans les espaces à moins de trois dimensions. Il n’y aurait pas de rotation possible dans un espace à une dimension. Les espaces à une dimension ne pourraient donc être que des droites, des vraies, pas des fausses droites de la géométrie riemannienne. Dans les espaces à deux dimensions, on ne pourrait pas tourner autour d’un axe situé dans cet espace sans en sortir. On ne pourrait donc tourner qu’autour d’un point. Mais alors le moment cinétique du corps tournant ainsi serait perpendiculaire à cet espace à deux dimensions. Et si en plus, cet espace glisse sur un autre, c’en est fait des deux dimensions, car le corps serait projeté hors du plan par l’accélération complémentaire.

 

Les modèles mathématiques cosmogoniques n’envisagent que des espaces à plus de trois dimensions. Poursuivons donc l’escalade. Voici une quatrième dimension. Supposons d’abord, comme Poincaré, qu’il existe une quatrième dimension qui aurait le même étalon des longueurs que les trois dimensions de nos perceptions. Quelle que soit la courbe plane que je décrive dans le bon vieil espace à trois dimensions, le moment cinétique restera dans les trois dimensions. La projection d’un moment cinétique sur un axe autre que la droite qui le porte n’a aucun sens. La rotation autour d’un axe ne peut en aucun cas être décomposée en rotations autour de plusieurs axes. Un corps ne peut en aucune manière tourner autour de plusieurs axes fixes. Il faut des cardans. Les axes d’ordre inférieur au dernier cardan sont entraînés en rotation par les cardans successifs. On voit ainsi que, si l’espace lui-même tourne autour d’un axe, les autres axes sont entraînés en rotation. Le quatrième axe serait ainsi mis en rotation. Il en résulterait un effet dû à l’équivalent en quatre dimensions de l’effet Coriolis dans les dimensions perpendiculaires, c’est-à-dire dans l’espace à trois dimensions. Ce n’est nullement le cas. Ce genre de rotation est donc interdit par les partisans des quatre dimensions. Dans de tels espaces, ils n’admettent que les « rotations autour d’un plan » bien que cela n’ait strictement aucun sens physique et ne puisse s’exprimer par des mots. Il faut ajouter qu’une des dimensions de ce plan-axe de rotation est nécessairement la quatrième dimension ajoutée aux trois dimensions habituelles. Si les deux dimensions de cet hyperaxe étaient deux dimensions usuelles, toute rotation ferait sortir les corps des deux autres dimensions dès lors qu’ils se déplacent le long de ces dimensions. Cela ne s’est jamais vu. Il est donc impossible que la quatrième dimension puisse jouer un rôle équivalent aux trois dimensions usuelles. Cette quatrième dimension doit toujours être une des directions de tout plan de rotation.

 

L’hypothèse n’est sans doute pas absurde géométriquement, c’est un non-sens du point de vue de la mécanique. Ce problème de moment cinétique se pose bien sûr indéfiniment avec l’augmentation du nombre de dimensions. Il ne peut donc exister que trois dimensions comme nous les concevons et comme nous le constatons d’après les données de nos perceptions.

 

La Relativité ajoute une quatrième dimension qui est le temps. Mais ce temps est ramené à une longueur par sa multiplication par la célérité de la lumière. Dans l’espace relativiste, les quatre dimensions sont des longueurs dont la somme des carrés des éléments différentiels constitue le carré de l’élément différentiel relativiste de longueur, le fameux ds² de l’équation de Schwarzschild. S’il y avait rotation autour d’un « hyperaxe » contenant le temps, la quatrième dimension, alors les planètes seraient éjectées hors de leur orbite. Réciproquement, tout corps reposant à la surface d’une planète et en translation selon l’axe du temps, la quatrième dimension, serait projeté en dehors du temps par l’équivalent en quatre dimensions de l’accélération de Coriolis lors d’une rotation autour d’un « hyperaxe » ne contenant pas le temps.

 

Ces considérations sur la quatrième dimension sont entièrement indépendantes de la théorie de la gravitation envisagée. Les effets Lense-Thirring et Sitter-Fokker résultent de l’application du principe de relativité à la gravitation. Ils viendraient s’ajouter à l’effet du pendant quadridimensionnel de l’effet Coriolis. Cet effet quadridimensionnel existerait aussi bien dans la seule vision newtonienne ou dans l’hypothèse de Mach.

 

Dans le cadre de la théorie quantique des champs, on a mis sur pied des théories d’espace à 11 dimensions, après en avoir envisagé 24, les malheureuses cordes aujourd’hui abandonnées. Cela n’a aucun sens. On peut imaginer des géométries à n dimensions. On peut appliquer ces géométries à des problèmes de physique à n paramètres et, peut-être, en tirer des conclusions intéressantes. Il ne s’agit pas pour autant de dimensions de l’Espace.

 

Le problème du temps pris comme une quatrième dimension de l’espace cache un problème beaucoup plus crucial. Les relativistes imposent une existence physique et mesurable au temps. Le temps semble bien exister. Ma montre en donne, semble-t-il, une mesure. La première question est de savoir si le temps est perceptible ? On a bien l’impression de vivre dans le temps ! Comment le percevez-vous ? Avec les yeux, les oreilles, le nez, la langue ou avec les mains ?

 

C’est une impression qui n’est pas perceptible. Il y a bien des choses que l’on ne peut percevoir avec nos sens qui existent cependant. La diffusion X nous montre le noyau des atomes et des nuages d’électrons. Ce que nous voyons sur les plaques photographiques n’est peut-être pas exactement ce qui existe, mais il existe quelque chose physiquement. Je n’en doute pas. La pesanteur est un phénomène de la nature, nous en ressentons les effets. Je ne doute pas davantage qu’il s’agit de quelque chose qui existe physiquement. Mais le temps existe-t-il comme ces choses ?

 

Le temps n’est pas une sorte de râpe qui userait les choses. Ce sont les mouvements relatifs qui font que les choses s’usent mutuellement. Aurions-nous d’ailleurs un mouvement par rapport au temps ? Évidemment, le temps passe. Le temps s’écoule. Il n’est plus la même heure que lorsque vous avez commencé ce livre. Il est passé, et l’instant futur n’existe pas encore. Nous avons l’impression de vivre dans le temps, mais le passé n’existe plus et le futur n’existe pas encore. Que veut-on dire par existence du temps ? Comment avoir une impression réelle dans ce qui n’existe pas? On pourrait dire que l’instant existe. C’est là où nous sommes.

 

Ainsi, nous existerions dans l’instant, qui serait la réalité physique du temps. Remarquez que la mesure du temps commence à apparaître assez délicate. On mesurerait du passé qui n’existe plus. L’instant lui-même n’est pas très long. Il faut bien reconnaître que l’instant n’a pas de durée.

 

Nous sommes arrivés à cette idée que seul l’instant existe. C’est donc seulement cette infime partie du temps, cette durée nulle, qui existe dans la réalité ? Le temps n’existe donc pas du tout ? Pourtant, l’instant existe. Nous y sommes. Exister, c’est exister dans l’instant.

 

Nous voilà dans le syndrome du dictionnaire ! Je crains que l’on ne puisse rien dire de plus de l’instant. Mais le temps ?

 

C’est une idée. Un concept qui ne vient d’aucune perception, car rien de tel n’existe. C’est une idée qui trouve sa source, peut-être, dans la mémoire et dans la perception que ce qui existait a changé. Mais ni la mémoire, ni le changement ne sont le temps.

 

Les historiens nous rapportent que, dans un lointain passé, des sinistres individus, qui marchaient en bandes, brandissant leurs poings fermés, ont tenté de submerger l’Univers avec une doctrine qui prenait l’idée de temps comme une vulgaire copie d’un temps qui aurait existé réellement. Leur génial gourou disait : « le temps, ce n’est que des heures ». On les appelait les marxistes, je crois. Des survivants se cacheraient, paraît-il, dans la jungle progressiste. Est-ce possible ?

 

Les relativistes aussi mettent le temps au rang des réalités. Ils prétendent le mesurer. Il lui donne un écoulement, une vitesse en fin de compte.

 

Regardez ce vieux régulateur. Il ne marche plus depuis longtemps. Le pendule oscillait. Il battait la seconde. Un système d’échappement et de roues dentées faisait avancer les aiguilles. Les aiguilles ajoutaient les secondes aux secondes, les minutes aux minutes, les heures aux heures. Elles comptaient en quelque sorte. Où est l’étalon de temps ? C’est le pendule ? Un étalon de temps doit être un temps. Le pendule est-il un temps ? Il a un mouvement. Il a des positions successives. Le temps est-il le mouvement ? Est-il une succession de positions ? Le cadran donne des nombres de secondes, de minutes, d’heures. Le temps est-il sur le cadran ? Est-il un nombre. Où donc est le temps dans tout cela ?

 

Les montres utilisent aujourd’hui les oscillations du quartz. Ce sont de très petites oscillations, mais on sait les amplifier électroniquement et les compter. Il n’y a aucune différence avec le régulateur. Voilà ce que les relativistes appellent mesurer le temps.

 

L’idée de temps a quelque chose d’un écoulement du passé vers le futur, à travers le présent. C’est bien cela l’idée de temps. L’impression ne vient pas de la réalité, mais de l’esprit. De la pensée. Et puisque cette impression vient de l’esprit, l’idée devait y être avant toute perception.

 

Pourtant, les relativistes prétendent avoir prouvé par l’expérience que le temps change avec la vitesse. En réalité, ils ont constaté des phénomènes qui se produisent dans un nombre plus faible d’oscillations de leurs horloges, lorsqu’il y a translation. Ainsi, un atome en mouvement vibre moins vite. La durée de vie d’une particule est plus longue lorsqu’elle se déplace. Ces phénomènes semblent donc plus lents. Ils prétendent que c’est le temps qui change. Ils n’en savent rien. Ils constatent seulement l’allongement des phénomènes, nullement un ralentissement du temps lui-même. C’est la doctrine relativiste qui prétend que le temps s’allonge. La théorie donne un résultat confirmé par l’expérience, mais l’expérience ne prouve pas la théorie. On peut faire une autre théorie dans laquelle le mouvement de la particule ou de l’atome, dans un milieu, en modifie la durée de vie ou la longueur d’onde des oscillations.

 

L’autre problème est celui de ce fameux écoulement du temps. L’écoulement serait variable. Le temps aurait donc une vitesse d’écoulement variable. À vrai dire, les choses sont un peu plus compliquées. On ne pourrait pas constater de changement dans son propre repère de référence. On ne verrait que les changements qui affectent les autres choses lorsqu’elles se déplacent par rapport à nous. Nos horloges respectives n’iraient pas à la même vitesse les unes par rapport aux autres. Les repères sont en mouvement les uns par rapport aux autres. Mais on ne pourrait pas dire lequel est en mouvement. C’est le fameux problème des trains relativistes !

 

Cela dit, le temps aurait une vitesse, puisqu’il pourrait s’écouler de manière différente selon le mouvement de ce que l’on observe. Or, que signifient les mots vitesse du temps ? La vitesse caractérise le déplacement d’un corps dans l’espace. Dans quoi se déplace le temps ? L’instant lui-même, sans durée, peut-il avoir une vitesse ? Dans leurs attendus justificatifs, les relativistes parlent de simultanéité. Ils envisagent des instants qui pourraient ne pas être en même temps, au même instant.

 

Alain a écrit dès 1926 : « On ne trouvera jamais un nombre premier entre 13 et 17. On ne trouvera jamais deux instants simultanés. On ne trouvera jamais un temps plus lent qu’un autre ».

 

Le vrai problème est que la doctrine relativiste utilise le temps comme une réalité physique mesurable. C’est une négation de la première des idées, du premier concept de la philosophie. Mettre le temps dans le monde expérimental, c’est la négation de toute forme de transcendance. La philosophie est annihilée. Le piège s’est fermé. Le nominalisme relativiste ne peut plus être critiqué, il serait la réalité. Juger la doctrine relativiste, ce serait nier la réalité.

 

Laissons leurs certitudes abyssales aux scientifiques relativistes. Nous mettons ce que nous percevons dans le temps. Kant a exprimé cette profonde vérité en disant que le temps est une forme de l’entendement. Kant va encore plus loin. L’espace n’a pas non plus la moindre réalité matérielle. C’est une forme d’existence très semblable à celle du temps. Il y a quelques différences cependant.

 

L’ensemble des lieux que nous percevons, voilà, semble-t-il, en quoi consiste l’espace. Quand je parle de lieu, je veux dire que ce chien, par exemple, a une position par rapport aux choses qui l’entourent. Il était couché près de cette porte. Il est entré et il s’est couché sous la table. Il y a du sucre dans ce placard ! Serais-je assez gentil pour tendre le bras et lui en attraper un ? Il attend. Sait-on jamais ! Mais ces lieux sont-ils ce que nous appelons l’espace. Où sont-ils à présent ? Nous ne sommes pas dans un bateau. Rien ne semble bouger. Mais, la Terre tourne et se déplace. Ces lieux sont très loin déjà de là où ils étaient. Le Soleil nous entraîne à 300 Km/s dans la rotation galactique ! Où sont les lieux ? La Galaxie elle-même se déplace dans notre amas. Qu’est ce qu’un lieu ?

 

Pourtant, nous sommes quelque part dans l’Univers. Même si tout bouge, nous sommes bien quelque part ? Où est l’Univers ? Nous ne pouvons pas dire que l’espace est l’ensemble des lieux. La différence avec le temps est que nous percevons ce que nous pensons être un lieu. Mais, nous ne pouvons pas percevoir l’instant. Ensuite, tout revient au même. Les lieux nous échappent comme le passé et le futur. Nous mettons ces lieux dans l’espace que nous imaginons immobile d’abord. Les anciens rapportaient l’espace à la Terre supposée immobile au centre du monde. Copernic rapporta l’espace au Soleil supposé immobile à son nouveau centre du monde. Plus récemment, on a voulu le rapporter à un solide élastique globalement immobile qui aurait rempli l’Univers. On l’a appelé l’éther. Or, cet éther est impossible. On ne trouvera jamais de référence absolue pas plus qu’un espace immobile ou en translation.

 

Les relativistes ont fort justement rejeté cette idée d’éther immobile, constituant une référence absolue. Mais le contraire d’une erreur n’est pas la vérité ! On ne trouvera jamais un espace immobile, on ne trouvera jamais non plus deux espaces en mouvement l’un par rapport à l’autre. Les relativistes ont rejeté une erreur pour une autre. Ils ont supposé une vitesse absolue : la célérité de la lumière. Mais ils supposent aussi qu’il peut exister plusieurs espaces. Ils appellent cela des repères de référence.

 

C’est bien ainsi que l’on étudie le mouvement en mathématiques. On dessine des repères en indiquant par une flèche leur vitesse relative ! Existe-t-il dans la nature de tels repères avec des flèches ?

 

Percevons-nous autre chose que des corps, les feuilles qui tombent, les chiens qui courent, les poissons qui nagent, les oiseaux qui volent ? Où sont ces fameux repères ? Comment pourraient-ils contenir quelque chose ? Ont-ils des pitons pour s’accrocher comme aux parois rocheuses ?

 

À présent, faudrait-il admettre que notre pensée dispose d’une référence absolue où nous plaçons les choses ? Le mot absolu constitue tout le nœud de la question. C’est le problème de la pensée. Nous pensons par référence à des idées absolues. Mais il nous est impossible de faire coïncider notre pensée avec nos perceptions. Il n’y a pas de référence absolue dans la Nature qui pourrait soutenir notre idée d’espace, d’espace absolu si je puis énoncer ce pléonasme.

 

Il y a là des similitudes avec le temps, mais il y a d’abord une différence. On mesure une longueur avec un étalon de longueur. On compte ensuite un nombre d’étalons. Ce nombre n’est pas davantage longueur que le nombre d’oscillations du quartz n’est une durée. Mais, ici l’étalon a quelque chose de la longueur qu’il mesure. Le lieu a quelque chose de plus, en apparence, que l’instant. La longueur a quelque chose de plus, en apparence, que la durée.

 

La durée a été mesurée dans le passé. Il ne reste que la mémoire de la mesure et du résultat, même enregistré ; c’est du passé. La longueur est encore là. On peut refaire la mesure.

 

On peut aussi mesurer à nouveau la durée. Il suffit de recommencer l’expérience par exemple. Il semble que ce soit plus facile pour les distances. Ce n’est qu’une apparence. Si on mesure une distance parcourue, il faut recommencer aussi l’expérience, à moins d’avoir laissé des repères. Où sont les repères ? Je ne pense pas au facétieux qui serait venu les changer de place. Je pense à ce que nous avons dit du lieu. Les repères ne sont plus là où ils étaient ! Leur distance est-elle restée inchangée ? On le suppose. En général, il n’y a pas de problème. Le patron de la couturière donnera toujours la même robe, même si l’humidité a changé et que le papier s’est quelque peu agrandi. L’écart n’est pas perceptible. Le problème se pose pour le scientifique. L’écart diminue lorsqu’il y a mouvement relatif. Le scientifique relativiste affirme que c’est l’espace, sa métrique, qui a changé. Il n’en sait rien. Si son étalon donne un nombre différent, c’est que les choses ont changé. Il n’a jamais eu accès à l’espace. Voilà pourquoi je disais que ce n’est qu’en apparence que la longueur a quelque chose de plus que la durée. L’existence de l’espace est du même ordre que celle du temps. C’est ce que Kant disait. Il n’a pas dit que l’espace est une manière de représenter les choses, mais une manière de présenter les choses. C’est notre manière de présenter les choses. Nous plaçons ce que nous voyons dans l’espace. Mais cet espace n’est attaché à rien de réel.

 

 

 

Il n’y a pas d’absolu dans le monde expérimental.


 

 

 

Chapitre 4

 

Les géométries non euclidiennes

 

 

 

La réalité matérielle du temps et de l’espace a été postulée par la doctrine du matérialisme dialectique. Ce postulat était déjà présent dans la philosophie de Hume et a été adopté par Newton. Il est depuis resté profondément ancré dans les esprits. Il est l’une des conditions fondamentales de la doctrine relativiste. La Relativité restreinte repose essentiellement sur cette idée que le temps et l’espace dont des réalités matérielles.

 

Une erreur du même ordre a permis le passage à la Relativité générale. C’est l’idée de géométries non-euclidiennes. On a établi des géométries qui n’ont pas donné de résultats contradictoires et sont donc considérées comme possibles. Pratiquement, dans ces géométries, le théorème de Pythagore n’est pas vrai. La somme des carrés des côtés d’un triangle rectangle est, soit supérieure, soit inférieure au carré de l’hypoténuse.

 

Est-ce possible ? Tout part de la définition de la droite ? On nous apprend que la droite est la plus courte distance entre deux points. Il y a un premier problème. Une telle droite est limitée, au lieu que la droite est infinie. On définit ainsi un segment de droite. Il y a un second problème. Cette définition n’implique pas que la droite est continue. Mais, peu importe.

 

Comment s’assurer que la distance est la plus courte ? Par une mesure avec un étalon de longueur, bien entendu. C’est facile ! Mais oui bien sûr ! Qu’est-ce qu’un étalon de longueur ? Un segment de droite. Qu’est-ce qu’un segment de droite ? La plus courte distance entre deux points ! On définit la droite avec la définition de la droite. C’est très intéressant !

 

Le principe de l’unicité causale spécifique peut s’appliquer dans le domaine des mathématiques. C’est la raison immédiate qui permet d’affirmer qu’une hypothèse de la géométrie est démontrable de manière absolue. La validité de l’hypothèse ne résulte pas seulement de l’absence de résultats contraires. Les objets de l’hypothèse doivent être absolus. Si les objets de l’hypothèse n’ont qu’une valeur relative, ni la preuve de la validité, ni la preuve de l’erreur ne peuvent être apportées. Il n’y a de preuve possible que si les objets de l’hypothèse sont spécifiques.

 

Les diverses hypothèses des géométries non euclidiennes n’ont, en aucune manière, valeur spécifique. Les objets de ces hypothèses ne sont nullement absolus : la définition de la droite, point de départ de ces constructions, n’est pas absolue. La droite est définie comme étant la plus courte distance entre deux points. Cette définition contient la définition elle-même. Cette définition attribue à la droite une valeur expérimentale. La connaissance de la droite passe par une mesure. La mesure est une relation. La droite serait ainsi une notion relative. Cette définition ruine toute possibilité de spécificité et donc toute valeur mathématique, absolue, aux énoncés des géométries non euclidiennes. L’absence de résultats contradictoires ne permet nullement d’attribuer aux géométries non-euclidiennes une validité apodictique. Les objets de ces géométries devraient être spécifiques, absolus. Les droites des géométries non-euclidiennes ne sont pas absolues. Ce sont des objets répondant à une définition dépourvue de valeur.

 

Dans l’espace à trois dimensions, les droites non-euclidiennes sont des courbes tracées sur des surfaces concaves ou convexes, selon le résultat du théorème de Pythagore. Les scientifiques utilisent ces êtres fictifs dans des espaces à quatre dimensions pour la Relativité générale. L’Univers serait en extension dans un espace à quatre dimensions.

 

Le décalage vers le rouge ; le fameux redshift a été mis en évidence par l’astronome Hubble, il y a près de quatre-vingts ans. Ce décalage de la longueur d’onde de la lumière émise par les galaxies semble indiquer qu’elles s’éloignent de nous. Leur vitesse de fuite est proportionnelle à leur distance. Ce décalage serait identique vu de tous points de l’Espace. L’Univers gonfle comme le polystyrène expansé. Cette extension devrait se ralentir. En réalité, on pense à présent que l’extension s’accélère. Cette accélération est à l’origine de l’invention des fameuses masse et énergie sombres. Il ne faut pas confondre la masse sombre, d’origine cosmologique, avec la masse manquante. La masse manquante ne résulte pas d’une hypothèse cosmologique, mais du mouvement des étoiles dans les galaxies. La courbe des vitesses des étoiles en fonction de leur distance au centre de leur galaxie n’est pas conforme à la loi de Newton.

 

La défunte théorie quantique des champs utilisait également les géométries non-euclidiennes dans des espaces à 11 dimensions. Des tentatives sans résultat avaient même été faites avec 24 dimensions. C’était la fameuse théorie des cordes et des membranes. Dans ces espaces, les fausses droites des géométries non-euclidiennes, non représentables, ont quelque chose comme des courbures et des torsions. Tout déplacement sur ces fameux ersatz de droite implique donc un moment cinétique, d’ailleurs variable. Que devient le théorème du moment cinétique ? Il faut équilibrer les moments cinétiques. Il faut des moments opposés en tout point de l’espace. Il faut un champ de dipôles dans l’espace non-euclidien correspondant.

 

La courbure correspond à la mise à disposition locale de l’observateur d’étalons de longueur et de temps. En chaque point de l’espace à quatre dimensions, les étalons de longueur et de temps sont déterminés par la valeur locale du champ de gravitation.

 

En passant d’un point à un autre, ces étalons changent de valeur. L’observateur doit penser que ces étalons sont invariables. Il n’a aucun moyen pour mesurer les écarts. La Relativité générale postule qu’il n’y a pas d’étalons de référence, pas d’étalons absolus. L’observateur aura donc l’impression d’être accéléré ou décéléré selon le sens de variation des étalons. Lorsque l’étalon de temps s’allonge, il compte moins d’oscillations. Il a l’impression que le temps passe toujours à la même vitesse, alors que, vu de l’extérieur, son temps passe moins vite. Lorsque l’étalon de longueur se raccourcit, il comptera davantage d’occurrence d’étalon dans les longueurs qu’il mesure. Vu de l’extérieur, les longueurs s’allongent. Mais l’observateur n’a aucun moyen de s’en apercevoir puisqu’il n’a sa disposition que les étalons locaux. Le bilan, vu de l’extérieur, de ces deux modifications est une accélération. Les étalons sont liés à chaque point de l’espace à quatre dimensions. La modification des étalons résulte de la gravitation produite par les masses. Les masses déforment donc l’espace-temps autour d’elle. L’accélération qui en résulte est géométrique. Du point de vue mécanique, l’observateur reste dans le cadre du principe d’inertie. En chaque point de l’espace-temps, le rapport de l’étalon de longueur à l’étalon de temps reste invariable. L’étalon change de longueur, mais il reste l’unité de longueur. De même pour le temps. Le rapport de ces deux unités reste toujours égal à 1. Chaque observateur est dans son espace-temps, comme on est dans une maison ! Par rapport à l’espace-temps lié à la masse attirante, l’observateur est accéléré, attiré. On pourrait se demander ce que signifie l’expression : vu de l’extérieur. Qu’est-ce que l’extérieur d’un espace-temps ? Cette question n’a pas de réponse. Elle n’a pas même été posée !

 

L’idée que nous avons les pieds sur Terre par l’action de la courbure de l’espace-temps a quelque peine à s’imposer au commun des mortels. Aussi, il existe un point de vue différent : la théorie quantique des champs. Les forces de la Nature seraient colportées par des corpuscules. Ce point de vue a tenté de résoudre un autre problème fondamental.

 

Si l’objet soumis à la gravitation a une charge électrique, il est soumis à des forces électromagnétiques. Il faut aussi une métrique d’espace-temps pour ces champs. Il faut des étalons locaux qui ne sont pas les mêmes que pour la gravitation. C’est la raison des 11 dimensions de la théorie des cordes. Pour éviter que l’observateur ne doive faire preuve de discernement pour choisir les bons étalons et faire les bonnes mesures, ils sont liés à un sélecteur, en anglais manifold, qui se charge de délivrer les bons étalons correspondant respectivement à la masse, la charge, le champ magnétique et autres du corps présent.

 

Les relativistes ont échoué dans toutes leurs tentatives d’unification des forces de la Nature. Les spécialistes de la Mécanique Quantique ont volé à leur secours. La Mécanique Quantique peut tout expliquer. Elle explique les matrices de tourbillons dans les superfluides en rotation dans un cylindre. En réalité, les spécialistes de mécanique des fluides ont démontré qu’il s’agit tout simplement du phénomène bien connu des rues de tourbillons de von Karmann. Ce serait beaucoup trop simple. La Mécanique Quantique explique les vagues solitaires. Des vagues pourraient pomper l’énergie des vagues qui l’entourent de manière aléatoire. En réalité, les spécialistes de mécanique des fluides ont montré qu’il s’agit d’un effet Cherenkoff. Il se produit lorsque des ondes volumiques rencontrent une diminution rapide de la profondeur. Il est amplifié par les courants océaniques. Il n’y a pas que des courants thermiques dans les océans. Les courants thermiques sont repérés de l’Espace par des photographies infrarouges. Mais, il y a des courants océaniques inexpliqués. C’est le cas du courant antarctique qui fait le tour complet de l’Antarctique à température constante. On ne le voit pas sur les photographies infrarouges spatiales. Ce courant est la cause des deux cas de vagues solitaires qui se sont produites dans l’Antarctique, sans faire de victimes heureusement.

 

La Mécanique Quantique explique tout, elle doit donc expliquer aussi le problème des métriques de l’espace-temps. C’est la théorie quantique des champs.

 

Le premier problème est la connexion des corps dans l’espace aux métriques qui correspondent aux divers champs de forces en présence. Cette connexion doit tenir compte de la masse et des propriétés du corps. Il y a, en chaque point de l’espace-temps, un sélecteur qui délivre les bons étalons aux corps qui s’y trouvent. Mais, nous sommes en Mécanique Quantique : le sélecteur n’est plus une formule magique mathématique, mais un corpuscule. Il y a des corpuscules dans l’espace-temps qui transportent les métriques et les délivrent aux particules en mouvement. C’est la théorie des jauges.

 

Le principe d’invariance des lois de la physique impose des règles de symétrie. L’idée de brisure de symétrie a été introduite pour tenter d’expliquer le caractère particulier des interactions dites faibles. Le photon est le corpuscule des actions électromagnétiques. Le graviton joue le même rôle pour la gravitation, mais il n’a pas encore été mis en évidence. Des corpuscules sont les agents des forces de la Nature. L’unification des forces n’est pas l’unification des métriques, des étalons de longueur et de temps, mais l’unification du principe de ces forces. Elles sont toutes portées par des corpuscules répondant à un modèle unique : les cordes. Les cordes étaient des espaces ouverts ou fermés à plusieurs dimensions. Malheureusement, il n’y a plus rien à présent pour remplacer ces cordes fantasmagoriques.

 

Les yeux se tournaient vers le VLHC, le "Very Large Hadron Collider". Il devait révéler le corpuscule magique de la Science pure et permettre d’expliquer la création de l’Univers, rien de moins. Il devait sauver la perspective hégélienne et totalitaire d’un Univers totalement unifié. Il devait donner la masse aux choses. On en est encore loin !

 

La cosmologie est considérée comme la seule voie permettant de comprendre les forces de la Nature. Il faut remonter à l’instant 0 et tout va s’éclairer aussitôt. Las, au lieu d’éclairer le chemin qui devrait mener à la connaissance définitive et finale de la réalité, le mystère va s’épaississant.

 

Nous avons passé en revue les problèmes des géométries non-euclidiennes et de leur utilisation par les relativistes. Nous allons poursuivre avec le problème de l’absolu.


 

 

 

Chapitre 5

 

L’absolu

 

 

 

Tant qu’il s’agit d’expériences, de faits, on peut trouver des oreilles attentives, surtout s’ils entrent dans le cadre du paradigme de la Science pure. Mais les positions philosophiques à l’égard de la Science pure ne rencontrent que des sourires amusés, voire l’ironie.

 

Il s’agit ici de questions philosophiques. Pourtant, ce ne sont pas celles qui procurent les plus faibles convictions. Je me méfis des raisonnements purement mathématiques. J’en arrive à me demander si l’approche positiviste, et donc aussi relativiste, de la connaissance des phénomènes n’est pas la forme la plus pernicieuse d’anthropomorphisme. Les mathématiques sont des outils de l’esprit, des moyens humains. En voulant ramener la connaissance à la seule expression mathématique des phénomènes, on les ramène à l’homme, comme on mettait la Terre au centre du Monde. Je ne dis pas qu’il ne faut pas de mathématiques. Encore que la puissance croissante des ordinateurs permet d’envisager des simulations directes des phénomènes.

 

La conviction générale est que l’expression mathématique des phénomènes du monde expérimental constitue l’objectif essentiel de la science. C’est la vision positiviste et progressiste. Auguste Comte a été le grand prophète de la doctrine positiviste. C’était la conséquence logique de la théorie de la gravitation de Newton, puis de la philosophie de Hume. Marx et Engels ont intégré cette position dans leur doctrine du matérialisme dialectique. Maxwell a développé sa théorie électromagnétique en complète conformité avec le postulat positiviste. Poincaré, en pur mathématicien, puis les relativistes ont, bien entendu, adopté cette vision de la physique sans penser un seul instant qu’il pourrait en être autrement. Or, la puissance grandissante des ordinateurs ouvre aujourd’hui une perspective bien plus puissante : la modélisation informatique directe des phénomènes du monde expérimental. Les mathématiques sont reléguées à un rôle secondaire. On peut même à terme envisager de s’en passer en simulant directement les phénomènes sans chercher à les formuler par des équations mathématiques.

Mais il y a pire. Les relativistes ont voulu faire de l’expression mathématique l’essence même des phénomènes du monde expérimental. Je pense que cette idée que les mathématiques non seulement régissent les phénomènes, mais en constituent l’essence même, comme la courbure d’espace pour la pesanteur, est un anthropomorphisme.

 

On dira que ce serait un anthropomorphisme si les relativistes cherchaient à connaître le pourquoi des choses et qu’ils pensaient que ce pourquoi est mathématique. Ils prétendent que nous ne pouvons connaître que le comment et le comment serait d’essence mathématique. Pourtant, les cosmogonies sont bien des recherches du pourquoi. Quand on cherche à remonter au Big Bang, on s’intéresse bien au pourquoi de l’existence du monde, derrière les modalités du comment, du déroulement des faits.

 

C’est, d’ailleurs, une autre source de perplexité. La matière est caractérisée par les champs qui en émanent. Ne parlons que du champ de pesanteur. Aussi concentrée que soit la matière à l’origine, lors du prétendu Big Bang, elle a un champ de gravitation. L’antimatière a un champ de gravitation exactement identique à celui de la matière. Ce champ a une action qui s’étend dans l’Espace. Il y a donc propagation du champ de gravitation dans l’Espace dès l’origine. Et cette propagation est nécessairement plus rapide que l’expansion de l’Univers. Que l’Univers se contracte ou non après une phase d’expansion, ne renverse nullement l’extension de ce champ. Il est sans doute de plus en plus faible, mais il se propage indéfiniment, il reste en extension perpétuelle.

 

Cette courbure d’espace s’étend dès l’origine vers les confins de l’Univers. Elle ne peut pas rester confinée dans le noyau de matière en extension. Cette courbure a la faculté d’attirer et donc il y a de l’énergie qui se répartit dès l’origine dans l’infini de l’espace. De l’énergie, donc de la masse ? Si cette courbure est portée par des particules, alors l’Univers se remplit de particules dès l’origine.

 

L’extension continue du champ de gravitation pose ainsi le problème de la dimension de l’Univers relativiste. De plus, les relativistes attribuent une nature physique aux champs de gravitation résultant d’une structure d’espace-temps définie. L’espace-temps qui s’étend indéfiniment est un hypervolume centré sur l’énergie initiale. Les esprits bornés ne voudront pas voir que cet hypervolume a tout d’un référentiel absolu.

 

Je n’ai jamais trouvé l’ombre d’une réponse à l’ombre d’une question se rapportant à l’ombre de ce problème.

 

Par contre, c’est indubitablement un absolu qui est postulé pour la célérité de la lumière. Aucun corps ni aucune information ne pourraient dépasser la célérité de la lumière. Il existe pourtant, comme nous avons vu, quatre catégories de phénomènes où ce postulat semble mis en cause.

 

Tous ces problèmes se rattachent à l’ambiguïté de la notion d’absolu lorsqu’elle est utilisée pour des phénomènes du monde expérimental. Il n’est nullement prouvé expérimentalement qu’il n’y a pas d’autres phénomènes. Bien sûr, dans le cadre des théories unificatrices, les théories du Tout (TOE de l’anglais theory of everything) comme la Relativité, toutes les forces relèvent du même principe y compris les forces électromagnétiques et la gravitation. Dans ces conditions, il ne resterait rien dehors de ces forces et de la lumière, elle-même de nature postulée électromagnétique. On ne pourrait donc rien trouver d’autre. Mais de nombreux auteurs s’opposent à cette vision. Il y a d’une part ceux qui séparent la gravitation de l’électromagnétisme et lui attribue une célérité de propagation supra luminique. Ce sont les plus nombreux. Les autres séparent les champs électromagnétiques de la lumière et de la gravitation, dans une vision ouverte, laissant la place à de multiples développements futurs de la physique. Ils attribuent des vitesses supra luminiques à l’un ou aux deux types d’actions.

 

Il est parfaitement arbitraire de supposer que, pour les phénomènes relatifs à la lumière, à la gravitation, aux charges électriques, aux aimants et aux autres forces de la Nature, on pourrait se passer entièrement d’une quelconque réalité sous-jacente et se contenter de la modélisation mathématique. Il faut d’abord remarquer que la modélisation mathématique elle-même fait implicitement appel à un modèle physique : c’est en général celui de la mécanique des fluides et de la théorie cinétique des gaz. Le relativiste prend comme modèle les équations de la mécanique des fluides, et il ajoute des hypothèses de son cru, aussi peu naturelles que certains vins corses.

 

La mécanique du point matériel développée dans le cadre de la gravitation ne fait apparemment pas appel à un modèle physique. Ce n’est qu’une apparence. Le mouvement n’apparaît pas ex nihilo. Il faut une action, appelée force, pour qu’il y ait accélération.

 

Se contenter de modèles mathématiques, c’est seulement refuser de reconnaître son ignorance, l’absence d’explication.

 

 

Le gouffre devient sans fond dès lors que l’on fait intervenir dans le modèle des paramètres qui ne sont pas perceptibles comme le temps. Et l’erreur absolue est à considérer que les phénomènes physiques eux-mêmes puissent résulter des variations de tels paramètres. Que la courbure de l’espace-temps, qui traduirait pour une part la modification de l’écoulement du temps, puisse avoir un effet sur la matière est réellement une absurdité sans précédent. Car, le temps ni l’espace mathématique ne peuvent agir sur la matière n’ayant nulle possibilité de contact avec cette matière. Ce n’est pas l’espace euclidien qui fait aller en ligne droite un corps lancé en dehors de toute action extérieure. C’est seulement l’absence d’action extérieure qui le fait aller droit. Pas davantage, un espace non euclidien ne peut faire tourner un corps, car l’espace mathématique ne contient pas de corps susceptibles d’interaction avec la matière.

 

L’Univers est donc rempli, et entièrement, par le réel. Ce qui renvoie à Descartes. Le néant n’est point réel, mais idée. Les matérialistes remarquent que notre esprit est dans l’Univers et donc que les idées s’y trouvent par là même. Les idées seraient les images des choses. L’idée de néant serait donc l’image de la chose néant. Le néant existerait donc physiquement. Est-ce encore le néant ? Si l’esprit, support des idées, est bien réel et dans l’Univers physique, on sait depuis Socrate que les idées n’y sont point.

 

Le rapport de l’esprit avec l’absolu et l’infini est l’apanage de la philosophie. Quant à atteindre l’absolu et l’infini même, c’est absurde en soi-même. Percevoir l’absolu directement ou par l’expérience est tout aussi absurde. La perception, comme l’expérience, est relation. L’absolu ne peut pas être l’objet de relation. Pourtant, le relativiste prétend avoir réussi à mesurer l’absolu : la célérité de la lumière. Il brandit ses trophées, en s’agitant sur les estrades comme les vainqueurs sportifs.

 

Écoutons celui-là, il parle pour tous les autres :

 

« On a réussi, de cette façon, le tour de force qui consiste à exprimer l’absolu au moyen du relatif ». « L’essentiel, c’est que malgré cette relativité, des mesures de temps et d’espace doivent toujours pouvoir être mises sous forme de relations précises entre tenseurs (vecteurs à quatre dimensions), c’est-à-dire entre absolus ». « C’est le sujet qui construit la science, mais le but de ses efforts constructifs est de connaître la nature indépendamment de ses activités de sujet ». « La Théorie de la Relativité est la théorie de l’absolu à travers le relatif et par le relatif » (M. Metz : intervention à la société française de philosophie en septembre 1966).

 

Un autre, plus célèbre, confirme d’ailleurs :

 

« La méthode einsteinienne consiste essentiellement à chercher une représentation mathématique des choses, indépendante du point de vue de l’observateur, et qui constitue un ensemble de relations absolues » (Bergson, La Pensée et le mouvant p. 37, italique dans le texte).

 

Je fais grâce au lecteur, pour l’instant, des interminables errements bachelardiens, en vertu de l’adage : « Qui trop embrasse mal étreint ». À vouloir trop justifier, on fait se lever comme un doute.

 

On pense naturellement à la célérité de la lumière, postulée absolue, bien qu’accédée. La réalité perçue aurait ainsi atteint à l’absolu que le pauvre philosophe, insensible à la grandeur de la pensée relativiste, persiste à lui refuser. Tant s’en faut que le cas soit unique. La science actuelle a postulé tous azimuts. L’équation de Maxwell-Ampère ? Un postulat absolu ! La structure de la matière ? Invariante, absolue ! La masse et la charge de l’électron ? Invariante, absolue aussi ! Qui a osé écrire que tout s’écoule ? Toute la Science pure s’écroule si tout s’écoule ! Elle repose sur une accumulation d’absolus, d’invariants.

 

Ces postulats étayés par d’innombrables confirmations expérimentales éclatantes ont pétrifié la pensée. Tant dans leur force que dans leur forme, je veux dire tant en quantité qu’en qualité, les composantes essentielles de l’Univers sont définitivement fixées. L’axiomatique, cette forme pernicieuse du nominalisme millénaire, règne sans partage.

 

C’est la tentation de la fin de l’Histoire.

 

Cette Histoire n’est qu’une apparence. Celle des feuilles agitées par la brise, qui tombent l’automne venu, et qui pourrissent enfin au sol. Mais l’arbre lui-même a d’autres mouvements.

 

Par la conscience d’être révolutionnaire, la Science pure ne doute point d’elle-même. Elle est expérimentale et ne saurait donc se comparer aux constructions philosophiques du passé. Elle pense fonder la certitude, oubliant que ce qui était condamnable dans la pensée passée ce n’est point la pensée elle-même, mais la certitude qui s’y attachait. L’homme actuel est encore plus profondément ancré dans l’erreur. Car, cette erreur repose sur des propositions opposées à la pensée passée par quoi elles seraient justifiées. Or, la connaissance scientifique ne peut être, en aucun cas, considérée comme juste pour cette seule raison qu’elle s’oppose à la pensée passée. Dire que le relativiste s’oppose à l’éther de Lorentz ne signifie pas que ses théories soient justifiées, même partiellement conformes à l’expérience de Michelson. C’est une étroite vision dialectique, à vrai dire de mauvaise dialectique, car il faudrait qu’il y ait fusion de l’erreur ancienne avec son contraire, ce qui n’est pas le cas, et la réalité serait cette fusion ce qui n’est pas le cas non plus. Ces deux contraires sont seulement deux erreurs et je prétends que la réalité est sans rapport ni avec l’une ni avec l’autre ni avec leur interpénétration car elles équivalent toutes deux au néant et ne peuvent rien engendrer quel que soit l’opérateur qui les lie.

 

Pourquoi, alors, un tel engouement ?

 

« On redemande de ces choses scientifiques parfaitement inintelligibles qui fascinent comme tout ce qui est profond, mystérieux, incompréhensible. » (Balzac, Illusions perdues).

 

« Plus le fait est invraisemblable, plus ils s’empressent d’y croire. Leur vanité est intéressée. Ils rient et applaudissent pour montrer qu’ils ont bien compris. L’homme éprouve son suprême plaisir à ce qui lui est suprêmement étranger. » (Erasme, Éloge de la folie).


 

 

 

Chapitre 6

 

Les moments cinétiques

 

 

 

La Science pure considère la gravitation comme un phénomène isotrope. L’effet de la pesanteur d’un corps ne dépend que de la distance à son centre. La gravitation possède essentiellement une symétrie sphérique.

 

Or, l’immense majorité des systèmes de l’Univers a une symétrie axiale. C’est le cas de toutes les planètes, de la position de leurs satellites et, le cas échéant, de leurs anneaux. C’est le cas du système solaire, avec l’exception d’une partie des comètes et des astéroïdes. Mais, c’est essentiellement le cas des galaxies, des milliards de galaxies.

 

La pesanteur est effectivement isotrope, mais elle doit s’accompagner d’un phénomène à symétrie axiale. La Science pure ne rend pas compte du moment cinétique des astres et des systèmes comme les galaxies. Qu’il y ait, globalement, annulation des moments cinétiques, c’est certain. La Science pure n’explique pas comment se produit cette annulation. Lorsque la vitesse de rotation d’un astre varie, comment se produit la compensation indispensable ? Il faudrait là une autre action à distance.

 

Newton a bien pensé qu’il pourrait y avoir une difficulté. Il a demandé qu’on lui donne la vitesse tangentielle pour construire un système solaire. Il y a rotation, donc moment cinétique. Les astres tournent aussi sur eux-mêmes. D’où viennent tous ces moments cinétiques ? Comment peuvent-ils s’équilibrer à distance ? Personne n’a laissé d’écrits sur ce problème.

 

La symétrie axiale se caractérise par des propriétés zonales. Cet aspect zonal de la gravitation ne se limite pas aux courbes des vitesses de rotation de la surface des planètes gazeuses. Elles ont toutes un caractère zonal. Les océans de la Terre ont des courants zonaux. Les courants équatoriaux et tropicaux ont un caractère zonal très prononcé. On a tenté de donner une explication thermo-saline de ces courants océaniques. Pourtant, le courant antarctique est à température constante. Cette explication ne tient pas. Faute de mieux, on attribue ce courant aux vents. Que le vent puisse entraîner l’eau sur des centaines de mètres de profondeur est en complète contradiction avec les plus élémentaires notions de mécanique des fluides. Et on ne peut pas prétendre développer des explications dédiées pour chaque occurrence d’un même phénomène.

 

Les zones des planètes sont séparées par des régions à caractère tourbillonnaire. La grande tache rouge de Jupiter en est la meilleure illustration. Le Soleil ne tourne pas en bloc comme un corps solide. Sa vitesse angulaire est plus rapide dans son plan équatorial qu’au pôle. C’est aussi un phénomène zonal. La variation de la vitesse est continue au lieu que, pour les planètes gazeuses, les zones sont séparées. Mais le système solaire présente une particularité remarquable. Tous les corps de son système ne gravitent pas dans le voisinage de son plan équatorial. Leurs inclinaisons ne sont pas réparties au hasard. La répartition statistique est zonale. Le problème est que les corps qui ont une inclinaison importante traversent plusieurs zones au cours de leur périple. L’effet zonal ne peut être mis en évidence que pour les inclinaisons relativement faibles. Au-delà de 25°, la répartition est aléatoire. Cette répartition zonale présente une caractéristique très curieuse : des lacunes de cette répartition sont occupées par des comètes rétrogrades.

 

La statistique n’est pas considérée comme un moyen de preuve par la plupart de nos contemporains. Il y a, derrière cela, une méconnaissance totale des principes mêmes de cette partie des mathématiques. Regardez pour les inondations ! La dernière grande inondation à Paris a eu lieu en 1910, il y a un siècle. On attend donc une nouvelle crue centenaire de la Seine d’une année à l’autre. C’est stupide ! La prochaine crue centenaire pourrait aussi bien survenir dans un siècle. Il pourrait fort bien s’écouler deux siècles entre deux crues centenaires.

 

Il faut dire que la statistique est une science assez ingrate. On voit bien à quoi correspondent les figures de la géométrie. À quoi correspondent, concrètement, la variance ou la signature d’une répartition statistique ? C’est beaucoup plus difficile à concevoir. La statistique est très abstraite. J’ai l’impression que les spécialistes sont très satisfaits de cette particularité.

 

Il y a aussi un phénomène très surprenant. Il n’y a pas de corps qui gravitent dans le voisinage immédiat du plan équatorial du Soleil. Les étoiles des galaxies sont toutes concentrées dans leur plan principal, qui joue le rôle de plan équatorial. Plusieurs planètes ont des anneaux situés exactement dans leur plan équatorial. Il y a un problème dans le plan équatorial du Soleil.

 

Or, il y a aussi un problème dans le plan principal des galaxies. Toutes les étoiles se trouvent pratiquement dans ce plan. Mais, elles ne tournent pas normalement. La vitesse tangentielle des étoiles des galaxies devrait décroître avec la distance. En réalité, la vitesse tangentielle des étoiles reste constante, entre 250 et 400 Km/s selon les galaxies. C’est le problème de la masse manquante. Ce phénomène reste totalement inexpliqué.

 

Il a été découvert en 1933 par Zwicky. Il calcula la masse totale de l’amas de Coma, en étudiant la répartition des vitesses des sept galaxies qui le composent. Il constata que les vitesses observées dans l’amas étaient très élevées. La masse newtonienne serait 400 fois plus grande que la masse visible. Smith fit le même calcul, en 1936, pour l’amas de la Vierge. Il fit la même constatation que Zwicky.

 

La question se reposa de manière plus cruciale quarante ans plus tard. Rubin étudia la rotation des galaxies spirales. La vitesse maximale de rotation d’une galaxie spirale se trouve à quelques kilo-parsecs du centre, puis elle devrait décroître selon les lois de Kepler. Or, les vitesses restent constantes au fur et à mesure que l’on s’éloigne du centre des galaxies. La masse visible ne représente pas plus, et au mieux, que 10 % de la masse des galaxies. Il faut ajouter 90 % de la masse totale de la galaxie, voire plus dans certaines galaxies naines, pour obtenir cette courbe des vitesses. Cette énorme masse complémentaire ne peut pas être ajoutée au centre de la galaxie. La courbe de Kepler serait rehaussée, mais on obtiendrait, malgré cela, une courbe képlérienne en s’éloignant du centre.

 

On a imaginé un gigantesque halo de matière non visible, au sein même des galaxies. C’est la masse sombre ou manquante. Tous les télescopes ont été mobilisés pendant des années pour mettre en évidence la masse manquante. On a trouvé quelques systèmes planétaires, pris de fort belles photographies. Mais pas l’ombre de la masse manquante.

 

Le phénomène confirme les mouvements relatifs des galaxies mis en évidence par Zwicky et Smith. On retrouve le même défaut de masse pour les déviations optiques, les fameuses lentilles gravitationnelles. Il existe même des effets de lentille gravitationnelle sans que le moindre amas de galaxies ne se trouve sur le trajet optique. Dans ces cas, il manquerait 100 % de la masse. Des exceptions ? On a trouvé, jusqu’ici, 60 000 cas. C’est du moins l’estimation obtenue en considérant qu’elles sont réparties uniformément.

 

De multiples candidats ont été imaginés pour remplir les galaxies et l’espace intergalactique. Outre de la matière ordinaire, froide, donc invisible, les neutrinos continuent à mobiliser d’importants moyens. Les cordes, candidates à tout, comme la Mécanique Quantique, dont elles sont issues, vont tomber dans l’oubli après leur échec total dans le cadre de l’approche quantique des champs.

 

On a aussi imaginé qu’il n’y a pas de masse manquante, mais un problème avec la loi de Newton. On a tenté, par exemple, de la faire varier avec la distance.

 

Les relativistes pensent que c’est seulement un problème de masse. La masse manquante est cachée. On finira par la trouver. Ils ne cessent de le répéter, pensant peut-être nous convaincre. Ils finissent par créer le doute. On commence à penser que c’est un vrai problème.

 

Le pire était à venir ! Dès 1977, une anomalie a été découverte. C’est la loi de Tully-Fisher. Les vitesses des galaxies spirales sont liées à leur luminosité, donc à leur masse perceptible. Cette loi a été confirmée en 2010 par Mac Caugh pour tous les types de galaxies. La masse manquante des galaxies se trouve donc en proportion de la masse perceptible et localisée au même endroit. Une telle répartition conduit également à des résultats contraires à la loi de Newton. L’idée de masse manquante ne marche pas. On entend, au loin, comme des trompes sonnant l’hallali.

 

Voilà un faisceau de problèmes relatifs à la rotation des astres. Un problème de rotation doit d’abord être considéré comme un problème de moment cinétique.

 

Il y a, aujourd’hui, un faisceau de problèmes de moment cinétique. Pris séparément, ils ne sont pas inquiétants. Ensemble, ils posent une question : que fait la Science pure du théorème du moment cinétique ?

 

Il y a un problème de moment cinétique, tant pour les galaxies que pour le Soleil. Il y a un problème de moment cinétique dans l’Espace. L’expérience de Michelson met en évidence ce problème de rotation. Il est confirmé par les analyses du professeur Allais. L’expérience de Sagnac est aussi un problème de rotation dans l’Espace.

 

La boutade de Newton cache un problème majeur des champs de gravitation. Le produit de la masse d’une planète par sa vitesse et par sa distance au Soleil représente son moment cinétique dans sa rotation autour du Soleil. Or, les mesures montrent que ce moment cinétique n’est constant pour aucun corps céleste. Que les moments cinétiques de l’ensemble des astres et d’une manière générale, de l’ensemble de la matière de l’Espace se compensent globalement, voilà déjà une hypothèse nécessaire. Il faut aussi que les variations soient compensées à chaque instant. Comment les autres corps célestes pourraient-ils être informés qu’ils doivent augmenter leur moment cinétique pour compenser un ralentissement de la vitesse de rotation de la Terre, par exemple ? Le philosophe Emmanuel Kant a attribué le ralentissement de sa vitesse de rotation sur elle-même aux frottements hydrauliques dus aux marées. De tels frottements ne peuvent, en aucun cas, compenser une diminution du moment cinétique de la Terre puisque les océans tournent avec la Terre. On pense aujourd’hui que c’est la Lune qui est ralentie par les marées. Le bourrelet fluide retarde sur le mouvement de la Lune créant une action de rappel. On a aussi pensé que les jet-streams atmosphériques, ces vents de très haute altitude dont profitent les avions, pourraient compenser, par frottements, les variations de moments cinétiques. On comprendrait bien que les frottements viennent équilibrer le bilan énergétique de l’ensemble. La conservation du moment cinétique est tout aussi impérative et ne peut être réalisée que par transmission d’une variation d’un moment cinétique exactement inverse. Il faudrait donc une autre forme d’action à distance, en complément à la transmission de la gravité. Or, le succès de la Relativité générale résultait justement du fait que cette théorie avait la prétention de supprimer la nécessité de la transmission à distance des forces de gravitation. Comment à présent accepter une autre forme aussi inconcevable d’action à distance ?

 

Personne ne se préoccupe de l’équilibre des moments cinétiques dans le système solaire, dans les galaxies, dans l’Univers. Il y a nécessairement compensation globale au niveau de l’Univers. Aux niveaux inférieurs, on pense peut-être que la compensation n’a pas d’influence sur le mouvement des astres, on ne s’en préoccupe pas le moins du monde.


 

 

 

Chapitre 7

 

Le probabilisme et le déterminisme

 

 

 

L’effet Doppler résulte d’un fait extrêmement simple. Lorsque la source d’une onde sonore est immobile par rapport à l’air et par rapport au capteur, l’oreille par exemple, la longueur d’onde émise est la même que la longueur d’onde reçue. Mais si l’observateur se déplace par rapport à l’air qui porte les ondes, alors l’observateur constatera que les crêtes des ondes se succèdent plus ou moins vite, selon le sens de sa vitesse par rapport à l’air. S’il va à la rencontre des ondes, le son paraîtra plus aigu car les crêtes lui paraîtront plus rapprochées. Sa vitesse s’ajoute ou se retranche à celle du son dans l’air puisqu’il se déplace par rapport à l’air. Symétriquement, si la source se déplace, les crêtes du son émis seront plus ou moins rapprochées selon la vitesse de la source. La vitesse du son par rapport à l’air n’est pas changée, bien sûr. C’est la distance entre crêtes qui est modifiée. Dans ce cas, la distance entre crêtes des ondes sonores est réellement allongée ou raccourcie. La vitesse de la source ne s’ajoute pas à la vitesse du son dans l’air ; elle ne se retranche pas non plus.

 

Pour la lumière, on parle de l’effet Fizeau. La lumière est une onde. L’explication devrait donc être la même que pour le son. Or, c’est impossible selon la doctrine relativiste. Les crêtes de l’onde lumineuse s’avancent vers l’observateur à la célérité de la lumière. L’observateur qui s’avance vers le photon ne peut pas les voir arriver plus vite que la lumière. Les crêtes des ondes lumineuses lui parviennent donc toujours à leur distance réelle. Pour que la distance entre les crêtes soit réduite, il faudrait que la vitesse de l’observateur s’ajoute à la vitesse des crêtes par rapport à lui-même. Il ne peut pas non plus les voir arriver moins vite s’il va dans le sens du photon. Ce n’est pas davantage un problème de vitesse de phase. L’effet Fizeau existe en lumière monochromatique. Ce ne peut donc pas être un problème de vitesse de phase ou de vitesse de groupe. Ce sont des notions relatives aux lumières polychromatiques.

 

Puisque la célérité de la lumière ne peut se composer à aucune vitesse, l’effet Fizeau ne peut pas s’expliquer comme l’effet Doppler dans l’air. Cet effet est le résultat d’une composition de vitesses impossible pour le photon. L’effet Fizeau est une propriété de la lumière qui n’a rien à voir avec l’effet Doppler. En fait, pour les relativistes, l’effet Fizeau est le résultat de l’application des formules mathématiques de Lorentz.

 

L’application des formules de Lorentz donne d’ailleurs un complément relativiste transversal qui n’existe pas pour l’effet Doppler dans l’air. Cet effet complémentaire a été mis en évidence par les mesures expérimentales. Il renforce la conviction des relativistes d’être sur la voie unique de la connaissance de la réalité.

 

On demandait à Churchill le secret de sa prodigieuse réussite politique. « Je suis allé d’échec en échec ». On demandera aux scientifiques partisans de la Science pure la cause de leur dramatique échec : « Nous sommes allés de succès en succès ».

 

Voici un photon émis par un atome d’une source en mouvement. Un observateur mesure la longueur d’onde de l’atome. Ce photon ne peut en aucune manière savoir à quel observateur il est destiné. Il ne peut donc porter aucune information de vitesse relative par rapport à un quelconque observateur.

 

Il faut considérer les conditions d’espace-temps de la source et celle du récepteur nous disent les scientifiques ! Ces deux espaces-temps ont une vitesse relative. Il faut donc appliquer les formules de Lorentz. Du point de vue mathématique, c’est parfait. Mais physiquement ? Comment le photon peut-il avoir la connaissance des conditions de réception par rapport aux conditions d’émission ? Comment peut-il avoir connaissance des conditions d’espace et temps dans le référentiel où il arrive ? Le problème est le même que pour la gravitation. Comment une métrique peut-elle communiquer une énergie à un corps ? Comment un être mathématique peut-il se matérialiser en action ? C’est un des mystères que la Mécanique Quantique tente de résoudre, en remplaçant les métriques par des particules, où plutôt en intégrant les métriques dans des particules. Mais ce n’est pas plus compréhensible. Je vois bien que je suis irrécupérable ; je n’ai pas encore compris qu’il ne s’agit plus de comprendre depuis longtemps, mais d’aligner seulement des formules mathématiques.

 

C’est exactement la même question que pour l’expérience d’Aspect.

 

 

 

 

Il faut une source d’information de la vitesse, comme il faut une source d’information de l’état initial de polarisation. Il faut aussi une information de position pour les interférences en faible éclairement. C’est un problème général du photon, et non un cas particulier de la polarisation et des interférences.

 

Les expériences d’Aspect rendent cette position intenable. Il faut que le photon soit informé de la trajectoire qu’il devra prendre avant d’arriver au récepteur. Le paradoxe est qu’il faudrait alors un signal plus rapide que la lumière. La réponse est l’intrication quantique. Vous ne comprenez pas ? Mais il n’y a rien à comprendre dans la méthode axiomatique ! Aristote aurait dit que c’est la nature des choses. Point.

 

Une onde dans un fluide peut se subdiviser en deux ondes d’amplitude moitié. On ne peut pas diviser le photon en deux. Le photon ne peut passer que par l’une des fentes de l’interféromètre. Or, si l’on émet une lumière très faible, si faible même que les photons se suivent à des intervalles de temps mesurables, on observe quand même des interférences. Chaque photon passant par une seule fente doit donc savoir où il doit aller sur l’écran pour ne pas éclairer une zone de frange sombre.

 

Pour expliquer ce paradoxe, on a inventé la probabilité de présence. Le photon a la même probabilité de passer par l’une ou l’autre des fentes. C’est une application du principe d’incertitude. On se retrouve donc avec une sorte de milieu de probabilité. C’est ainsi que l’on explique que les photons se regroupent sur les franges claires où leur probabilité ondulatoire de présence est la plus forte.

 

Les partisans de la Mécanique Quantique affirment que la nature des choses est d’être gouvernées par leurs probabilités. Cette position est déterministe dans le cadre d’une vue d’ensemble de la Nature. Ils affirment connaître la cause exclusive des phénomènes. Cette cause est déterminée par une approche probabiliste. Chaque élément, chaque phénomène de la Nature, serait probabiliste. Les interférences observées résulteraient de la probabilité de présence des photons. Pourtant, le résultat global est parfaitement déterminé. Les interférences observées n’ont pas de caractère probabiliste. C’est là une grave incohérence de l’approche probabiliste de la connaissance de la Nature. Ils ont évidemment une réponse. Les raies appartiennent au monde macroscopique et donc la probabilité n’est plus perceptible.

 

On peut noter au passage que des ayatollahs de la Mécanique Quantique ont été jusqu’à attribuer à cette vision probabiliste la possibilité du libre arbitre, dans un Univers régi par la causalité. C’est là un point de vue dramatiquement anthropomorphique. En effet, la causalité est un concept absolu qui n’appartient qu’à l’esprit. Nous ne pouvons pas penser autrement que dans le temps, dans l’espace et selon la causalité, ce qui n’implique nullement que le temps, l’espace et la causalité appartiennent au monde expérimental. Pas plus que la droite et le cercle de la géométrie n’appartiennent à ce monde physique.

 

Je ne suis pas sûr que la Mécanique Quantique puisse apporter la solution à un problème lié au mouvement. Einstein a écrit un ouvrage reconnaissant la nécessité de l’éther. Cet éther ne pourrait en aucune manière porter la lumière comme l’éther de Lorentz. Puisque la lumière, ce sont des photons. Il s’agissait en fait de l’espace même avec les métriques des champs qui le remplissent. Ce texte était destiné à emporter l’adhésion des ultimes partisans de l’éther. Comment concevoir un tel espace sans revenir à un référentiel quasi-absolu ? Je dis quasi-absolu, car il n’aurait pas la rigidité de l’éther de Lorentz. Il aurait eu une forme variable, une métrique selon les champs locaux, mais à grande distance des astres et en l’absence de matière, un tel éther, mathématique en quelque sorte, aurait pu jouer le rôle de référentiel des vitesses. Le problème de l’effet Fizeau aurait là une réponse évidente, mais avec un retour à une sorte de référentiel absolu, fondamentalement contraire au principe de Relativité.

 

Les problèmes soulevés par les expériences dans le cadre de la doctrine relativiste ont entraîné une approche probabiliste de la Science pure. Cette approche avait été rendue nécessaire dans le cadre de la Mécanique Quantique pour expliquer les propriétés des couches électroniques des atomes.

 

L’aspect le plus troublant de cette approche provient de l’usage qui est fait des statistiques. Le principe même de toute approche statistique est que le lot d’objets étudiés soit en nombre suffisant. La statistique est la science des grands nombres. Or la Mécanique Quantique applique cet outil mathématique à des êtres uniques. Chaque électron et chaque photon a une probabilité de présence en un point de l’Espace. C’est une utilisation en contradiction avec le principe même de la statistique. La probabilité d’occurrence d’un événement est calculée sur un grand nombre d’événements semblables. La probabilité liée à un être unique n’a rien à voir avec la statistique. C’est une pure fiction, une pure théorie sans aucun support mathématique.

 

Ce même photon se voit en même temps attribuer une célérité absolue, parfaitement déterminée. La caractéristique essentielle du photon, sa vitesse de propagation, est ainsi de nature parfaitement déterministe. Par contre, sa position serait probabiliste. C’est là une incohérence majeure. Le même être, observé dans les mêmes conditions, a deux caractéristiques contradictoires, inconciliables. C’est la Grande Incohérence.


 

 

 

Chapitre 8

 

Le champ magnétique des électrons

 

 

 

Avant de découvrir les électrons, on a donné la mauvaise direction au courant électrique dans un conducteur. Le courant électrique va du plus vers le moins, alors que les électrons vont en sens contraire. Or, il n’y a que les électrons qui se déplacent dans les conducteurs, à une vitesse très faible estimée à quelques cm/s seulement. Vitesse qui n’a d’ailleurs jamais été mesurée. C’est bien là ce qui est profondément stupéfiant !

 

La même inversion a été faite lors de la définition de la propriété magnétique intrinsèque des électrons : leur moment magnétique.

 

La mauvaise solution a été choisie dans les deux cas.

 

La définition erronée a été choisie à la suite d’une longue histoire. Le champ magnétique des courants électriques est actuellement considéré comme un effet de la vitesse de translation des électrons à l’intérieur des conducteurs. Cet effet a été découvert par Gian Domenico Romagnosi en mai 1802. Romagnosi a informé l’Académie des sciences de Paris de ce phénomène. L’Académie n’a pas enregistré la découverte. Le scientifique danois Hans Christian Ørsted a fait la même découverte vingt ans plus tard et l’Académie Danoise a publiée immédiatement son rapport. Néanmoins, Ørsted a reconnu qu’il était informé de l’expérience de Romagnosi.

 

Les rayons cathodiques ont été découverts à la fin du 19e siècle. En 1895, l’expérience de Perrin a montré qu’ils sont chargés négativement. Thomson a fait, en 1897, la suggestion audacieuse que les rayons cathodiques sont des corpuscules constituants des atomes. Les expériences de Stoney, réalisées en 1874, étaient ainsi confirmées et le nom d’électron qu’il avait imaginé désigna dorénavant ces particules. A cette époque, la loi de Maxwell-Ampère a été modifiée pour prendre en compte l’existence des électrons. Mais la cause du champ magnétique n’a pas été remise en cause.

 

Le choix de la définition du modèle standard des électrons a été considéré comme confirmé par l’expérience de Rowland effectué en 1876. Néanmoins, dans l’expérience de Rowland les disques chargés tournent. Cette expérience montre que la rotation d’une charge électrique produit un champ magnétique, mais une rotation ne peut pas être considérée comme une translation. Il est entièrement incohérent de rejeter l’explication du disque tournant de l’expérience de Sagnac, même pour les très faibles vitesses de rotation, comme un effet de la translation et, dans le même temps, d’accepter que la rotation d’une charge pourrait être équivalente à une translation.

 

L’électron est considéré dans le modèle standard de la Mécanique Quantique comme un dipôle magnétique. Il serait donc analogue à une minuscule barre aimantée.

 

 

 

 

 

 

 

 

 

 

 

 

En réalité, le champ magnétique des électrons est l’inverse géométrique du champ d’un dipôle tel que stipulé par le modèle standard. Le champ magnétique des électrons a une structure rotationnelle. Ce champ magnétique est la cause directe du champ magnétique des courants électriques dans les conducteurs et des rayons cathodiques.

 

Dans l’approche axiomatique de la Mécanique Quantique, il est postulé que le moment magnétique des électrons est toujours maintenu stochastique, tant au sein de conducteurs que dans les rayons cathodiques, qui sont censés ne pas être polarisés. Comme les moments magnétiques des électrons sont distribués au hasard, ils ne créeraient pas de champ magnétique dans les conducteurs ni dans les rayons cathodiques.

 

Une preuve indirecte du caractère erroné du modèle standard de l’électron résulte de l’échec de la magnéto-hydrodynamique, la MHD. Ce fut le rêve des années 1960 pour produire directement de l’électricité sans turbine en faisant circuler un fluide chargé électriquement. Il a échoué. Il y a seulement quelques expériences qui ont réussi à obtenir un effet très faible, mais elles ont utilisé des supraconducteurs où le rôle principal résulte de la structure atomique et non du seul fait de déplacer les charges. Le champ magnétique des courants électriques ne provient donc pas du déplacement des charges électriques.

 

Le modèle standard de la Mécanique Quantique conduit à l’existence de deux causes possibles coexistantes du champ magnétique d’un flux d’électrons : la vitesse de translation et le « moment magnétique intrinsèque ». Le « moment magnétique intrinsèque » des électrons est actuellement considéré comme un résultat de la rotation de la charge des électrons, de sorte que le mouvement de la charge est considéré comme la seule cause du magnétisme. Néanmoins, dans un conducteur ou dans un rayon cathodique, les électrons ont finalement deux moyens possibles de production du champ magnétique. Cette redondance est contraire au principe d’unicité causale spécifique applicable pour les concepts de base de la physique ainsi que pour la géométrie. Elle est aussi contraire au principe de simplicité d’Ockham. C’est le principe d’économie, le Rasoir d’Ockham : « On ne doit jamais multiplier les êtres sans nécessité (numquam pluritas est ponenda sine necessitate) ». Ce célèbre énoncé est aussi la quinzième conclusion du Traité du premier principe de Duns Scot. Il est dû, en réalité, à Aristote comme conséquence de son principe de l’unicité causale spécifique.

 

L’inversion du champ magnétique des électrons permet d’attribuer le champ magnétique des courants électriques et des rayons cathodiques directement au véritable champ magnétique de l’électron, inverse géométrique du champ de dipôle de la Mécanique Quantique.

 

 Il se pose, a contrario, un problème pour les aimants. Le champ magnétique rotationnel des électrons ne peut pas être directement la cause de leur champ magnétique. Le champ magnétique des aimants résulte de l’arrangement des électrons dans des structures toriques, ce qui crée donc une topologie de champ conforme à la réalité. Les domaines de Weiss seraient donc des structures différentes de celles qui sont impliquées par le modèle standard.

 

Cette inversion de topologie permettrait d’envisager une explication quantitative de l’effet de la Barnett qui reste purement qualitative pour le moment. On pourrait penser que les structures toriques des domaines de Weiss des aimants contenant les électrons sont inclinées par l’accélération de Coriolis résultant de la rotation, donnant ainsi un facteur d’amplification important qui n’existe pas dans le modèle standard de la Mécanique Quantique.

 

Il existe un moyen de vérifier que le champ magnétique d’un rayon cathodique ne dépend pas de la translation des électrons. Les champs électriques ne changent pas la propriété magnétique des électrons. Si un rayon cathodique pulsé est dévié de 90 ° par un champ électrique, le champ magnétique des électrons reste tel qu’il était avant la déviation, de sorte que le champ magnétique du rayon cathodique ne doit plus être mesuré par des bobines placées dans un plan contenant le faisceau après la déviation, contrairement à ce qui peut être observé avant la déviation.

 

Ce petit changement de structure du champ magnétique des électrons a une petite conséquence. Il faudra bien convenir que le problème de relativité de Poincaré ne se pose plus. Pourquoi ? Le champ magnétique rotationnel des électrons reste invariant dans un changement de repère galiléen ! Il n’y a donc pas de problème de relativité dans les phénomènes électromagnétiques.

 

Reste l’expérience de Michelson. Descartes avait trouvé une solution bien avant qu’elle ne soit réalisée. Dans les tourbillons de son Monde, il est impossible de constater un déplacement de la Terre par rapport au fluide de sa lumière, le milieu de l’Espace, car la Terre se déplace avec ce milieu. Bien plus elle est entraînée par ce milieu qui, pour Descartes, est à la fois le support de la gravitation et le support de la lumière. C’est ce que confirment entièrement les expériences et statistiques du professeur Allais, l’expérience de Sagnac et les visées d’Esclangon.

 


 

 

 

Chapitre 9

 

Les paradigmes

 

 

 

Le problème de la valeur des théories scientifiques a fait l’objet d’une abondante littérature dans la seconde moitié du XXe siècle. De nombreux philosophes ont tenté de justifier, ou au contraire de critiquer, la valeur de la science. Je me suis référé à Russell (1872-1970), Bachelard (1884-1962), Popper (1902-1994), Ramsey (1903-1930), Prigogine (1917-1998), Lakatos (1922-1974), Kuhn (1922-1996), Feyerabend (1924-1994), Lyotard (1924-1998), Chalmers (1936-2005), Putnam (1926-2016) et Onfray.

 

Mais avant d’évoquer leur position, il faut replacer le développement de la physique moderne dans le cadre intellectuel qui prédominait au milieu de XIXe siècle. Le grand théoricien de l’époque était Auguste Comte, le père du Positivisme : «  toute science doit rejoindre un jour l’état positif, mathématique, expression d’une causalité absolue. » L’état positif parfait est « l’unification tous les divers phénomènes de la Nature dans un seul fait général tel que la gravitation par exemple » enfin : «  Les lois effectives de la Nature sont des relations invariables. »

 

Poincaré exprima ces convictions de la manière la plus radicale. Les modèles physiques sont sans aucun intérêt. Chacun est bien libre de prendre le modèle physique qui lui plaît  pourvu que l’expression mathématique des phénomènes soit la bonne, et il n’y en a qu’une qui puisse convenir. (Raymond Poincaré, La Science et l’hypothèse)

 

Dés lors qu’il a trouvé l’expression mathématique du phénomène, la tâche du scientifique est achevée. C’est stupide évidemment. Toutes les Sciences dites appliquées comme la mécanique des fluides ne reposent que sur des modèles physiques et les mathématiques sont dans l’incapacité de rendre compte des phénomènes même les plus simples comme les tourbillons, la houle ou les marées ! Évidemment, il ne s’agit pas de la Science au sens où l’entendaient Comte et Poincaré.  Pour Albert Einstein, la mécanique des fluides est une lumpen science, une sous-science.

 

La position positiviste fait rire aujourd’hui les scientifiques eux-mêmes, tant les mathématiques ont étalées leurs limites étroites. On ne cherche plus des équations, mais des modèles informatiques et, dans certains cas, sans la moindre équation mathématique comme dans le cas de la houle.

 

En ne s’appuyant que sur des équations mathématiques, les scientifiques positivistes pensaient éliminer le problème de la valeur des hypothèses. Puisqu’il n’y a pas besoin de modèle physique, le scientifique mathématicien ne ferait aucune hypothèse. Or, les erreurs scientifiques sont toujours venues historiquement d’hypothèses fausses. Poincaré en dresse une courte liste depuis Aristote mettant la Terre au centre du Monde. Donc, la science positiviste ne peut pas se tromper. Pas d’hypothèse, pas d’erreur possible.

 

Cette conviction s’est si profondément ancrée dans les esprits qu’elle est encore le fondement de la pensée actuelle. La science mathématique ne peut pas se tromper. S’il y a encore des erreurs dans les sciences aujourd’hui, elles ne peuvent provenir que d’hypothèses hasardeuses sur la nature des phénomènes, non soutenues par des formulations mathématiques. 

 

Poincaré n’imagine pas un seul instant qu’il puisse y avoir dans la théorie électromagnétique la moindre trace d’hypothèse. Tout s’enchaîne mathématiquement depuis Newton et Maxwell jusqu’à Einstein. L’erreur n’est plus possible car il n’y a pas d’hypothèse.

 

Est-ce si sûr ? L’analyse des hypothèses possibles dans la physique que nous a donnée Poincaré semble parfaite. Pourtant, au tout début de la théorie électromagnétique, bien avant Maxwell, Poincaré rappelle lui-même des observations qui ont conduit à la tour de Babel où les scientifiques prétendent nous enfermer, les laissant, de là haut, explorer les infinis et reprogrammer la Création.

 

Or, toute la physique actuelle repose sur ces observations. On a « vu » le courant s’écouler dans les conducteurs du « plus » vers le « moins » et finalement ce sont des électrons qui iraient en sens inverse. Ce ne serait pas une hypothèse, mais un fait incontestable. Or le plus stupéfiant est que ce fait incontestable n’a jamais été vérifié : la vitesse des électrons dans les conducteurs n’a jamais été mesurée !

 

Et puisque les courants électriques sont la circulation d’électrons, alors les champs magnétiques des courants résultent de la circulations des électrons. Pour Poincaré, ce sont des évidences qu’il ne compte nullement comme des hypothèses. Pourtant, il se méfie des évidences. Pour Aristote, il était évident que la Terre est le centre du monde. L’évidence n’est donc pas un critère valable dans les Sciences. Poincaré le rappelle évidemment. Il le sait parfaitement.

 

Alors pourquoi cet aveuglement ?

 

Que nos mathématiques sont belles ! Les énoncés mathématiques des scientifiques s’enchaînent jusqu’à Einstein plus parfaitement que les rouages des horloges. C’est merveilleux ! 

 

Comment pourrait-on penser que le mouvement des électrons n’est pas la cause des champs magnétiques ? Regardez, Monsieur, l’aiguille de la boussole tourne depuis deux cents ans sous l’effet du courant électrique et donc du mouvement des électrons !

 

L’hypothèse est cachée dans le « donc ». Le « donc » est une induction et en aucun cas une déduction. C’est ce que Poincaré n’a pas voulu voir.

 

Dès lors, nous ne sommes plus dans le royaume de la Science, mais dans celui des passions humaines ! Dans ce royaume, les plus énormes évidences restent totalement invisibles.

 

Sans être allés jusqu’à cette mise en cause radicale du positivisme, les philosophes ont fini par s’inquiéter des prétentions audacieuses des scientifiques.

 

Ces philosophes appartiennent au courant de la philosophie analytique, dite école américaine, par opposition aux approches phénoménologiques, propres aux écoles continentales dont la plus célèbre est l’école de Marbourg. Ces dernières sont les derniers refuges de la philosophie après le rejet du kantisme, position rendue intenable par les postulats relativistes : « La philosophie générale ne joue plus que le rôle d’un fonds historique, d’un contexte littéraire », et dans la même veine : « Les diverses branches de la sociologie, des sciences économiques, historiques, de la psychologie se partagent les restes d’une vétuste Morale et d’une Philosophie Générale périmée » (M.A. Tonnelat, Histoire du principe de Relativité, © Flammarion, 1971, p. 485 et 486).

 

Russel distingue deux types de connaissance : « La connaissance par expérience directe et la connaissance par description ». Ces deux connaissances seraient liées par un principe : « Toute proposition [connaissance par description] que nous pouvons comprendre, doit être composée uniquement de constituants dont nous avons [connaissance par] l’expérience directe » (Russel, Problèmes de philosophie, © Payot, 1989 p 69 et 80). Le problème de la valeur d’une proposition se trouverait rapporté à l’exactitude de la connaissance par l’expérience directe. L’expérience directe est la perception sensible, le sense-data.

 

La perception sensible est toujours vraie, pour reprendre la grande pensée d’Alain. Mais elle ne peut rien exprimer par elle-même. La perception sensible est évaluée par la pensée pour être mémorisée selon des déterminations. La pensée lui associe des mots qui en permettent l’expression. Ce n’est nullement la perception sensible qui forme un « constituant » de la proposition, ce sont les mots qui expriment le jugement de l’esprit sur la perception. Russel, plus loin dans son livre, analyse cette opération de jugement, mais dans le contexte plus général de la validité des raisonnements. Il n’a, à aucun moment, envisagé les problèmes fondamentaux de toutes les formes de jugement : la nature et l’origine des critères du jugement. Russel rejette le système de Kant. Pour Kant, les critères du jugement sont les concepts du monde transcendantal. Ils sont indépendants du juge : l’esprit. Sans cette indépendance, il n’y a pas plus de pensée qu’il n’y aurait plus de justice si le juge pouvait légiférer selon son bon vouloir !

 

Russel rejette le monde transcendantal de Kant. Sa démarche s’inspire directement des approches matérialistes : « Par abstraction, je découvre ce que les déterminations ont en commun. C’est de cette façon que j’obtiens l’expérience directe de la relation en tant qu’Universel » (p.126). « Toute connaissance a priori concerne exclusivement les relations entre Universaux » (p.127). « C’est habituellement en passant par des instances particulières que nous devenons capables de percevoir le principe général » (p.137). Et pour terminer : la « nature de la vérité » est « la correspondance avec les faits » (p.147). Russel ramène donc le problème de la vérité des théories à deux problèmes : qu’est-ce que le fait ? Que faut-il entendre par correspondance ?

 

Ce qu’il prend pour des faits, qu’ils soient ses sense-data ou ses « Universels, ou idées abstraites » (page 71), sont des pensées dans tous les cas. L’esprit exprime ce qu’il pense des perceptions et non la perception elle-même ; le juge prononce la sentence, un jugement sur des faits tels qu’il les comprend. Il y a jugement dès le niveau de l’expression des faits. La connaissance des Universels, l’autre catégorie de faits, chez Russel, résulterait de perceptions, des sense-data répétées. En réalité, une telle acquisition ne peut reposer que sur les déterminations des perceptions, ce que Russel a, d’ailleurs, écrit, et donc des pensées, des jugements. À défaut de toute forme de critères indépendants, ses Universels ne peuvent pas prétendre à la moindre vérité.

 

On peut rester un peu sceptique sur la conclusion de Russel : « À la différence de la connaissance des choses, la connaissance des vérités a un opposé : l’erreur. » (p.143). La connaissance des choses est certaine pour Russel puisqu’elle repose sur les faits : sur ses sense-data et sur ses Universels. Il n’en est rien en réalité, car les Universels résultent de pensées et que les sense-data sont eux-mêmes des interprétations, des jugements. On peut aussi penser que la formation des Universels fait intervenir des procédures de la logique. Et en plus, il y a cercle !

 

Il faut ensuite une correspondance des théories avec ces faits. On s’attend à voir ce second niveau de jugement faire appel à toutes les procédures de la logique. Il n’en est rien. Il suffit que « le faux, opposé du vrai, soit possible, que la vérité soit une propriété de la croyance, mais une propriété qui dépende entièrement des relations entre la croyance et quelque chose d’extérieur » (p.147). Cette règle d’obtention de la vérité présente l’avantage de contenir le résultat cherché. L’objectif est de distinguer les bonnes théories scientifiques des mauvaises. Pour qu’une théorie soit vraie, elle doit pouvoir être fausse. On sait donc ce qui distingue le vrai du faux, ce qui est le but cherché.

 

Si la distinction entre vrai et faux était toujours possible, il n’y aurait jamais d’erreur. On ne s’aperçoit, le plus souvent, qu’une proposition est fausse que des années, des siècles, des millénaires après. Songez à Aristote ! Russel pense à la science actuelle. Il a lancé cette thèse en 1912. La science règne sans partage. Il ne s’agit plus de réfléchir aux principes philosophiques qui permettent à l’esprit de juger, mais d’imposer à la philosophie les fondements de la Science pure, nécessairement vrais.

 

Par crainte, cependant, que des esprits idéalistes et obtus ne trouvent quelque biais, Russel inclut la vérité dans la croyance. Est-elle aussi dans le quelque chose d’extérieur ? Quelle est cette chose extérieure : le fait. Or, Russel nous l’a dit d’emblée, le fait est vérité. Conclusion : la Science pure est vérité !

 

La plus grande partie des œuvres de Bachelard est consacrée à l’épistémologie. De son temps, cette activité n’avait pas d’autre but que de donner aux démarches relativiste et quantique une justification historique et une valeur scientifique définitive. Toute démarche philosophique contraire à ces démarches devait relever d’un idéalisme subjectif fondamentalement erroné. La vraie voie était tracée comme en filigrane dans l’histoire de la philosophie, il suffisait de savoir trier le bon grain. Le premier pas est de voir que l’histoire est faite de révolutions, de sauts qualitatifs. Nous y voilà : c’est l’Histoire racontée par les marxistes ! Bachelard nous mène dans l’histoire de la physique, armé de la dialectique marxiste. Nous avançons sous bonne garde, comme des zeks dans les archipels du goulag, les camps de déportation soviétiques. Nous apprenons que « l’histoire des sciences est menée par une sorte de nécessité autonome » (Bachelard, L’activité rationaliste © PUF 1965 p. 47). Il était question de la possibilité pour la philosophie de justifier la valeur d’une théorie. Non, la science ne peut être jugée que par elle-même. Je vous disais bien que c’est de la dialectique marxiste. L’expert prononce ses dires selon ses propres critères. Bachelard ne prend « à l’histoire des sciences que ce qui peut éclairer la philosophie des sciences contemporaines » (p.58). L’histoire du mouvement ne commence qu’avec Newton.

 

On entre dès lors dans les nouvelles certitudes : « Il y a des concepts indispensables dans une culture scientifique qu’on ne conçoit pas qu’on puisse être amené à les abandonner. Ils cessent d’être contingents. » (p 26). Certes, il y a des erreurs, mais « il y a des barrières qui empêchent pour toujours l’esprit humain de rétrograder ». Il fallait une certaine dose d’inconscience, une dose certaine même, pour écrire cela après les horreurs de deux guerres mondiales, et les hécatombes marxistes ! On dira que Bachelard ne parle que de la science, et plus précisément de la physique. La science est-elle dans un monde à part ? Dans quel monde est Hiroshima ?

 

Le scientifique actuel « ne peut plus accepter qu’on pose du dehors le problème de la valeur de la science » (p. 4). La science se juge elle-même selon ses propres critères. Exit Kant : « La raison, dans la culture scientifique, n’est pas éclairée par la lumière naturelle ». Exit tous les philosophes : « L’esprit scientifique se comprend dans ses productions, il forme avec aisance le langage de ses productions » (p.5). Sur ces prémisses lumineuses, s’ouvre la perspective grandiose d’une science nécessairement véritable, et à la fécondité inépuisable. La culture scientifique nouvelle « impose ses tâches, sa ligne de croissance ». Non, je ne traduis pas un texte de Souslov, je lis bien du Bachelard. Vous en voulez encore ? « Exister par le livre, c’est déjà une existence. Le nombre de livres écrits sur l’électron dépasse le nombre de livres écrits sur la Lune » (p. 7 avec quelques coupures qui ne changent pas le sens). Conclusion de Bachelard : l’électron existe nécessairement.

 

Conclusion de la conclusion : si j’avais la fortune de Bill Gates, j’écrirais plein de livres et je les ferais distribuer à des millions d’exemplaires : ainsi mes idées seraient vraies !

 

Cette importance donnée au livre n’est que l’expression de la nature véritable de la science selon Bachelard. Il faut d’abord assimiler les livres avant de pouvoir prétendre œuvrer à l’avancement de la science. On est revenu au Moyen Âge. Le référentiel est documenté, hors du référentiel, point de vérité. C’était Aristote. Mais, en plus, la science nouvelle est sociale. Le référentiel de la science actuelle porte une multitude de noms de savants. La science est une activité démocratique. Nous sommes loin d’un richissime Lavoisier expérimentant dans son laboratoire privé. Une époque définitivement révolue affirme Bachelard. « Le philosophe doit infléchir son langage pour traduire la pensée scientifique contemporaine » (Le nouvel esprit scientifique © PUF 1934, 1963 p 3).

 

Il faut prendre, « comme un fait à expliquer », « le double sens de la preuve scientifique qui s’affirme dans l’expérience aussi bien que dans le raisonnement » (id). Cette position peut paraître exprimer une profonde vérité si l’on fait abstraction de l’idée qu’il s’agirait d’un fait, donc incontestable pour un matérialiste comme Bachelard, et qu’il s’agit de preuve. Or cette affirmation n’est pas un fait, c’est une proposition de l’esprit. Aucune perception sensible ne comporte une telle somme d’informations. Quand bien même ce serait la conceptualisation d’un nombre énorme de constats expérimentaux, la logique ne permet pas, un seul instant, de penser qu’une preuve soit possible.

 

Popper a montré qu’un ensemble d’observations, même en grand nombre, ne permet pas d’en tirer une proposition générale. Sa critique de l’induction conduisit Popper à remettre en cause la notion de vérification expérimentale. Une hypothèse ne peut en aucune manière être validée par des expériences, même en très grand nombre. Une hypothèse, un postulat, est toujours réfutable. Si on trouve une expérience contraire, la proposition sera réfutée. Ce processus d’hypothèses et de réfutations serait, selon Popper, la base même du progrès des connaissances.

 

En réalité, je pense qu’il n’y a jamais d’expérience contraire. C’est un problème de logique. Si aucune somme d’expériences ne peut prouver une théorie, aucune expérience ne peut prouver la théorie contraire, c’est-à-dire, d’abord, que la théorie est fausse. La logique est formelle, âpre. C’est un chemin « étroit, pierreux et raboteux, bordé de précipices », le chemin d’Hannibal à la traversée des Alpes allobroges. Elle est indépendante de la nature même de la théorie à prouver. L’affirmation de la fausseté d’une théorie est, sur le plan purement logique, une autre théorie, même si son contenu est pauvre de cette seule négation. Les principes logiques qui s’appliquent à la vérification d’une théorie sont identiques à ceux qui concernent la négation de cette théorie. La complexité des théories a pour conséquence qu’il est impossible d’appliquer le principe de l’unicité causale spécifique. Il s’agit d’une multitude de faits. L’unicité causale spécifique est la seule voie de la preuve. Elle est ici exclue.

 

Le réfutationisme de Popper a été critiqué, notamment, par Lakatos. La science ne consiste pas uniquement à réfuter des théories ou à les prouver. Lakatos propose le principe de « programme de recherche ». Un programme de recherche est une démarche heuristique, c’est-à-dire d’enrichissement progressif. Les postulats de base, le « noyau dur », sont déclarés irréfutables. Le programme définit les procédures méthodologiques et les orientations de recherche. Il devrait aussi éliminer les orientations considérées comme stériles. La meilleure théorie est celle qui a le plus fort potentiel heuristique. C’est un critère d’efficacité. C’est la thèse honteuse de Darwin appliquée à la science. C’est les « plus meilleurs » qui éliminent les autres !  On retrouve l’approche de l’école anglo-écossaise de la pensée. Lakatos comme Popper se rattache au système d’Aristote.

 

Je voudrais, plus sérieusement, citer un passage de Habermas sur la science : « Dans l’observation contrôlée, qui prend souvent la forme de l’expérimentation, nous produisons des conditions de départ et nous mesurons le succès des opérations exécutées. Or, c’est au niveau des observations formulées dans les énoncés de base (Basissätze) que l’empirisme voudrait ancrer l’illusion objectiviste : à l’en croire, elles nous assurent en effet un donné immédiat dans l’évidence et sans qu’intervienne la subjectivité. Mais, à vrai dire, les énoncés de base ne sont pas les copies de faits en soi, ils expriment au contraire les succès ou insuccès des opérations que nous avons entreprises. On peut dire que les faits et les relations qu’il y a entre eux sont appréhendés sur un mode descriptif ; mais cette façon de parler ne doit pas cacher qu’en eux-mêmes les faits significatifs pour les sciences expérimentales ne se constituent qu’à travers une organisation préalable de notre expérience dans le domaine où s’exerce l’activité instrumentale » (La technique et la science comme idéologie © 1968, Gallimard p. 146-147). C’est un premier pas vers une authentique objectivité. Il reste que les mots mêmes qui constituent les énoncés, ne sont pas neutres. Eux-mêmes sont des préalables à notre expérience.

 

La réalisation d’une expérience résulte toujours, non seulement d’une intention, mais aussi d’un cadre scientifique défini. Ce cadre peut être conforme au paradigme officiel ou, aussi bien, en contradiction avec lui. L’expérience est conditionnée par une intention dans le cadre de l’une ou l’autre de ces deux approches. Le matériel expérimental lui-même n’est pas neutre. Les appareils de mesure sont imprégnés du paradigme existant. Mais surtout, ce que Habermas ne dit pas, c’est que les énoncés sont eux-mêmes imprégnés de ce paradigme. Les mots qui le composent sont définis à l’intérieur même du paradigme. Le sens qui leur est donné n’est pas séparé de la vision des choses inhérente au paradigme. Le pire est que ce paradigme peut comporter des énoncés si anciens qu’ils sont comme naturels. C’est vraiment le cas du champ magnétique des courants électriques qui résulterait de la translation des électrons. La première réaction devant la mise en cause de ce postulat deux fois séculaire est la plus profonde incrédibilité.

 

 

Cette position de Habermas, déjà ancienne, est assez éloignée de celle exprimée dans les ouvrages plus récents. Il s’est rangé derrière le consensus communicationnel. Cette position ne diffère de celle de Kuhn que par la procédure. À vrai dire, Kuhn n’a pas posé le problème de la procédure. Le cas le plus structuré de procédure d’agrément est le groupe d’experts. On pense qu’un groupe d’experts acquiert, du fait du groupe, une capacité d’indépendance que chaque membre pris individuellement, ne peut revendiquer. Dans les domaines technologiques, le groupe a une réelle supériorité. Il accumule l’expérience. Les risques d’erreur sont minimisés. Mais, les experts sont malheureusement conditionnés par leurs connaissances technologiques communes. Le groupe limite l’erreur, il n’apporte qu’une indépendance relative. La situation est améliorée en lui adjoignant des experts de domaines indépendants. On parvient ainsi à une forme de jugement humainement acceptable. L’indépendance absolue de la « raison pure » est une perfection inaccessible. Il faut bien composer avec la réalité de « la raison pratique ». La perfection n’est nullement niée par ce relativisme. Elle est reconnue pour ce qu’elle est : un absolu. Et l’absolu nous tire vers une perfection toujours plus grande. On trouvera certainement mieux un jour que la procédure de groupe d’experts élargi ou que toute autre procédure communicationnelle existante. C’est ce que je comprends chez Habermas.

 

Feyerabend n’acceptait pas de règles méthodologiques universelles. Anarchiste de la connaissance, il s’est opposé à la vision basée sur l’efficacité. D’abord partisan du relativisme : « La validité d’une affirmation est relative à un individu ou à un groupe social », il a été amené à prendre une position plus nuancée : « Les cultures sont des entités plus ou moins fermées avec leurs propres normes et procédures. Elles ont une valeur intrinsèque » (Tuer le temps, © Le Seuil, 1996, p.191). Des penseurs, des scientifiques, ont aussitôt rejeté l’application de cette position au domaine scientifique. Comment donc ? Il n’y a qu’une seule science. Elle est universelle. Ce principe est au-delà du « noyau dur » de Lakatos. La vérité est accédée par la science actuelle. Cette vérité accédée n’est passible que d’améliorations. La science, pardon, la Science, aurait ainsi une sorte de fin comme l’Histoire pour les marxistes ?

 

Ramsey a soutenu qu’ « une croyance est une sorte de guide pour notre action, et une croyance est vraie si elle est utile ». Ce retour à l’approche anglo-écossaise et darwinienne a été contré récemment par Dokic et Engel « l’échec peut-être dû non pas à une fausse croyance, mais à une ignorance ». On sait que Ramsey était, à sa mort, en train de revoir ses positions de jeunesse, si l’on peut dire, il n’avait pas 27 ans.

 

Putnam fut l’un des premiers philosophes à s’intéresser à la révolution informatique. L’inventeur du fonctionnalisme affirmait, dans les années 60, que l’esprit n’est qu’une machine bâtie sur le modèle des ordinateurs. Il n’aurait qu’un caractère fonctionnel, apte seulement à traiter des signes. Cette conception est à la base des développements informatiques abusivement désignés sous le nom d’intelligence artificielle. La Bourse, déjà, suivit en fanfare cette mode nouvelle. La chute fut en proportion du rêve. Il en reste, malgré tout, quelques idées reprises dans les systèmes de base de données dites relationnelles et les moteurs de recherche. Mais, Putnam a réfléchi depuis lors. Il a pris une position plus cartésienne de l’esprit humain.

 

Kuhn pensait qu’un ensemble « d’idées et de pratiques imprègnent les esprits à un moment donné ». Il appelait cet ensemble le « paradigme en cours ». Dès que des difficultés s’accumulent, et qu’un nouveau paradigme est proposé, il se produirait un changement brutal de paradigme : une révolution scientifique. On reconnaît, bien sûr, un des dogmes de la doctrine marxiste, inspiré de la dialectique hégélienne. « L’accumulation quantitative » engendre des « sauts qualitatifs ». On peut reporter ces naïvetés au rang des fossiles. Elles n’en affectent pas moins encore profondément la pensée actuelle, principalement dans les milieux scientifiques, qui restent, une fois n’est pas coutume, très largement en retrait du renouveau intellectuel qui marque la philosophie.

 

Il n’est jamais arrivé que la totalité d’un paradigme, caractérisant une époque, ait été brutalement remplacée. Un paradigme, d’abord, n’est pas un ensemble homogène. Il se compose de deux classes de données juxtaposées, mais distinctes.

 

La première classe est celle des faits, des résultats expérimentaux. Il est absurde de douter absolument des faits. Le pyrrhonisme conduit au néant. Il est stupide de vouloir douter du principe d’Archimède, des expériences atmosphériques de Pascal, de la chimie de Lavoisier. Il est tout aussi stérile de douter que l’expérience de Michelson montre l’impossibilité du système de Lorentz, de douter que les équations de Maxwell sont invariantes dans la transformation de ce même Lorentz. J’introduis ici une sorte de sous-classe des faits, les résultats des calculs mathématiques.

 

Ce sont là des faits. Les faits sont-ils absolument incontestables ? Certes, non. Ils sont raisonnablement incontestables. On pourrait les affecter d’une probabilité selon le vœu de Cournot. Les faits sont très probables. On pourrait soupçonner la mauvaise foi ou l’intention chez celui qui chercherait à en douter. « Auschwitz est bien la plus réelle des réalités ». Le Goulag, le Dalstroï, son émanation de la mortelle Kolyma, et Pol Pot aussi bien. Budapest, Prague, Tienanmen : l’ordre maintenu à la mitrailleuse lourde, montée sur les tanks marxistes. Le massacre de Kronstadt : des milliers de chômeurs misérables, des marins débarqués, le lumpen-prolétariat, écrasés par les rouges, le péché originel des trotskistes. Autant de très « réelles réalités ».

 

Alain rapporte ce mot de Hegel devant les sommets alpins : « C’est ainsi ». Il lui reproche de ne pas s’en être assez convaincu en écrivant sa Phénoménologie de l’esprit. Je n’ai pas retrouvé ce mot chez Hegel, mais ce qu’Alain veut nous dire, c’est que la perception ne nous trompe pas. Un coup sur l’œil produit un éclat, comme la lumière. L’éclat n’est pas douteux. Mais la perception est interprétée par l’esprit. C’est aussi le problème de la perception du cube : on ne percevra jamais un cube. On perçoit un objet étalé sur la rétine, avec des ombres et des rapports de dimensions. Cette perception est vraie. L’esprit juge la perception et pense le cube. Est-ce vraiment un cube ? Où est le critère du jugement ? C’est la question de Kant.

 

Le même problème se pose pour le temps. Qu’est-ce que le temps ? Que fait le relativiste ? Il nous invite à constater la difficulté de mesurer une longueur, et à juste titre ! Comment pourrions-nous être assurés de la coïncidence des extrémités de la longueur à mesurer, condition de la validité de la mesure, puisqu’il s’écoule toujours un certain temps entre les deux constats ? Or, il n’y a pas de moyen de communication instantané. Le même personnage prétend mesurer le temps ! Or, la mesure du temps commence par la mesure d’une longueur, la longueur d’onde de l’atome utilisé. La mesure du temps consiste ensuite à compter des battements. Où est le temps dans ces deux actions : une longueur inaccessible ? un nombre ? Alain n’est pas allé dans ce détail d’analyse. Il a seulement affirmé que « le temps n’a point de vitesse » (Alain, Entretiens au bord de la mer© Gallimard, 1949, p.106) et dans ses propos répétés (31 octobre 1921, 12 avril 1922, 12 mars 1923, 25 février 1933, 1 janvier 1936, 14 février 1936) : « On ne trouvera jamais un nombre premier entre 13 et 17 ; on ne trouvera jamais deux instants simultanés ; on ne trouvera jamais un temps plus lent qu’un autre ». L’anathème a été lancé ; le lèse Relativité dûment châtié. Silence ! Inclinez-vous, c’est la Science qui passe ! Et pourtant, si le temps avait une vitesse d’écoulement, par quoi serait mesurée cette vitesse ? Dans quoi s’écoulerait le temps ?

 

L’enchaînement des faits est la base de la tâche de l’historien et de l’épistémologue. Or, le seul enchaînement comporte un jugement. On s’éloigne déjà des faits. Bien sûr, certains faits peuvent avoir été enregistrés, et, à ce titre, l’enchaînement peut relever des faits. L’historien et l’épistémologue s’élancent ensuite vers les causes. Leurs thèses font partie de la classe des théories. C’est la seconde classe des données du paradigme.

 

Les deux classes du paradigme sont inconciliables par rapport au doute. La classe des faits n’est nullement le champ du doute cartésien. S’il est absurde de douter absolument des faits, il est tout aussi absurde de refuser absolument de douter des théories, des hypothèses, des postulats, des axiomes. Mais, il est vrai, aux confins des faits, l’hypothèse ; aux confins des hypothèses, le fait.

 

Kuhn rappelait, qu’historiquement, il n’est jamais arrivé qu’une théorie soit rejetée parce qu’elle a été réfutée. Il affirmait aussi qu’il faut que la théorie puisse être remplacée, c’est-à-dire qu’il existe d’autres propositions. Mach avait une position plus plaisante : « L’innovation a pour farouches opposants tous ceux qui réussissaient dans les conditions antérieures, et pour tièdes défenseurs ceux qui sont susceptibles de réussir dans les nouvelles conditions ». Max Planck était plus radical « une nouvelle vérité scientifique ne triomphe pas en emportant la conviction de ses opposants et en leur ouvrant les yeux, mais plutôt parce que ses opposants finissent par mourir».

 

Le paradigme d’Aristote a été réfuté pendant deux mille ans par une fraction de penseurs. Des thèses essentielles ont été rejetées et remplacées par Ptolémée. Dans le même temps, une multitude de thèses se sont agglomérées autour de ce que Lakatos appelle le « noyau dur ». La découverte d’Archimède s’est intégrée au paradigme aristotélicien. Copernic n’a pas remis en cause le « noyau dur » du paradigme aristotélicien. Ce noyau dur avait trois composantes fondamentales, la nature parfaite du mouvement circulaire inhérent à l’éther, l’inhérence des deux mouvements linéaires aux éléments feu et terre et l’existence corrélative d’un centre du monde. Pour Copernic, le centre du monde était le Soleil et non la Terre. Il a conservé l’idée de centre du monde. Il n’a pas modifié les deux autres postulats aristotéliciens.

 

Il ne faut pas s’étonner de cette concordance avec la thèse de Kuhn. Ce fut la base même de ses réflexions. Mais il ne subsistait plus alors qu’une partie du « noyau dur » du paradigme d’Aristote. Les thèses associées accumulées quantitativement, pour reprendre le vocabulaire marxiste, étaient indépendantes du « noyau dur ». Il ne s’est produit, en aucune manière, ce que les marxistes appellent un « saut qualitatif ». Ce n’est nullement le paradigme dans son ensemble qui a été remplacé, comme le prétend Kuhn. Non seulement les faits, les résultats expérimentaux, ont tous été conservés, mais aussi toutes les théories associées. Galilée s’est trouvé devant un paradigme encore considéré comme aristotélicien. En réalité, il ne restait du paradigme d’Aristote qu’une partie du « noyau dur ».

 

Galilée a tapé dans le mille en montrant les satellites de Jupiter. Des corps tournent autour de Jupiter : Jupiter est aussi un centre du monde, donc il y a plusieurs centres du monde, ce qui est impossible. Les satellites de Jupiter ont un mouvement circulaire qui n’est pas celui de l’éther. L’expérience de Pise ruinait déjà le second postulat. Le reste du « noyau dur » était intenable, il a sauté. La plupart des savants et des théologiens de l’époque s’opposèrent à Galilée. Galilée était pourtant soutenu par le pape lui-même et par de nombreux cardinaux.

 

Ces savants opposés à Galilée ont mis en cause ses observations et même sa lunette astronomique. L’aveuglement est la cause essentielle des erreurs. C’est l’amour-propre aussi bien, le refus d’avoir tort. Cette attitude est renforcée, comme les psychologues l’ont montré, par l’effet de groupe, connu sous le nom d’effet spectateur dans les situations d’agression. L’homme privilégie l’avis du groupe sur sa propre perception.

 

Enfin, le paradigme d’Aristote ne s’est nullement effondré devant un autre paradigme : Galilée n’a pas proposé de nouveau paradigme. Il a seulement réduit à néant le « dernier carré », le « noyau dur ». Il n’a pas proposé de thèse de remplacement. Ce fut l’œuvre de Descartes, lui-même remplacé par Newton. Il a fallu ensuite un demi-millénaire pour arriver à un nouvel ensemble contradictoire, incohérent, brinquebalant entre le déterminisme relativiste et le probabilisme quantique. Un monstre !

 

Il n’y a, tout simplement, plus de paradigme au sens de Kuhn. Il en était d’ailleurs conscient : « Il n’est pas rare dans l’histoire que plusieurs écoles coexistent dans une relation d’opposition et d’ignorance réciproques ». C’est donc que la notion de paradigme de Kuhn est fausse. Il n’y a jamais eu, à aucune époque, de consensus général sur la classe des théories. La classe des théories a toujours été multiforme, paradoxale, incohérente. On pourrait dire que les théories et leurs multiples hypothèses et postulats constituent des paradigmes coexistants, mais inconciliables. Les faits constituent par eux-mêmes un paradigme unique, commun aux paradigmes des théories. Il n’est pas remplaçable. Il est tout au plus révisable parfois. Le problème est celui de la distinction entre les faits et les théories. Ce sujet est abordé dans un autre ouvrage.

 

La position de Lyotard n’est pas vraiment claire : « There are no longer absolute and Universal rules or conditions that are valid for all statements. Verifiability or falsifiability are only valid for scientific, cognitive, constative statements ». Les exceptions me semblent à la fois excessives et sans limites. La notion de « statement » ne se limite en aucune manière aux faits. Les postulats seraient vérifiables ? Ce n’est pas sérieux.

 

Chalmers a réalisé une synthèse critique des diverses positions sur la validité des théories scientifiques. Il commence par une critique sévère de l’inductivisme comme moyen de connaissance. L’induction est la base de la justification du raisonnement scientifique. « Les énoncés généraux contiennent des affirmations concernant les propriétés d’un aspect de l’Univers. À la différence des énoncés singuliers, ils portent sur la totalité des événements d’un type particulier, en tous lieux et en tous temps » (Chalmers, Qu’est-ce que la science ? © La Découverte, 1987 p 24). Chalmers poursuit : « Les lois et les théories qui constituent le savoir scientifique sont toutes des affirmations générales de ce type, que l’on appelle énoncés universels ». Les conditions de validité de ces énoncés inductifs sont leur nombre élevé, la répétitivité dans une grande variété de conditions et il ne doit exister aucun énoncé contraire. Chalmers nie toute valeur logique à ces conditions.

 

Sur le plan logique, le grand nombre et la multiplicité des conditions ne donnent aucune garantie contre l’exception. C’est la « dinde de Russel ». Elle avait la connaissance inductive d’être nourrie chaque matin à neuf heures dans toutes les conditions environnementales rencontrées, dans l’élevage où elle vit. Seulement la veille de Noël, à neuf heures, on lui a coupé la tête. Chalmers rappelle aussi l’impossibilité montrée par Hume de déduire l’induction de l’expérience. La répétitivité de l’induction ne peut démontrer l’induction, puisque cette démonstration utilise inévitablement l’induction. Pourtant, il conserve la position de Popper sur la possibilité de rejeter une théorie par l’existence d’exceptions, ce qui n’est nullement le cas. La dinde morte ne peut plus modifier sa théorie. J’ignore si l’on garde des dindes reproductrices, comme on faisait pour les truites en Dauphiné. Imaginons une telle reproductrice. Elle instruira toutes les dindes d’une nouvelle théorie. Les dindes de cet élevage sont nourries à neuf heures jusqu’à leur mort, la veille de Noël. Cette théorie a été vérifiée sur des milliers de dindes et même sur des reproductrices. C’est scientifique. Or, il n’en est rien. L’éleveur se heurte à une forte concurrence des dindes importées. Il se convertit au foie gras. Tout est changé. Il n’attend pas Noël. On ne peut jamais affirmer l’absence de l’exception, du phénomène imprévisible. La logique n’est pas une affaire de concessions, qui se réglerait entre collègues, sur un coin de table, au cours d’un congrès, quand bien même il serait international.

 

Chalmers a montré que « la logique n’impose pas de rejeter systématiquement la théorie en cas de conflit avec l’observation ». Il s’appuie sur la possibilité de rejet « d’un énoncé d’observation faillible, tout en maintenant la théorie faillible avec laquelle il entre en conflit » (Chalmers, Qu’est-ce que la science ? © La Découverte, 1987 p 107).

 

Mais la logique n’impose jamais un tel rejet. Le rejet ne s’est, d’ailleurs, jamais produit ni sur la base de l’expérience, même répétée sur un très grand nombre de cas indépendants les uns des autres, encore moins sur la base de la logique. Les partisans d’une théorie gardent, jusqu’à leur mort, l’espoir de contre-falsifications des falsifications. La logique n’y peut rien, car la chute d’une théorie n’a rien à voir avec la logique. Les théories sont d’abord soumises aux passions humaines. La notion de chute d’une théorie est d’ailleurs une idée naïve. Quand doit-on dire qu’une théorie est fausse et la suivante acceptable ? Faut-il faire un sondage et statuer à la majorité ?

 

De très grands savants, Kepler et Tycho Brahé n’ont pas accepté le système extrêmement complexe de Copernic, avec ses trois mouvements de la Terre. Kepler n’a accepté que la position centrale du Soleil. Comme Copernic d’ailleurs, il n’a rejeté qu’une partie du système d’Aristote. Kepler a démontré que le système de Copernic introduisait en réalité une augmentation du nombre des sphères porteuses des astres et était donc plus complexe que celui de Ptolémée. Galilée n’a repris aucune des thèses de Copernic. Il a affirmé qu’il y avait des centres du monde partout. Il n’a donc pas repris l’idée de Copernic du Soleil au centre du monde. Il a éliminé la théorie des sphères porteuses des astres, théorie commune à Aristote, à Copernic et à Kepler, sans parler de Tycho Brahé. Galilée n’a pas non plus repris les trois mouvements de la Terre de Copernic, incompréhensibles, écrivait Kepler. Galilée pensait qu’il ne restait rien d’Aristote. Il ne restait rien non plus de Copernic, malgré les apparences. Mais la plupart des savants de son époque n’ont pas voulu l’écouter. Il revenait à une nouvelle génération d’aborder la question sans idées préconçues. C’est là un enseignement fondamental qui donne raison, dans une certaine mesure, à Vico.

 

La science est d’abord une affaire d’hommes, soumise aux états d’âme : l’amour-propre d’abord. Une affaire de passion humaine avant d’être une affaire de logique. La logique finit par l’emporter. Au prix de combien de luttes, de haine ? Et tout est à recommencer, toujours. Roule ta pierre, Sisyphe !

 

Chalmers conclut son analyse des thèses antérieures : « Lakatos visait à donner un point de vue rationaliste de la science, mais il a échoué, alors que Kuhn niait qu’il visait à donner un point de vue relativiste [au sens de lié au relativisme], mais en a néanmoins donné un » (Qu’est-ce que la science ? © La Découverte, 1987 p.181).

 

Sa thèse se résume par ses propres mots : « Une science se développe un peu comme on construit une cathédrale ; elle résulte de la collaboration de nombreux travailleurs qui mettent en commun leur savoir-faire » (p.193). Il l’appelle l’objectivisme. L’objectivisme considère la science comme une pratique sociale. L’individu ne possède que des connaissances partielles. Il n’imagine pas toutes les conséquences de ses idées. Il n’interprète pas les faits comme un autre individu. Il se trompe dans ses propres déductions. Il ne faut pas se limiter à la présentation d’ensemble de celui qui est considéré comme un fondateur, Newton, Maxwell. Il faut intégrer la somme des expériences, des hypothèses, des justifications mathématiques, à chaque instant. Cet ensemble vivant avance tant bien que mal. Il est alimenté en permanence par les découvertes dues aussi bien au hasard qu’à des objectifs précis, par des justifications mathématiques, par de nouvelles idées, alors que sont abandonnés au bord de la route des erreurs, des faits. Chalmers pense même que la science peut fouiller dans les poubelles et ressortir des faits ou idées abandonnées dans le passé.

 

Cette approche n’est applicable toutefois que depuis Galilée. Il fallait d’abord introduire l’expérience et la mathématisation. Dès lors, la science n’est plus qu’un fleuve, pas toujours tranquille, qui s’écoule ! Des méandres certes, on revient tout près d’un passage précédent, mais on ne remonte pas. Cette vision est celle de Marx, et Chalmers ne s’en cache pas « le matérialisme historique de Marx est une théorie objectiviste » (p. 198).

 

La vision sociale progressiste de Chalmers se traduit par l’existence de nombreuses équipes animées par des personnes différentes partant de points de vue variés. Dans ce cadre, le changement de théorie repose « sur son degré de fécondité » (p.210). Les équipes qui travaillent sur des modèles peu féconds ne trouveront rien et seront éliminées progressivement au profit des équipes qui ont choisi les voies les plus fécondes. On plonge encore au tréfonds de l’horreur de la sélection darwinienne !

 

C’est une vision d’intellectuel cloîtré dans son Université et totalement étranger aux réalités du monde de la recherche scientifique publique ou privée. La fécondité est truquée par l’influence. Le critère utilisé encore très largement est le nombre de communications. C’est le royaume de la lutte pour la vie. Tous les moyens sont bons. Le pire dans tout cela est que les communications sont jugées par des pairs. Le système totalitaire soviétique est l’archétype de l’application du système de Chalmers. Il est non pas seulement interdit, mais impossible de sortir du lit du fleuve. Chalmers attribue à la science actuelle une valeur per se. Il est pour le changement, il ne changera jamais, pour rappeler une formule communiste qui a eu son heure de célébrité. En permettant à des jeunes ingénieurs, sans a priori, de développer des techniques informatiques dans un garage d’arrière-cour, le système libéral a propulsé l’humanité dans une autre ère. Dans cette ère, celle d’Internet, un ingénieur sans autre titre, pourrait, sans aucune autorisation, agrément ou soutien d’aucune sorte, proposer un système du monde qui renverse entièrement la vision scientifique actuelle du monde, sur la base même du paradigme expérimental ? C’est impossible pour les penseurs marxistes comme Kuhn et Chalmers. Le fondement expérimental et mathématique de la Science pure en rendrait les fondements inaltérables, irréfragables.

 

Onfray a écrit une chose surprenante qui montre qu’une part de conditionnement de la pensée aux positions dominantes du moment est malheureusement inévitable : « Parfois, quelques vérités incontestables (en physique, en biologie, en chimie, en histoire : des faits, des dates, des formules) ne souffrent pas la discussion, car une expérience sans cesse possible à répéter atteste leur validité et les certifie en tous lieux et en tous temps, mais en dehors de ce petit capital de vérité irréfutable, il n’existe que du changement.» (Antimanuel de philosophie, © Bréal, 2001 p. 297). Je voudrais bien voir la liste des vérités scientifiques, des théories incontestables ! Le professeur Allais nous incite à contester une de ces grandes vérités, qui remonte au début du siècle passé. Est-elle sur la liste ? Diogène n’aurait pas eu cette faiblesse. Serais-je plus cynique qu’Onfray ? Je nie absolument toute vérité absolue même d’ordre scientifique, quel que soit le nombre de témoins qui se présentent, quel que soit le nombre de répétitions de l’expérience qui ferait preuve, car, selon l’idée forte d’Alain, l’expérience est pensée, interprétée par la raison. J’accepte le résultat de l’expérience ; je doute de la preuve. La raison infaillible ? Diogène rigole carrément !

 

Paradoxalement, en apparence, je suis moins sceptique sur le plan historique. Que des faits aient effectivement eu lieu à des dates connues, incontestables, voilà ce qui peut-être certain dans de nombreux cas. De même, d’innombrables résultats expérimentaux, de multiples faits, sont incontestables : les pierres tombent, la Terre tourne autour du Soleil et il y a ainsi une multitude de faits certains. Est-ce le problème de la vérité scientifique ? Les faits en eux-mêmes sont relatifs à la mémoire, d’une manière très générale. La vérité est relative à la raison. Parler de la vérité des faits n’a aucun sens philosophique. On ne peut que chercher à savoir si l’interprétation des faits est vraie ou non. La recherche de la vérité n’a de sens qu’en rapport à la raison et non pas en rapport aux enregistrements des faits, aux traces du passé. Je sais bien que le fait peut n’être déjà qu’une interprétation. Aux confins des faits, l’hypothèse !

 

La recherche de la vérité passe par le doute cartésien. Le doute cartésien ne porte pas sur les faits : « La pensée void bien qu’elle a un juste sujet de se défier de la vérité de tout ce qu’elle n’apperçoit pas distinctement » (Descartes, Les principes de la philosophie, Girard, Libraire, 1681 p. 9). Parallèlement à sa distinction entre les idées simples et les idées composées, Descartes sépare les deux classes des données du paradigme. On peut se limiter à ne citer que les extraits qui arrangent. La mauvaise foi, ou l’ignorance évoquée par Dokic et Engel, ne peuvent tromper durablement. Le doute cartésien concerne la classe des théories, des édifices de la pensée. En aucune manière la classe des faits « apperçus ».

 

Les réalistes, et principalement les physicalistes, rejettent le monde transcendantal de Kant : comment des concepts absolus pourraient exister dans le cerveau ? C’est le paradoxe du système de Kant. C’était déjà un peu la question du Sophiste de Platon. Il n’y a pas de réponse. On peut poser, cependant, une question insidieuse. Comment les physicalistes peuvent-ils refuser l’accès de l’esprit à la transcendance, à l’absolu, et accepter la présence de l’absolu dans le monde expérimental ?

 

Quand bien même on admettrait cette incohérence, comment les perceptions sensibles, relatives par nature, pourraient avoir accès à ces absolus ? C’est l’équivalent du fameux problème du « troisième homme », du point de vue du monde expérimental.

 

Si l’absolu était dans le monde expérimental, les sens devraient avoir une dimension transcendantale pour le percevoir, et le cerveau, une part transcendantale pour accueillir l’absolu ainsi perçu. On pense sortir de l’impasse, de la caverne, par la conceptualisation. Ce serait nécessairement une fonction transcendantale, transformant les perceptions en absolus, puisque c’est bien l’absolu qu’il s’agit de penser : la célérité absolue de la lumière, absolu accédé par le photon, réalité du monde expérimental ; les invariants de la physique, sans nombre, accédés et réels eux aussi. Que deviendraient, d’ailleurs, tous ces absolus que l’on accepte dans le monde expérimental ? Ils ne seraient pas perçus en tant qu’absolus, puisqu’il faudrait les conceptualiser.

 

On nous raconte que l’on ne peut plus raisonner comme avant ! Nous ne sommes plus à l’âge préscientifique ni, moins encore, à l’âge de l’archéologie de la science. Les mathématiques ont été introduites partout dans la physique. Elles sont un rempart contre les interprétations erronées, un gage de certitude. Il n’y a plus de place dans les sciences pour les sentiments et les impressions. Nous sommes à l’âge scientifique.

 

Un postulat est-il autre chose qu’une conviction ? Le résultat d’une démarche mathématique est peut-être certain. Mais les postulats, les axiomes ne sont nullement des résultats de la démarche mathématique. Ce sont autant de points de départ posés par volonté et non pas donnés par eux-mêmes.