DES ERREURS À CORRIGER

Nous avons fait une erreur grave en rejetant la contraction de la matière proposée par Lorentz.

Par exemple, cette séquence montre que les échos radar ne peuvent revenir simultanément sans cette contraction.

Aujourd'hui, nous disposons d'outils très sophistiqués qui nous permettent de le vérifier.

Ici, M. Philippe Delmotte a utilisé son médium virtuel informatique, une pure merveille.

          Page d'accueil :  La matière est faite d'ondes.

   

Un jour viendra où les physiciens reconnaîtront que la matière est faite d'ondes stationnaires sphériques. Alors il faudra revoir toute la physique de fond en comble, car elle est farcie d'erreurs. Le propos de cette page est de signaler les erreurs les plus significatives.

Des hypothèses qui se transforment peu à peu en certitudes.

Généralement, lorsqu'ils font l'annonce d'une nouvelle découverte, les chercheurs font tout pour que leur trouvaille reçoive le maximum de publicité. Ils sont souvent appuyés fortement par toute la communauté scientifique de leur pays. C'est bien légitime. Mais d'un autre côté il arrive parfois que leur interprétation soit fausse, et que personne ne prenne la peine de la scruter à la loupe.

C'est le cas par exemple de l'effet Compton. Il est bien évident que les physiciens n'ont aucune idée de ce qui se passe vraiment, puisqu'ils ne disposent d'aucune hypothèse concrète sur la nature véritable de la lumière, de la matière, et des forces qui la contrôlent. Ils n'ont pas la moindre idée des mécanismes qui entrent en action. Il arrive aussi qu'ils soient parfaitement conscients que ce qu'ils proposent n'est qu'une hypothèse. Hélas, les gens sont ainsi faits qu'ils s'habituent à une hypothèse, au point de la considérer finalement, une génération ou deux plus tard, comme une absolue certitude .

On sait que c'est Henri Poincaré qui fut le premier à mettre l'existence de l'éther en doute. Einstein l'a suivi d'une manière encore plus radicale, et ensuite toute la communauté scientifique a emboîté le pas. Pourtant, au départ, il s'agissait seulement d'un doute, d'ailleurs compréhensible. Il faut réaliser que personne n'a jamais démontré que l'éther n'existait pas. La prudence était de mise parce que la plupart des phénomènes physiques, par exemple les champs électriques et magnétiques, n'avaient pas encore été expliqués. Et pourtant, de nos jours, presque tous les scientifiques rejettent l'éther avec la plus grande assurance, quand ce n'est pas de l'arrogance et du mépris à l'endroit des quelques irréductibles qui continuent d'y croire aujourd'hui.

Ce processus s'est répété des centaines de fois depuis Galilée, l'auteur de cette erreur magistrale qu'est le principe de Relativité. Ce principe est en effet incompatible avec l'existence de l'éther, qui ne peut en aucun cas s'y soumettre. On s'est finalement retrouvé dans un cul de sac, car une erreur bien ancrée devient par la suite un obstacle à toute nouvelle découverte. C'est ainsi que ma propre hypothèse à propos de la nature exclusivement ondulatoire de la matière a été bien près d'avorter parce que l'existence des photons, une autre hypothèse convertie en certitude, semblait m'indiquer qu'elle était fausse.

Voici donc quelques-unes de ces erreurs.

   

LE SYSTÈME DE DESCARTES INVALIDE LE PRINCIPE DE RELATIVITÉ DE GALILÉE.

On croit à tort que le principe de Relativité de Galilée est invalide à cause de la théorie de la Relativité, qui fait intervenir une contraction des distances et un ralentissement des horloges. La vraie raison est bien plus ancienne. En effet, quelques années seulement après Galilée, Descartes disposait déjà de tous les éléments nécessaires pour invalider son principe de Relativité.

C'est Descartes qui a compris le premier que la lumière était véhiculée par des ondes, et que ces ondes avaient besoin d'un médium, l'éther. Il a aussi fondé la géométrie analytique, en fonction d'un espace dit cartésien à trois axes et à trois dimensions.

En attribuant une origine O à ce système, Descartes aurait pu comprendre que, à tout le moins dans le cas de la lumière, dont la vitesse a un lien avec l'éther, cette origine devait absolument coïncider avec un point au repos dans l'éther. Alors il n'est plus question de changer de repère, parce que la vitesse relative de la lumière y deviendra différente.

Or il a fallu attendre des siècles avant que Michelson ne le réalise. Et dès ce moment, s'il avait été informé de la dualité ondes et corpuscules mise en avant par Louis de Broglie, Michelson aurait pu comprendre que même les interactions entre les particules de matière étaient impliquées. Cela conduit directement à une mécanique nouvelle que Henri Poincaré a finalement pressentie.

Très clairement, s'il faut évaluer le parcours de la lumière et de toutes les forces qui sont véhiculées par des ondes (par exemple les champs magnétiques), il faut impérativement utiliser un système de référence cartésien. Ce repère ne peut en aucun cas être animé d'un mouvement de translation ou de rotation. Ses valeurs sont absolues, et elles sont attribuées par convention : il est donc hors de question de les modifier par la suite. L'espace x, y et z est invariable et absolu, et le temps t, qui dépend d'un déplacement donné dans cet espace, doit aussi être invariable et absolu. C'est pourquoi les variables x', y', z' doivent également être absolues, contrairement à celles proposées en toute connaissance de cause par Lorentz : on verra ci-dessous qu'il a clairement spécifié qu'il ne s'agissait que d'un artifice mathématique, et que le temps t' en particulier ne saurait être le vrai temps.

Dans ces conditions, Descartes aurait pu réaliser bien avant Michelson et Lorentz que Galilée avait tort. En particulier, la vitesse relative de la lumière à l'intérieur d'un autre système de référence qui se déplace comparativement à l'éther ne peut pas être la même sur l'axe du déplacement et sur un axe transversal.

J'ai montré dans une page sur la théorie des ondes que tout déplacement effectué à vitesse constante à l'intérieur d'un système de référence mobile conduisait à une distorsion selon les calculs de Michelson. Il faut parler en toute justice de la transformation de Michelson, dont les valeurs sont plus sévères que celles de Lorentz et de Poincaré. On peut facilement calculer par exemple qu'en présence de vent, des avions qui effectuent l'aller et retour entre deux bornes ne peuvent pas le faire dans les mêmes temps sur l'axe du vent ou sur un axe transversal.

À gauche, un observateur au sol voit l'avion suivre un trajet qui n'est pas réel.

L'inclinaison de l'avion laisse voir que la situation cache quelque chose d'anormal.

À droite, un observateur posté dans une montgolfière verrait les choses d'un point de vue absolu.

   

Le trajet aller et retour sur l'axe du vent est plus long.

   

À l'intérieur d'un système mobile, la vitesse relative des ondes n'est pas la même selon la direction puisque ces ondes subissent l'effet Doppler. J'affirme ici que le premier postulat d'Albert Einstein selon lequel la vitesse de la lumière est la même dans tous les référentiels galiléens est tout à fait faux. Il s'agit même d'une insulte à notre intelligence. Or toute la mécanique de la matière fait appel à des ondes. Les ondes sont des causes qui produisent des effets. Pour cette raison, ce n'est pas l'heure qui varie : ce sont les effets qui surviennent selon un délai variable dépendant de la direction des ondes qui en sont la cause.

Cette mécanique ondulatoire montre que non seulement un pendule qui se déplace comparativement à l'éther doit osciller plus lentement, d'ou le ralentissement des horloges, mais que pour respecter la même période, la course du pendule doit être réduite sur l'axe du déplacement, d'où une contraction des distances. Il n'empêche que cet effet peut bel et bien être exprimé par une transformation de l'espace et du temps, sous réserve qu'il ne s'agit que d'un artifice mathématique, comme l'a si bien précisé Lorentz (voir l'encadré un peu plus bas).

Un système mobile dit galiléen est tout simplement impensable à cause de la distorsion qui y règne. Puisque le repos absolu est invérifiable, nous n'avons pas d'autre choix que de définir par convention un référentiel privilégié en présumant qu'il est au repos dans l'éther. Alors il faut continuer d'utiliser les variables du système cartésien même pour évaluer la progression de ce qui se passe dans un système qui se déplace par rapport à lui. C'est seulement à partir de là qu'on peut calculer que la Relativité se vérifie, mais qu'elle ne décrit que les erreurs des observateurs, eux-mêmes transformés et donc mystifiés, qui se déplacent avec ce système mobile.

   

LES ÉQUATIONS DE HENRI POINCARÉ NE SONT PAS OBJECTIVES.

Poincaré a fait erreur en exprimant les transformations de Lorentz à l'aide de deux repères distincts parfaitement réciproques :

x'  =  gamma * (x – bêta * t)

x  =  gamma * (x' + bêta * t')

C'est bien ce que nous constatons, mais Poincaré aurait dû comprendre qu'il ne s'agit que d'une mystification, laquelle ne fait pas très bon ménage avec les mathématiques, ni avec la physique en tant que science exacte. Il devenait ainsi le découvreur incontestable de la Relativité, mais cette façon de faire laissait malheureusement planer un doute sur l'existence de l'éther.

Ce faisant, il ouvrait la porte toute grande à ce monstre sans tête qu'est la Relativité d'Albert Einstein. Ce dernier est allé encore plus loin que Poincaré, c'est à dire beaucoup trop loin, en rejetant catégoriquement le côté absolu des choses. Cela conduit à une physique dogmatique qu'il n'est plus possible d'expliquer raisonnablement.

Lorentz au contraire était convaincu que l'éther existe et qu'il constitue un repère absolu. Il fut ainsi le seul à connaître la vérité. Non seulement il a mentionné clairement qu'il s'agissait d'un artifice mathématique, mais il a aussi précisé que le temps t' ne saurait représenter le vrai temps.

Je cite ici Lorentz d'après MM. Christian Marchal et Jules Leveugle :

 

Les formules (4) et (7) ( qui correspondent aux formules (1) et (2) ci-dessus ) ne se trouvent pas dans mon mémoire de 1904. C’est que je n’avais pas songé à la voie directe qui y conduit, et cela tient à ce que j’avais l’idée qu’il y a une différence essentielle entre les systèmes x, y, z, t et x’, y’, z’, t’. Dans l’un on se sert - telle était ma pensée - d’axes de coordonnées qui ont une position fixe dans l’éther et de ce qu’on peut appeler le « vrai temps » ; dans l’autre système, au contraire, on aurait affaire à de simples grandeurs auxiliaires dont l’introduction n’est qu’un artifice mathématique. En particulier, la variable t’ ne pourrait pas être appelée le « temps » dans le même sens que la variable t.

 Lorentz avait raison : l'éther existe et les faits sont absolus.

Ce texte conduit à la Relativité de Lorentz, la seule version de la Relativité qui soit raisonnable et explicable.

   

La réciprocité n'est plus d'aucune utilité s'il existe de nombreux acteurs.

Les équations de Poincaré donnent des résultats incohérents s'il faut évaluer simultanément plusieurs systèmes dont la vitesse n'est pas la même. Or l'animation ci-dessous montre que de nombreux objets qui subissent différemment les transformations de Lorenz peuvent très bien demeurer cohérents à l'intérieur d'un même système de référence :

Le système montré à gauche est au repos dans l'éther. Celui de droite se déplace à la vitesse de 0,866 c. 

Un observateur placé au centre de la roue dentée montrée à gauche est au repos, et il la voit donc telle qu'elle est.

S'il est au centre de la roue montrée à droite, l'image qu'il en voit lui semble identique à celle qui est montrée à gauche.

   

LA PHYSIQUE ACTUELLE ABUSE DES MATHÉMATIQUES.

Henri Poincaré a démontré son postulat de Relativité à l'aide de ce groupe d'équations :

x '  =  gamma * (x – bêta * t)        x  =  gamma * (x ' + bêta * t')

t'  =  gamma * (t + bêta * x)        t  =  gamma * (t' – bêta * x')

Le postulat de Relativité constituait une découverte absolument sans précédent dans toute l'histoire des sciences. Et pourtant, malgré leur importance primordiale, ces équations sont simples.

Il faut donc réaliser en premier lieu que ce n'est pas la complexité mais bien la simplicité qu'il faut résolument rechercher en mathématiques. Comme on l'a vu, il arrive qu'on fasse erreur même dans ce cas, mais en tous cas cela permet de mieux comprendre les choses. Il peut arriver que certaines situations exigent des calculs très complexes, mais il n'y a pas de doutes que certains mathématiciens n'hésitent pas à présenter des théories spectaculaires étayées par des équations à couper le souffle, dans le seul but de mousser leur carrière ou leur réputation. Non seulement c'est très impressionnant, mais personne n'aura le courage de vérifier ces équations en profondeur ni d'élaborer une contre-attaque efficace. D'ailleurs, ces équations sont souvent exactes : le problème, c'est qu'elles ne reposent sur rien de concret.

De plus, comme on l'a vu plus haut, les équations de Poincaré ne sont pas objectives. Il faut donc éviter de faire un usage abusif des mathématiques. Elles doivent refléter la vérité, et non pas ce qu'on prétend être la vérité. Les politiciens sont très habiles à ce jeu, particulièrement en ce qui concerne les statistiques. De son côté, Poincaré s'est laissé griser par sa découverte, et c'est très compréhensible parce qu'elle est absolument fantastique. Mais il aurait dû préciser, comme l'a fait Lorentz, que ses équations ne correspondaient pas aux faits absolus et qu'elles ne prévoyaient que ce que nous allions observer. Dans un certain sens, elles représentent la vérité, mais ce n'est pas toute la vérité.

Et en troisième lieu, il serait grand temps qu'on réalise une fois pour toutes que la physique est une affaire de mécanique, et non pas de mathématiques.

Les mathématiques ne sont qu'un outil. Il est aberrant de présenter une théorie fondée uniquement sur d'autres théories. Mais c'est encore plus aberrant de l'étayer uniquement à l'aide d'équations. C'est pourtant chose courante en mécanique quantique. Il faudrait plutôt décrire un mécanisme. Très clairement, en physique, si les calculs ne peuvent pas être établis sur quelque chose de concret, ils sont suspects. Par exemple, tant que les mathématiciens n'auront pas compris ce qui se passe vraiment au sein d'un champ magnétique, ils devront fonder leurs calculs sur les résultats d'expériences concrètes. Ils devraient alors réaliser que quelque chose leur échappe.

Au contraire, le jour où ils auront compris que les champs magnétiques sont causés par des ondes, leurs calculs feront appel à la mécanique des ondes et ils confirmeront ces résultats. Ce jour-là, ils seront en possession d'une preuve. À défaut d'une certitude absolue, ils disposeront de ce qu'on peut appeler une hypothèse plausible.

   

 LA LUMIÈRE NE VIBRE PAS TRANSVERSALEMENT.

Augustin Fresnel n'a pas expliqué correctement la polarisation de la lumière, en l'attribuant à des vibrations transversales de l'éther. Elle est plutôt attribuable au plan sur lequel se trouvent au moins deux émetteurs ou récepteurs synchronisés, et donc à des ondes composites. Pour que la lumière soit polarisée, il faut que l'un des émetteurs bouge dans un mouvement de va-et-vient, toujours sur le même plan. De cette manière, ce sont les phase à l'intérieur du rayonnement qui ondulera transversalement.

   

Dans la lumière polarisée, ce sont les phases et non les ondes qui vibrent transversalement.

   

On se demande comment il se fait qu'il ne se soit trouvé personne depuis Fresnel qui ait eu l'idée de faire intervenir plusieurs émetteurs simultanément au lieu d'un seul.

Il est bien établi que la polarisation de la lumière a un lien avec le spin de l'électron, et que ce spin a également un lien avec les champs magnétiques. À la réception de la lumière, on conçoit que ces deux types d'électrons devraient réagir en sens inverse et se mettre à osciller de la même manière que ceux qui étaient responsables de l'émission de cette lumière.

Il faut bien comprendre que, finalement, ce sont les phases de la lumière qui vibrent transversalement. Cela n'a rien à voir avec les propriétés de l'éther, comme Fresnel le supposait. Il est probable que l'explication erronée de Fresnel a contribué à l'abandon de l'hypothèse de l'éther, au moins autant que la Relativité d'Einstein, parce qu'elle n'était pas très satisfaisante d'un point de vue mécanique. En effet, les ondes du son, par exemple, n'impliquent généralement pas de vibrations transversales, que ce soit dans un gaz, un liquide ou un solide. Il y a des exceptions, mais elles ne sont pas très concluantes.

Aujourd'hui, même en invoquant les photons, les champs magnétiques et les champs électriques pour expliquer la lumière, ce qui est d'ailleurs tout à fait faux, on persiste à parler inutilement de vibrations transversales. L'éther étant incapable d'une telle prouesse, non seulement il semble inutile, mais il semble même devoir être écarté absolument.

   

IL N'EXISTE PAS D'ONDES ÉLECTROMAGNÉTIQUES.

James Clerk Maxwell a mis au point des équations qui selon lui devaient décrire le comportement des ondes radio dites électromagnétiques. Mais dans les faits, ni la lumière ni les ondes radio ne contiennent de champs électriques ou magnétiques. Comme on l'a vu plus haut, il s'agit plutôt d'ondes longitudinales composites relativement complexes qui ont la propriété de provoquer l'apparition de champs électriques et magnétiques en atteignant toute matière.

C'est d'ailleurs Maxwell lui-même qui a proclamé que les ondes radio étaient de même nature que les ondes de la lumière. Or on arrivait très bien jusque là à prédire le comportement de la lumière grâce aux intégrales de Fresnel, basées sur la sommation des ondelettes de Huygens. Pourquoi alors faire appel à des équations dont l'application est si complexe que les manuels de radioélectricité sont remplis de démonstrations aussi effarantes qu'inutiles ?

Dans les faits, il ne peut pas exister de champs magnétiques s'il n'existe pas de matière dans le voisinage. Mais curieusement, il faut admettre que les équations de Maxwell sont tout à fait justifiées lorsque la lumière se propage à travers un milieu transparent, comme l'air, l'eau ou le verre. Alors chaque fréquence dépend de la fréquence d'oscillation des électrons situés en un point précis de chaque molécule. Tout se passe comme s'il existait un médium fait d'électrons, distinct pour chaque couleur. On obtient ainsi des indices de réfraction et de dispersion particuliers pour différents matériaux, et il se produit vraiment des champs électriques et magnétiques.

Bien sûr, les équations de Maxwell fonctionnent. C'est qu'elles permettent de faire le lien entre les champs électriques et magnétiques qui sont présents au voisinage de l'antenne d'émission, et ceux qui sont induits par les ondes radio dans l'antenne de réception. Pour les fins du calcul, on peut donc ne pas tenir compte de l'espace intermédiaire, là où il n'existe que des ondes. Tout au plus, les notions de permittivité et de perméabilité ont été introduites dans le but de corriger les variations qui se produisent dans différents milieux, de la même manière que la vitesse de la lumière est réduite dans un matériau transparent.

Il faut réaliser qu'il faut obligatoirement utiliser un dispositif matériel pour détecter les champs électriques et magnétiques : ceux-ci n'apparaissent qu'en présence de matière.

Maxwell a déclaré que les ondes radio et les ondes de la lumière étaient de même nature, et c'est exact. Le problème, c'est qu'il a profité de la situation pour prétendre que ces ondes étaient composées de champs électriques et magnétiques sans en faire la preuve. Bien évidemment, il est "matériellement" impossible de vérifier que ces champs existent aussi dans le vide, loin de toute matière.

En plus clair, il n'existe aucun moyen de vérifier qu'un grand espace vide est vraiment traversé par des champs électriques ou magnétiques. Dans ce sens, les équations de Maxwell relèvent de l'imposture.

   

 LA RELATIVITÉ EST VRAIE, MAIS CELLE D'ALBERT EINSTEIN EST FAUSSE.

Même si elle est fausse dans son concept, la Relativité d'Albert Einstein se vérifie, ce qui a mystifié tous les scientifiques. En effet, lorsque nous nous déplaçons à grande vitesse, ce nous constatons ne correspond pas aux faits tels qu'ils se produisent réellement. Nous sommes victimes d'une illusion. Par exemple, chacun sait que nous entendons le tonnerre après avoir vu l'éclair, et même que nous voyons l'éclair lui-même avec un très léger retard imputable à la vitesse de la lumière. Mais un déplacement à haute vitesse implique également l'effet Doppler très particulier, et alors là tous y perdent leur latin.

Einstein a prétendu que les phénomènes physiques étaient strictement relatifs. Pourtant, dès qu'on découvre que la matière est faite d'ondes, on constate que c'est plutôt Lorentz qui avait raison. Il existe aussi un point de vue absolu, car il existe un repère privilégié : l'éther. On a eu tort de rejeter l'hypothèse de Lorentz d'une manière aussi cavalière, car non seulement elle se vérifie, mais elle s'explique. C'est d'autant plus regrettable que les transformations de Lorentz et le postulat de Relativité de Poincaré qui en résulte constituaient dans leur ensemble une découverte sans précédent dans toute l'histoire des sciences. Il faut donc réhabiliter la mémoire de Lorentz et de Poincaré.

   

 L'ÉTHER EXISTE.

Henri Poincaré et Albert Einstein ont laissé planer un doute sur l'existence de l'éther, mais personne n'a jamais démontré que l'éther n'existait pas. Pourtant, aujourd'hui, on l'affirme avec une certitude et une arrogance qui frisent l'indécence. Ouvrez-vous les yeux : vous ne savez rien sur la nature précise de la matière et des forces qui la contrôlent. Vous êtes incapables de faire une description vraisemblable de ce que vous prétendez être un photon. En attendant l'explication ultime, laissez la porte ouverte à toutes les hypothèses.

L'éther a si mauvaise presse que la plupart des scientifiques et des enseignants sont pour ainsi dire muselés. Parmi ceux qui ont encore un doute, très peu ont le courage de mettre leur réputation et leur carrière en péril pour rétablir la vérité. C'est ce qu'on appelle la lâcheté.

   

 L'EXPÉRIENCE KENNEDY-THORNDYKE ÉTAIT ABERRANTE.

Cette expérience a été réalisée à l'aide d'un interféromètre du même type que celui de Michelson, mais dont les deux bras n'avaient pas la même longueur. Ses concepteurs prétendaient que ce modèle devait révéler le vent d'éther même dans l'hypothèse où la contraction Lorentz-FitzGerald devait réellement avoir lieu.

Certains en ont conclu à tort que l'éther n'existait pas.

En réalité, ils ont fait une erreur grossière dans leurs calculs. Je montre à la page sur l'interféromètre de Michelson que le bras le plus court sert uniquement de référence, et que pour cette raison il peut même être réduit à un simple miroir plan placé tout près de la lame séparatrice : 

   

L'interféromètre de Michelson simplifié.

   

Disons-le clairement : l'interféromètre de Michelson était trop complexe, bien inutilement. C'était donc aussi le cas pour la version Kennedy-Thorndyke.

Une seule et unique cavité Fabry-Pérot du même type que celle qu'on trouve dans l'interféromètre Tama du Japon aurait fait tout aussi bien l'affaire, à la condition qu'elle puisse pivoter de manière à obtenir deux lectures perpendiculaires. On peut même affirmer que le test de Hertz, encore plus simple mais moins précis, aurait pu de la même manière révéler le vent d'éther en l'absence d'une contraction.

Contrairement à ce que pensait Michelson, ce n'est pas la vitesse de la lumière qu'il faut mesurer, c'est sa longueur d'onde. En effet, on ne dispose d'aucune référence absolue en matière de temps, et donc de vitesse. Par contre, on peut mesurer la distance entre les nœuds des ondes stationnaires sur un axe transversal. Il faut se référer au fait que, selon Lorentz, la fréquence des ondes diminue à mesure que la vitesse d'entraînement augmente. Pour cette raison la distance entre les nœuds se dilate selon le facteur gamma.

Finalement, le ralentissement de la fréquence fait en sorte que la longueur d'onde sur un axe transversal demeure invariable. C'est ce qui explique que selon Lorentz on ait tout simplement :  y' = y ;  z' = z. Il en résulte une constante absolue en termes de distance ou de longueur d'onde sur un axe transversal. Peu importe sa vitesse, tout observateur y mesurera les distances correctes en valeurs absolues. Alors le bras le plus court de l'interféromètre ne constitue plus qu'une référence. Sa longueur n'a plus d'importance et elle peut donc être réduire au minimum.

Je suis formel sur ce point, et j'accuse ici toute la communauté scientifique d'incompétence face à un problème élémentaire. On aurait dû tenir compte de l'explication très simple et très vraisemblable de Lorentz au lieu de la rejeter du revers de la main au profit d'une théorie complexe et absurde. Parce qu'ils n'ont pas réagi, les scientifiques ont laissé Kennedy et Thorndyke discréditer définitivement l'éther. Le point de non-retour était franchi : c'était toute la physique qu'on précipitait dans l'abîme. 

   

 LES PHOTONS N'EXISTENT PAS.

Apparemment, Albert Einstein a émis le premier l'hypothèse que la lumière était faite d'unités quantiques invariables, qu'on a plus tard assimilées à des particules, les photons. À cause de sa célébrité, qui frôle la déification, et aussi à cause de l'effet Compton, qu'on peut expliquer autrement, tout le monde scientifique a rapidement adopté cette explication.

Pourtant, les photons n'existent pas. De la même manière, on a inventé les neutrinos et de nombreuses "particules messagères de force" dans un effort désespéré pour expliquer certains phénomènes. Il faudrait tout de même qu'on réalise que tant qu'on n'aura pas expliqué comment toutes ces particules fonctionnent, on n'aura rien expliqué du tout. Un nouveau mot n'explique rien : c'est le mécanisme de ces particules qu'il aurait fallu décrire, et il aurait fallu le faire avant de rejeter l'éther.

Le vin se présente le plus souvent en bouteilles d'un litre. De la même manière, les propriétés quantiques de la lumière s'expliquent par le fait que tous les électrons sont identiques. C'est l'électron qui émet et qui capte la lumière, et alors il se comporte comme un contenant, toujours le même. C'est en soi l'équivalent d'une bouteille d'un litre.

Il est exact que la lumière peut être vue comme une accumulation de paquets d'ondes distincts, plus exactement des petits trains d'ondes dont l'énergie, la durée, la longueur totale et la structure est toujours la même. Dans ce sens, on peut parler d'un photon d'énergie. Mais il s'agit néanmoins d'ondes, et uniquement d'ondes.

Vous pouvez aussi examiner la lentille diffractive à deux foyers que j'ai présentée sur mon blog le 23 juin 2007. À moins de leur attribuer des propriétés hallucinantes, il est impossible de justifier le parcours de ces prétendus photons après leur passage à travers cette lentille. Par contre, le principe de Huygens justifie fort bien ces deux foyers. 

   

 LES ÉLECTRONS NE TOURNENT PAS AUTOUR DU NOYAU DE L'ATOME. 

Tout indique que les électrons occupent une position fixe et bien déterminée autour du noyau de l'atome. C'est en 1904 que le Japonais Hantaro Nagoaka a émis l'hypothèse que les électrons devaient effectuer des orbites à la manière des planètes. En 1909, Ernest Rutherford a repris cette hypothèse en démontrant que des noyaux d'hélium, donc doublement positifs, passaient librement à travers une mince feuille d'or. Ils n'étaient que très rarement déviés, et encore plus rarement interceptés et repoussés.

Cela donnait à penser que les électrons, qui sont aussi présents autour des atomes, devraient au contraire se précipiter sur le noyau puisqu'ils sont attirés par lui. Vers 1913, Niels Bohr a étayé cette hypothèse, pourtant fausse,  en l'expliquant par la théorie quantique basée sur la constante de Planck, de manière à justifier le fait que ces électrons mobiles ne rayonnaient pas d'énergie. Mais qu'en savaient-ils ? Au lieu de reconnaître que l'expérience des noyaux d'hélium qu'on précipite sur une feuille d'or ne démontre absolument pas que les électrons tournent autour du noyau de l'atome, ils ont présenté cette hypothèse comme s'il s'agissait d'une chose évidente. 

Erreur ! Aucune expérience n'a jamais démontré que les électrons effectuaient de telles orbites.

Manifestement, personne n'a jamais constaté que les électrons tournaient de cette manière, et l'on a par la suite parlé plutôt d'un nuage d'électron. Le fameux principe d'Incertitude de Heisenberg est également suspect, car il signale seulement le fait qu'il est impossible à l'heure actuelle de vérifier à la fois la position et la vitesse des électrons. En effet, cette vérification elle-même modifie l'une et l'autre, car elle doit se faire à l'aide de la lumière ou d'un autre électron. Par ailleurs, il est tellement plus élégant d'invoquer le principe d'Incertitude au lieu de déclarer tout bêtement : « Je ne sais pas ».

J'ai démontré dès juillet 2004 qu'un ensemble fait de trois paires d'électrons sous forme de quarks et d'un positron suffit pour expliquer le proton et la position fixe des électrons de l'atome. Si ces électrons peuvent demeurer captifs et immobiles en un point précis, c'est que le diagramme de rayonnement de ces quarks présente des zones d'ombre, où l'intensité est au minimum. Ces zones, qui sont nombreuses et distribuées par couches selon une progression qui détermine les raies spectrales de l'hydrogène (par exemple la série de Balmer), coïncident avec les endroits où les ondes des six électrons constituant les quarks se détruisent. On peut d'ailleurs faire le lien avec la diffraction de Fresnel, et donc avec le « nombre de Fresnel », chaque entier déterminant la position des électrons sur chaque couche atomique.

On peut aussi identifier 8 cônes d'ombre, soit des « entonnoirs » ou des « tunnels noirs » traversant tout l'atome, où l'intensité du rayonnement du noyau est très faible. Ils produisent un effet d'attraction. Ils sont orientés selon les 8 sommets d'un cube, ce qui justifie le maximum de 8 électrons périphériques d'un atome, ce maximum étant atteint dans le cas des gaz nobles autres que l'hélium. Ces cônes d'ombre expliquent à merveille les liaisons chimiques. Ils expliquent aussi les forces de van der Waals. Le cas du palladium est à étudier de près, car il a tendance à ne pas utiliser ces cônes d'ombre, d'où ses propriétés étonnantes.

   

G. N. LEWIS AVAIT RAISON : L'ATOME POSSÈDE UNE STRUCTURE CUBIQUE.

Conformément au modèle « plum pudding » de J. J. Thompson, le grand chimiste américain Gilbert Newton Lewis (1875-1946) prenait pour acquis que les électrons ne tournent pas autour du noyau de l'atome. Il avait aussi compris dès 1902, soit il y a plus d'un siècle, que seuls les électrons périphériques d'un atome étaient responsables des liaisons chimiques. Mais il faudra surtout l'immortaliser parce qu'il a bien vu que, puisque le nombre d'électrons sur cette couche ne dépassait jamais huit, et que leur répartition devait être uniforme, il fallait que ces électrons soient disposés sur les huit sommets d'un cube dans le cas des gaz nobles plus lourds que l'hélium.

On a fait une erreur grave en rejetant son hypothèse, car elle se trouvait confirmée par des résultats probants, pour ne pas dire éclatants. Niels Bohr a fait intervenir à tort la mécanique quantique et la constante de Planck. Il a ainsi détrôné injustement une théorie basée sur des résultats concrets pour la remplacer par une autre théorie basée uniquement sur des hypothèses fumeuses.

Cette structure cubique ou plus exactement cuboïde a permis à Lewis de démontrer que les liaisons chimiques pouvaient se comparer à un jeu de bloc. Il suffit de faire intervenir des cubes comportant sur leurs sommets un nombre variable d'électrons. C'est tellement vrai qu'on persiste à utiliser encore aujourd'hui la méthode dite de Lewis.

Aujourd'hui je suis en mesure de confirmer et de préciser l'hypothèse de Lewis, en montrant qu'à cause de la puissance variable des cônes d'ombre, la grandeur des cubes peut varier sensiblement. Il faut donc parler plutôt de liaisons cuboïdales. Le problème survient surtout à cause de la présence éventuelle d'électrons additionnels dans les couches atomiques internes. C'est bien connu, les atomes lourds sont généralement plus grands, mais curieusement ils redeviennent plus petits à mesure que le nombre d'électrons sur la couche externe augmente. C'est la preuve que le rayon de la couche atomique externe peut varier sans inconvénients et que les cônes d'ombre ne présentent pas de zones précises particulières.

Lorsque deux atomes se rapprochent, de un à quatre des huit cônes d'ombre engendrés par les protons des noyaux peuvent se recouper selon des distances variables. De un à quatre électrons peuvent en occuper les points d'intersection de manière à lier ces deux noyaux. De plus, parce qu'il existe toujours un point d'équilibre entre deux extrêmes impraticables, la liaison peut osciller comme le fait un ressort. Même si elle est très solide, cette liaison est manifestement très élastique. Il faut en conclure que la chaleur n'est pas seulement le résultat d'une vibration des molécules, mais aussi d'une oscillation des différents atomes de la même molécule.

C'est pour cette raison que les atomes du carbone et de l'oxygène, par exemple, sont incapables de produire du gaz carbonique à moins qu'on ne les fasse chauffer, et donc vibrer suffisamment pour qu'au moins deux cônes d'ombre se croisent de manière à capturer l'un des électrons de l'atome voisin. Puisque la liaison agit comme un ressort très puissant, on comprend aussi que ce processus d'enclenchement produise encore davantage de chaleur. Il se produit d'abord une oscillation des atomes, qui se transmet ensuite à toute la molécule, puis aux atomes de carbone et d'oxygène présents dans les environs. Alors le processus se reproduit.

C'est la réaction en chaîne classique. C'est ainsi que le moteur de votre voiture produit de l'énergie. Ou que l'allumette produit une flamme. Ou que la braise se consume en ne laissant que des cendres.

Hélas, c'est aussi Lewis qui a suggéré d'appeler le quantum de lumière un photon. Dois-je préciser qu'il avait tort ?

   

 IL N'Y A PAS D'ANNIHILATION ENTRE LA MATIÈRE ET L'ANTIMATIÈRE.

Il s'agit d'une idée tenace qui n'a jamais été démontrée hors de tout doute. Il n'y a pas d'évidence de destruction complète, mais il y a effectivement libération d'une énorme quantité d'énergie provenant des champs gluoniques. Les apparences sont extrêmement trompeuses parce qu'un proton, par exemple, ne contient que six électrons et un positron, alors que la masse de ses champs gluoniques équivaut à celle de 1829 électrons, la masse totale du proton valant celle de 1836 électrons. La masse des champs gluoniques provient de l'énergie cinétique des électrons, qui ont le sait augmente avec la vitesse selon le facteur gamma.

Contrairement à ce qu'on prétend, les électrons et les positrons ne se détruisent pas mutuellement dès qu'ils entrent en collision. On sait qu'une telle collision dans un accélérateur produit des quarks par paires. Il est beaucoup plus logique d'en conclure que les électrons et les positrons ont été utilisés pour construire ces quarks. Par ailleurs, lorsqu'un quark se détruit, il y a dissociation de ses deux électrons et les champs gluoniques s'annihilent véritablement. Ce processus libère énormément d'énergie sous forme de faisceaux d'ondes (et non pas de photons). Alors les électrons libérés, insignifiants en comparaison, passent inaperçus à l'intérieur de ces faisceaux, au milieu des autres électrons qui sont entrés en collision dans le voisinage.

Il est faux de prétendre que la fameuse équation E = mc2 indique que la matière peut être totalement convertie en énergie. Ce sont toujours les champs électrostatiques ou les champs gluoniques qui accumulent ou qui libèrent de l'énergie cinétique sous forme de rayonnement, de chaleur ou de mouvement.

L'énergie chimique provient des champs électrostatiques redistribués dans la molécule.

L'énergie nucléaire provient des champs gluoniques redistribués dans le noyau. Elle n'est jamais plus grande que selon le défaut de masse. Cela signifie que le fer, dont le défaut de masse est au point minimum, ne contient aucune énergie nucléaire utilisable à moins de le mettre en contact avec de l'antimatière. Alors tous ses électrons pourraient à la limite se dissocier, mais jamais se détruire.

D'ailleurs, il me semble plus que probable qu'en présence de grandes quantités de matière, un peu d'antimatière devrait rapidement se transformer en matière sans qu'il ne se produise de dégagement d'énergie particulier. Puisque tous les électrons se synchronisent mutuellement, même les positrons de l'antimatière devraient en être transformés en électrons, et inversement.

   

 LA GÉOMÉTRIE NON EUCLIDIENNE EST FAUSSE.

La géométrie d'Euclide est exacte, tout simplement parce qu'elle est fondée sur des évidences que toute personne modérément intelligente devrait admettre à priori. Par exemple, tout le monde sait très bien ce qu'est une ligne droite, et la définition par ailleurs obscure qu'en donne Euclide lui-même est donc superflue : "La ligne droite est celle qui est également placée entre ses points". Pour la même raison, la définition d'un point, d'un plan ou de parallèles ne pose pas de problèmes : nous en avons l'intuition, et cela suffit.

Supposons que sur un plan, on a une ligne droite dont la longueur peut être prolongée indéfiniment. À partir d'un point établi en dehors d'elle et sur le même plan, on peut y faire passer une deuxième droite, et une seule, qu'on peut aussi prolonger indéfiniment sans qu'elle ne recoupe jamais l'autre. Elle sera parallèle. C'est ce qu'Euclide pensait, et c'est aussi ce que toute personne modérément intelligente devrait penser. Mais voilà : Bernhard Riemann, précédé et rapidement suivi par d'autres mathématiciens, s'est permis vers 1867 de réfuter cette évidence.

Devant une situation pareille, vous devriez prendre parti pour Euclide. Si vous approuvez Riemann, c'est que vous déraillez sérieusement. Je regrette d'avoir à le dire d'une manière aussi brutale, mais c'est ici qu'on sépare ceux qui sont intelligents de ceux qui ne le sont pas.

Les évidences ne s'expliquent pas, elles se constatent. Si vous êtes amenés à admettre que finalement, une ligne droite peut être courbe, c'est toute la géométrie d'Euclide que vous remettez en question dans ce qu'elle a de plus simple et de plus évident. Vous êtes alors dans l'obligation de reconstruire de toutes pièces une toute nouvelle géométrie qui soit plausible, avec de nouveaux postulats sur le point, la ligne droite, le plan et les parallèles, qui soient évidents et indiscutables, ce que Riemann n'a pas fait.

C'est d'autant plus grave que ce n'est pas nécessaire. Faites un petit effort, étudiez attentivement la Relativité de Lorentz et admettez que tout s'explique alors beaucoup plus simplement. Pourquoi faire compliqué quand on peut faire simple ?

La géométrie non euclidienne de Riemann et de ses complices est donc à proscrire, du moins lorsqu'il est question de la Relativité. On se demande comment tant de physiciens apparemment sains d'esprit ont pu admettre des notions comme la contraction de l'espace et le ralentissement du temps. L'hypothèse d'un espace-temps à quatre dimensions proposée par Minkowski est même doublement absurde, et l'explication d'Einstein à l'effet que la gravité courbe l'espace relève du délire.

Je veux bien admettre qu'il existe des situations où les coordonnées curvilignes s'avèrent très utiles. Le globe terrestre en est le meilleur exemple. De plus, intuitivement, on a tendance à imaginer que les rails d'un chemin de fer se rejoignent à l'horizon. Le trajet rectiligne d'un nuage ou d'un avion dans le ciel semble s'incurver. Des parallèles distribuées autour d'un cercle et perpendiculairement à son plan produisent un cylindre, mais ce dernier semble étrangement déformé selon le point de vue.  Ce sont l'œil, la lentille de la caméra et même l'imagination qui produisent cet effet. Manifestement, l'optique n'est pas euclidienne, et les lois de la perspective énoncées à la Renaissance sont donc fausses.

Pour voir le monde selon Euclide, il nous faudrait des yeux dont la focale est infinie...

Le scanner à résonance magnétique des hôpitaux peut produire une image en trois dimensions véritablement euclidienne, mais qui s'en soucie ? Les scientifiques ont maintenant adopté des idées absurdes et ils n'y renonceront pas si facilement. Il est très mortifiant pour l'ego de devoir admettre qu'on s'est trompé, surtout quand c'est d'une manière aussi ridicule.

De nos jours, beaucoup d'étudiants qui font preuve d'intelligence sont dégoûtés de la physique. Ils constatent qu'elle est absurde, complexe, dogmatique, et ils s'orientent ailleurs, privant ainsi la science de ses meilleurs éléments. Hélas, ce sont surtout ceux qui ont une bonne mémoire mais qui ne savent pas réfléchir qui deviennent des enseignants, et qui communiquent à leur tour leurs erreurs à leurs étudiants...

Si vous savez réfléchir, vous admettrez que les mesures de temps et d'espace n'existent pas. Ce ne sont que des idées, des valeurs, des concepts qu'on a imaginés dans le but légitime d'expliquer l'évolution de la matière et ses déplacements.

Inutile donc de les triturer de la sorte.

   

 LES ONDES STATIONNAIRES SONT MAL COMPRISES EN PHYSIQUE.

J'ai reçu fréquemment des messages de gens qui semblaient très au fait des phénomènes ondulatoires, mais qui me demandaient d'où viennent les ondes convergentes de l'électron.

La vérité, c'est que les ondes stationnaires ne contiennent pas vraiment d'ondes qui circulent en sens opposé. L'électron ne contient pas d'ondes convergentes : il contient des ondes stationnaires, et ces ondes sont stables à cause d'un processus d'amplification. Elles ne font que rebondir les unes sur les autres, ce processus étant totalement différent de celui qui explique les ondes progressives. 

Par contre, il est exact que cette méthode se vérifie le plus souvent, et je n'ai eu aucun scrupule à l'utiliser par exemple pour réaliser l'animation suivante :

Les ondes stationnaires normales.

   

Les ondes progressives et les ondes stationnaires n'évoluent pas du tout de la même manière si l'on examine comment la substance du médium se comporte. Dans le but se simplifier le processus, on peut considérer que ce médium est du quartz au zéro absolu, par exemple.

D'une part, il est bien évident que si les molécules du quartz se déplacent à la vitesse v = 100 pour l'un des deux trains d'ondes progressives et à la vitesse v = +100 pour l'autre, elles ne peuvent pas se déplacer dans les deux sens en même temps. D'un point de vue mathématique, il est correct de faire l'addition et d'aboutir à une vitesse nulle, mais il faut être conscient que ces deux vitesses n'existent pas. Dans un tel système, il n'existe pas d'ondes progressives.

Parce que ses applets Java sont fort bien réalisés, je vous invite à examiner le travail de M. Walter Fendt (cliquez sur "supérieur" pour obtenir les harmoniques). Vous pourrez constater qu'en présence d'ondes stationnaires, il existe des endroits où les molécules du quartz ne se déplacent pas du tout. Elle ne font que se comprimer ou se dilater, ce qui se traduit par une accumulation de l'énergie cinétique sous forme de pression. Mais après un quart de période, on constate que la pression du quartz est uniforme partout. À ce moment, toute l'énergie cinétique a été récupérée par les molécules en mouvement.

   

LA GRAVITÉ N'A AUCUN LIEN AVEC LA RELATIVITÉ.

La gravité n'est pas la force fondamentale de l'univers : c'est une force comme les autres, et elle est causée par les ondes émises par la matière.

La gravité n'implique généralement pas des vitesses voisines de celle de la lumière et il n'y a pas de raisons d'invoquer la Relativité pour l'expliquer. Il n'existe donc pas de Relativité générale fondée sur la gravité. Les transformations de Lorentz sont la seule et véritable théorie de la Relativité. L'hypothèse de Lorentz est complète en soi.

Il faut effectivement invoquer la Relativité pour résoudre certains problèmes gravitationnels impliquant des vitesses considérables, mais on doit le faire de toutes façons pour n'importe quelle autre force, par exemple la force de Coulomb.

   

LA RELATIVITÉ N'EXPLIQUE PAS LA PRÉCESSION DU PÉRIHÉLIE DE MERCURE.

Puisque la Relativité n'explique pas la gravité, elle n'explique pas non plus l'avance du périhélie de Mercure. On a souvent fait remarquer qu'il pourrait exister de nombreuses causes à cette avance. Il faut savoir dès le départ que normalement, à la seule condition que la gravité faiblisse selon le carré de la distance, une orbite elliptique devrait conserver éternellement le même axe, à moins d'une influence extérieure. C'est au moment où la planète atteint le point le plus éloigné qu'elle est plus vulnérable à une telle influence. Le Verrier a démontré au XIXe siècle que l'influence gravitationnelle des autres planètes cause la plus grande partie de la précession. Il n'est pas arrivé à expliquer un résidu d'environ 43" d'arc par siècle sur une précession totale de 570".

Avouons que c'est vraiment très peu et qu'il n'y a pas là de quoi sortir l'artillerie lourde. Pensez-donc ! L'anomalie représente les 0,000033 d'une orbite sur une période de 100 ans. En plus clair, ce problème est insignifiant en comparaison de ce qu'on prétend démontrer. Bref, on veut tuer une mouche avec un canon.

Mercure est à peine plus grosse que la Lune. Sa petitesse la rend plus vulnérable à une influence extérieure. Son orbite est relativement allongée, variant de 46 à 70 millions de kilomètres. On peut d'abord s'interroger sur la validité des calculs qui ont été effectués dans le passé parce qu'il apparaît évident que l'influence des autres planètes n'est pas régulière. Il arrive parfois que la plupart se trouvent du même côté du Soleil, de telle sorte que les 43" d'arc par siècle résiduels ne sont sûrement pas constants, du moins sur quelques décennies.

Parmi les autres causes, on peut invoquer le fait que le Soleil tourne sur lui-même. Il en résulte une asymétrie dans la gravité qu'il cause parce que les parties qui s'éloignent n'ont plus la même influence que celles qui se rapprochent. Pour la même raison, la gravité des planètes, qui tournent toutes dans le même sens, varie selon leur vitesse relative.

 Parce que le Soleil tourne, le vent solaire est émis selon une certaine spirale et ses effets sont également asymétriques. D'ailleurs, ce vent solaire dépend des taches solaires, qui on le sait varient selon un cycle de 11 ans. On pourrait y relever une résonance. La pression de radiation de la lumière y est 9 fois plus intense que sur Terre et elle n'est certainement pas tout à fait négligeable. Cette lumière chauffe la surface de Mercure entre -170° et +400°C et puisqu'on sait maintenant que la planète tourne (très lentement, toutefois), elle ré-émet (mais pas toujours) une partie de l'énergie du même côté, d'où une réaction latérale.

Par ailleurs Mercure passe très près du Soleil. Il est certainement exact que dans ce cas la gravité ne varie plus selon le carré de la distance, parce que la périphérie du Soleil exerce une force selon un certain angle. Par exemple, la matière du Soleil située à un degré de l'axe exerce une force selon : cos 1°, c'est à dire 0,9998477 comparativement à 1. À la limite, la gravité est nulle au centre du Soleil alors que la formule de Newton la donne infinie. Ainsi, elle est plus faible qu'en raison inverse du carré de la distance lorsque la planète passe près du Soleil, ce qui conduit à une asymétrie, donc à une précession qui est certainement significative. Il faut souligner ici que la méthode des tenseurs utilisée par Einstein tient compte de cette décroissance à proximité du centre du Soleil, là où l'espace ne se courbe pas, ce qui signifie qu'elle est en soi préférable à la formule de Newton. Alors on a affaire à une méthode, pas à une force.

De plus, la gravité n'est pas parfaitement additive. La force d'attraction des planètes sur Mercure faiblit lorsqu'elles passent derrière le Soleil ou lorsqu'elles sont à l'opposé. C'est mesurable en vérifiant la trajectoire d'un engin spatial lorsque le Soleil y est éclipsé par une planète. Par ailleurs, parce que Mercure contient beaucoup de fer, il faudrait aussi vérifier l'influence des champs magnétiques, qui décroissent davantage que selon le carré de la distance, mais qui sont considérables près du Soleil. Le vent solaire, très puissant près de Mercure, a d'ailleurs lui aussi des effets magnétiques certains. Il y a aussi les effets de marée, qui sont très intenses dans le cas de Mercure, à tel point qu'elle éclaterait si elle passait plus près du Soleil. Ils sont donc plus faibles lorsque Mercure s'éloigne. Il y a sans doute bien d'autres causes insoupçonnées.

Bref, il faudrait faire une étude plus approfondie de toutes les influences possibles avant de décréter qu'une équation forgée précisément pour atteindre ce très faible résidu de 43" d'arc par siècle permet "miraculeusement" de résoudre le problème. En fait, à l'exception de la gravité qui faiblit à proximité du Soleil, l'explication d'Einstein ne tient compte d'aucune autre influence que celle des planètes. Ainsi, dès qu'on aura démontré qu'une seule d'entre elles a un effet non négligeable sur la précession du périhélie de Mercure, c'est l'explication d'Einstein qui deviendra caduque.

Comme par hasard, la prétendue courbure de l'espace n'évolue pas selon le carré de la distance, de manière à ce que l'écart corresponde précisément à la valeur souhaitée. C'est ce qu'on appelle une explication ad hoc sans justification. Il vaut beaucoup mieux trouver une explication mécanique, car il y en a une pour tous les phénomènes physiques sans exception.

Einstein s'est montré étrangement téméraire. Il a fait reposer toute sa théorie sur une petite anomalie dont la cause avait toutes les chances d'être expliquée éventuellement. Vraiment, il n'y a pas là de quoi parler d'une confirmation éclatante de la validité de la Relativité générale...

Un référentiel privilégié.

Je montre à la page sur la dynamique des champs que le champ de force qui cause la gravité ne peut distribuer son énergie à parts égales dans les deux sens (soit selon Newton) que s'il est considéré au repos. Dans ces condition, il devient nécessaire de considérer que c'est le centre d'inertie de tout le système solaire qui détermine le référentiel correct. Le choix de tout autre référentiel conduit à des résultats inexacts.

Cela signifie que Jupiter, même si sa masse est 1000 fois moins importante que celle du Soleil, est capable de déporter leur centre d'inertie commun à un millième de la distance qui le sépare du Soleil. Cette distance est considérable, soit 815 millions de kilomètre, et la millième partie vaut donc 815 000 km. On en conclut qu'un observateur posté près de Mercure devrait voir le Soleil exécuter une orbite de 815 000 km de rayon autour de ce centre d'inertie. C'est pourquoi le calcul correct du déplacement du périhélie de Mercure devrait se faire en considérant le centre d'inertie de tout le système solaire. 

Parce qu'il n'a pas tenu compte de toutes les influences, Le Verrier n'a obtenu qu'une approximation. Il est certain qu'un calcul plus méticuleux préciserait les résultats.

   

IL N'EXISTE PAS D'ONDES ATTRIBUABLES À LA GRAVITÉ.

Aujourd'hui, on pense que si elle varie, et c'est le cas tout près des pulsars binaires, la gravité courbe l'espace à la vitesse de la lumière. Il en résulterait une nouvelle sorte d'onde très longue, donc à basse fréquence (celle du pulsar), ce qui a conduit les scientifiques à construire des interféromètres gigantesques (Ligo, Geo,Virgo, Tama, etc.) dans le but de la détecter.

Bien évidemment, puisque l'espace ne se courbe pas, cette onde n'existe pas. Il faut toutefois préciser que la matière des pulsars binaires émet des ondes qui subissent l'effet Doppler. Il devrait en résulter des ondes complexes d'un type particulier, peut-être même capables de produire une force transversale.

On peut s'interroger sur les véritables raisons qui ont conduit les scientifiques à construire ces interféromètres. La théorie veut que si l'espace se courbe ou se contracte, la matière qu'il contient doit aussi se courber ou se contracter. Puisque la lumière subira également les mêmes contraintes, on ne voit pas bien comment un tel dispositif pourrait révéler cette onde gravitationnelle.

On sait que c'est selon un raisonnement parallèle que Lorentz a démontré que l'interféromètre de Michelson ne pouvait rien révéler : la lumière qui parcourt les bras de l'interféromètre se comporte exactement comme la matière dont il est fait. Ces interféromètres demeurent néanmoins inestimables car ils pourraient révéler d'autres anomalies. De toutes façons, même s'ils ne révèlent rien, on pourra déjà en tirer des conclusions intéressantes.

On a vu ci-dessus que le deuxième bras de l'interféromètre de Michelson était inutile. Mais ici, parce qu'il ne peut pas tourner comme celui de Michelson, et que le but recherché est bien différent, un deuxième bras à angle droit s'avère nécessaire.

   

 LA GRAVITÉ NE COURBE PAS L'ESPACE.

Cette idée est ridicule. L'espace ne se courbe pas. La gravité est une force comme les autres, elle n'a aucune préséance sur les autres, et elle est causée par des ondes.

De plus la lumière n'est pas affectée par la gravité, parce qu'il s'agit d'ondes. Si elle dévie au voisinage du Soleil et d'autres astres, c'est à cause d'un phénomène de réfraction classique qu'on arrivera à calculer à partir de la densité et de la vitesse du vent solaire, ou des particules interstellaires. Je montre à la page sur la lumière que celle-ci est constamment régénérée dès qu'elle agit sur un électron. Or il existe des milliards d'électrons et de particules de toutes sortes dans l'espace immense voisin du soleil, et leur densité augmente à proximité. Dans ces conditions on peut s'attendre à observer un effet de lentille similaire à celui que provoque la haute atmosphère.

Ces électrons sont très rapides. On sait qu'à la suite de l'expérience de Fizeau, Fresnel en avait déduit que tout se passait comme si l'éther circulait à travers un corps transparent en proportion de son indice de réfraction. Avouons-le, cette idée est absurde parce que les corps transparents possèdent généralement des indices de réfraction variables selon la longueur d'onde. Or l'éther ne peut évidemment pas circuler simultanément à des vitesse différentes. En réalité, si les particules du vent solaire sont très rapides, et elles le sont d'autant plus que leur densité est importante. Lors d'une éruption solaire, tout se passe comme si elles entraînaient la lumière avec elles. Mais il s'agit en fait de nouvelle lumière, l'ancienne étant détruite par le jeu des interférences.

Par ailleurs, il est très possible que des électrons libres, des atomes ou des molécules, lorsqu'ils se trouvent à des distances relativement grandes devant la longueur d'onde, ne produisent plus cette dispersion des couleurs caractéristique d'un prisme. Il est donc aussi très possible qu'il ne se produise pas ou peu de discrimination de fréquence au voisinage du Soleil. On peut faire remarquer par exemple que l'indice de dispersion d'un verre est variable selon sa structure moléculaire. Dans le cas de la fluorite, il est vraiment très faible. Dans le cas des particules interstellaires ou de celles du vent solaire, il faudra voir.

Je suis donc d'avis qu'on pourra vérifier un jour que la déviation de la lumière près du Soleil est variable, alors que la gravité est constante. Cela démontrerait que l'explication d'Einstein est fausse. Toutefois, à cause de "l'effet Fizeau" mentionné ci-dessus, il se pourrait malheureusement qu'il y ait compensation, et que la déviation soit plus ou moins constante. Mais les chances pour qu'elle le soit parfaitement sont à peu près nulles.

Je tiens à pointer du doigt tous les astronomes qui n'ont pas réagi négativement à l'annonce faite par Eddington, à la suite de l'éclipse de 1919, à l'effet qu'il avait réussi à vérifier que la lumière déviait effectivement selon les prévisions d'Einstein. C'est tout simplement ahurissant. Je sais pertinemment qu'un tout petit télescope comme celui qu'a utilisé Eddington souffre de nombreux défauts. En particulier, les clichés que j'ai pu voir montrent un Soleil occulté qui n'occupe qu'une faible partie de l'ensemble. Les premières étoiles visibles doivent se trouver bien au-delà de la couronne lumineuse, là où la déviation est déjà beaucoup plus faible. Dans ce cas la coma est tout simplement abominable, et je sais que les premiers correcteurs de coma ont été mis au point après 1919. Il faut aussi signaler la faible résolution d'un si petit télescope.

Mais le plus grave, c'est que l'éclipse couvrait les régions du Brésil et de l'Afrique de l'ouest, où Eddington a pris ses clichés. Ce sont les pires endroits qui soient au monde pour ce qui est des turbulences atmosphériques, car l'atmosphère non homogène dévie fortement la lumière d'une manière aléatoire. On sait qu'une étoile scintille, mais on sait beaucoup moins que dans ces conditions sa position sur les clichés peut varier énormément. Cette déviation peut durer le temps d'un cliché. C'est à croire qu'Eddington le savait et qu'il avait prévu dès le départ qu'il n'aurait qu'à éliminer les clichés non conformes. Il en était bien capable, car il avait un parti-pris notoire en faveur d'Einstein.

Tôt ou tard, on admettra que la déviation réelle ne correspond pas exactement à celle prévue par Einstein, et qu'elle varie. Toutefois Einstein était en possession de toutes les données scientifiques de l'époque. Il est très possible qu'il ait eu accès à des photographies d'éclipses antérieures et qu'il ait établi ses tenseurs en conséquence. Je suis très surpris qu'on insiste toujours sur les résultats obtenus par Eddington sans jamais parler de ceux qu'on a obtenus avec les grands télescopes actuels. Pas un mot sur la discrimination de fréquence non plus. Pour autant que je sache, les responsables du Hubble ne veulent pas prendre le risque de l'orienter directement vers le Soleil. Le miroir d'un grand télescope peut en effet se transformer en puissant four solaire. Mais il doit bien arriver de temps à autre qu'un grand télescope situé très haut en altitude se trouve sur la trajectoire d'une éclipse totale, et qu'un astronome téméraire prenne le risque de faire griller ses capteurs le court temps qu'elle dure, pour le plus grand bien de la vérité... 

Et en dernier lieu, la gravité ne peut pas modifier la longueur d'onde de la lumière émise par une étoile exceptionnellement massive. On sait bien que la matière à sa surface subit des modifications considérables. C'est donc plutôt le processus normal d'émission de la lumière par les électrons de ses atomes qui est modifié, sinon tout à fait compromis. Très simplement, un trou noir (s'il existe) est noir parce qu'il n'émet pas de lumière visible, et non pas parce que la lumière ne peut s'en échapper à cause de la gravité.

   

L'OEUVRE DE NEWTON EST RÉCUPÉRABLE.

Même s'ils admettent que la physique de Newton est encore utilisable en première approximation, les physiciens pensent pour la plupart qu'elle est invalidée par la théorie de la Relativité générale d'Albert Einstein. C'est une erreur, car selon la loi des lois énoncée par Henri Poincaré, « les lois des phénomènes physiques sont les mêmes pour un observateur fixe et pour un observateur entraîné dans un mouvement de translation uniforme ». 

On peut donc réhabiliter Newton à la condition de revoir ses lois pour tenir compte désormais des transformations de Lorentz et de l'augmentation de la masse, une autre découverte de Lorentz. Je crois bien avoir réussi à en faire la preuve à la page sur l'énergie cinétique. 

La mécanique nouvelle de Poincaré, devenue la mécanique ondulatoire, s'accommode donc beaucoup mieux de la mécanique de Newton que de la Relativité d'Einstein. Sans parler du fait qu'elle est totalement erronée, la Relativité générale d'Einstein est d'ailleurs centrée sur la gravité. Or l'œuvre de Newton ne se limite pas, et de loin, à la gravité. Il faudra plutôt la confronter avec la nouvelle mécanique ondulatoire.

   

L'HYPOTHÈSE D'UN BIG BANG EST À REVOIR.

Le Big Bang tel qu'on le décrit à l'heure actuelle n'est guère plausible. On s'explique mal qu'autant d'énergie ait pu exister dès le départ en un même endroit, et qu'elle ait pu se transformer en matière. Il y a beaucoup trop de données initiales inexpliquées et inexplicables. De plus les transformations de Lorentz couplées à la constante de Hubble indiquent que les galaxies très éloignées et très rapides devraient aussi être très contractées, d'où une sorte de mur de l'espace ou du temps infranchissable situé à environ 15 milliards d'années lumière.

Parce qu'il est exponentiel, le coefficient de transformation de Lorentz semble incompatible avec une constante comme celle de Hubble. Si c'était vrai, le mur de l'espace à lui seul devrait contenir dans ses environs la quasi-totalité de la matière de l'univers.

Personnellement, mais ce n'est qu'une hypothèse, je dirais qu'il faut plutôt expliquer l'expansion de l'univers par une expansion de l'éther lui-même. Alors ces galaxies très éloignées sont au repos comparativement à leur environnement d'éther, il n'y a plus de mur, et il devient inutile d'invoquer les transformations de Lorentz.

Tout indique qu'il n'existait à l'origine qu'un éther rempli d'ondes. Il occupait un espace restreint et il a commencé à prendre de l'expansion, ce qui suggère une sorte d'explosion plus ou moins violente. Cette hypothèse est tout aussi inexplicable que celle du Big Bang, mais elle a au moins le mérite d'être simple. Elle est aussi très belle, en rappelant que Poincaré prétendait qu'une théorie est vraie si elle est belle (c'est très subjectif !).

Que l'éther soit ou non en expansion, l'âge véritable de l'univers est selon moi bien supérieur à 15 milliards d'années. On sera fixé en examinant les photographies prises par le futur télescope spatial, dont le miroir est composite et donc plus facilement transportable. S'il fonctionne, ce qui n'est pas encore acquis, il sera suffisamment grand pour reculer considérablement les limites visibles de notre univers. Mais gageons qu'il ne fera pas la preuve qu'à partir d'une certaine distance, il n'existe plus rien.

   

LA LUMIÈRE TRAVERSE LES OBJETS.

Je sais bien que ceux qui critiquent ce site font des gorges chaudes à propos de cette affirmation, qui semble vraiment déraisonnable.

Pourtant, non seulement les ondes radio sur la quasi-totalité du spectre, mais aussi les rayons X et gamma traversent facilement certains objets. Pourquoi alors ne pas aborder plutôt le problème par son contraire : présumons en premier lieu que toutes les ondes traversent librement toute matière et que ses électrons réagissent en émettant d'autres ondes, mais seulement s'ils peuvent vibrer sur cette fréquence ?

Vous trouverez le cheminement à suivre à la page sur la lumière. Puisque l'optique est mon domaine de prédilection, j'étais arrivé autrefois à en faire la preuve à l'aide du principe de Huygens :

Voici comment se présente l'ombre d'une tige de 1 mm de section, à une distance de 4 mètres.

Pour les fins du calcul, on a présumé que la tige émettait des ondes en opposition de phase.

   

Or depuis que nous disposons d'un médium informatique, nous sommes capables de produire des ondes synthétiques. Grâce à cet outil merveilleux, j'ai donc pu écrire le programme suivant :

Ether20.exe    Ether20.bas

Ce programme a produit les images suivantes, qui montrent hors de tout doute que le résultat est strictement le même peu importe le point de vue. Pas de doute, une source en opposition de phase ou l'écran équivalent produisent tous deux le même réseau de diffraction : 

Les ondes planes proviennent de la gauche.

En haut, ces ondes rencontrent une obstruction mesurant 10 longueurs d'onde : il en résulte une ombre. 

 En bas, l'obstruction est remplacée par une source qui émet des ondes en opposition de phase.

Les graphiques de droite montrent que l'ombre ainsi produite est identique.

Cette ombre est le résultat des interférences additives et soustractives impliquant les ondes provenant de deux sources.

   

 LES TRANSFORMATIONS DE LORENTZ

NE SONT RIEN D'AUTRE ET RIEN DE PLUS QU'UN EFFET DOPPLER !

Il est bien connu que Lorentz s'est inspiré des transformations de Voigt (1887) pour établir ses transformations. Or Voigt avait créé ses formules précisément dans le but de corriger l'effet Doppler qui survient dans un référentiel mobile. Il travaillait alors sur les équations de Maxwell.

Lorentz a le mérite d'avoir pressenti que ces équations permettaient d'expliquer le comportement de l'interféromètre de Michelson, qui se contracte et s'avère ainsi incapable de détecter le vent d'éther. Tout ceci est exact et parfaitement logique. Mais ce qui surprend, c'est qu'on a par la suite totalement occulté le fait que ces équations étaient fondées sur l'effet Doppler.

On a écrit beaucoup d'insanités à propos des transformations de Lorentz, mais le moment de vérité a sonné parce que nous disposons maintenant d'ordinateurs ultra-puissants. Si vous savez programmer, ne vous gênez pas pour le vérifier. Vous verrez bien que ces équations à elles seules permettent de produire et même de corriger l'effet Doppler.

Ether10.exe    Ether10.bas

Ether17.exe    Ether17.bas

WaveMechanics06.exe    WaveMechanics06.bas

WaveMechanics07.exe    WaveMechanics07.bas

WaveMechanics07a.exe    WaveMechanics07a.bas

Doppler_Voigt_transformations.exe    Doppler_Voigt_transformations.bas

J'ai d'ailleurs mis au point un dispositif qui reproduit les transformations de Lorentz d'une manière mécanique, et que j'ai appelé le Scanner du Temps. Non seulement ce Scanner balai l'image à des moments différents, mais la vitesse d'impression est plus lente de manière à reproduire la contraction ; et pourtant, les ondes demeurent parfaitement sphériques ! Admettez que c'est bien de l'effet Doppler qu'il s'agit :

   

Le Scanner du Temps provoque un effet Doppler s'il traite des ondes concentriques.

Les transformations de Lorentz ne concernent rien d'autre et rien de plus que l'effet Doppler de la matière.

Il en résulte une contraction des distances, un décalage horaire et un ralentissement des horloges.

Ether21.exe    Ether21.bas

   

EN OPTIQUE, LES ABERRATIONS NE SONT PAS CELLES QU'ON CROIT.

Vers 1845, Ludwig von Seidel a mis au point une série d'équations permettant de corriger les aberrations suivantes : l'aberration de sphéricité, la coma, l'astigmatisme, la courbure de champ et la distorsion.

La courbure de champ est souhaitable : ce n'est pas une aberration.

Seidel considérait donc que la courbure de champ est une aberration. Son contemporain Petzval pensait de même, et c'est pourquoi on parle de "la courbure de Petzval" et même de "l'aberration de Petzval". Depuis Seidel et Petzval, personne ne semble vouloir corriger le tir. Tous se prosternent devant cette erreur. Or c'est plutôt le champ plat qui est une aberration, comme je le montre à la page sur la courbure de champ.

Réfléchissez ! La seule manière de reproduire une image sans distorsion de la voûte céleste consiste à la recréer sur la surface interne d'une sphère. C'est aussi la seule manière de reproduire une image fidèle de l'horizon tout entier, c'est à dire sur 360 degrés. Elle sera donc tout aussi fidèle si l'angle de champ couvre seulement 40 degrés. Il faut réaliser que la pupille de notre oeil enregistre les images à partir d'un point précis de l'espace. Pour voir le monde de telle manière que tous les objets y apparaissent grandeur nature, il nous faudrait un oeil dont la focale est infinie...

La diffraction est aussi une aberration.

Par ailleurs, Seidel a commis une deuxième erreur en oubliant qu'il existe une autre aberration majeure : la diffraction. Celle-ci est ramenée subitement en pleine lumière depuis l'apparition de la photographie numérique. On sait qu'elle dépend du diamètre de la pupille d'entrée comparativement à la longueur d'onde. Pour fixer les idées, les choses se gâtent sérieusement si son diamètre atteint aussi peu que 1 mm ou moins, ce qui est généralement le cas du sténopé. C'est dû au fait que le rapport du rayon d'un cercle à sa surface varie selon son carré, sachant que c'est la circonférence qui diffracte selon Augustin Fresnel.

Mais il y a pire puisque beaucoup de photographes pensent qu'il ne faut "jamais" dépasser une ouverture relative de ƒ/16. Voilà donc une troisième erreur à corriger, quoique c'est peut-être assez juste dans le cas d'une lentille normale. Pourtant, il faut composer avec la luminosité de la scène, sa grandeur et sa distance, sans oublier la focale de l'objectif, le diamètre de la pupille, la profondeur de champ, l'angle de champ, et le nombre de pixels que l'objectif peut théoriquement produire. On sait bien que la seule manière d'augmenter la profondeur de champ est de réduire le diamètre de la pupille, mais d'un autre côté le fait de l'augmenter permet d'enregistrer davantage de pixels, surtout si l'angle de champ est très grand. La qualité générale de la photographie s'en trouve donc augmentée et la diffraction est aussi réduite, mais c'est au détriment de certains détails.

La photographie est donc l'art du compromis, et cela exige une bonne connaissance de l'optique. Au lieu de se laisser tromper par une "règle du ƒ/16" sans fondements, il est clair que la première règle à respecter est plutôt de sauvegarder la tache d'Airy en choisissant un excellent objectif qui correspond le plus possible à ce qu'on veut en faire. S'il faut photographier une fourmi, il vaut mieux s'en approcher et ne réduire la pupille à un millimètre (d'où peu de pixels et beaucoup de diffraction) que si l'on veut à tout prix obtenir une grande profondeur de champ. Au contraire, s'il faut photographier l'un des cratères de la lune à partir de la terre, une très grande pupille s'impose. C'est l'un ou l'autre : la fourmi, ou le cratère. Pas les deux à la fois...

Le sténopé à lentille.

Vous verrez aussi à la page sur le sténopé que la tache d'Airy d'une lentille dont la focale et le diamètre correspondent au trou du sténopé est unique en son genre : elle se prolonge indéfiniment au-delà du plan focal, qui n'a donc plus de signification.

   

L'ajout d'une lentille dont l'ouverture relative est très élevée améliore le sténopé d'une manière dramatique.

On a successivement la diffraction de Fresnel normale, puis une tache d'Airy très inhabituelle.

On remarque une amélioration notable de la précision et de la luminosité.

Cette tache d'Airy se distingue par le fait qu'elle se prolonge bien plus loin que le plan focal.

   

Normalement, la tache d'Airy présente un "point noir" de chaque côté de l'ellipsoïde central. Mais si la focale d'une lentille correspond à celle du sténopé, c'est à dire à un nombre de Fresnel égal à 1 (soit le rayon de la pupille au carré divisé par la longueur d'onde), l'ellipsoïde devient une parabole et la tache d'Airy se prolonge très loin au-delà du foyer. Mais les opticiens n'en parlent pas. Apparemment, ils l'ignorent. Il s'agit d'un renseignement qu'ils auraient dû découvrir et mentionner depuis longtemps car il aurait pu être utile à ceux qui s'intéressent au sténopé.

Il est très possible de travailler à ƒ/100 si le diamètre de la pupille d'entrée est suffisant (disons 2 ou 3 mm) et si les dimensions des photosites électroniques sont agrandies proportionnellement, surtout si l'angle de champ est considérable. C'est ce que j'appelle un sténopé à lentille, dans lequel la surface photosensible cylindrique pourrait faire plus de 30 cm de côté avec une focale de 30 cm également. La caméra serait donc énorme, mais il faut ce qu'il faut. Le but est de recevoir l'image (qui respecte la tache d'Airy) sur une surface photosensible cylindrique plus simple à fabriquer qu'une surface sphérique. L'image est remarquablement nette et elle apparaît absolument sans distorsion si elle est affichée sur un écran également cylindrique.

La photographie en relief.

Et si je peux signaler une quatrième erreur, qu'attendent les amateurs pour réclamer des caméras à deux objectifs capables de réaliser des prises de vue en trois dimensions ? L'antique stéréoscope n'est plus nécessaire puisqu'on produit des téléviseurs HDTV capables de les afficher dans toute leur splendeur.

N'en doutez pas, la photo en 3-D, c'est l'avenir !

Les lentilles à champ plat sont beaucoup trop complexes inutilement.

On a tort de préférer les lentilles à champ plat car elles présentent des défauts importants comparativement aux lentilles à champ courbé. Elles sont en effet beaucoup plus complexes, et la présence d'un axe optique fait en sorte que l'image perd beaucoup de netteté dans les coins. On les dit "sans distorsion" mais c'est tout à fait faux. Les objectifs à champ courbé permettent au contraire de produire des images sans distorsion et sans aberrations dont la qualité générale est bien supérieure. L'objectif dont les éléments présentent des surfaces sphériques et concentriques présenté ci-dessous en est la preuve.

   

La lentille "Oeil d'Aigle".

Ici, l'axe optique n'a plus de signification, ce qui permet de profiter d'un très grand angle de champ sans aberrations.

Avec une pupille de 10 mm, cette lentille peut produire près de 100 millions de taches d'Airy intactes, soit plus de 100 mégapixels.

   

Au diable le calcul intégral.

Les opticiens ne semblent pas se rendre compte qu'ils disposent d'ordinateurs capables de supplanter les méthodes qu'on utilisait autrefois. Les intégrales qu'ils affectionnent leur semblent vénérables, magnifiques et indispensables, mais qu'en est-il en réalité ? Augustin Fresnel et Denis Poisson n'avaient pas d'autre choix, mais l'ordinateur est depuis longtemps l'outil tout indiqué pour effectuer la sommation d'un grand nombre d'ondelettes de Huygens. L'image de la tache d'Airy d'un sténopé (avec et sans lentille) montrée plus haut a été réalisée de cette manière. Voici des programmes plus évolués qui effectuent un calcul similaire.

freebasic.zip

Le programme qui reproduit le faisceau lumineux du sténopé et donc la diffraction de Fresnel se nomme Ether15. Pour calculer la tache d'Airy produite par une source concave, une lentille ou un miroir de télescope, utiliser le programme Ether16.

   

   

Il aurait fallu douter.

Le moins qu'on puisse dire, c'est que le doute raisonnable n'était pas le trait caractéristique du XXe siècle.

Descartes nous avait pourtant conseillé de toujours douter.

C'est tout indiqué dans le cas présent, puisque, à vos yeux en tous cas, je suis un inconnu. Je ne suis pas physicien, et mes connaissances valables et vérifiables ne concernent guère que l'optique et les ondes. J'ai passé ma vie à étudier les ondes, je m'y connais, et je crois bien que j'en fais la preuve dans ces pages.

Or mon hypothèse ne fait intervenir que des ondes, et c'est pourquoi je prétends être l'un des meilleurs pour en parler. J'admets que la situation invite au sarcasme, mais il peut arriver qu'un seul soldat dans tout le régiment puisse prétendre conserver le pas. Vous auriez tort de penser qu'une idée est fausse parce qu'elle ne correspond pas à l'opinion de la majorité. Depuis toujours, chaque nouvelle découverte, chaque nouvelle invention a été l'œuvre d'une seule personne, qui avait donc raison contre toute la planète.

Ceux qui en ont l'expérience vous diront que c'est toujours en vérifiant qu'ils ont compris le mieux.

Vous avez une intelligence. Servez-vous en, réfléchissez et vérifiez !

    

| 01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 10 | 11 | 12 | 13 | 14 | 15 | 16 |

| 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | Vous êtes ici. | 31 | 32 | 33 |

 

Gabriel LaFrenière,

Bois-des-Filion en Québec.

Sur l'Internet depuis septembre 2002.

Dernière mise à jour le 3 novembre 2009.

Courrier électronique : veuillez consulter cet avis.

La théorie de l'Absolu, © Luc Lafrenière, mai 2000.

La matière est faite d'ondes, © Gabriel Lafrenière, juin 2002.