“dans la physique actuelle,
nous ne savons pas ce que c’est l’énergie”
(Feynman)
“qu’est-ce que la gravité? [...]
quel est le mécanisme intrinsèque qui l’origine?
[...] Newton n’en a pas
élaboré d’hypothèse
personne après lui n’a proposé aucun mécanisme”
(Feynman)
Pré-scriptum :
l’auteur de ce texte travaille en philosophie depuis environ 60 ans, mais sa
première formation a été en ingénieur civil, à l’I. S. T. de Lisbonne (1956).
1.
Une question que l’on peut poser à la science qui s’en occupe, la Physique,
c’est celle de savoir qu’est-ce que l’énergie ?; on sait qu’elle se conserve dans l’univers et se dégrade, selon les
deux principes de la Thermodynamique, mais aussi qu’elle est susceptible de
constituer des stabilités instables (Prigogine), secret entropique de
l’évolution des vivants et de l’histoire des humains[1].
Dans un texte cité au §2, le physicien Nobel réputé Richard Feynman disait que “dans la physique actuelle, nous ne savons pas ce que c’est l’énergie” (p.
95). Il faudra donc questionner la Physique et la Chimie avec des yeux instruits
par Prigogine, allant au-delà de son propos qui a manqué d’une philosophie
adéquate. Toutefois interrogeons d’abord le mot lui-même
que le physicien anglais Thomas Young est allé chercher en 1807 au vocabulaire
philosophique d’Aristote pour remplacer les “forces vives” des physiciens classiques. La pair dynamis /
energeia répond dans sa Physique à deux situations du mouvement, de l’altération d’un vivant, animal ou
humain : dunamis, celle qui précède le
mouvement mais correspond à ce qu’il en a déjà la capacité, la ‘puissance’
(traduction habituelle) ou possibilité, ‘il peut’ (verbe dunamai, pouvoir) changer, ayant y compris la force de ce changement (d’où la
‘dynamique’ newtonienne en tant que théorie des forces) ; en-ergeia, la situation qui correspond à ‘l’acte’ (traduction
habituelle) de ce mouvement effectué, (-ergon) travail sur soi (en-) ; puisque mouvement
est dit kinêsis, d’où ‘cinétique’, on comprend que les physiciens soient allés
chercher cette paire aristotélicienne pour dire les énergies potentielle /
cinétique. Il y a toutefois une différence entre les deux physiques, car chez
Aristote il s’agit de la substance (ousia) elle-même qui se meut,
s’altère, tandis que dans notre physique il s’agit de la différence mesurée,
relative à l’énergie, entre deux positions de graves, par exemple dans le champ
de la gravitation : dans un barrage, la différence entre le niveau de
l’eau du réservoir et la position plus baisse de la turbine, c’est l’énergie
potentielle, tandis que l’énergie cinétique est celle du mouvement de l’eau
tombant effectivement du premier niveau vers le second.
La labeur dans
la connaissance scientifique
2.
On pourrait penser que, antérieure à la vie, la matière dont s’occupent
Physique et Chimie, la matière ‘vraiment substantielle’, connaît une stabilité
authentique sans des oscillations instables. C’est d’ailleurs ce que Prigogine
semble avoir pensé lui-même quand il parle de “la stabilité des atomes de notre univers tiède”, comme s’il postulait qu’ils étaient
inaccessibles à la ‘production d’entropie’ qu‘il avait
découvert dans la chimie du métabolisme cellulaire (et lui a valu le Nobel de
Chimie en 1977) et cherchait par la suite dans des turbillons et d’autres
phénomènes plus ou moins marginaux, tout en disant parfois que sa nouvelle
conception était destinée à l’ensemble de la Physique. Pour venir à la
question, on peut avoir recours au fameux texte Leçons sur la Physique du Nobel Richard Feynman[2],
dont la pédagogie a tellement innové que l’on pourra peut-être le lire dans sa
logique de 1961-62, sans tenir compte des découvertes postérieures, croyant que
les ‘fondements’ de la Physique dont il s’occupe n’auront pas changé ni qu’il y
eût des textes de divulgation si clairs.
3.
Pour adapter la perspective entropique de Prigogine au-delà du métabolisme celulair,
à la Biologie animale et aux sciences relatives aux humains, il a fallu dénoncer
le préjugé aristotélicien substantialiste dans les paradigmes de ces
sciences : ‘corps propre’ dans les Biologies au
lieu d’être au monde, ‘population d’individus’ dans
la constitution des sociétés au lieu des paradigmes de leurs usages dans les unités
sociales. La question dès lors est celle de savoir si l’on peut, et comment,
‘dé-substantialiser’ les atomes et les molécules qui constituent les graves et
les astres. En lisant le texte de Feynman, ceci impliquera privilégier le
motif du champ de forces attractives sur les corps ou les atomes qui y sont
assujettis. Il s’agit d’un motif paradoxal en Physique, puisque, si l’on
prend l’exemple du système solair et de ses planètes, ce sont les astres qui
s’attirent réciproquement, le soleil au foyer principal, le champ n’étant
‘rien’ de substantiel, que le jeu entre elles de ces
forces d’attraction, tout en étant ce jeu qui soutient le système dans sa
stabilité, reconnue depuis les anciens Égyptiens et Chaldéens. Ce paradoxe ne
permet pas de décider entre les astres et le champ, puisque celui-ci n’existe
pas sans eux, mais c’est ce qui décide le préjugé substantialiste que les
empiristes ont hérité d’Aristote à leur insu, en allant au champ ‘après’ les
astres, à partir de leurs substances et masses. Pour poursuivre, il nous faudra
poser une question épistémologique préalable : pourquoi le laboratoire est
indispensable à la Physique ?
4.
Ce que cherche le laboratoire, c’est l’alliance entre savoir et technique, entre définition et labeur, il cherche à éprouver les définitions et
arguments philosophiques hérités des Grecs et des Médiévaux[3].
Ce qu’il fait est 1) enlever un phénomène donné de
sa scène de circulation aléatoire, 2) lui
déterminant (délimitant, définissant) le mouvement en des conditions de
détermination par des techniques de mesures
appropriées, 3) à cette connaissance acquise devant se suivre un mouvement de restitution
théorique du phénomène connu à la scène d’où il a été
enlevé, puisque c’est la ‘réalité’ extra-laboratoriale que, par des étapes
laboratoriales, la théorie cherche à connaître. De même qu’en géométrie et en
astronomie, les chiffres mathématiques, entre équations et mesures, rendent
possible une exactitude plus grande que celle des définitions en langues
structuralement polysémiques (ce que la mathématique n’est pas) : cette
exactitude – dans des marges d’erreur, elles se répètent telles quelles dans
les autres laboratoires – correspond à une stabilité que les philosophies n’ont jamais réussi ni d’ailleurs les théories
scientifiques elles-mêmes qui interprètent les résultats des expérimentations
laboratoriales. C’est que celles-ci ont un point faible, elles sont
fragmentaires (comme tout problème d’algèbre classique, chacun avec son
équation), elles ne rendent possible de connaître avec exactitude laboratoriale
à chaque fois qu’un aspect déterminé du mouvement d’un phénomène ; c’est à
la théorie, héritière de la philosophie, que revient l’unification de la
connaissance, toujours approchée, instable donc,
puisque un ‘phénomènes entier’ ne peut venir au laboratoire et reste
indéterminé dans sa scène aléatoire[4].
Exemple fameux : Newton a découvert les équations de la force de gravité
sans imaginer celle-ci, ce que l’on ne sait pas encore selon Feynman, ni
l’énergie ni le pourquoi de l’inertie.
5.
Une question décisive du laboratoire peut être illustrée à partir de la fameuse
expérience de Galilée démontrant le mouvement uniformément accéléré avec une
petite balle roulant par la rainure d’un plan incliné. N’ayant pas encore des
horloges capables de mesurer ces temps, Galilée utilisa un sceau d’eau qui
s’écoule pendant le temps de la chute et qu’il mesure ensuite, “les différences et
proportions entre les poids donnant les différences et proportions entre les
temps”[5]. Mesurer le temps en grammes d’eau ou en secondes, c’est pareil, le
physicien ne sait expérimentalement que des différences, pas des
‘substances’ ; sur le temps, il définit et
argumente, en faisant de la théorie, c’est-à-dire, de la philosophie ; il
faudra dire le même de l’espace, de la masse, de la force, de l’énergie, de
l’intensité de l’électricité, comme atteste la conventionnalité (arbitraire)
des ‘conventions’ qui définissent les unités des diverses ‘dimensions’ (ce mot
souligne qu’en physique on ne travaille que sur des mesures). Les théories
évoluent historiquement, tandis que les expérimentations, hors de la précision
des techniques de mensuration, continuent valables : par exemple, si la
physique de Newton a été réélaborée par Einstein pour des phénomènes à vitesse
proche de celle de la lumière, elle continue valable scientifiquement face aux
vitesses de la majeur des phénomènes d’ingénierie courante sur terre. Or, avec
les techniques de mensuration, c’est la technique qui est entrée dans le noyau
des sciences physiques et (bio)chimiques, c’est pourquoi elles aient comme
effet des inventions techniques les plus diverses, témoignant ainsi de la stabilité de ces sciences, tandis que les scientifiques discutent de leurs
théories, témoignant donci de leur instabilité : leur grand problème est justement le 3) du paragraphe antérieur, le
geste de restitution théorique du savoir fragmentaire acquis laboratorialement
sur le phénomène, restitution à la scène aléatoire d’où il a été enlevé, hors
du laboratoire donc, du savoir sur le phénomène entier, puisque c’est sur
celui-ci que la théorie doit verser. Les techniques laboratoriales sont une
part du phénomène d’élévation entropique des sciences exactes, de même que les
‘envies’ des scientifiques qui, dans la définition de ‘paradigme’ de Kuhn, sont
‘attirés’ (attract) [6] et liées aux ‘envies’ des collègues du même paradigme par son apprentissage.
A la stabilité correspond le cours normal des
paradigmes selon Kuhn, ce que l’on pourrait appeler leur homéostasie
laboratoriale, en contraste avec leurs crises,
manifestation de l’instabilité en de fortes
polémiques, souvent pendant des générations.
6.
On peut retourner maintenant à l’héliocentrisme. S’il a été donné au génie de
Newton de comprendre la stabilité héliocentrique du système, en termes du
principe de l’inertie et de sa découverte des forces de gravité comme
attraction des corps dans la raison directe de ses masses et inverse du carré
de leur distance – c’est-à-dire qu’il n’y serait pas arrivé sans ces deux
motifs fondamentaux de sa Mécanique –, ce qui est étonnant c’est que sa
démonstration n’ait pas été faite selon eux mais plutôt selon les lois de Kepler
(qui avait utilisé les mesures de Tycho Brahe, anti-copernicien) dans
lesquelles ne jouent que les espaces et les temps des parcours des orbites des
planètes et les raisons entre les surfaces respectives. Il est parti donc du
système en tant que ‘champ’ théorique, Newton ayant
d’ailleurs avoué, aveu répété par Feynman trois siècles plus tard, qu’il ne
sait pas expliquer ce qui est la force de gravité tant qu’attraction à distance[7],
de même que l’on ne sait toujours pas aujourd’hui, selon Feynman, quel est la
cause du principe d’inertie (qui
tient un corps en mouvement quand aucune force ne joue sur lui, p. 114), dont les effets peuvent toutefois être mesurés et calculés. On peut
dire que cette manière ‘non substantialiste’ de démontrer l’héliocentrisme joue
bien avec ce que l’on peut déduire de l’affirmation de Galilée en mesurant le
temps en unités de poids : il ne connaît que “des différences et des
proportions”
entre des mesures de temps, et non pas le temps en soi, non pas les substances
(les noumènes, dira le newtonien Kant). Or, il arrive que Feynman procède de
façon inverse à Newton quand, pour définir charge électrique, il part des
charges vers les champs : “nous avons ainsi deux règles : (a) les charges engendrent un champ
et (b) les charges en champs restent assujetties à des forces et elles se
meuvent” (p.
60). 1º les charges, 2º le champ, 3º les forces ! Un autre exemple :
au premier chapitre, il argumente longuement sur les atomes de l’eau, vapeur et
glace, sans jamais parler des forces électromagnétiques perdues dans la vaporisation ou gagnées
dans la solidification. On retrouve la difficulté dans sa conception de la
force comme interaction, celle de la gravité étant une interaction à distance
(p. 57), ce qui semble signifier que la force est pensée à la manière des
forces habituelles de la Mécanique, du genre balle de billard sur une outre
balle de billard, action et réaction, ce que l’on peut appeler ‘forces
locales’. Il va jusqu’à caractériser la force électromagnétique par la “propriété d’aimer repousser
au lieu d’attirer” (p. 58), il considère seulement les charges du même signal et non
point celles de signal contraire, d’attraction, celles qui justifient que les
atomes aient des électrons attirées par les protons, donc qu’il y ait des molécules et des
graves, de la glace, de l’eau et du vapeur ! Or, les forces
fondamentales de la Physique, nucléaire, électromagnétique et de la gravité, constitutives des atomes et de leurs noyaux, des molécules, des
graves et des astres, les
seules dont il y a des champs, sont des forces attractives, et c’est là peut-être la raison par laquelle nous ne savons pas les
imaginer : notre expérience intuitive est celle des ‘forces locales’,
tellement importantes dans la Mécanique newtonienne. Étant donnée son attention
si forte au détail qui change les perspectives, on ne peut attribuer ces choses
comme dues à l’inattention de Feynman, cela ne peut qu’être inscrit dans la
force elle-même du paradigme (attractive !) qui institue les physiciens en
tant que tels (donc qu’il ne faille pas attendre de leur part une grande
attention à ce texte).
Énergie, force
et entropie
7.
Si les grands génies de la Physique, de Newton à Feynman, ne sont pas arrivés, en
partant des ‘substances’, à imaginer ce que sont les
forces attractives, l’énergie et l’inertie[8],
il me semble qu’il ne s’agit pas d’attendre un futur super génie qui en sera capable.
Il est plus sensé penser que c’est le problème qui est mal posé : pourquoi
ne pas partir de ces motifs inexpliqués pour mieux comprendre ce que sont les
dites ‘substances’ ? Puisqu’ils continuent de ne pas être compris, et sans
avoir aucune prétention de les ‘comprendre enfin’, on peut dire que, de même
que l’on parle du principe d’inertie, ces motifs
pourraient avoir un statut, disons, de principes laboratoriaux, c’est-à-dire, de principes d’une philosophie (d’une théorie) qui doit
faire face à l’expérimentation de mouvements, des principes nécessaires à la
compréhension de toute analyse de laboratoire[9]. Ces motifs, qui ont structurés depuis le début la Physique classique,
en rendant manifeste que ses inventeurs étaient aussi des philosophes habiles,
constituent en effet le motif fondamental de champ ; dé-substantialiser, ce sera donc considérer théoriquement forces et
énergie comme étant épistémologiquement (non pas chronologiquement !) préalables
aux ‘substances’, à l’atome, molécule, grave, astre, charge électrique, les
trois forces jouant ensemble et l’énergie étant ce qui, par inertie, se répand
sans elles. On ne ‘part’ pas de l’atome, à la façon de Feynman, puisqu’il n’y a
pas ‘l’’atome, ‘la’ molécule, ‘le’ grave : avant tout, ce qu’il y a ce
sont les champs des astres dans lesquels les trois forces agissent. Dans le cas
du système solaire, les orbites des astres sont stables du fait du champ de
forces de la gravité qui les retient, champ qui
consiste en eux-mêmes en mouvement inerte vis-à-vis les uns des autres[10].
Les graves dont un astre est fait sont eux aussi retenus par le champ des forces de gravité, ainsi que, à leur tour, ces graves
sont faits de molécules que des forces électromagnétiques retiennent ensemble, leurs atomes devant, eux, leur stabilité à la rétention de protons et neutrons dans le noyau par des forces nucléaires. Quel
est le sens de ce ‘retenir’ quatre fois souligné ? La stabilité de ce qui est retenu et qu’il la perdrait en n’étant plus
retenu : l’explosion de l’essence liquide dans le moteur d’une voiture est
l’exemple de la fin d’une telle rétention par des forces électromagnétiques et,
en conséquence, que ses molécules, devenues gazeuses, se répandent sous forme
d’explosion, de même que, mutatis mutandis, les
protons et les neutrons des bombes nucléaires qui explosent parce qu’on leur
retire les forces nucléaires, et aussi se répandent des photons quand des
électrons en mouvement perdent un peu des forces qui les retenaient. Si une
fusée envoyée sur la lune ou une sonde sur marte, après avoir quitté le champ
de la force de la gravité qui les retenait sur la terre, suivent sans avoir
besoin de plus énergie que celle qui les a chassé (on ne pourrait les alimenter
dans la stratosphère à égal que jusque lors), elles suivent selon un mouvement
inerte, perdues leurs liaisons à des forces quelconques. On peut dès lors définir
une force attractive par sa capacité de retenir ce qui, de son inertie à soi,
se répand sans limites. Or, ce qui se répand de cette
façon, ce qui explose, ce sont des exemples essentiels, non pas n’importe
lesquels, d’énergie. Donc, ce que les forces
attractives font par leur retenir ou lier, c’est créer de l’entropie positive (Prigogine), c’est-à-dire, de l’énergie interne telle qu’Einstein l’a
conçue comme équivalente au produit de la masse par le carré de la vitesse de
la lumière[11]. Le mot grec ‘entropie’ (‘se fermer en soi, timidité, honte’) convient
à cette ‘énergie’ einsteinienne[12].
Il n’y a pas que les gaz et les liquides, les airs et les mers, qui sont soumis
à des vents, des ondes et d’autres tourbillons, les solides sont eux aussi instables selon leur position dans le champ de la gravitation, des rocs soumis à
l’érosion, parfois des tremblements de terre ou des volcans nous rappellent que
les mots ‘terrible’ et ‘terreur’ sont composés à partir de ‘terre’. Instabilité
chimique aussi, toujours que la proximité entre des molécules rende possible
des transformations que la Chimie étudie, comment le fer est oxydé, par
exemple. Tout ceci est construit entropiquement au sens de Prigogine, et peut
donc être détruit, c’est pourquoi il y a de l’entropie au sens de Clausius,
c’est pourquoi il y a une ‘histoire’ de l’univers, de la scène de gravitation[13].
8.
Explosion, expansion, inertie, ce seront donc des contre-exemples de l’entropie
prigoginienne, ce sont des mouvements de sa dégradation, de l’entropie
clausienne qui s’accroît. Mais ce sont aussi des exemples de l’étrange
mécanique quantique, dont l’étrangeté principale est justement l’instabilité de
sa population de particules des électrons sans bride qui partent comme des
balles ou comme des ondes (ce sont des exemples de Feynman dans son dernier
chapitre), rares étant les particules qui réussissent à persévérer une fois
déliées (proton, électron, photon, presque pas d’autres) ; on ne peut même
pas parler d’elles en termes de ‘population’, motif qui implique durée, ni
‘monde’ ou ‘univers’ quantique, même pas ‘matière’, puisque ces particules
n’existent qu’en tant que lumière, des rayonnements ou du courant électrique,
ou alors de façon très fugace en des accélérateurs, des laboratoires. Quand le
grand physicien multiplie ses avertissements sur la difficulté de comprendre la
gravitation en termes de forces électromagnétiques quantiques, tout en
regrettant ce que l’on appelle la non unification des deux grandes théories de
la Physique du XXème siècle, relativité et quantique, la question que le lecteur
peut poser est celle-ci : quelle est la barrière entre la grande stabilité de notre univers macro et l’instabilité
incroyable, ultra chaotique, de cet étrange micro quantique ? Voici une réponse
osée : ce sont les champs des forces attractives. D’une part, il n’y a que des particules, fussent des atomes isolés, de
l’autre, que des graves et des astres, lesquels, analysés, se révèlent
constitués par des atomes et leurs noyaux, par des molécules[14].
Or, comment peut-on dépasser cette barrière ? D’ici vers là-bas, par la
désintégration technique des atomes et noyaux (des graves) jusqu’aux
particules, en des bombes ou des centrales nucléaires, en des grands
accélérateurs. Et de là-bas vers la matière de chez nous ? du big Bang
vers les étoiles ? peut-on ‘prendre’ des protons, des neutrons et des
électrons et fabriquer des atomes et des molécules ?
9.
Si l’on accepte la conception de science physique proposée ci-dessus (§§ 4-5),
il faudra conclure que son noyau dur consiste dans les équations
correspondantes aux résultats expérimentaux, qui sont les ‘données’ qui doivent
‘vérifier’ dans ces éqautions leurs ‘variables’. Tant que les instruments de
mesure ne changent pas, ces équations (variables et données) se vérifient, comme on dit, elles sont ‘vraies’. Galilée et Newton résistent
aux physiques du XXème siècle, c’était surtout leur physique que l’on
enseignait dans les écoles d’ingénieurs dans les années 50 du siècle écoulé.
Interpréter ces équations et ces expériences fragmentaires dans une théorie,
avec leurs définitions de concepts et leur argumentation, quelque chose qui
doit exister pour créer le laboratoire lui-même, reste toutefois un travail
‘philosophique’ (théorique) de physiciens qui définissent et argumentent à fin
de comprendre ce qui arrive au laboratoire, puisque les équations ne touchent
pas aux ‘substances’, que (des mesures) des différences et des proportions,
comme l’a écrit Galilée[15].
Ceci a des conséquences que les physiciens semblent difficilement comprendre
par des raisons philosophiques. Par exemple, que les laboratoires sont irréductibles
et donc les équations et les techniques de mensuration de la Physique newtonienne
continuent scientifiquement valables, en permettant notamment d’innombrables
constructions techniques, même si l’interprétation ‘philosophique’ venue
d’autres contextes laboratoriaux (des vitesses très hautes, des distances ultra
microscopiques) révise les anciennes interprétations sans toutefois pouvoir les
déclarer ‘fausses’, comme Feynman fait parfois de façon péremptoire. S’il le
fait, c’est une autre conséquence, ce n’est pas en tant que physicien (puisque
les laboratoires respectifs sont irréductibles), mais en tant que philosophe
(théoricien d’un autre type de laboratoire). Tout autant ‘philosophique’ sera
la prétention que la mécanique quantique soit valable dans toute la réalité
extra-laboratoriale, dans notre univers matériel où les vitesses sont ‘petites’
et les longueurs d’onde ‘minuscules’, en raison des dimensions macroscopiques
des graves. C’est-à-dire que, étant donnée l’irréductibilité des laboratoires
respectifs, l’unification si souhaitée des deux grandes théories du XXème
siècle ne pourra être que ‘philosophique’, en incluant la dimension
philosophique des sciences. Déjà le philosophe Cornelius Castoriadis évoquait “l’antinomie épistémologique
formulée par Heisenberg dès 1935
entre la constatation de la non validité des catégories et des lois de la physique
ordinaire dans le domaine microphysique et la démonstration de cette non
validité par le moyen d’appareils construits selon les lois de cette physique
ordinaire et interprétés selon les catégories usuelles” [16]. Ce qui signifie que l’unification des deux physiques, relativité et
quantique, ne sera possible qu’en tenant en compte les laboratoires où elles
ont été formulées, leurs instruments de mensuration et leurs respectives
différences d’échelle[17], et bien aussi la validité laboratoriale de la physique de Galilée et
Newton, dont les équations reviennent quand on réduit les facteurs d’échelle
(quand v/c tend vers zéro dans les équations relativistes).
L’entropie et la flèche du temps contre le déterminisme
10. Prigogine a découvert le secret de toute
évolution, de toute histoire, inventions et découvertes, de ce que l’on appelle
la flèche du temps. À partir d’une situation chaotique
menaçant de dégradation, implosion ou explosion, entropie du type Clausius,
comment peut la vie ajourner la mort : comment, de formes très diverses
selon le niveau de ladite réalité, est produite cette entropie, sont créées de
nouvelles stabilités avec des règles adéquates à des circulations aléatoires,
donc instables. Il a permis de comprendre que l’entropie n’est pas que ‘non’,
qu’elle est ‘oui’ et ‘non’, sans les opposer (ce qui a toutefois été sa
tendance de pensée), puisque la flèche du temps va d’abord au ‘oui’ et ensuite
au ‘non’, la mort après la vie et sa condition (puisqu’on ne survit qu’en
mangeant des cadavres).
11. Récapitulons. Il y a deux formes
essentielles de matière sur la Terre. Matière inerte en sens classique, faite de l’agrégation de molécules relativement
simples et égales pour atteindre des dimensions
macroscopiques, des solides, des liquides, des gaz : comment est
préservée, de la glace à l’eau et de celle-ci au vapeur, la liaison entre les
atomes de l’oxygène et de l’hydrogène, qui se révèle plus forte que la solidité
et que la liquidité. L’autre, la matière vivante,
qui, pour arriver elle aussi à des dimensions macroscopiques et former des
organismes fort variables, est faite de la composition de molécules différentes en leurs fonctions cellulaires et très complexes, à base notamment de carbone, et donc assez instables et demandant
d’être souvent refaites, demandant constamment de l’alimentation ; quel
contraste avec la stabilité et l’impénétrabilité des atomes, dues à leurs
noyaux, impénétrabilité qui les rend irrémédiablement autres entre eux. Ce que la vie a réussi, cela a été d’inventer un nouveau
niveau de même, au-dessus de cette altérité
empirique radicale : le niveau d’individus différents dans la même espèce. Or, ce fut dans le
métabolisme de la matière vivante que Prigogine a découvert une entropie
positive.
12. Il faut croire que le savant ait été
emporté par l’importance de sa découverte à opposer son entropie à celle de
Clausius, à une exclusion des phénomènes entropiques, à opposer ensuite les
certitudes qui ont rendu légendaires les découvertes de ses prédécesseurs, dont
un de ses derniers titres proclame la fin. Or, les certitudes de la physique
classique, qui sont laboratoriales, restent des certitudes, on l’a dit, ne sont
pas devenues des lois simplement statistiques : au lieu de dire que ce
sont des lois déterministes, on doit dire que ce sont des lois déterminées, c’est-à-dire, déduites dans les conditions de détermination du
laboratoire. Le problème, c’est que l’on a toujours pensé que ce qui était valable
au laboratoire était automatiquement valable dans ladite réalité, là, où il y a
toujours des incertitudes, dues à la confluence d’effets non dominable qui a
justement impliqué la nécessité du laboratoire. Or, le
motif de scène, c’est clair chez l’automobile, éclaire la question : les
règles de détail étudiées par les laboratoires correspondent dans le tout
théorique à des situations aléatoires, la machine est construite rigoureusement dans ses pièces pour suivre l’aléatoire de
la loi du trafic. De même, l’anatomie de n’importe lequel animal, ‘construite’
selon la cruelle loi de la jungle qui commande de manger l’autre vivant pour
survivre. La loi de la gravité vaut toujours sur la terre, mais la trajectoire
de chaque grave dépend de sa position aléatoire dans sa scène. Pour ce qui est
de la mécanique quantique, le problème de l’incertitude des mesures concernera
le fait que la distinction entre laboratoire et scène dehors disparaît dans un
accélérateur de particules (instabilité totale, on ne peut plus parler de
scène). Que hors du laboratoire règne la contingence, on l’a toujours su depuis
Platon tout au moins, lui qui a placé les entités résultants de la définition
dans l’éternité céleste, parce que sur terre il n’y avait que de la
contingence, génération et corruption. Mais c’est vrai que dans son sillage et
du neoplatonisme du IIIème siècle, où le terrible Augustin a bu, un Dieu absolu
s’opposait à cette contingence et a marqué les savants européens, croyants ou
pas, d’une conception déterministe qui extrapolait les certitudes
laboratoriales (que l’astronomie justifiait) : contre ce déterminisme,
Prigogine avait raison. Mais il faudrait un autre argument pour un tel combat.
Ce que l’on ne savait pas – ce qui n’a pas été écrit de façon à pouvoir être su
de la façon généralisée qui convient à ce savoir –, ce que le maître n’a pas
su, lui non plus, c’est que les règles (ou lois), les savoirs scientifiques qui
ont nourri le récit légendaire des sciences européennes des quatre siècles
derniers, ne se réalisent pas substantiellement, on
l’a vu chez Galilée, mais ce
sont des règles structurelles de régimes aléatoires de circulation : rigueur de la machine et aléatoire de sa circulation dans le trafic,
rigueur de l’anatomie animale construite pour la chasse aléatoire et pour y
échapper, rigueur des règles d’une langue qui rendent possible l’entente dans
l’aléatoire d’une conversation ou d’une discussion écrite. Que les règles
soient pour l’aléatoire n’est possible, à chaque niveau des choses, que de par
l’entropie prigoginienne. Comment au-dessus des
roches, des mers et des airs, mobiles sans doute mais durant à grande stabilité
si les températures ne bougent pas beaucoup, se sont établies des in/stabilités
vivantes, éminemment fragiles puisque mortelles, mais faisant de la mort vie,
loi de la jungle, en des espèces chaque fois plus complexes qui durent au-delà
des générations d’individus mortels qui procréent.
13.
Que les lois scientifiques soient pour l’aléatoire, c’est, je crois, ce qui réhabilite – sans déterminisme et selon la
relativité du savoir occidental en tant qu’historique – leur vérité et celle des sciences
exactes des savant européens, contre beaucoup de leurs
héritiers eux-mêmes qui croient facilement aujourd’hui que leur ‘vérité’ est
provisoire, une erreur en sursis. Les techniques sorties de leurs laboratoires
nient ce scepticisme.
[1] La phénoménologie
scientifique supposée ici (blogue philoavecsciences) considère quatre grandes scènes historiques :
celle de la gravitation (cosmos), de l’alimentation (vie), de l’habitation
(sociétés humaines) et de l’inscription (savoir défini occidental), leurs
éléments étant caractérisés respectivement par le noyau atomique, l’ADN, les
unités sociales disciplinant la sexualité et l’alphabet avec définitio. Le
virage phénoménologique par rapport à la philosophie européenne a été le fait
de Husserl, Heidegger et Derrida, la différence (phénoménologique, ontologique
et avec a) placée avant la substance. On dira plus loin comment c’est
Galilée et Newton qui ont débuté cette déconstruction.
[3] Héritage reconnu par le
grand physicien qui fut Feynman : “ce qu’on
appelait d’habitude philosophie naturelle, d’où est dérivé la plupart de la
science” (p. 74), tout en croyant d’ailleurs comme
Newton que la Physique est son équivalent moderne.
[4] Les règles que les sciences
découvrent, de même qu’une automobile est projetée au laboratoire pour se
mouvoir dans l’aléatoire du trafic.
[5] Galilée, Discours
et démonstrations mathématiques concernant deux sciences nouvelles, introd., trad. e notas por M.
Clavelin, 1970, A. Colin, p. 144
[7] Feynman dit que “Newton n’a pas élaboré des hypothèses, satisfait d’avoir
découvert ce qu’elle faisait, sans s’intéresser par son mécanisme. Personne dès
lors n’a pás proposé aucun mécanisme” (p. 128). Au fait, ce que Newton a dit
c’est qu’il n’était pás capable de fictionner (fingere en latin, feindre),
imaginer une hypothèse explicative de cette étrange force à distance: “je n’ai
pas encore réussi à déduire des phénomènes la raison de ces propriétés de la
gravité et je ne me figure aucune hypothèse (hypothesim non fingo)” (Newton, Principes
mathématiques de la Philosophie naturelle, trad. de Mme Châtelet, Paris [1756], édition
fac-simile de A. Blanchard, 1966, pp. 178-179).
[8] Feynman
souligne três souvent cette ignorance des physiciens de son temps sur des
motifs fondamentaux de la Physique: pp. 57, 66, 95, 106,107, 113-4, 128-9, 133.
[9] Sans laboratoires, ces
motifs – des forces qui retiennent des énergies – n’existeraient pas, ce qui
n’est pas vrai d’espace, temps, vitesse, poids ; sans le champ de la
gravité, il n’y a pas des mouvements de graves sur la terre, de même que sans
les explosions de forces électromagnétiques ou nucléaires il n’y a pas d’optique,
de relativité ou de la mécanique quantique.
[10] La différence
phénoménologique entre le
champ des forces de gravité et les astres est équivalente à la différence entre
telle espèce biologique et ses individus, telle langue et ses discours ou
textes, telle société et ses populations. Affirmer dans un premier temps la
primauté du ‘champ’ sur les astres ne peut se faire qu’en l’effaçant ensuite
pour dire que champ et astres ce sont le même, l’un n’est pas sans les autres.
[11] C’est sur de
l’irradiation électromagnétique qu’il argumente dans le quatrième texte de 1905
(de trois pages) qui établit cette formule.
[12] En ‘entropie’, le verbe trepô signifie ‘changer’, avec l’ ‘-en’ devient intérieur: ‘changement
intérieur’, de sentiments, ici d’énergie interne.
[13] Dans le contexte de la
phénomenologie qui est ici au travail, on posera la question de savoir jusqu’où
‘l’attraction’ par des forces continue de jouer aux niveaux entropiques de la
vie et des humains. Au niveau zoologique, les motifs de flair et de faim jouent
comme des attractions chimiques essentielles à la reproduction des animaux, de
même que les pulsions sexuelles sont des attractions chimiques pour la
reproduction des espèces. Dans l’habitation sociale, le motif d’envie répond
aussi à l’attraction du paradigme des usages qui ‘attire’ (Kuhn, généralisé à
toute unité sociale), le jeu des désirs et des rivalités, etc. Au niveau de
l’inscription, la curiosité est le grand moteur attractif de tout savoir, des
apprentissages comme des découvertes et inventions. Entraînement et éducation,
ce sont des manières de retenir la spontanéité chimique des attractions biologiques, en vue d’y créer
de l’entropie, c’est-à-dire, d’en faire une spontanéité habile capable de jouer
quand il faut. Voici une façon de justifier aux yeux des physiciens l’audace du
propos.
[14] Je serais tenté de dire
que la physique des particules est kantienne et celle de l’atome husserlienne.
Les pieds d’argile du kantisme, c’est son point de départ sur les ‘sensations’,
comme si elles étaient des ‘étants’ d’où partir, tandis que Husserl, plus
avisé, a assis son édifice phénoménologique sur la ‘perception’ de la chose, du
phénomène, toujours le même malgré les variations possibles des perceptions. La
physique des particules, à la façon de Kant, obéit au principe cartésien
d’analyser en descendant jusqu’au plus simple et de monter par la suite pour
faire la synthèse. Mais ce ‘plus simple’, sensations ou particules
respectivement, subsiste-t-il par soi de façon à être la base possible de la
synthèse ?
[15] La première définition
de Newton est celle de “quantité de matière”, qu’il designe par les mots ‘corps’ ou ‘masse’
et l’on connaît par le poids des dits corps, c’est-à-dire, par mensuration. Il
a d’ailleurs commencé en disant que “les Modernes ont enfin rejeté depuis
quelque temps, les formes substantielles et les qualités occultes”. Quantité
(par différences mesurées, comme chez Galilée) et non point qualité:
dé-substantialisation.
[16] “Science
moderne et interrrogation philosophique”, Encyclopædia Universalis, vol. Organon, 1975, p. 48.
[17] Tenues en
compte dans leurs respectives équations, comme le fait pour la relativité
restreinte Laurent Nottale, La
relativité dans tous ses états. Au-delà de l’espace-temps, Hachette, 1998.
Sem comentários:
Enviar um comentário