Dédicaces et remerciements
Je dedie ce modeste travail d'apprenant a :
Ma defunte tante Maimouma Coly. Que la terre de Kandialang lui
soit legere Mon p~re Souleymane
Ma mere Noella Sagna
Mes soeurs Ines, Kinegonte, Celestine, Delphine, Lucie,
Jacqueline, Seynabou, Binetou, Dienaba, Aida, Safietou, Aissatou, pour
l'immense affection dont elles ont fait preuve a mon egard.
Mon oncle Bourama qui m'a ete tres utile au cours de mon bref
cursus universitaire.
Ma tante Souadou Manga, pour l'inestimable soutien dont elle m'a
fait part tout au long de ces annees.
Mes freres Georges Ousmane, Insa, Arouna, Karim, Souleymane
Diatta, Seni Diatta, Youssouph Manga, Omar Diatta, Bassirou Coly, Khadialy,
avec qui j'ai pu partager d'intenses moments de plaisir.
Je tiens a remercier mes cousines Aminata Babou, Khardiata
Coly, Binetou Manga, Anna Badji, Angella Manga, Fatou Mane pour le soutien
psychologique dont elles me font part.
Mes adorables compagnons de discussion Seny Sonko, Pierre
Ndiana Faye, Abdourahmane Mingou, Seydou Gadjigo, dont la disponibilite pour
les activites de l'esprit est appreciable.
Mon ami et frere de terroir Richard Sagna pour sa franchise et
son sens de la mesure.
Que Pierre Dieme trouve ici l'expression de ma consideration.
Je renouvelle mon affection a :
Bassembo Badji, Jean Coly, Michel. A Coly, Patrick Diatta,
Jean P Sagna, Joseph S Sarr, Julio Diatta, Paulin Toupane, Zikler Daffe, Benoit
Tendeng, Henri Badji, Isaac Manga, Remi, Gaston Coly, Tito Senghor, Amath
Ndiayes, Didier Badji, Kassen Badji, Pierre Sylva.....
Big up a mes compagnons de route Issa Dieng, Hamidou Diop,
Birane Tine, Mamadou Fall, Tidiane N'diayes, Moustapha Diop, Dahlia Doki, Aby
Gueye, Michael Maliman, Romeo Diatta, Sylveste Coly, Adama Ndiour Mbengue,
Ibrahima Bodian, Mohamed Tamega, Ousmane Mane, sans oublier Amadou Ndaw.
Mes remerciements vont a l'endroit de :
Monsieur Abdoulaye Elimane Kane, Professeur de Philosophie, pour
la bienveillance qu'il a fait preuve a l'egard de ce document.
Monsieur Bado Ndoye qui, en m'ayant propose le sujet, a
eveille en moi le gout de la recherche et m'a donne de precieuses orientations
en rapport avec les disciplines qui y sont impliquees.
Madame Ramatoulaye Diagne Mbengue dont la clarte et la franchise
intelectuelles ne font nul doute.
Monsieur Ousseynou Kane chef de departement de philosophie qui,
par sa rigueur et son sens de l'ordre, a su maintenir ce departement hors du
chaos.
Plan Détaillé
Introduction ..p 2
I- La science classique : une apologie du
déterminisme universel.....p 8
I-1/ L'exigence d'ordre .p 12
I-2/ Déterminisme et négation du temps p
19
II- La cosmologie moderne : la découverte du
temps perdu p 29
II-1/ La conception historique de l'univers
II-2/ Le temps retrouvé
II-3/ Evolution et structures émergentes
|
..p 32 ...p 44 p 58
|
III- Le chaos : un nouveau paradigme
|
p 89
|
|
III-1/ Le hasard
|
.p 94
|
III-2/ L'effet papillon
|
p 105
|
III-3/ Le flou quantique
|
p 113
|
Conclusion
|
.p 118
|
Bibliographie générale p 121
Introduction
Qu'est-ce que le temps ? Une telle question est une
préoccupation de premier ordre pour la philosophie. Pour autant, une
réponse certaine ne peut en être retenue, et ce, malgré
celle proposée par Pucelle Jean pour qui, « Le temps, est comme
les langues d'Esope, la meilleure et la pire des choses, l'agent de la
création et de la destruction. Il suscite le neuf et accumule les
ruines. C'est lui la matrice du monde et le grand ravageur, et c'est sous
l'aspect du changement qu'il apparaît d'abord. »1
Par cette définition, on voit se dessiner une sorte
d'ambiguïté liée à la problématique que
soulève la pensée du temps. Frappée de bonne heure par
cette réflexion, la pensée humaine depuis l'époque grecque
a tenté si bien que mal de répondre à cette interrogation.
En effet, depuis les mythes cosmogoniques grecs jusqu'à
l'avènement des conceptions scientifiques au 17ème
siècle, la réflexion sur le temps a revêtu au cours de son
histoire des interprétations qui varient d'une époque à
une autre.
De ce fait, nous pouvons, dans l'antiquité
déjà, retenir, l'affirmation par Platon du temps
réversible soutenu par le mythe de Chronos. Sans entrer dans
les détails, nous pouvons retenir l'idée d'aprés laquelle
ce mythe conclut une équivalence temporelle entre le passé et
l'avenir. A cette conception, viendront s'ajouter deux autres pensées
qui méritent une considération particulière : il s'agit de
la conception du temps développée par Kant et de la
théorie de la Relativité découverte par Einstein.
En effet, Kant considère l'Espace et le Temps comme
étant les formes a priori de toute connaissance sensible ; ce
qui leur vaut le caractère absolu qu'il leur assigne. D'ailleurs elle
sera retenue jusqu'au 19ème siècle et servira de base
à la physique newtonienne. Cependant dans la seconde moitié de
cette même période, Einstein va découvrir une nouvelle
théorie qui remettra en cause les fondements sur lesquels a
reposé la science jusque là. La conclusion qu'Einstein tire de la
théorie de la relativité, consiste à dire qu'il n'y a plus
un temps unique et absolu comme le pensait Newton, mais il faut plutôt
parler de temps locaux et relatifs, qui varient suivant la position et la
vitesse de déplacement de l'observateur considéré.
1 Pucelle jean, Le temps, Paris, PUF, 1959, p
1
Toutefois, malgré les différences qui puissent
les opposer, toutes ces pensées partagent un point de fusion qui
réside dans leur négation commune de
l'irréversibilité du temps jusque là écartée
du domaine de la science. En effet la science postulait l'idée du
déterminisme universel, lequel pouvait se réduire au seul
principe de causalité. Selon ce principe, dans le monde
physique, rien n'est fortuit, tout y est prévisible : en somme, tout
phénomène est porté dans une cause qui le
précède, et de ce fait, il est légitime de déduire
de la connaissance de celle-ci, celle de l'effet.
La conséquence d'un tel principe conduit à
affirmer l'idée selon laquelle l'univers est constitué suivant un
ordre immuable dont les lois déterministes peuvent être
décrites par l'esprit humain. Or, une telle conception du réel,
laisse sous-entendre que rien de nouveau ne se produit dans la nature, parce
que celle-ci est donnée de toute éternité. C'est ainsi
donc que du point de vue de la science classique, devenir et
éternité semblaient s'identifier. Dés lors nous pouvons
comprendre cette idée de Platon, affirmant dans le Timée
que le temps n'est qu'une ombre, c'est-à-dire « l'image mobile
de l'éternité ». C'est ainsi que l'on peut saisir
l'enjeu pour lequel la science classique, à l'instar de la dynamique
procédait à la négation pure et simple du temps,
réduisant celui-ci à la manifestation répétitive de
la même réalité.
Dans son ouvrage intitulé L'évolution
créatrice, Henri Bergson nous fait remarquer l'idée selon
laquelle, la connaissance scientifique ne considère pas le temps comme
une réalité, mais plutôt les différentes
unités de temps que nous pouvons, par l'observation
phénoménologique, décrire dans la durée de
mouvement d'un être. Il écrit à ce propos : «
C'est dire que le temps réel, envisagé comme flux ou, en d'autres
termes, comme la mobilité même de l'être, échappe ici
aux prises de la connaissance scientifique. »2
La conséquence qu'implique une telle remarque, nous
permet de mieux comprendre l'enjeu qui se jouait avec cette négation du
temps tel que la considère la science classique. En effet,
l'interprétation que Prigogine et Isabelle Stengers ont fait de cette
remarque de Bergson, consiste au propos d'après lequel : « La
science a été féconde chaque fois qu'elle a réussi
à nier le temps, à se donner des objets qui permettent d'affirmer
un temps répétitif, de réduire le devenir à la
production du même par le même. Mais lorsqu'elle quitte ses objets
de prédilection, lorsqu'elle entreprend de ramener au même type
d'intelligibilité ce qui, dans la
2 Bergson. H, L'Evolution créatrice,
Paris, PUF, 1948, p 336
nature, traduit la puissance inventive du temps, elle
n'est plus que la caricature d'ellemême. »3
En affirmant un temps répétitif, la science
classique réfute toute conception évolutionniste de l'univers, et
nie par là même, l'activité créatrice de la nature.
Or une telle position scientifique, implique l'idée que la nature est un
tout homogène au sein duquel nous ne pouvons faire la différence
entre un état passé et un état futur. Cette conviction de
la science est la conséquence d'une perspective dans laquelle le temps
semble être aboli, d'où la diversité des processus
temporels devait être niée, réduite à une
apparence.
C'est donc sous cet ancrage philosophique que la science
classique va jusqu'au 19ème concevoir la pensée du
temps. Cependant, à partir de la seconde moitié du
19ème, vont se produire des découvertes
inédites, qui vont irréductiblement conduire à
l'effondrement du paradigme de la science classique. Pour rappel, en1865 Rudolf
Clausius annonce à partir du second principe de la thermodynamique,
l'idée de la croissance irréversible de l'entropie. Ce concept
scientifique d'entropie, va établir un hiatus entre la manifestation du
réel sensible et les principes de la dynamique classique.
Par ailleurs, c'est avec la découverte du second
principe de la thermodynamique, que la physique va pour la première fois
intégrer l'irréversibilité dans le champs de pertinence de
la science. Toutefois, cette reconnaissance n'a pas été
automatique comme nous serions amené à le croire. D'abord, c'est
avec l'affirmation de la croissance continue de l'entropie que le temps
s'introduit en physique, soulevant de ce fait l'idée de
l'évolution vers l'homogénéité et la mort
thermique. C'est seulement par la suite, et avec la découverte de
l'expansion continue de l'univers, que la physique va abandonner cette
idée, en affirmant en lieu et place l'existence d'une flèche du
temps commune à tout l'univers. Ainsi nous pouvons affirmer avec
Prigogine et Isabelle Stengers : « L'entropie devient ainsi un «
indicateur d'évolution » et traduit l'existence en physique d'une
flèche du temps : pour tout système isolé, le futur est la
direction dans laquelle l'entropie augmente. »4
Cette conception du temps irréversible, va
s'étendre comme par l'effet d'un écho au niveau des autres
domaines de la science. Car c'est aussi à cette même
période, que nous commençons à comprendre que les
phénomènes de culture tels que les langues, les
3 Prigogine et Stengers, Entre le temps et
l'éternité, Flammarion « champs », 1992, p 19
4Prigogine & Stengers, La nouvelle alliance, Gallimard
« folio », 1986, p 189
institutions politiques, les sociétés etc sont
des produits de l'histoire. Dans le domaine de la cosmologie, deux
découvertes, parmi celles qui ont le plus marqué l'histoire de
cette discipline, vont attirer le plus notre attention. Nous voulons ici parler
de la découverte faite par Penzias et Wilson du rayonnement fossile, et
celle de l'éloignement inexorable des galaxies, mise à jour par
Hubble. Ces deux découvertes ont profondément bouleversé
l'histoire de la cosmologie. En effet, par ces découvertes, la physique
moderne va définitivement reconnaître
l'irréversibilité du temps, longtemps considéré
comme la marque de notre ignorance.
Ainsi va naître au sein de la physique, une nouvelle
manière d'appréhender le réel. En effet, celle-ci consiste
à substituer à l'ancien paradigme de l'ordre, un nouveau type de
rationalité qui, tout en montrant le caractère particulier de
l'ordre, va intégrer dans le domaine de la science tout ce qui
jusqu'alors était considéré comme relevant de celui de
l'irrationnel à savoir les concepts d'indéterminisme, de chaos,
de hasard, d'incertitude etc.
Pour mieux élucider les interrogations que
soulève notre sujet, nous avons établi un plan de travail qui
obéit l'ordre qui suit. Dans la première partie consacrée
pour l'essentiel au paradigme classique, nous montrons d'abord comment,
à partir du 17ème siècle, les
spéculations sur la nature ont conduit, philosophes et scientifiques
à considérer l'univers comme un tout ordonné dont l'esprit
humain peut déchiffrer le secret. Il en ressort qu'il existe une sorte
de correspondance entre la structure de la nature et les catégories de
l'entendement humain. Ensuite nous verrons comment à partir de la
croyance à l'ordre éternel, la science classique va nier le
temps, liant celui-ci à une illusion de notre esprit.
Dans la seconde partie, nous tentons de montrer comment
à partir de la thermodynamique, la science va progressivement renoncer
au postulat de l'éternité, lui substituant l'idée d'une
histoire de l'univers. Or, une telle conception scientifique, ne peut
être soutenue que si nous reconnaissons au préalable le
caractère créatif du temps. C'est ainsi que nous examinons dans
un second moment, la manière par laquelle la science et la physique vont
réhabiliter la pensée du temps, liant celle-ci à la
production de nouveauté, ce qui en fait correspond le mieux avec la
manifestation du réel.
Enfin, dans une troisième partie essentiellement
centrée sur le paradigme du chaos, nous allons voir comment la physique
contemporaine va penser en terme de science, les notions de
hasard, d'incertitude, d'indéterminisme ; sachant que ces
dernières étaient pendant longtemps écartées des
champs de la rationalité.
I
La science classique :
Une apologie du
Déterminisme
universel
La science classique marque dans l'histoire des sciences, la
période qui s'étend du 17ème siècle
à la fin du 19ème siècle. Dans l'histoire de la
philosophie occidentale, le 17ème siècle est
l'époque de la grande révolution. Ce siècle pendant lequel
ont vécu d'éminentes figures philosophiques et scientifiques,
constitue un tournant essentiel dans l'élaboration de la science
occidentale, et au-delà de celle-ci, de la pensée humaine. En
effet, le 17ème siècle, aussi appelé le
siècle de la renaissance, marque la rupture avec le monde
médiéval, et annonce par cela, le début d'une nouvelle
ère qu'est la modernité.
Au-delà de la nouvelle science proprement dite qui se
met en place, il s'agit de la formation d'un univers mental et intellectuel
inédit. La science classique est fondamentalement une critique contre la
pensée d'Aristote, laquelle avait servi de modèle intellectuel
aussi bien dans le domaine de la philosophie que dans celui des sciences encore
en formation. Aristote avait en effet fondé un système
scientifique, qui était basé sur certains principes
métaphysiques ; principes que la science classique va attaquer en y
montrant les caractères arbitraire et irrationnel.
Nous savons que Aristote a réfléchi dans presque
tous les domaines de la science. Son école nommée le Lycée
était considérée comme une sorte d'université,
parce qu'on y apprenait de la philosophie, des mathématiques, des
sciences naturelles, de la physique etc. Mis à part ces
considérations, nous allons dans ce petit rappel nous limiter à
la physique. La physique d'Aristote s'est très longuement penchée
sur l'étude des mouvements, et en cela, elle peut être
considérée comme une physique de choc ; c'est-à-dire celle
d'un monde où tout est lié. En effet, selon Aristote, tout objet
en mouvement est mû par une force extérieure, de sorte que si la
force s'arrête, le mouvement aussi cesse nécessairement.
Aristote distingue dans la nature cinq éléments
auxquels il attribue pour chacun un mouvement spécifique suivant sa
nature : l'Eau, l'Air, la Terre et le Feu. L'Eau qui est plus lourde que
légère, a un mouvement qui va du haut vers le bas. Ce mouvement,
parce que caractérisant la nature de l'objet même, est
nommé mouvement naturel. L'Air qui est plus léger que lourd, se
meut d'un mouvement vertical qui se fait du bas vers le haut, qui se trouve
être son lieu naturel. La Terre, appelé aussi le lourd absolu par
Aristote, se dirige dans son mouvement, du haut vers le bas, qui est son lieu
de prédilection. Quant au Feu, aussi appelé le léger
absolu, il se meut du bas vers le haut, son lieu naturel.
A côté de ces mouvements dits « naturels
», Aristote ajoute une seconde catégorie de mouvement dit «
mouvement accidentel ». Ce mouvement est dit accidentel, parce qu'il est
causé sur un objet par un autre corps étranger. Ce mouvement du
fait de ne pas appartenir à la nature de l'objet qu'il entraîne,
s'arrête une fois que la force qui l'a causé s'épuise.
Dés lors, le corps dérangé dans son état de repos,
cesse de se mouvoir et cherche à rejoindre son lieu initial d'où
il a été enlevé. C'est pour cette raison que chez
Aristote, tout est naturellement en repos, d'où tout mouvement a une
cause qui lui est contiguë.
Par ailleurs, Aristote distingue aussi dans sa physique deux
univers, séparés dans leurs dimensions par la position de la
Lune. Au dessus de la Lune, se trouve ce qu'il appelle le monde supra lunaire,
parallèlement en dessous de celle-ci le monde sublunaire. Le monde supra
lunaire, du fait d'abriter des corps parfaits, est éternel et immuable.
C'est le monde des sphères célestes, des astres et du Premier
moteur. Quant au monde sublunaire, du fait de son imperfection, il est le lieu
de la corruption et du changement. Ce monde abrite des corps qui naissent,
vivent, durent et meurent éventuellement.
Pour finir ce bref rappel de la physique d'Aristote, il faut
noter que celui-ci a établi un système cosmologique centré
autour de la Terre, qui de ce fait était immobile. Celle-ci est selon
Aristote entourée par la Lune, et six autres planètes qui
tournent autour des sphères concentriques ; au-delà de ces
sphères, se trouve la sphère des étoiles fixes, qui
constitue la limite même de l'univers.
C'est cette conception du monde tel que décrit par
Aristote, que la science naissante au 17ème siècle se
propose de remettre en cause. La science classique va donc s'attacher à
briser, un à un, les verrous avec lesquels Aristote avait
cadenassé son système physique. D'abord, la découverte par
Tycho Brahe d'une nouvelle étoile qu'il nomma Stella nova en
1573, brise la perfection des cieux telle que celle-ci a été
soutenue par Aristote. Dés lors, nous constatons que la
séparation en mondes supra lunaire et sublunaire de l'univers par
Aristote, n'était nullement scientifique, sinon seulement arbitraire. Le
ciel est à l'image de la terre un monde changeant et corruptible.
Quelques années plus tard, plus
précisément en 1577, ce même Tycho Brahe va
découvrir dans le ciel, des corps qui fusent à grande vitesse,
traversant ainsi les fameuses sphères d'Aristote. Ces objets
célestes appelés Comètes, vont, à leur
tour remettre en cause la finitude de l'univers, et permettre ainsi de mettre
en place l'image d'un monde infini tel que proposé
par Nicolas de Cues et Giordano Bruno. Ensuite, viendra
après Tycho Brahe, Johannes Kepler. Ce scientifique allemand va
s'attaquer à l'hypothèse des épicycles, qui était
utilisée pour expliquer les mouvements rétrogrades qu'on
observait dans les trajectoires des planètes.
En effet contrairement à Ptolémée qui
appuyait la thèse aristotélicienne du géocentrisme, Kepler
va reprendre le modèle héliocentrique proposé par
Copernic, en y remplaçant les trajectoires circulaires par des
trajectoires elliptiques, centrées autour de trois foyers dont l'un est
celui occupé par la position du Soleil.
A côté des critiques, on peut aussi noter
d'autres attaques dirigées à l'encontre d'Aristote, comme celle
faite par Galilée à propos de la distinction entre le ciel et la
Terre. Lorsque Galilée observe à travers ses lunettes
astronomiques la surface de la lune, ce dernier découvre des
inégalités représentées sous la forme de montagnes
identiques à celles constatées sur la surface de notre
planète. A partir de là, il en déduit que le monde
céleste était identique par sa structure à notre monde
terrestre. Une fois de plus, la distinction qu'en a faite Aristote se
révèle inadéquate. Galilée est aussi celui qui a
observé et annoncé l'existence des corps satellites, autour de la
planète Jupiter. Il les nomma les Médicéens,
espérant bénéficier de la noble famille des
Médicis un financement de ses projets de recherches.
Toutes ces attaques contre le système d'Aristote, vont
trouver leur parachèvement dans ce qu'il est aujourd'hui légitime
d'appeler la synthèse newtonienne. Newton est en fait celui qui a pu
rassembler toutes ces découvertes parallèles, pour en tirer
l'ingénieuse idée de la théorie de la gravitation
universelle. Cette théorie, tout en expliquant les mouvements qui
adviennent dans le monde terrestre, permet aussi de rendre compte, avec toute
la précision souhaitée, du mouvement des planètes autour
du Soleil. Ainsi Newton amorça le triomphe de la lumière
rationnelle sur l'obscurité métaphysique qui caractérisait
le monde médiéval.
Après avoir retracé le mouvement de la
révolution scientifique amorcée au 17ème
siècle, il importe donc désormais de voir sur quels principes et
bases scientifiques, celle-ci a pu venir à bout de l'édifice
aristotélicien. Dans cette première partie, deux aspects, vont
nous intéresser. D'une part, nous tenterons de voir comment la science
classique a pendant très longtemps fondé ses principes sur la
notion d'ordre. De fait, la physique classique croyait, contre toutes les
manifestations phénoménologiques que, le monde était
régi suivant un ordre bien déterminé.
C'est ainsi que toute la connaissance consistait, à
rechercher dans la nature les lois qui justifient cet ordre. D'autre part, nous
abordons la problématique soulevée par la science classique du
déterminisme universel. Le déterminisme est la conception qui
consiste à dire, que tout est lié dans l'univers par des
relations de causalité. Or, selon cette conception, aucune variable ne
peut affecter l'effet résulté d'une cause qui le
précède. Niant la réalité du temps, elle
dépouille celui-ci de tout pouvoir de production de nouveauté.
I-1/ L'exigence d'ordre
La philosophie classique se caractérise par une vision
du monde, conditionnée pendant près de trois siècles, par
la pensée cartésienne et la physique de Newton. Ces deux figures
ont marqué de leur empreinte toute la science du 17ème
siècle. Initiant une méthode qu'il veut universelle, Descartes
développe dans ses ouvrages, des règles fondatrices pour
l'acquisition de toute connaissance dont la visée est la certitude.
Dés lors l'acquisition de toute connaissance, passe
nécessairement par l'adoption d'une méthode, sans laquelle on ne
saurait atteindre aucune certitude. De là l'idée d'ordre va
apparaître aux yeux du 17ème siècle, comme le
socle même de la science. Très fécond en productions
intellectuelles, ce siècle connaîtra l'avènement de
méthodes appliquées à la connaissance, au nombre
desquelles figure l'induction mise à jour par Bacon.
Parallèlement, la déduction est adoptée par Descartes.
Quand à Newton, son nom est resté à
jamais attaché à la naissance de la science prédictive. La
publication en 1687, des équations différentielles au rayonnement
fulgurant, a fini par faire de Newton le prince de la science moderne ; celui
à qui furent montrées à l'instar du prophète
Moïse, les tables de la loi . Les équations
différentielles ont été commémorées comme
l'avènement d'un miracle dans l'histoire de la science. Car disait-on,
« Un homme a découvert le langage que parle la nature, et
auquel il obéit. »5
En effet, dans son ouvrage intitulé Philosophae
naturalis principia mathématica, Newton établissait d'une part,
la théorie qui explique comment les corps se meuvent dans l'espace et
dans le temps ; d'autre part, il y développait aussi les
équations mathématiques qui permettent l'analyse de ces
mouvements. A partir de ces deux auteurs, la science classique va mettre en
place un système scientifique, essentiellement basé sur la notion
d'ordre développée par les 17 et 18ème
siècles. Cette notion développée par ces deux
siècles, consistait à dire que la
5 Prigogine et Stengers, La nouvelle
alliance, Gallimard, 1986, p 58
nature dans son ensemble était ordonnée. Pour
connaître le monde, il suffisait à l'homme, de chercher par sa
raison les principes suivant les quels l'univers a été
régi.
Une telle conception scientifique n'a pu être mise en
place, que parce qu'on croyait au 18ème siècle que
l'univers est une immense horloge dont le fonctionnement a été
préétabli par Dieu, le grand horloger.
Comme l'artiste se représente le mode de fonctionnement
d'un instrument avant de le fabriquer, Dieu, avant de créer l'univers,
avait dans son entendement les règles qui régiraient le
fonctionnement de celui-ci. A l'image de nos machines, l'univers fonctionne
donc suivant des lois qui sont indépendantes de sa structure. Ces lois,
parce qu'elles existent, peuvent être découvertes par l'homme, si
ce dernier conduit sa raison suivant une bonne méthode.
C'est à la base donc de ces croyances philosophiques et
métaphysiques, que la physique classique pensait entreprendre
l'étude de l'Univers. En effet, parce qu'on croyait d'une part que
l'univers conservait en lui l'ordre de sa création, la communauté
scientifique devait mettre à jour les lois mécaniques. C'est
cette conception mécanistique de l'univers qui justifie le
développement et le rayonnement éclatant, que la science de la
mécanique a connu dés ses débuts. A cette époque,
la connaissance des lois de la mécanique était
déterminante pour conduire à celle de la nature dans son
ensemble.. D'autre part, la science classique, imprégnée du
principe de l'ordre universel, se donnait comme ambition première de
dévoiler le « langage » suivant lequel Dieu
Créa l'univers. C'est ainsi que ces deux idées, du
mécanisme universel et de la notion de langage de Dieu, vont tout au
cours de ce chapitre guider notre argumentation.
Dans l'Europe occidentale, l'époque des Lumières
a établi une transformation dans la manière non seulement de
penser le réel, mais aussi dans la nouvelle fonction que la physique
attribue à la pensée. Car faut-il le dire, à partir du
18ème siècle, la science de la nature ne se pose plus
tout uniquement comme étant le mouvement de pensée qui se porte
vers le monde des objets, mais aussi le milieu au sein duquel l'esprit acquiert
la connaissance de soi.
Cette nouvelle manière d'appréhender le
réel, réside pour l'essentiel dans la fonction attribuée
à la raison en tant qu'elle est nécessaire pour la connaissance
de la nature. En rompant avec les considérations métaphysiques
qui caractérisaient le monde médiéval, la science va
à travers la philosophie de Descartes, donner à la raison la
puissance de connaître et de rendre compte de l'univers. A ce propos
Ernst Cassirer écrit « C'est la force de la raison
qui constitue pour nous l'unique mode d'accès
à l'infini, qui nous assure de son existence et qui nous apprend
à lui appliquer la mesure et la limite dans le but, non de restreindre
son ampleur, mais de connaître la loi qui l'enveloppe et le
pénètre tout entier. »6
Sous ce rapport, la raison est en mesure de nous rendre compte
de la nature de l'univers, qui depuis sa création reste régi par
le même ordre éternel et immuable. Ainsi, il y a par ce fait
l'introduction d'une sorte d'immanence dans l'explication de l'univers. Car,
comme il en est d'une machine, dans la nature, il n'est nul besoin de
s'élever à une cause transcendante pour comprendre un
phénomène : l'explication de tout phénomène se
trouve dès lors liée à sa structure, c'est
l'établissement par celle-ci d'une dichotomie nette entre la vision d'un
homme strictement étranger au monde, et celle d'un univers
ordonné et homogène dans son ensemble. En effet, de
Galilée à Newton, la philosophie des sciences jusque là
hantée par l'idée d'un créateur de l'univers, posait
l'existence de la raison au point de ralliement entre la nature, produit de la
création, et Dieu, autour de la création. L'homme est de ce fait
étranger au monde qu'il cherche à comprendre.
La science classique considérait de manière
séparée d'un côté l'homme, être intelligent
capable de connaître le réel en le soumettant à des lois
physiques ; et de l'autre, le monde réel automate immuable dont les lois
sont prescrites de toute éternité.
Cette conception, au-delà de l'aspect scientifique qui
lui est assigné, demeure conforme aux croyances métaphysiques et
religieuses de la philosophie de cette époque. L'homme,
créé à l'image de Dieu, devait non seulement être
différent des autres créatures par sa forme, mais aussi et
surtout par sa nature qui, parce qu'elle est pensante, reste supérieure
à toutes les autres natures créées.
Or, l'éminent scientifique belge d'origine russe Ilya
Prigogine, montre que cette opposition faite entre l'homme et le reste de la
nature, a fini par rendre impossible le seul mode de dialogue fécond que
l'esprit humain devait entretenir avec la nature.
Face à cette attitude réductionniste et
appauvrissante de la science Prigogine et Isabelle Stengers soulignent dans
La nouvelle alliance : « La science à ses
débuts a opposé avec succès des questions qui impliquent
une nature morte et passive ; l'homme au 17ème
siècle
6Cassirer . E, La philosophie des
lumières, Fayard, Paris, 1966, p 82
n'a réussi à communiquer avec la nature que
pour découvrir la terrifiante stupidité de son interlocuteur.
»7
Par sa capacité à connaître les lois de la
nature, l'homme se pose en tant que créature comme une sorte d'existence
intermédiaire entre la création et le créateur. Né
de la création divine, le réel entretient avec son
créateur un lien étroit. Cette idée au contenu
étrange était en fait l'un des véritables arguments qui
ont encouragé le projet de recherche des « lois de la nature
», entrepris à partir du 17ème
siècle. A cette époque disait-on, si l'essence de la nature est
contiguë à cette dernière, cela voudrait dire que Dieu, en
créant le monde, y a laissé les empruntes de sa signature.
L'ultime but de la connaissance scientifique, était de chercher dans la
nature, les lois qui régissent l'univers et par lesquels celui-ci
fonctionne. Avec Newton ce but de la science sera atteint.
En effet, grâce à Newton et plus
précisément à ces travaux sur la dynamique, la physique
classique pensait avoir enfin trouvé le sol ferme, le fondement qu'aucun
autre bouleversement ultérieur de la science ne pourrait
ébranler. Les lignes de correspondances entre la nature et l'esprit
humain, venaient d'être établies avec la découverte des
équations différentielles. Newton a donc permis d'unir l'homme
à la nature, et cela par une alliance apparemment indissoluble. C'est en
raison de ce fait, que Ernst Cassirer a pu écrire ceci : « La
nature qui est en l'homme rencontre en somme, la nature du cosmos et se
retrouve en elle. Qui découvre l'une ne saurait manquer de trouver
l'autre. C'était déjà ce que la philosophie de la nature
de la Renaissance entendait par nature : une loi que les choses ne
reçoivent point de l'extérieur mais qui découle de leur
propre essence, qui est dès l'origine implantée en elles. »
8
Pour mieux consolider sa conception d'une nature-automate, la
science classique va par la découverte des lois scientifiques, se lancer
dans la voie difficile de la recherche de ce qu'on peut appeler le «
langage de Dieu ». La notion de langage de Dieu, n'est rien d'autre
que les principes qui rendent compte de l'ordre de l'univers ainsi que de son
harmonie. Ce point de vue qui a dominé la pensée occidentale
ainsi que le développement de la science classique, aura connu un
succès énorme. Il sera repris comme par l'effet d'écho,
par plusieurs penseurs au XVIII ème siècle. En effet,
c'est parce qu'ils ont été convaincus de l'existence d'une
symétrie structurale entre l'esprit humain et le monde réel, que
les penseurs de la science classique ont postulé la
réalité de ce prétendu « langage de Dieu ».
A cette époque disait-on
7 Prigogine et Stengers, La nouvelle
alliance, Gallimard, 1986, p 34
8 Ernst Cassirer, La philosophie des
lumières, Fayard, Paris, 1966, p 89
« L'esprit humain qui habite un corps soumis aux lois
de la nature, est capable d'accéder par le déchiffrement divin
que ce monde exprime globalement et localement. » 9
La question qui se pose dès lors est de se demander ce
qui a permis à la science classique de se faire une telle idée.
Cette conception aux apparences étranges, remonte en fait à une
époque qui en réalité, est antérieure à
l'avènement de la science au XVII ème siècle.
Cette idée date de l'époque de Pythagore.
En effet, sur Pythagore lui-même, la
postérité n'a retenu que peu de choses. On raconte que c'est la
musique, qui a apporté à Pythagore l'illumination de la
connaissance. Pythagore diton, postulait qu'il existe un rapport simple entre
la longueur des cordes d'une lyre et le son qui en émerge. Il affirmait
aussi que le son engendré par un marteau sur une enclume, est
proportionnel au poids du marteau. A partir donc de l'inspiration de l'harmonie
musicale des marteaux et des cordes vibrantes. Pythagore énonce une
proposition révolutionnaire à son époque. Celle-ci
consiste à dire que la nature est fondamentalement mathématique.
Il en résulte l'idée que les nombres gouvernent la
réalité toute entière, ils en sont l'essence : le chiffre
est la clé du cosmos.
A la suite de Pythagore, Platon va reprendre cette idée
inédite dans sa manière d'appréhender l'univers. Platon
est pénétré à beaucoup d'égards, de
l'influence des doctrines telles que, la doctrine mathématique de
Thalès et la géométrie de Pythagore. En effet, les
Idées de Platon jouent à peu près le même
rôle que les nombres de Pythagore. Car de la même manière
que les successeurs de Pythagore cherchaient pour chaque être le nombre
qui le caractérise, Platon a doublé la réalité, en
établissant pour chaque être l'existence d'une Idée qui
représente son essence dans le monde intelligible. Pour Platon donc le
monde réel, n'est que la copie imparfaite du monde intelligible. C'est
dans le domaine de la cosmologie que cette conception platonicienne sera le
plus en vue. Selon la cosmologie platonicienne, le démiurge- le grand
artiste de l'univers- en créant le monde, avait les yeux fixés
sur des modèles géométriques. Et c'est suivant ces
modèles que toute la réalité sera faite.
De son avis, l'ultime nature est de l'ordre des Idées.
Celles-ci existent comme nous l'avons déjà noté, dans un
au-delà non localisable ; à partir duquel elles fondent et
gouvernent toutes les manifestations de notre univers.
9 Prigogine et Stengers, La nouvelle
alliance, Gallimard, 1986, pp 89-90.
Selon Pythagore et Platon, Dieu est un fin
géomètre et ils affirment l'idée qu'il doit effectivement
exister un plan suivant lequel le monde a été crée, et
c'est à partir de ce plan que doit être cherché tout
l'ordre universel. Cette idée qui date de l'antiquité, sera
reprise à partir des XVIIème et
XVIIIème siècles par les promoteurs de la science
naissante. Ces siècles qui correspondent au grand bouillonnement
intellectuel caractérisé par la remise en cause de la
pensée d'Aristote, vont trouver dans la philosophie de Platon, le
modèle idéal de la conception qu'ils se sont fait de la science ;
ce qui justifie la naissance de ce qu'il est possible d'appeler le renouveau
platonicien.
En effet, les XVIII ème et XVIII
ème siècles qui marquent en Europe l'époque des
grandes découvertes coïncident avec l'essor des
mathématiques nouvelles. C'est à cette époque que
Descartes invente la géométrie linéaire, tandis que
Leibniz et Newton vont parallèlement découvrir le calcul
infinitésimal séparément duquel figure l'invention de
l'arithmétique binaire par Leibniz. Cette époque très
fertile en découverte, est celle où Galilée va aussi
mettre en place la théorie de la chute des corps, sans oublier
l'invention par Pascal, de la calculatrice.
Toutes ces découvertes et inventions vont
profondément influencer la conception qu'on se faisait de l'Univers.
Avec la science naissante émerge un réductionniste qui consiste
à ramener tout l'ensemble du réel, à une sorte
d'expression mathématique. Dans la logique de cette conception,
d'éminents penseurs tels que Galilée, Newton et même
Einstein, vont considérer les mathématiques comme exprimant le
langage de Dieu. A ce propos Galilée écrit en 1623 dans le
Saggiatore que « La philosophie écrite dans le
grand livre de l'univers est formulée avec langage des
mathématiques. Sans lui, il est humainement impossible de comprendre
quoique ce soit ; et on ne peut qu'errer dans un labyrinthe obscur. »
Quand à Newton, il dira que les mathématiques sont le
langage de Dieu. Tandis que Einstein lui considère que le monde est
intelligible en terme de géométrie.
A travers donc ces trois piliers de la science moderne, on
voit comment la physique classique considérait l'Univers. Cette
idée apparemment simple, va entraîner des conséquences qui
ont servi de guide, pendant près de trois siècles, au paradigme
de la science classique. En effet, depuis la coupure galiléo
newtonienne, l'ensemble de la communauté scientifique croyait à
l'idée d'après laquelle, non seulement la nature est régie
par un certain nombre de lois bien déterminées, mais aussi,
l'esprit humain est en mesure de découvrir ces dernières. La
recherche scientifique va dès lors consister à une sorte
d'abstraction, c'est-à-dire
une sorte d'élévation vers la saisie de
l'essence dernière des choses ; cette essence qui expliquerait tous les
principes de l'existence des choses. La science est donc comme le dirait
Aristote la recherche des premiers principes et des premières causes.
Toutefois, cela ne veut pas dire que la science classique se
réduisait à une activité métaphysique. Car selon la
physique classique l'essence de la chose n'est pas séparée de la
chose elle-même, elle lui est contiguë parce que Dieu en
créant toute chose y a imprimé le code suivant lequel cette
dernière se comporte. C'est donc pour cette raison que Ernst Cassirer a
pu écrire dans le même sens que selon la science de la nature de
l'époque des Lumières, « L'être
véritable de la nature ne doit pas être cherché sur le plan
du créé mais sur le plan de la création. La nature est
plus que simple créature ; elle participe à l'être divin
originaire puisque la force de l'efficace divine est vivante en elle [...] Le
pouvoir de se donner forme et de se développer soi-même marque la
nature du sceau de la divinité. »10 . On a donc
plus besoin de fonder la physique, comme il a été avec Aristote,
sur une quelconque métaphysique. Désormais
l'expérimentation scientifique se révèle largement
suffisante pour expliquer le réel.
Par ailleurs, la conception scientifique d'un univers
ordonné fondé sur le principe de la création divine,
soulève un problème lié à la problématique
du devenir. Car s'il est vrai que la nature est l'oeuvre de Dieu, qu'elle
renvoie à l'image de l'esprit divin, alors elle doit refléter le
signe de son immutabilité et de son éternité. C'est en
fait sur cette conception que repose l'identification spinoziste de Dieu et de
la nature, exprimée par la formule « Deus sirve Natura
»
Selon Spinoza donc, l'uniformité de la nature prend sa
racine et sa source dans la forme essentielle de Dieu. L'idée même
de Dieu implique selon lui, que ce dernier soit pensé comme un, en
accord avec soi-même ; c'est-à-dire immuable dans ses
pensées et dans ses volontés. Poser en Dieu la possibilité
d'un changement de son existence, équivaudrait à une
négation et à un anéantissement de son essence. Par
conséquent, la nature est éternelle à l'image de son
créateur. Ce postulat de l'éternité de l'Univers va donner
une chiquenaude à l'élaboration des théories
scientifiques. L'Univers étant partout le même, les lois
scientifiques ne risquent pas d'être influencées par des
bigarrures du temps ; comme le notent si bien Prigogine et Isabelle Stengers :
« Non seulement la nature est écrite dans un langage
mathématique déchiffrable
10 Ernst Cassirer La philosophie des
lumières, Fayard, Paris, 1966, p 85
par l'expérimentation, mais ce langage est unique ; le
monde est homogène, l'expérimentation locale découvre une
vérité générale. »11
La conséquence d'une telle idée revient à
nier la réalité même du temps, car comme le dit Bergson le
temps est invention et porte en lui la marque du devenir.
I-2/ Déterminisme et négation du temps
« Tout est donné » ! Voici de
manière très brève comment se résume la profession
de foi à laquelle procédait la science classique. Dans ses
interrogations philosophiques, Leibniz se demandait Pourquoi y a-t-il quelque
chose plutôt que rien ? Cette question qui se trouve à la
croisée des chemins empruntés par la philosophie et la science,
constitue la pierre philosophale sur laquelle repose toute réflexion sur
le monde et sur tout ce qui le compose. Nombreux sont les auteurs qui ont
tenté d'apporter une réponse à cette question, mais en
vain. Leibniz lui-même, n'a pas pu répondre de façon
satisfaisante à cette interrogation qui en fait, a plus trait au domaine
de la métaphysique, qu'à celui de la science. Pour
répondre à cette question, Leibniz a fait appel à
l'argument philosophique connu sous le nom de la théorie des causes.
Fondée sur le principe de la providence divine, la théorie des
causes tente d'expliquer l'existence de tout phénomène, par la
reconstruction de la chaîne des causes qui l'ont provoqué ; et
cela par le principe que toute chose a nécessairement une cause qui lui
est antérieure.
Cependant, considérée sous cet aspect, cette
question pourrait nous conduire vers une impasse ; du fait qu'on aura toujours
besoin de remonter de manière infinie à une cause toujours plus
lointaine. Ce risque avait déjà été mesuré
par Leibniz. En effet pour ne pas tomber dans cette voie qui pourrait conduire
à l'incrédulité, Leibniz pose la nécessité
d'arrêter la chaîne des causes à un principe premier cause
de toute chose et qu'il nomme par conséquent Dieu. Cet argument d'ordre
métaphysique va revêtir aux yeux des penseurs du XVIII
ème siècle, une importance capitale. En fait, la
science classique va reprendre la théorie des causes pour assoire d'une
part, la croyance qu'elle avait du déterminisme universel, et d'autre
part pour combattre l'existence du hasard, jadis considéré comme
le signe de
11 Prigogine et Stengers La nouvelle alliance,
Gallimard, 1986, p 81
l'irrationalité. L'illustration en a été
faite par la remarque de Louis de Broglie dans un texte paru en Février
1977 aux annales de la fondation qui porte son nom. Ce dernier écrit
dans ce texte, « La recherche de la causalité est une tendance
instinctive de l'esprit humain. Elle consiste à admettre que les
phénomènes qui se manifestent successivement à nous ne se
succèdent pas au hasard, mais dérivent les uns des autres,
étant reliés entre eux par des liens tels que chacun d'eux est la
conséquence nécessaire de ceux qui l'ont
précédé. »12
La conséquence épistémologique d'une
telle affirmation, consiste à dire, comme l'a toujours cru Hegel, que
rien de nouveau n'arrive dans la nature ; le réel est un et toujours
identique à lui-même. De là, nous pouvons conclure que le
devenir n'existe pas, car pour que des liens de causalité puissent
s'établir il faut que la nature soit inchangeante, éternelle ce
qui, autrement dit, revient à soutenir que le temps même n'existe
pas. C'est à une telle conclusion que la science a abouti au
XVIIIème siècle, lorsqu'elle défendait avec
rigueur, la conception épistémologique du déterminisme
universel.
Pour mieux comprendre les enjeux d'une telle
considération, nous essayerons dans ce chapitre de voir à travers
l'histoire des sciences, deux des grandes disciplines scientifiques qui
sous-tendent cette conception. Il s'agit notamment de la dynamique classique,
et de la théorie de la relativité inventée par Einstein.
En effet, ces deux disciplines soutiennent, dans leur fondement, une conception
négatrice du temps, et réduisent celui-ci à un
comportement réversible qui se traduit
phénoménologiquement par la production du même par le
même.
La dynamique classique, parce que c'est d'elle que nous allons
parler en premier, constitue la partie de la mécanique qui étudie
les relations entre les forces et les mouvements. Elle a gagné à
partir du XVIII ème siècle une importance capitale,
dans le dispositif des nouvelles sciences émergeantes. En effet, c'est
grâce aux différentes théories confortées par la
pertinence de leurs résultats, que la physique classique a, sous la voix
de Leibniz, considéré la dynamique comme étant le
modèle d'intelligibilité de la science. La raison d'une telle
idée résulte du fait que, les lois de la dynamique, en tant
qu'elle permettent de rendre compte et des phénomènes terrestres
et de ceux du monde céleste ; étaient considérées
comme absolues, éternellement vraies.
En effet, d'après la mécanique de Newton, quand
on connaît l'état d'un système physique, à savoir
ses positions et ses vitesses, à un instant donné aussi
appelé instant initial, on peut en
12 Louis de Broglie, La physique nouvelle et les
quanta, Flammarion, 1937, pV
déduire son état à tout autre instant.
Selon Newton, pour tout système donné, les forces sont à
chaque instant déterminées par l'état du système
à cet instant. Il en déduit la conséquence, que
connaissant l'état d'un système à l'instant initial, le
calcul de sa variation au cours du temps peut être établi. Cette
conception qui a soutenu ce grand monument de la pensée universelle
qu'est la mécanique newtonienne, connaîtra avec Laplace une
formulation élégante et célèbre.
En effet, dans son Essai philosophique sur les
probabilités publié en 1814, Pierre Simon Laplace
écrit ceci : « Une Intelligence qui, pour un instant
donné connaîtrait toutes les forces dont la nature est
animée et la situation respective des êtres qui la composent, si
d'ailleurs elle était assez vaste pour soumettre ces données
à l'analyse, embrasserait dans la même formule les mouvements des
plus grands corps de l'univers et ceux du plus léger atome : rien ne
serait incertain pour elle, l'avenir comme le passé serait
présent à ses yeux. L'esprit humain offre, dans la perfection
qu'il a su donner à l'astronomie, une faible esquisse de cette
intelligence. »
Cette citation aux résonances quasi
théologiques, suscite diverses questions. Quelle place le
déterminisme laisse t- il au libre arbitre de l'homme ? Quelle place
laisse-t-il au temps et à l'évolution de l'univers ? La nature
est-elle condamnée, depuis son existence, à une hybridité
structurale ? Peut-il arriver que le monde change ? A toutes ces questions la
science classique répond par la négative et montre que l'Univers
est identique à lui-même. L'évolution de l'univers se
produit par un comportement réversible, ce qui rend possible sa
compréhension par l'esprit humain.
Cette manière étrange par laquelle le XVIII
ème siècle concevait la science est très
fréquente dans l'histoire des sciences. La science disait-on est le
royaume de la nécessité, elle a pour but de mettre au jour les
lois d'airain qui gouvernent la réalité dans sa
totalité.
Deux raisons peuvent expliquer ce rapprochement de la science
au règne de la nécessité. La première raison est
celle qui se lie à la thèse aristotélicienne selon
laquelle il n' y a de science que du général. Car, dans la
tradition aristotélicienne, ce qui est général est aussi
nécessaire. La deuxième raison d'une telle conception se lie au
fait que le discours scientifique, parce qu'il est souvent conçu sous le
modèle du raisonnement mathématique, ne procède que par
démonstration ; c'est-à-dire par un enchaînement de
différents raisonnements qui ne laisse place à aucune
incertitude.
Dans la dynamique classique, connaître les
données d'un système, c'est en prédire l'avenir. Par ce
fait, la dynamique postule qu'il existe dans l'Univers, une identité
intrinsèque entre les différents états d'un système
physique. En effet, soutenant à la suite de Kant l'idée du temps
absolu, la science classique défend que le temps est inchangeant, il est
donné une fois pour toute. Dès lors, le devenir tel que
pensé par la dynamique classique, voudrait dire « ce qu'une
évolution dynamique a accompli, une autre évolution
définie par le renversement des vitesses, peut le défaire et
restituer une situation identique à la situation initiale.
»13
On voit se dessiner à travers cette idée de
Prigogine, la conception réversible du temps, qui en fait, se traduit
par la structuration homogène des phénomènes. La
conséquence d'une telle idée résulte du fait que selon la
physique classique, l'Univers, parce qu'il a été crée par
Dieu, reste immuable et statique. Tout est donné une fois pour toute,
notre univers n'évolue pas, il est éternel, et le temps,
même s'il existe, n'a aucune influence sur son
homogénéité.
La science classique est étrangère à
l'idée de l'évolution de l'univers. En effet, depuis la
publication des équations différentielles de Newton la physique
classique a été habitée par l'idéal d'une
maîtrise et d'une compréhension de l'univers dans sa
totalité. Or, une telle croyance, parce qu'elle cherche à
globaliser l'univers, ne peut être compatible avec l'idée
d'émergence et de changement. En effet si l'on acceptait l'idée
que l'univers est en perpétuelle évolution, alors le physicien
serait incapable comme le note Alexandre Kojève, de connaître les
lois de l'évolution d'un monde qui change totalement d'aspect d'un
moment à l'autre. L'avenir ne peut pas être prévu par lui
s'il diffère complètement du passé.
On peut dire à partir de là que c'est parce
qu'ils rêvaient d'une maîtrise du réel, que beaucoup de
scientifiques ont préféré nier la réalité
effective du temps, liant celui-ci à l'expression d'une illusion de
notre esprit, ou bien à notre ignorance.
C'est sous cet angle que Einstein, dans une de ses
correspondances où il fait état de ses convictions
philosophiques, écrit à Michèle Besso en ces termes
« Pour nous autres physiciens, convaincus, la distinction entre
passé, présent et futur n'est qu'une illusion, même si elle
est tenace. » On voit que Einstein croit lui aussi au temps
réversible, d'autant qu'il affirme à l'instar de Newton que le
monde est statique et inchangeant dans sa structure profonde. Par son attitude
qui consiste à limiter le devenir à une simple
répétition du même, la physique classique a, par
l'influence de la dynamique classique, fini par désenchanter le
13 Prigogine et Stengers, La nouvelle
alliance, Gallimard, 1986, p 105
monde. Car en refusant tout caractère changeant
à l'univers, la physique newtonienne a fait de la nature un être
divin, en somme une contre-nature. C'est pourquoi Prigogine et Isabelle
Stengers ont déduit dans La Nouvelle alliance, que le monde de
la dynamique est un monde « divin » sur lequel le temps ne
mord pas, d'où la naissance et la mort, sont exclues à jamais.
En niant l'irréversibilité du temps, la physique
classique s'est trouvée partagée entre deux
réalités : une réalité
phénoménologique marquée par
l'irréversibilité du temps, et une réalité
théorique dans laquelle touts les moments demeurent identiques. Cette
dichotomie entre l'observation phénoménologique
irréversible, et la formulation réversible des lois de la
dynamique, a été l'un des véritables paradoxes qui ont
animé Ludwig Boltzmann lorsqu'il entreprit ses travaux scientifiques. En
effet, Boltzmann a tenté de réaliser en physique ce que Darwin a
eu à faire dans le domaine de la biologie : expliquer
l'irréversibilité thermodynamique par les lois de la dynamique.
Ludwig Boltzmann montre dans ses travaux sur la thermodynamique que, dans une
population nombreuse de particules, l'effet des collisions peut donner un sens
à la croissance du désordre, c'est-à-dire à
l'irréversibilité thermodynamique. De là Boltzmann affirme
que l'effet des collisions modifie les vitesses et les positions des particules
contenues dans le système considéré.
Par cet effet donc, le mouvement des particules
décroît au cours du temps jusqu'à atteindre un minimum
à partir duquel une nouvelle distribution des positions et des vitesses
des particules se réalise. Une fois cette distribution faite, les
particules ne peuvent plus être modifiées par des collisions
ultérieures nous dit Boltzmann.
Cependant, Boltzmann sera confronté dans son ambition,
à plusieurs objections venant de la part des scientifiques encore
dominés par la conception dynamique. Sans passer en revue toutes ces
critiques, nous allons ici retenir des objections les plus retenues contre ce
projet de Boltzmann. La première objection liée au
théorème de « récurrence »
développé par Henri Poincaré, postule nous dit
Prigogine que, « Tout système dynamique finira toujours,
après un temps assez long par passer aussi près que l'on veut de
la position initiale. »14. Cette obligation s'oppose donc,
à l'augmentation spontanée de l'entropie soutenue par Boltzmann.
Selon ce dernier, l'augmentation continue de l'entropie permet de comprendre et
de pouvoir expliquer l'évolution du système, qui se manifeste par
l'apparition de nouvelle forme.
14 Prigogine et Stengers, Entre le temps et
l'éternité, Flammarion, 1992, p 98
A cette objection, viendra s'ajouter une autre qui elle, est
seulement liée à une expérience de pensée.
Malgré son caractère purement hypothétique, la seconde
objection suppose que l'inversion des vitesses d'un système permet
d'observer le parcours de celui-ci suivant une trajectoire opposée.
Contraint par ces deux objections, Ludwig Boltzmann va se résigner en
abandonnant son projet d'explication de l'irréversibilité
thermodynamique, et s'accommoder à la description dynamique qui
jusqu'alors était la seule reconnue. D'ailleurs, il finira par affirmer
à travers une formule devenue célèbre : « Au sein
de l'Univers dans son entier, les deux directions du temps ne peuvent
être distinguées exactement comme, dans l'espace, il n'y a pas de
haut ni de bas. » Pour finir avec ce point concernant la dynamique
classique, nous rapportons de Prigogine le propos suivant : « Du point
de vue de la dynamique, devenir et éternité semblaient
s'identifier. Tout comme le pendule parfait oscille autour de sa position
d'équilibre, le monde régi par les lois de la dynamique se
réduit à une affirmation immuable de sa propre identité.
»15
Après avoir discuté de la négation du
temps telle qu'entreprise par la dynamique classique, nous essayons de voir
comment la théorie de la relativité, cette science rivale de la
mécanique classique, niera à son tour
l'irréversibilité du temps.
La relativité et la mécanique quantique sont les
deux théories qui ont entraîné l'effondrement de
l'idéal de la science classique. En effet, fondée sur les
principes de la causalité et du déterminisme universels, la
physique classique postulait la possibilité de prédire tout
phénomène dès lors que sont connues ses conditions
initiales. La raison d'une telle proposition se justifie par le fait qu'en
mécanique classique, on admettait l'existence d'un temps absolu,
variable pour tous les observateurs ; et cela pour tous les systèmes de
référence considérés. De plus, la physique
newtonienne affirmait que la distance qui sépare deux points dans
l'espace a également un caractère absolu et doit par
conséquent avoir donc la même valeur pour tout observateur. Ces
deux propositions scientifiques ont pendant très longtemps,
été à la base des principes de la physique classique.
Cependant des le début du XXème
siècle, une révolution spectaculaire va se produire dans le
domaine de la physique : il s'agit de la théorie de la
Relativité. Découverte en 1905, la théorie de la
relativité de Einstein, montre qu'il n'est plus possible de
considérer indépendamment les coordonnées d'espace et de
temps. Désormais, il est nécessaire selon
15 Prigogine et Stengers, Entre le temps et
l'éternité, Flammarion, 1992, p 22
Einstein de considérer un continuum à quatre
dimensions, d'où la notion d'Espace-temps née avec la
géométrie de Minkowski.
Cette révolution qui ouvre une nouvelle ère
à la physique s'est particulièrement établie à la
suite de deux énoncés qui consistent d'une part à dire,
que la vitesse d'aucun corps n'égale celle de la lumière, et
d'autre part que la vitesse de la lumière dans le vide est une
constante, indépendante de la vitesse de propagation. A partir de ces
deux énoncés Einstein affirmera contre Newton que le temps, loin
d'être une entité absolue, varie suivant la vitesse de
déplacement de l'observateur. Il n'existe plus un temps absolu valable
pour tout système physique, mais une variété de temps,
tous spécifiques à leur observateur.
Sans nous étendre outre mesure sur la théorie de
la relativité, il est important de souligner au passage que cette
dernière, de même que la mécanique quantique ; soutiennent
à l'instar de la dynamique classique, une symétrie du temps
traduite par caractère réversible de leurs équations. La
remarque faite à ce propos par Prigogine est édifiante. En effet,
ces deux auteurs soutiennent : « Malgré leur caractère
révolutionnaire, il faut reconnaître qu'à cet égard
[celui du temps] la relativité et la mécanique quantitative sont
toutes deux les héritières de la tradition classique : le
changement temporel y est conçu comme réversible et
déterministe. »16
En dépit de la rupture que sa théorie a
apporté en physique, Einstein est resté un esprit classique,
malgré la mouvance moderniste de son temps. Accepter selon lui que
quelque chose de nouveau advenait dans le monde, revenait à remettre en
cause aussi bien la puissance divine, que l'idéal de la
rationalité. Car l'émergence de nouveauté est selon lui le
signe d'une création imparfaite. Or pensait-il, si Dieu est tout
puissant, il ne peut pas ne pas créer une nature achevée,
d'où tout est donné depuis la création :
l'évolution de l'univers n'est qu'une illusion de l'esprit humain.
Ce qui intriguait le plus Einstein, c'est qu'en acceptant
l'évolution de l'univers, la physique serait amenée à
renoncer à son idéal, qui réside dans la croyance
d'atteindre un jour la connaissance complète de l'univers. Si l'univers
est changeant cela signifierait que le déterminisme est inadapté,
et qu'il faudrait laisser une place à l'incertitude et à
l'indéterminisme. Ce qui selon lui est non seulement contradictoire avec
l'image de la rationalité, mais aussi et surtout avec l'idée de
l'omniscience de Dieu.
16 Prigogine et Stengers, Entre le temps et
l'éternité, Flammarion, 1992, p 123
Parallèlement à la théorie de la
relativité, la mécanique quantique elle non plus ne rompt pas la
symétrie du temps, établie par la dynamique classique. En effet,
on affirmait dans la mécanique du point mobile, que tout mouvement
devient prédictible, à n'importe lequel de ses moments, une fois
que sa vitesse et sa position sont connues avec précision. Or Heisenberg
a montré que de par l'expérience, que dans le domaine de la
physique subatomique, il est impossible pour un électron observé,
d'avoir à la fois et sa vitesse et sa position. Dans ce domaine de
l'extrêmement petit, pour observer un atome, on a besoin
nécessairement de la lumière. Or, en projetant sur l'atome des
grains de photons de lumière, l'impact de ces grains, crée sur le
comportement de l'atome une perturbation qui se manifeste soit par la variation
de la vitesse de ses électrons, soit par la variation de leur position.
Ce climat d'indétermination totale fait que, lorsque la vitesse est
connue avec précision, la position demeure absolument inconnaissable ;
ce qui en ressort le principe d'incertitude formulé par Heisenberg. Par
ce fait, la mécanique quantique réhabilite la notion
d'indéterminisme longtemps combattue par la physique, d'où cette
nouvelle théorie scientifique ce positionne aux antipodes de la
mécanique classique.
Toutefois, il faut dire que, comme la mécanique
classique, la mécanique quantique est réversible. Car de la
même manière que la mécanique classique postule
l'équivalence des descriptions individuelles en termes de trajectoires,
la mécanique quantique elle aussi suppose un équilibre des
descriptions en termes d'ensembles statistiques. Nous pourrons dire que
l'équation de Schrödinger, définissant la fonction d'onde,
est réversible et symétrique par rapport au temps, de la
même manière que l'équation de Newton.
En effet, dans la mécanique quantique, lorsque la
fonction d'onde est connue à un instant quelconque, et les conditions
aux limites déterminées, il est possible dès lors calculer
la fonction d'onde à n'importe lequel des instants aussi bien du futur
que du passé. C'est pour cette raison que Prigogine a pu dire :
« ...L'équation de Schrödinger est réversible par
rapport au temps, exactement comme les équations classiques du
mouvement. Lorsque nous remplaçons t par -t l'équation reste
valable. Nous devons seulement remplacer ø par son complexe ø*.
»17. En résumé, retenons l'idée que,
les théories de la Relativité et de la mécanique quantique
étaient étrangères à la notion de
l'irréversibilité temporelle, qui ellemême est liée
à la conception de l'évolution de l'univers, idée encore
inédite pour la science.
17 Ilya Prigogine, La fin des certitudes,
Odile Jacob, Paris, 1998, p 164
Par ailleurs, à côté de ces trois
théories scientifiques que sont, la dynamique classique, la
relativité et la mécanique quantique, il existe une autre
conception, cette fois-ci philosophique, qui elle aussi s'oppose au
problème de l'irréversibilité : il s'agit du principe de
raison suffisante.
Ainsi formulé par Leibniz, le principe de raison
suffisante se fonde sur la théorie des vérités. En effet,
Leibniz distingue deux sortes de vérités, les
vérités dites nécessaires et les vérités de
faits, aussi appelées vérités contingentes. Les
vérités nécessaires, aussi appelées
vérités logiques, sont celles dont l'opposé est de non
contradiction. Quant aux vérités dites de faits, elles sont
contingentes. Ces dernières parce qu'elles déterminent le monde
des phénomènes, sont changeantes. Ce qui importe dans
l'étude de ces vérités, c'est le fait qu'elles ne
permettent pas une analyse exhaustive, en raison de l'idée que nous
pouvons toujours expliquer un fait par le rapprochement à son
état antérieur, et cela en remontant la chaîne des causes
qui s'étend à l'infini.
Les vérités logiques du fait de leur
nécessité, n'ont pas besoin d'être expliquer, elles sont
éternellement vraies. Ces vérités sont de l'ordre
métaphysique d'où Leibniz fait la distinction entre le domaine de
la métaphysique et celui des autres savoirs, lesquels portent sur les
vérités de faits. Nous avons dit ci-dessus que les
vérités de faits ont besoin pour être justifiées de
remonter toujours la chaîne des causes qui les ont occasionnées.
Cependant, pour que l'étude du monde physique ait un sens, il faut, nous
dit Leibniz établir un début à cet enchaînement des
causes, d'où la justification du principe de raison suffisante. Ce
principe philosophique pose l'existence de Dieu comme étant une
substance nécessaire. En tant que cause de la série des faits,
celle-ci ne lui est pas pour autant inhérente : en d'autres termes elle
la contient seulement en puissance.. Pour étayer son argumentation,
Leibniz affirme au paragraphe 37 de la Monadologie. « Il faut
que la raison suffisante ou dernière soit hors de la suite ou
série de ce détail des contingences quelqu'infini qu'il pourrait
être. »18
En effet, le principe de raison suffisante énonce
l'équivalence entre la cause « pleine » et l'effet «
entier ». Traduit en termes scientifiques, le principe de raison
suffisante montre l'impossibilité d'établir la distinction entre
l'avant et l'après dans l'évolution d'un phénomène.
Selon ce principe, tout ce qui existe à une cause, et c'est en fonction
de cette cause qu'il se manifeste dans l'existence. L'effet est en toute
logique contenu dans la cause.
18 G.W. Leibniz, Principes de la nature et de la
grâce suivi de la monadologie, Flammarion, 1996, p 250
Par conséquent, pour comprendre l'univers, il faut se
mettre dans la position de Dieu avant la création. Selon Leibniz Dieu
avant de créer l'Univers, avait dans son entendement divin toutes les
manifestations potentielles de celui-ci ; et par son décret divin, il a
fait passer l'univers de l'étape de simple possibilité à
une existence réelle. L'essence donc de l'univers lui est
préexistante. A partir de ces positions à la fois
métaphysiques et théologiques, Leibniz va déduire que du
point de vue physique, tout ce qui est, a sa raison d'être.
La conséquence d'une telle affirmation, consiste
à dire que dans l'univers, tout est explicable et intelligible. Ce qui
amène Leibniz à dire, « Rien n'arrive sans qu'il soit
possible à celui qui connaît assez les choses de rendre une raison
qui suffise pour déterminer pourquoi il en est ainsi et non autrement.
» 19
Or, affirmer la correspondance entre la cause et l'effet,
laisse entendre que le monde réel ne souffre pas du devenir, ce qui
autrement dit, voudrait signifier que l'univers tout entier échapperait
aux rides du temps. Cette idée est en fait conforme à la
pensée Leibnizienne selon laquelle, le monde évolue suivant le
décret divin qui l'a fait exister.
19 G.W Leibniz ...idem , 1996, p 228
II
La cosmologie
moderne :
la découverte du
temps perdu
L'histoire de la cosmologie a été marquée
par le développement de deux images du monde qui, au delà de leur
aspect contradictoire, ont servi de fondement aux observations astronomiques.
En effet, depuis son origine grecque jusqu'au XIX ème
siècle, la cosmologie était régie par la conception de
l'immuabilité et de l'éternité de l'univers. Aristote
croyait que l'univers était un tout organisé, fini et
hiérarchisé, d'où le vocable même de
cosmos, qui signifie en grec la totalité de l'être en
tant que celui-ci est pris dans son unité organique. Cette
inférence philosophique, a en fait poussé Aristote à
établir dans son étude du Cosmos, un système astronomique,
guidé dans son ensemble par les critères d'ordre, de
finitude et d'hiérarchisation. C'est grâce
à ces principes qu'Aristote a construit le modèle
géocentrique, dont on lui reconnaît la paternité.
Ce modèle développé par Aristote a,
pendant près de deux millénaires, servi de base à toutes
les études scientifiques et astronomiques à travers l'Europe ;
même si l'on sait que Aristote a été soutenu en cela par
l'Eglise chrétienne qui, pour des raisons théologiques, voyait en
la cosmologie d'Aristote une thèse en faveur de la création
anthropocentrique. Toutefois le modèle d'Aristote va subir à
partir du XVI ème siècle un véritable coup de
revers qui, en s'aggravant de décennie en décennie, va finalement
s'ébranler avec la décentralisation de la Terre faite par
Copernic. Sans nous attarder outre mesure sur ce vaste mouvement de
révolution dirigé contre la cosmologie d'Aristote, nous
retiendrons que tous, à savoir Aristote et ceux qui viendront
après lui, croyaient à l'idée, que l'Univers est une
totalité structurée, et qu'il n'est pas soumis au devenir.
En effet, même Giordano Bruno, celui-là
même qui a été condamné par le Vatican à
mourir sur le bûcher pour avoir soutenu l'infinité de l'univers,
défendait l'idée que l'univers est immuable. Selon lui, le
devenir en tant que signe de l'imperfection, ne peut en aucune manière
être un caractère de l'univers, d'où affirmer
l'immuabilité de l'univers était pour lui une nouvelle
manière de reconnaître et de préserver la «
perfection infinie » de Dieu. Dans un extrait intitulé
« De la causa », ce martyr de la science écrivait
dans le Cinquième Dialogue, « L'univers est donc un
infini et immobile...Il ne se meut pas d'un mouvement local, parce que rien
n'existe hors lui vers quoi il puisse se porter, étant entendu qu'il est
tout. Il ne génère pas lui-même, parce qu'il n'y a aucune
autre chose qu'il puisse désirer ou rechercher, étant entendu
qu'il contient tous les êtres. Il n'est pas corruptible, puisque rien
n'existe hors lui en quoi il puisse se changer, étant entendu qu'il est
toute chose. Il ne peut diminuer ni
s'accroître étant entendu qu'il est infini.
[...] Il ne peut être altéré en aucune façon,
puisqu'il n'a rien d'extérieur par quoi il puisse pâtir et dont il
pourrait être affecté. »20.
On voit donc par là comment la cosmologie à ses
débuts, considérait l'univers. Pour la science classique, le
critère de l'homogénéité était une
caractéristique primordiale, car si l'univers devait souffrir du
devenir, cela voudrait dire que Dieu en créant l'univers n'avait pas
parfaitement maîtrisé son art. A ce propos, lorsqu'on lit une
partie de sa correspondance, on pourrait être amené à dire
que Newton aurait accepté l'idée d'un univers temporel et
évolutif, puisque c'est Newton lui-même qui écrivait, que
pour comprendre la permanence du système planétaire, il fallait
que de temps à autre Dieu, ou un autre agent, vînt le
réparer. C'est dire que Newton était conscient du fait que le
système planétaire était instable. Mais comme
l'instabilité lui paraissait inconciliable avec la sagesse du
créateur, ce dernier fit appel à Dieu pour maintenir la
stabilité du système.
A l'inverse de Newton, Leibniz trouvait inconcevable de penser
que Dieu revenait réparer son univers, car si tel est le cas, cela
signifiait aux yeux de Leibniz que Dieu aurait commis des erreurs dans la
création. Pour Leibniz donc, l'univers est le meilleur possible. A
partir de ce point de vue, il défend que l'univers est
déterministe et réversible dans le temps. Cette attitude est en
réalité due « ...à la tendance humaine à
croire à des vérités éternelles, aussi bien qu'au
réconfort que l'homme trouvait à penser que, malgré le
fait que les années s'envolaient et qu'il mourrait, l'univers, lui,
restait éternel et identique à lui-même. » 21
C'est cette conception qui va, jusqu'au XIX
ème siècle, soutenir l'étude de la cosmologie.
Pendant toute la période de la science classique, jamais on a
imaginé que l'univers pouvait être en expansion. On admettait
généralement que, ou bien l'univers existait depuis toujours dans
un état identique, ou bien qu'il a été créer
à un moment précis du passé, plus ou moins semblable
à celui que l'on observe aujourd'hui. Il faut attendre le début
du XX ème siècle, pour voir se développer les
germes de la rupture avec cette ancienne conception de l'univers. C'est en
effet avec la grande révolution technologique, entreprise dans le
domaine de l'astronomie avec la construction des grands télescopes, que
la science moderne va petit à petit se séparer d'avec l'image
statique de l'univers.
Avec l'utilisation des télescopes à grande
portée, l'homme va étendre sa connaissance de l'univers à
des limites inimaginables. On apprend à ce moment que l'univers est
illimité et a
20 G. Brunon cité par Prigogine et Stengers
in Entre le temps et l'éternité, Flammarion, 1992, p
36
21 S. Hawking, Une brève histoire du temps
: du big bang aux trous noirs, Flammarion, 1989, p 23
un espace infini qui aurait donné à Giordano
Bruno, s'il était là pour l'observer, des vertiges.
Désormais nous savons que notre monde est en expansion continue, et
qu'il est habité par diverses formes d'êtres. La naissance de la
nouvelle image d'un univers dynamique, dont les différentes formes sont
en perpétuelle évolution. C'est de là que nous pouvons
comprendre ce propos de Hubert Reeves lorsqu'il affirme : « Il y a du
changement dans notre monde. Non seulement les formes animales changent, non
seulement les étoiles évoluent, changent de couleurs, vivent et
meurent, mais les propriétés globales du cosmos,
température, densités, états de la matière, se
modifient profondément au cours des ères. »22
Par cette révolution astronomique inédite, c'est
tout l'édifice de la science classique qui subit un énorme coup
de revers comme le disait Héraclite, « Tout change, tout coule
». Darwin de même que Boltzmann, avaient donc raison sur leurs
détracteurs : le temps est producteur de nouveauté, et de ce fait
il est irréversible. L'univers n'est pas strictement ordonné, il
abrite du désordre, somme toutes, il est fondamentalement complexe.
Dès lors, il est possible d'affirmer en guise de consolation à
Einstein qu'il se pourrait que Dieu eût joué au dé,
seulement il n'a probablement retenu que les coups gagnants. Désormais,
il est nécessaire pour comprendre l'univers, de le considérer
dans sa totalité qui, oscille entre des notions variées et
contradictoires que sont : ordre et désordre, hasard
et nécessité, organisation et complexité,
existence et devenir, lesquelles vont de paire.
Dans cette deuxième partie que nous avons
divisée en trois sections, nous allons dans un premier moment voir
comment s'est établie la conception historique de l'univers, et quelles
implications philosophique, ou scientifiques, cette conception a-t-elle
engendrées ? Dans la seconde section nous allons montrer, comment par
cette nouvelle vision de l'univers, la science, et plus particulièrement
la physique, va interpréter la pensée du temps, qui se trouve
désormais liée à la notion
d'irréversibilité. Enfin, nous essayons, dans une
troisième section, d'expliquer comment à partir des deux
premières sections, à savoir l'idée de l'histoire de
l'univers et celle de l'irréversibilité temporelle, nous pouvons
comprendre la notion d'évolution.
22 H.Reeves, Malicorne, Seuil, 1990, p 46
II-1 / La conception historique de l'univers
La question de l'origine de l'univers a depuis la naissance de
la civilisation, gagné une place importante dans les spéculations
aussi bien philosophiques que scientifiques. A partir des VII ème et VI
ème siècles déjà avant J.C, les grecs, soucieux de
cette question des origines se demandaient d'où venait le monde ? Pour
Thalès, l'univers vient de l'Eau. D'autres
après lui diront que l'univers vient du
Nombre, comme par exemple Pythagore, ou encore que
l'univers vient du Feu si nous en croyons
Héraclite. A partir de ces considérations, vont naître
différentes doctrines philosophiques, classées sous formes de
testaments appelés péri phuséos, ce qui veut dire
en grec des traités sur la nature ; d'où la naissance
des tous premiers systèmes physiques. Au fil des âges, vont
naître d'autres systèmes cosmologiques de plus en plus complexes,
comme par exemple les modèles de Platon, Aristote
Ptolémée, Copernic, Kepler jusqu'à Newton.
Tous ces systèmes, malgré leur
particularité, ont tous un point de ralliement, qui se situe dans
l'affirmation unanime qu'ils font de l'éternité de l'univers,
ainsi que de son caractère in changeant. En effet, de Platon à
Newton, on croyait que l'univers ou bien existait depuis toujours dans un
état inchangé, ou bien qu'il a été
créé à un moment précis du passé, plus ou
moins semblable à celui observé aujourd'hui. C'est ce que Hubert
Reeves montre très bien lorsqu'il affirme : « L'idée
d'une histoire de l'univers est étrangère à l'homme de
science des siècles derniers. Pour lui, immuables, les lois de la nature
régissent le comportement de la matière dans un présent
éternel. Les changements - naissance, vie, mort - visibles au niveau de
nos vies quotidiennes s'expliquent dans les termes d'une multitude de
réactions atomiques simples, toujours les mêmes. La matière
n'a pas d'histoire ».23 L'univers n'a donc ni commencement
ni fin non plus ; il est donné de toute éternité. C'est
cette idée qui a dominé la science jusqu'au
19ème siècle.
Au début du XX ème siècle, et cela avec
le développement de la technologie du matériel d'observation,
nous assistons, dans le domaine de la cosmologie, à une
révolution qui va bouleverser la conception que nous avions de l'univers
dans tous ses aspects. En effet, c'est grâce à deux
découvertes faites dans le domaine de l'astronomie, que nous allons,
pour la première fois, nous faire à l'idée de
l'évolution de l'univers : il s'agit de l'observation faite par Edwin
Hubble de l'éloignement des galaxies, et de la découverte par
Penzias et Wilson
23 H. Reeves, Patience dans l'azur, Seuil,
1988, p 17
du rayonnement fossile qui baigne tout l'univers. Les travaux
de Hubble ont eu un impact si important dans l'histoire de la cosmologie
moderne, qu'il n'est plus possible, sous aucun prétexte passer sous
silence son nom. D'abord occupé par la littérature et la
poésie, Hubble va au cours de sa vie renoncer à la
carrière littéraire qui lui est ouverte, pour s'intéresser
à l'étude de l'astronomie. Dès 1923 déjà,
Hubble, en se servant du télescope nouvellement installé sur le
mont Wilson, dans le désert de l'Arizona aux Etats-Unis, va
observer, à travers la tâche nébuleuse observée dans
la constellation d'Andromède, l'existence d'une multitude
d'étoiles.
Il prouve par cette observation, la réalité des
univers îles longtemps annoncés par Emmanuel Kant. Hubble
montre ainsi, que l'univers s'étend au-delà de notre galaxie.
L'univers est désormais extra galactique, d'où notre galaxie est
perdue dans l'immensité de l'univers ; tout comme notre système
solaire s'était déjà perdu dans l'immensité de la
voie lactée. En plus de la découverte qu'il a faite à
propos de la galaxie d'Andromède, Hubble a contribué de
façon remarquable à développer la connaissance que l'homme
avait de l'univers. Même s'il est reconnu comme étant un
observateur infatigable de l'univers, Hubble est, il faut le noter, un grand
interprète et un grand génie pour l'élaboration des
théories scientifiques. En effet, grâce au spectroscope, appareil
servant à étudier et à décomposer les spectres de
la lumière, et à la théorie de l'effet Doppler,
Hubble va élaborer une théorie scientifique sur le mouvement et
le comportement des galaxies dans l'espace.
Avant de continuer, essayons, auparavant d'expliquer ce que
signifie l'Effet Doppler. Ce concept scientifique, traduit une
théorie connue sous le nom du physicien Autrichien Johann Christian
Doppler. Selon ce dernier, tout comme le son, la lumière subit une
disporpotionalité de radiation qui pourrait se résumer ainsi :
« Quant un objet lumineux s'éloigne de nous, sa
lumière devient plus grave, elle est
décalée vers le rouge et perd de l'énergie, tandis que
sil'objet lumineux vient vers nous, sa lumière devient plus
aiguë, elle est décalée vers le bleu et
acquiert de l'énergie. Le changement de couleur est
d'autant plus grand que la vitesse d'éloignement ou d'approche augmente.
» 24
En effet, c'est à partir de ces deux méthodes
d'observation que Hubble va entreprendre l'étude de l'univers.
S'appliquant à observer l'univers, l'astronome américain
découvre que sur quarante et une galaxie observées, trente et six
avaient leurs lumières décalées vers le rouge, tandis que
cinq seulement avaient leurs lumières plus ou moins bleues, ce qui
traduit suivant la théorie de l'effet Doppler, leur rapprochement dans
le sens de l'observateur. A
24 Trinh Xuan Thuan, La mélodie
secrète, Gallimard, 1991, p 59
partir donc de ces deux constatations, Hubble conclut que le
mouvement des galaxies ne se fait pas de manière
désordonnée. Car si tel était le cas dit-il, on se
trouverait dans une situation où la moitié des galaxies en
moyenne aurait dû s'approcher de la voie lactée et l'autre
moitié s'en éloigner. Mais étant donné que ceci est
loin de ce qui est observé dans la réalité, Hubble affirme
qu'à des distances lointaines toutes les galaxies s'éloignent
à grande vitesse les unes des autres.
Il montrera plus tard, que les cinq galaxies que l'on voit se
rapprocher de la nôtre, appartiennent au même amas galactique que
la « voie lactée », amas que les astronomes nomment
amas local ou encore « amas de la vierge ». Muni de
la vitesse d'éloignement des galaxies, qu'il a obtenue en
étudiant les changements de couleurs de leurs lumières, ainsi que
des distances qui séparent celles-ci de nous, Hubble affirme sous la
forme d'une loi universelle que la vitesse de fuite des galaxies est
proportionnelle à leur distance. Cette loi dite « loi de Hubble
» postule l'idée suivante : « Une galaxie deux fois
plus distante s'éloignait deux fois plus vite, tandis qu'une galaxie dix
fois plus distante fuyait dix fois plus vite. D'autre part le mouvement de
fuite des galaxies était le même dans toutes les directions.
» 25
C'est à partir de ces observations, ainsi que des
différentes déductions scientifiques qui s'en suivront, que
l'idée de l'expansion de l'univers va se poser comme une
hypothèse scientifique, plus que probable. Cette idée sera
à la base de la cosmologie, pendant tout le développement du
nouveau paradigme de la physique moderne. Toutefois, malgré la rigueur
scientifique et la crédibilité des données de
l'expérience, les physiciens ont de très bonne heure
rejeté l'idée de l'expansion de l'univers comme un fait
scientifique, car celui-ci était a priori contradictoire avec
les convictions philosophiques d'autrefois.
Cependant, cette idée encore douteuse, sera consolider
par les travaux mathématiques de Einstein, Friedman et Lemaître,
mais aussi et surtout par la prédiction faite par Gamow du rayonnement
fossile. Considérant l'hypothèse de l'expansion de l'univers
Gamow postulait, qu'en remontant l'échelle du temps cosmique,
l'état de l'univers serait comprimé dans un espace infiniment
petit et infiniment chaud. Gamow montre aussi, que la distribution dans
l'espace des différentes formes de corps tels que, les galaxies, les
étoiles et les planètes, ne peut être expliquée que
par l'hypothèse qui consiste à dire que, dans un passé
assez lointain, l'univers avait procédé à une explosion
fulgurante. L'explosion avait dû être très forte et
très
25 Thinh Xuan Thuan, La mélodie
secrète, Gallimard, 1991, p 71
puissante, pour pouvoir propulser à des distances et
des vitesses aussi intenses, la matière de l'univers. A partir de ces
suggestions hypothétiques, Gamow affirmera que la lumière
dégagée par cette explosion primordiale doit encore exister dans
l'univers, mais si celle-ci est invisible, c'est tout simplement parce qu'elle
s'est tellement refroidie, qu'elle a fini par perdre toute son énergie
initiale.
L'existence de cette lueur fossile a été
prédite parallèlement par trois scientifiques, reconnus sous le
trio Apher, Bethe et Gamow. Prédite dans les années 1940, ce
rayonnement fossile restera prés de vingt ans, sans que nous puissions
en faire la moindre expérience scientifique. En 1965, deux physiciens
américains Arno Penzias et Robert Wilson vont créer le
déclic. Travaillant pour la société des Bell
Téléphone Laboratories de New Jersey aux USA, ces deux
physiciens constatent, lors d'une mission pendant laquelle ils devaient tester
un détecteur ultra sensible d'ondes centimétriques (comme les
ondes radio), que leur appareil captait beaucoup plus de bruit qu'il ne le
devait. Ils cherchèrent à savoir en vain, d'où pouvait
provenir ce bruit étrange qu'ils entendaient. Ces derniers se mirent
à changer à plusieurs reprises la direction de leur appareil
espérant échapper au bruit ; mais ils continuaient toujours de
recevoir les résonances de ce bruit. A force de l'étudier, ils
finirent par comprendre que ce bruit apparemment anormal, était
uniformément répandu à travers toute l'atmosphère.
D'où ils en déduisent que l'origine de ce bruit doit se trouver
au-delà de notre système solaire voire même de notre
galaxie. Car disaient-ils, si cela n'était pas le cas, ce bruit aurait
varié du fait que le mouvement de la Terre, en orientant le
détecteur dans différentes positions aurait occasionné une
variation des résonances.
Quelques années plus tard, deux autres physiciens
américains de l'université de Princeton cette fois-ci vont, en
suivant les prédictions de Georges Gamow s'investir dans la recherche de
cette lueur fossile qui, disent-t-il doit s'être transformée
à cause de l'expansion de l'univers, en ondes centimétriques.
Lorsque Bob Dicke et Jim Peebles s'apprêtèrent à recherche
ce rayonnement fossile, Penzias et Wilson, saisis de cette rumeur, comprirent
aussitôt que la présence de cette lueur était la cause du
léger bruit anormal que captait leur détecteur. Ils affirment
publiquement avoir trouvé cette lueur fossile prédite par Gamow,
ce qui leur a valu le prix Nobel de physique, qu'ils reçurent
en 1978.
Partant des deux plus grandes découvertes de
l'astronomie moderne à savoir : l'expansion de l'univers d'une part et
le rayonnement fossile de l'autre, la cosmologie moderne va élaborer une
théorie scientifique, connue sous le nom de théorie de Big Bang.
C'est le
physicien Russe Alexandre Friedman, qui a été le
premier à poser à titre d'hypothèse plausible de l'univers
observé, cette idée du Big bang. Friedman postulait en effet que
l'univers à ses débuts, devait avoir été
très chaud, très dense et intensément rayonnant à
l'image de tout corps chauffé. Selon la théorie du Big bang,
l'univers est issu d'une grande explosion à partir de laquelle toute la
matière s'est répartie dans tous les sens.
Donc, tout ce qui est observé dans l'univers visible,
partant de l'existence des galaxies à la formation des planètes,
jusqu'à l'apparition même de l'homme sur Terre, a commencé
à exister et à évoluer à partir de ce grand boom.
C'est à partir de ces hypothèses et implications scientifiques,
que va naître dans le domaine de la science l'idée de l'histoire
de l'univers. C'est ainsi que Hubert Reeves écrit à ce propos,
« L'image d'une matière historique s'impose maintenant de toute
part. Comme les vivants, les étoiles naissent vivent et meurent,
même si leurs durées se chiffrent en millions ou en milliards
d'années. Les galaxies ont une jeunesse, un âge mûr, une
vieillesse. L'histoire du cosmos, c'est l'histoire de la matière qui
s'éveille. L'univers naît dans le plus grand dénuement.
N'existe au départ qu'un ensemble de particules simples et sans
structure. Comme les boules sur le tapis vert d'un billard, elles se contentent
d'errer et de s'entrechoquer. Puis par étapes successives, ces
particules se combinent et s'associent. Les architectures s'élaborent.
La matière devient complexe et performante, c'està-dire capable
d'activités spécifiques. »26
Comme tout modèle scientifique, le big bang n'est
qu'une théorie physique en ce sens que celle-ci est définie,
comme un modèle d'univers et un ensemble de règles mettant en
relation des quantités issues du modèle et des observations. A
partir de l'hypothèse du Big Bang, la physique moderne va toutefois
établir trois modèles cosmologiques différents, qui
traduisent chacun une image de l'expansion de l'univers.
Le premier modèle, proposé par le physicien et
mathématicien russe Alexandre Friedman, postule que notre univers
s'étend à une vitesse suffisamment lente, que l'attraction
gravitationnelle s'exerçant entre les différentes galaxies,
finira par ralentir l'expansion qui éventuellement s'arrêtera. Si
nous en croyons Friedman, nous devons s'attendre au scénario suivant
lequel nous verrons les galaxies se rapprocher progressivement les unes des
autres, conduisant ainsi l'univers à se contracter avec elles. Selon ce
modèle donc, l'évolution qui a commencé au point
zéro appelé big bang, va s'accroître jusqu'à
atteindre son maximum. Une fois ce maximum atteint, l'univers connaîtra
une phase retour qui lui fera suivre le chemin
26 H. Reeves, Patience dans l'azur, Seuil,
1988, pp 18-19
inverse, en se rétrécissant jusqu'à
rejoindre le point initial d'où il est parti. Dans un tel modèle,
« L'univers n'est pas infini dans l'espace, mais l'espace n'a pas pour
autant de frontières. La gravité est si forte que l'espace est
refermé sur lui-même, le rendant plutôt semblable à
la surface de la Terre. »27
Quant au second modèle cosmologique, il postule
qu'après l'avènement du big bang, l'univers s'est étendu
à une vitesse d'expansion si rapide, que l'attraction gravitationnelle
ne pourra jamais l'arrêter, bien qu'elle la ralentisse plus ou moins.
Selon ce modèle donc, l'évolution qui a commencé au temps
zéro, sera suivie de l'expansion et de la séparation progressive
de toutes les galaxies les unes des autres suivant une vitesse
régulière. Dans ce modèle, l'espace est infini,
c'est-à-dire courbé à l'image d'une selle.
Enfin, nous en venons au troisième et dernier
modèle cosmologique. Selon ce modèle, l'univers s'étend
à une vitesse assez suffisante pour pouvoir empêcher le
scénario contraire du grand retour. Dans ce modèle, l'expansion,
représentée par l'éloignement des galaxies, commence
à l'instant zéro du big bang et croît indéfiniment.
Toutefois, il faut dire qu'à travers ce modèle, la vitesse
d'expansion des galaxies s'affaiblit de plus en plus sans jamais s'annuler pour
autant. L'espace représenté par ce modèle est un espace
plat.
De nos jours, la conception de l'histoire de l'univers, est
devenue une vérité à laquelle nul ne peut douter, tant les
observations astronomiques nous la révèlent par des
théories de plus en plus manifestes et précises. Ces
dernières nous montrent en effet que, issu de l'explosion initiale,
l'univers évolue en se complexifiant, ce qui explique la
hiérarchie et la variation de structures que l'on observe au sein de ce
dernier. Toutefois, il ne faut pas croire que le pari soit gagné
à cette étape de la recherche. Car malgré ce triomphe de
la cosmologie, l'hypothèse du big bang laisse néanmoins certaines
questions sans réponses. L'expansion va-t-elle se poursuivre
indéfiniment ? L'univers arrêtera-t-il son expansion pour
s'effondrer un jour sur lui même ? Qu'est-ce qui existait avant le big
bang ? A quel moment précis l'univers a-t-il commencé son envol
vers le devenir ? Voici des questions qui nos jours, ne cessent d'intriguer la
communauté scientifique.
Conscient du fait qu'aucune expérience possible n'est
aujourd'hui en mesure de répondre de façon claire à ces
interrogations d'ordre énigmatique, Claude Allègre soutient qu'il
faut rattacher à notre appréhension du destin de l'univers, une
marge considérable d'incertitude. Il
27 S.W. Hawking, Une brève histoire du
temps, Du big bang aux trous noirs, Flammarion, 1989, p 67
écrit : « Certes, il s'est sans aucun doute
produit une grande expansion il y a dix à douze milliards
d'années, et cette expansion est à l'origine de
l'éloignement des galaxies. Mais la nature de cette expansion est pour
l'instant du domaine de la spéculation ou, au mieux, du scénario.
Tout comme l'est le futur de l'univers. Qu'il soit actuellement en expansion
est une réalité physique qui ne semble guère contestable.
Mais le sera-t-il indéfiniment. ? » 28. Ce n'est ni
à travers la lecture des cartes, ni par l'imagination d'un esprit
surhumain, comme celui proposé par la fiction de Laplace, que nous
pouvons répondre à ces questions portant sur l'avenir de
l'univers.
Sans prétendre répondre de manière ferme
à ces interrogations, la cosmologie moderne souligne néanmoins
que les réponses à ces questions dépendent d'un certain
nombre d'hypothèses, que les astronomes et astrophysiciens ont
l'habitude de nommer par le concept de paramètres
cosmologiques. Sans prétendre apporter une réponse nette,
essayons de voir en quoi consistent ces paramètres
cosmologiques généralement regrouper au nombre de trois.
Le premier paramètre appelé paramètre
de Hubble, est lié à l'âge de l'univers. Ce
paramètre nous renseigne sur le rythme de réalisation des
évènements contenus dans l'univers. En effet, ce paramètre
détermine le temps que l'univers a pris dans son évolution pour
réaliser toutes les formes d'existence observées en son sein.
Dans cette logique de mesure d'âge, la cosmologie moderne
détermine l'âge de l'univers, dans une fourchette comprise entre
dix et vingt milliards d'années.
La question de l'âge de notre univers, est
abordée en cosmologie à travers trois méthodes
différentes. La première consiste à déterminer
l'âge de l'univers d'après le mouvement des galaxies. En effet,
tel que défini par Hubble, le mouvement des galaxies présume que
la vitesse d'expansion est proportionnelle à la distance à
laquelle se situe la galaxie. Il s'ensuit que, si une galaxie est deux fois
plus loin de nous qu'une autre galaxie, cela voudrait dire qu'elle
s'éloignera de nous deux fois plus vite que la seconde. En appliquant
cette méthode aux galaxies les plus lointaines de notre univers
observable, la cosmologie moderne détermine, par le calcul des vitesses
de ces galaxies, le point zéro correspondant à celui du
début de l'univers, à un moment situé entre quinze et
seize milliards d'années dans le passé.
La seconde méthode de calcul, s'appuie sur l'âge
des plus vieilles étoiles. Il s'agit à travers cette
méthode, de déterminer au sein des groupements d'étoiles,
la distribution de leurs
28 Claude Allègre, Introduction à une
histoire naturelle, Fayard, 2004, p 31
masses. Selon cette méthode, l'âge des plus
vieilles étoiles, est approximativement égal, à la
durée de vie de la plus grosse survivante. Comme pour la première
méthode, celle-ci donne un âge qui varie entre quatorze et seize
milliards d'années.
La troisième et dernière méthode,
concerne l'âge des plus vieux atomes. Cette méthode qui est la
plus technique de toutes les trois, procède par la détermination
des demi-vies des atomes. Par définition, la demi-vie d'un atome, est le
temps requis pour que dans une population innombrable d'atomes identiques, le
nombre de survivants diminue de moitié. Cette méthode postule que
l'atome d'hydrogène est le plus vieil atome, suivi de l'hélium
puis de l'atome de carbone etc. Comme les deux précédentes, cette
troisième méthode donne elle aussi un âge d'environ
quatorze milliards d'années. Ces trois méthodes scientifiques,
apportent la preuve une fois de plus de la théorie du big bang, vue
l'approximation des résultats observés. Sans perdre le fil
d'Ariane qui nous lie ici à la problématique du devenir de notre
univers, on voit que l'inexactitude des âges, manifestée par
l'étude du paramètre de Hubble, est due à notre ignorance
concernant la mesure exacte de la profondeur de l'univers.
Quant au deuxième paramètre
cosmologique, aussi appelé paramètre de
décélération, il postule que toutes les galaxies
subissent l'influence de l'attraction gravitationnelle de toute la masse
contenue dans l'univers, à savoir celle de la masse visible et celle de
la masse invisible. Selon ce paramètre donc, chaque galaxie est plus ou
moins freinée dans son mouvement d'éloignement : elle
décélère. On voit à travers ce paramètre que
le destin de l'univers reste incertain, du fait qu'on n'est pas encore en
mesure de déterminer avec exactitude la totalité de la masse de
l'univers. Cette ignorance est due au fait que d'une part, nos instruments
d'observations ne peuvent voir qu'à une certaine limite de
l'étendu de l'univers, et d'autre part, parce qu'il existe une
matière que nos méthodes d'observations ne sont pas en mesure de
voir. Cette matière étrange est appelée par les astronomes
sous le nom de matière noire. C'est dans cette catégorie
de matière que son placés les trous noirs,et tout ce qui est de
la même nature que ces derniers.
Enfin, examinons le troisième paramètre
cosmologique. Ce dernier paramètre est lié à celui
dit de décélération. Toutefois, loin de décrire le
phénomène de ralentissement de l'univers, ce paramètre
s'attaque à ce qui pourrait être la cause même de ce
ralentissement. Il s'agit pour ce paramètre, de définir la masse
ou plus exactement la densité de l'univers, d'où le nom de
paramètre de densité par lequel il est
désigné. En effet, selon ce paramètre, si la
densité de l'univers est inférieure au nombre critique de trois
atomes d'hydrogène par mètre cube, alors
son expansion ne s'arrêtera pas. Mais si au contraire la
densité est supérieure à trois atomes d'hydrogène
par mètre cube, alors l'univers sera condamné dans le futur
à s'effondrer sur luimême. Le big bang, sera suivi par
son effet contraire de contraction appelé big crunch, ce qui
signifie la grande implosion. Sans être absolues, les
études disponibles de nos jours, ont plus tendance à soutenir
l'idée d'une expansion infinie, plutôt que celle d'une
éventuelle contraction dans le futur. Car des études
approximatives faites sur la densité de l'univers, ont tendance à
montrer que l'univers est léger, c'est-à-dire qu'il ne comporte
pas le nombre des trois atomes d'hydrogène par mètre cube,
d'où la conclusion que celui-ci ne risque pas de s'effondrer sur
lui-même.
Après avoir fini avec la problématique que
soulève le destin de notre univers, essayons d'examiner les arguments
soutenus contre la théorie du big bang. Dans cette étude
des controverses, commençons par examiner celle soulevée par
Albert Einstein. Einstein, est celui qui mit fin au caractère rigide de
l'espace tel que celui-ci a été défini par Newton. En
effet, Newton affirmait que l'espace et le temps sont des absolus. Ils sont
indépendants de la matière qu'ils comportent. Selon lui l'espace
et le temps ne sont nullement affectés par le comportement des corps qui
se trouvent en leur sein. Selon Newton, le mouvement que la lune fait autour de
la terre sur son orbite, est un mouvement qui se détermine par
l'équilibre maintenu par deux forces égales et opposées :
la force de gravitation par laquelle la Terre attire la Lune, et la force
centrifuge par laquelle le lune tente de s'éloigner de la Terre.
L'équilibre de ces deux mouvements contradictoires, justifie donc selon
lui le mouvement circulaire de rotation que la Lune exerce autour de la
Terre.
Einstein s'opposera gravement à cette idée.
Selon lui, le Temps, l'Espace et la Matière ne peuvent pas être
considérés séparément, ils forment tous ensemble un
seul et unique contenu. Einstein va reconsidérer l'exemple cité
ci-dessus et dire, que la lune suit son orbite circulaire autour de la Terre,
parce que c'est la seule trajectoire possible, dans un espace courbé par
la gravité de la Terre. Ainsi, la présence de la matière
courbe l'espace qui se situe à son environnement immédiat.
L'espace est élastique, il peut s'étirer, se déformer se
tordre ou même se contorsionner suivant la gravité. Ce qui
implique la formulation de la relativité générale,
publiée en 1916 par Einstein.
Cette nouvelle théorie n'a pas convaincu, pendant ses
premiers mois, la sensibilité des scientifiques. Il a fallu attendre
trois années après sa publication, pour voir se réaliser
expérimentalement une des prédictions de cette théorie. En
effet, c'est l'astronome royal et
professeur à l'Université de Cambridge, Arthur
Eddington qui va, lors de la célèbre éclipse solaire de
1919, observer que la masse du Soleil courbe, comme Einstein l'avait
pensé, la trajectoire de la lumière des étoiles
lointaines. En effet, celui-ci constate que les rayons de lumières en
passant au cours de leur trajectoire près du Soleil, sont
légèrement perturbés par la présence du Soleil,
d'où ces rayons se trouvent légèrement courbés vers
l'intérieur du corps entravant. Cette expérience va une fois de
plus rendre plus célèbre Albert Einstein, car sa théorie
de la relativité générale est devenue une
vérité scientifique approuvée par l'expérience.
Seulement, la relativité
générale débouche sur des implications très
intéressantes. Ces dernières consistent à dire, que si
l'espace de l'univers est en mouvement de par son élasticité,
alors l'univers est soit en expansion ou en contraction. Einstein refusera
d'accepter cette conclusion, parce qu'il trouve que celle-ci est non seulement
contraire à ses conceptions philosophiques, mais aussi et surtout parce
que cette conclusion ne correspondait pas à ce qui était
observé pas les études astronomiques. Cet attachement à la
tradition encore dominée par la croyance à l'univers statique, a
poussé Einstein à modifier sa théorie de la
relativité générale en y introduisant un concept nouveau
appelé, constante cosmologique. Par ce concept, Einstein va
conférer à l'espace-temps la propriété de se
dilater. Cependant cette tendance innée à s'étendre sera
selon Einstein, contre carrée par l'attraction de toute la
matière de l'univers ; de sorte que les tendances d'expansion et
d'attraction, lorsqu'elles s'annulent dans un équilibre parfait,
finissent par maintenir l'univers dans un état statique. Il est possible
de dire dés lors que la constante cosmologique, est une sorte
de nouvelle force d'anti-gravité. C'est pourquoi, lorsque
Einstein apprendra plus tard, la découverte par Hubble de l'expansion de
l'univers, il qualifiera son introduction de la constante cosmologique de
« plus grosse erreur de sa vie ».
Parallèlement à la théorie du Big bang,
d'autres modèles scientifiques d'univers se sont formés et
développés. Ces derniers n'ont pas eu les mêmes
succès que la théorie du big bang, mais en tant qu'ils sont des
hypothèses sur l'univers, ils méritent néanmoins
d'être étudier. Parmi ces modèles, nous allons ici retenir
le modèle dit d'état stationnaire, parce qu'il est non
seulement le plus célèbre mais aussi le concurrent le plus
sérieux de la théorie du big bang.
Soutenu vers les années 1948 par Herman Bondi, Thomas
Gold et Fred Hoyle, le modèle de l'état stationnaire
s'est posé comme une théorie rivale du big bang.
Basée sur la notion de principe cosmologique, un des postulats
de la relativité, la théorie de l'état
stationnaire
postule que l'univers doit être homogène et
isotrope, c'est-à-dire identique à lui-même en tout lieu et
dans toutes les directions.
Inspiré de l'hypothèse Einsteinienne de la
constante cosmologique, la théorie de l'état stationnaire
ira beaucoup plus loin que Einstein, et va, à la suite de ce
dernier, formuler ce qui est communément reconnu comme étant le
principe cosmologique parfait. Selon ce principe, l'univers est immuable aussi
bien dans l'espace que dans le temps. Ce modèle conclut que l'univers
est de tout temps semblable à lui- même : il est stationnaire.
Ainsi donc, la théorie de l'état stationnaire rejette
les notions d'évolution et de changement dont nous savons, qu'elles sont
au fondement même de la théorie du big bang. En complément
nous dit l'astrophysicien anglais Stephen.W Hawking, la théorie de
l'état stationnaire suggère que « tandis que
les galaxies s'éloignent de plus en plus les unes des autres, de
nouvelles galaxies se forment dans les interstices à partir d'une «
création continue » de matière. L'univers
aurait donc toujours à peu près la même
allure à tous les moments du temps et sa densitéserait
en gros constante. »29
Ce modèle de l'état stationnaire va
cependant s'opposer aux données de l'expérience. D'abord par son
principe de la création continue, ce modèle supposait
que les galaxies sont de nos jours plus nombreuses qu'elles ne l'ont
été dans le passé ; ce qui vraisemblablement n'est pas
vrai si nous nous référons à ce que nous montrent les
observations. En effet l'astronome Martin Ryle et ses collaborateurs, ont
montré par l'observation des radio sources, que le nombre de galaxies a
dû être plus grand dans le passé, qu'il ne l'est
actuellement ; observation qui de ce fait contredit le modèle de
l'état stationnaire.
La deuxième incohérence dont fait preuve cette
théorie de l'état stationnaire, est liée à
l'homogénéité prétendue que cette théorie
postule. Contrairement à ce qui prétendait l'état
stationnaire, à savoir que l'univers est de tout temps semblable
à lui-même, Penzias et Wilson prouvent en 1965 que l'univers
était très dense et très chaud dans ses premiers moments.
La preuve nous disent Penzias et Wilson, c'est que le rayonnement fossile qui
baigne l'univers dans toutes ces directions, est une relique de la chaleur
infernale qui a accompagné l'avènement du big bang. Cette chaleur
dont la température est aujourd'hui de trois degrés
absolus, a décru par l'effet de l'expansion de l'univers, qui
impose irréductiblement la dilution et le refroidissement. Cette
découverte astronomique a donc fini par sonner le glas de
29 S.W. Hawking. Commencement du temps et fin de
la physique, Flammarion, 1992, p 106
la théorie de l'état stationnaire. Le
big bang s'impose désormais comme la théorie
scientifique la plus probable de l'univers.
En effet, malgré la résistance qu'elle a connue
chez certains astronomes et astrophysiciens, la théorie du big bang est
devenue le nouveau langage commun, la nouvelle représentation du monde ;
en un mot la mélodie la plus récente de l'histoire de la musique
de l'univers. En moins d'un demi-siècle, la théorie du big bang
est devenue le paradigme de la cosmologie moderne, c'est-à-dire la
théorie à partir de laquelle sont conçus et
planifiés les projets et les observations astronomiques. Cette
théorie du big bang doit son charme sans aucun doute, à la
capacité qu'elle a de prédire et de rendre cohérentes,
toutes les découvertes et observations scientifiques. Parmi les
prédictions et les faits que la théorie du big bang permet
d'expliquer on peut citer : la permanence du rayonnement fossile, l'abondance
de l'hélium dans l'univers, la quasi correspondance entre les
âges, des plus vieilles étoiles et des plus vieux atomes, la fuite
des galaxies etc. à ce propos nous pouvons affirmer : « Avec le
big bang, l'univers prend une dimension historique. On peut parler maintenant
d'une histoire de l'univers, avec un commencement et une fin, un passé,
un présent et un futur. L'univers Newtonien statique, immuable et
dépourvu d'histoire est relégué au rang des univers
moribonds »30
De même que la conception historique de l'univers a mis
fin à l'univers statique et éternel de la mécanique
classique, de même la théorie du big bang a aussi mis fin à
l'image réversible du temps, soutenue par la dynamique newtonienne.
Désormais on sait qu'à tous les égards, la nature comporte
une flèche du temps unidirectionnel. Le temps est
irréversible. La distinction entre passé, présent et futur
n'est pas seulement un constat psychologique comme le croyait Saint Augustin,
elle est un phénomène profondément réel.
II-2 / Le temps retrouvé
Nos réflexions sur le temps sont presque toujours
confuses, sans doute, parce que nous ne savons pas trop de quel type d'objet il
s'agit. Au fait, Qu'est-ce que le temps ? Posée à chacun d'entre
nous, la réponse à cette question paraît facile et
évidente pour tout le monde. Une opinion courante nous incline à
croire connaître le temps. Parce que nous sommes tous
30 Thrinh Xuan Thuan, La mélodie
secrète, Gallimard, 1991, p 107
familiers à ce concept, chacun semble comprendre de
quoi il s'agit lorsque le mot temps est prononcé. Cependant,
nul n'est en mesure de dire avec certitude ce que cette notion recouvre. Le
temps est-il une chose ? Est-il une idée ? Est-il une apparence ?
N'est-ce qu'un mot ? Existe-t-il vraiment ? Voici les différentes
interrogations sous lesquelles se posent les difficultés, que suscite la
notion de temps. Toutefois le sentiment de maîtrise et de
sûreté qui semble nous habiter lorsque nous appréhendons
cette notion, devrait suffire à résoudre une fois pour toutes les
interrogations qu'elle soulève.
En effet, même si l'intuition du temps qui passe est un
phénomène universel, la définition du temps semble
être au-delà de nos capacités intellectuelles.
Généralement posé comme l'une des questions fondamentales
de la métaphysique, le temps se trouve à la croisée des
chemins entre la physique et la métaphysique. Ce caractère ambigu
et peu confortable de la notion du temps, inspira une célèbre
boutade à Saint Augustin. Pour ce père de la théologie
chrétienne, le temps est une création de Dieu au même titre
que l'espace, d'où il le situait dans une dimension existentielle
distincte de l'éternité que le contenait. Saint Augustin
reconnaissait en fait que le temps est un absolu certes, mais quant à
dire ce qu'il est au juste, ce théologien semble incapable de le savoir.
Ainsi dans le livre onze de ses Confessions,il s'interrogea en ces termes :
« Qu'est-ce que le temps ? Si personne ne me le demande, je le sais ; mais
si on me le demande et que je veuille l'expliquer, je ne le sais plus ! Et
pourtant, je le dis en toute confiance, je sais que si rien ne se passait, il
n'y aurait pas de temps passé, et si rien n'advenait, il n'y aurait pas
d'avenir, et si rien n'existait, il n'y aurait pas de temps présent.
Mais ces deux temps, passé et avenir, quel est leur mode d'être
alors que le passé n'est plus et que l'avenir n'est pas encore ? Quant
au présent, s'il était toujours présent sans passer au
passé, il ne serait plus le temps mais l'éternité. Si donc
le présent, pour être du temps, ne devient tel qu'en passant au
passé, quel mode d'être lui reconnaître, puisque sa raison
d'être est de cesser d'être. »31
Ainsi, il semble que le temps soit rebelle à toute
tentative d'explication. Son écoulement passe de manière si
rapide, que l'homme se trouve dans l'incapacité de le saisir. Ne pouvant
dès lors avoir la grappe mise sur cette notion complexe, l'esprit humain
reste ballotté entre les différents instants qui composent le
temps à savoir : le moment passé, le moment présent et le
moment futur. Dans la vie quotidienne, le temps est perçu sous deux
aspects qui recouvrent, d'une part, la notion de durée et, d'autre part
celle d'orientation. En tant que durée, le temps a
31 Saint Augustin, Les confessions,
Flammarion, Paris, 1964, p 264
à peu près la même signification pour tout
le monde. Il définit dans ce cas, la quantité de durée
séparant deux évènements. Par contre, conçu en tant
qu'orientation, la notion de temps traduit l'irréductible flux de son
mouvement. C'est par ce caractère, que nous pouvons, faire la
distinction entre un moment présent et le moment passé qui l'a
précédé, tout autant il en est de même entre un
moment présent et celui qui va lui succéder.
Toutefois, il faut souligner que la notion de temps va
revêtir, au cours de l'histoire de la philosophie, plusieurs
interprétations, que nous allons ici retracer de manière
très brève. Dans l'antiquité déjà,
Parménide et après lui Platon considéraient le temps comme
une entité immobile. Il est l'image mobile de l'éternité
comme le disait Platon. Après ces derniers, Aristote va lui aussi
s'intéresser à cette notion. Dans ses réflexions, Aristote
définit le temps comme étant le nombre du mouvement selon l'avant
et l'après. Le temps est une qualité, et il ne peut être
saisi que par la mesure des durées perçues.
Cette conception aristotélicienne va presque valoir
jusqu'au XVII ème siècle. A cette époque, le
développement de la mécanique amorcé d'une part par
Descartes, et d'autre part par les travaux de Galilée sur la chute des
corps, va se poser comme le point de rupture avec la physique traditionnelle.
Des études sur le mouvement ont radicalement modifié la
conception du temps depuis Aristote. A l'époque de celui-ci, il
était réductible à la qualité et
irréductible à la quantité ; ce qui n'est plus le cas. En
effet, tout le 17ème siècle va, avec le
paramètre du mouvement, reprendre la conception de Saint Augustin et
montrer, que le temps n'existe que par le changement qui s'opère dans le
mouvement de l'être. C'est dans cette mouvance intellectuelle, que
peuvent être classés des auteurs tels que Newton, Leibniz, Kant,
Hegel et même dans une certaine mesure Henri Bergson. Cette époque
marque la dichotomie entre la notion de temps abstrait,et celle de
durée sensible.
C'est avec Newton, que nous allons assister au
véritable rejet du temps vulgaire et empirique, et épouser
l'idée d'un temps abstrait, absolu et mathématique. Le temps
devient une notion homogène, indépendante de toutes les choses
qui peuvent s'y dérouler. A cette période, même acceptant
l'idée que les évènements se déroulent dans le
temps, ces derniers ne l'influencent nullement. Pendant la même
époque, Leibniz, celui-là même qui a été
l'adversaire et le concurrent intellectuel le plus en vue de Newton, postulait
que le temps est de l'ordre des choses successives. Il n'a pas de sens en
dehors des phénomènes. A côté de ces deux
conceptions, s'ajoutent celles de Kant et de Hegel. Selon Kant, le temps est
une forme à priori de la sensibilité, une condition
préalable à toute expérience. Quant à Hegel, il
met
l'accent non pas sur le temps en tant que tel, mais sur la
manière avec laquelle il se manifeste, manière qu'il appelle la
temporalité. Hegel définit le temps comme étant le passage
du passé à l'avenir à travers le présent. Il est ce
mouvement qui, dans la réalisation du phénomène, oppose en
les niant, les diverses phases d'évolution de l'être. Le temps est
à la fois ce qui pose et oppose l'être à sa propre
réalité.
Pour finir cette brève histoire de la pensée du
temps, il importe de noter l'impact de la pensée de Bergson. En effet,
Bergson oppose le temps à la durée. Selon lui
l'opposition entre le temps et la durée, peut se comprendre par le fait
que la durée, en tant que phénomène mental, traduit la
conscience que nous avons de l'écoulement du temps. Celle-ci est
strictement distincte du temps qui lui, traduit la projection de cette
durée dans l'espace physique. Le temps est de ce fait un flux
irréversible, il est créatif parce qu'il est toujours gros
de l'avenir. Il nous est donné de lire sous la plume de
Bergson, « Le temps est invention ou iin'est rien du tout.
Mais du temps-invention la physique ne peut pas tenir compte, astreinte
qu'elle est à la méthode
cinématographique. Elle se borne à compter les
simultanéités entre les évènements constitutifs de
ce temps et les positions du mobile T sur sa trajectoire. Elle détache
ces évènements du tout qui revêt à chaque instant
une nouvelle forme et qui leur communique quelque chose de sa nouveauté.
»32. Par cette citation Bergson énonce,
l'incapacité pour la science de considérer le temps dans son
mouvement de flux irréversible. Cette incapacité a conduit la
physique à substituer la notion de temps-invention par celle de
temps-longueur, ce qui justifie la conception réversible que
cette science soutenait à l'égard du temps. La notion
d'irréversibilité était donc étrangère
à la science.
L'irréversibilité est devenue objet
d'étude scientifique, à partir du 19ème
siècle, plus précisément avec l'avènement de la
thermodynamique. Définie comme étant la science qui étudie
les propriétés de la chaleur, la thermodynamique a en fait vu le
jour avec les travaux de Sadi Carnot, publiés en 1824 sous le titre de
Réflexions sur la puissance motrice du feu. En effet,
Carnot montre dans cet écrit que « La puissance motrice de la
chaleur est indépendante des agents mis en oeuvre pour la
réaliser ; sa quantité est fixée uniquement par les
températures des corps entre lesquels se fait en dernier résultat
le transport du calorifique. ». Carnot avait pour ambition
première de voir comment on pouvait améliorer le
développement et la vitesse des machines à vapeur, dont
l'industrie était en plein essor en ce temps. En fait, il
32 H. Bergson, L'évolution
créatrice, PUF, 1941, p 341
montre qu'il est impossible de construire un engin qui
pourrait transformer en travail, l'énergie calorifique fournie par une
seule source de température uniforme.
Sûr de cette idée, Carnot énonce sous
forme de propositions, deux principes scientifiques, qui seront retenus comme
étant les principes de la thermodynamique. Le premier principe
postule que la chaleur et le travail sont deux formes équivalentes
de l'énergie. Quant au second, plutôt issu de ses
observations, il postule qu'une machine thermique ne fonctionne que si elle
rétrocède un minimum de la chaleur reçue d'une source
chaude, à une source froid. Ce second principe, recevra plusieurs
formulations équivalentes desquelles on peut noter la formule
simplifiée que Kelvin énonce en ces termes : « La
chaleur va spontanément du chaud vers le froid. »
Énoncés depuis 1824, ces deux principes de la
thermodynamique connaîtront avec Clausius une formulation plus simple. En
effet, Clausius montre que la fonction des paramètres du système
nommée par ailleurs entropie, c'est-à-dire la mesure du
désordre contenu dans un système ; augmente toujours au cours du
temps jusqu'à atteindre sa valeur maximale à travers laquelle, le
système reste dans un état d'équilibre thermodynamique.
Étendus à tout l'univers, les principes de la
thermodynamique tels que reformulés par Rudolf Clausius,
présument pour le premier que l'entropie du monde est
constante, et pour le second que l'entropie du monde tend vers un
maximum. Au-delà de ce que nous venons de noter, Clausius montre
aussi que dans un système isolé, constitué de deux fanges
à températures initialement différentes, il est impossible
que la plus froide transmette de la chaleur à la plus chaude, sans une
intervention extérieure. Il y a donc selon lui, une
irréversibilité dans les échanges de chaleur entre des
corps à températures différentes. En effet souligne
Clausius, lorsque deux corps de températures différentes passent
par échanges de chaleur, de leurs températures initiales à
des températures plus ou moins semblables, ces derniers ne pourront plus
rejoindre leurs températures initiales. Ce transfert est
irréversible.
Cette affirmation de l'irréversibilité va rendre
certains esprits perplexes. Elle sera la cause de plusieurs controverses, dont
les plus hardies ont été, selon notre avis, celles soutenues dans
les années 1874 et 1876 par William Thomson et Loschmidt. En effet, les
interrogations qui intriguaient les esprits de ces derniers, consistaient
à se demander : comment peut-on expliquer le fait qu'une dynamique
réversible puisse engendrer à l'échelle macroscopique des
processus irréversibles ? On se souvient que cette question avait aussi
été
l'énigme que Ludwig Boltzmann s'était
proposé de résoudre. Ce dernier voulait expliquer
l'irréversibilité des processus thermodynamiques, en des termes
réversibles tels que décrits par la dynamique classique. En
effet, Boltzmann montre que dans une population nombreuse de particules,
l'effet des collisions peut donner un sens à la croissance de
l'entropie, c'est-àdire à l'irréversibilité
thermodynamique. Il affirme que l'effet des collisions, modifie les positions
et les vitesses des particules contenues dans un système
isolé.
Par ailleurs, Boltzmann postule que le mouvement des
collisions, décroît de façon monotone au cours du temps,
jusqu'à atteindre un minimum. Une fois ce minimum atteint, il se
réalise au sein du système, une distribution des positions et des
vitesses des particules, qui dès lors restent constantes parce que ne
pouvant plus être modifiées par de probables collisions
ultérieures. Cependant, contraint par de multiples objections, venant
essentiellement des défenseurs de la dynamique classique, Boltzmann va
finalement renoncer à son projet d'explication de
l'irréversibilité. Il supposera en définitive que
l'irréversibilité ne renvoie pas aux lois fondamentales de la
nature, mais à notre manière grossière,
c'est-à-dire macroscopique, de la décrire. Selon lui « A
chaque évolution dynamique correspondant à une croissance de
l'entropie, l'égalité entre cause pleine et effet entier permet
de faire correspondre l'évolution inverse, qui la ferait
décroître : c'est l'évolution qui restaurerait les «
causes » en consommant les « effets. » 33 Après
l'échec de Boltzmann, la physique va se tenir à cette
interprétation dynamique, qui en fait, détruit le
caractère irréversible du temps.
Cependant, quelques années après les travaux de
Boltzmann, Einstein va formuler la théorie de la
relativité dite restreinte qui va au fil des
années enchanter le monde de la science. Avant Einstein, on pensait que
le temps objectif était fixe, toujours le même. On pensait que
seul le temps subjectif était variable, dépendant de
l'état d'esprit de la personne qui l'observe.
En effet, les travaux d'Einstein sur la
relativité ont pour conséquence, non seulement le fait
que le temps objectif est variable, sinon en plus, qu'il est impossible de
définir le temps objectif. Le temps est relatif et varie en fonction de
la vitesse et des champs d'accélération locaux que sont par
exemple, la gravitation, les changements de vitesse ou de direction etc. Pour
cette raison, on ne peut jamais parler de simultanéité dans
l'univers. Entre autre conséquence, il y a le fait que par la
théorie de la relativité, Einstein remplace l'espace plan de la
géométrie euclidienne, par un espace courbe. Tout comme l'espace,
le temps est aussi
33 Prigogine et Stengers, Entre le temps et
l'éternité, Flammarion, 1992, p27
élastique. Il s'étire ou se raccourcit selon le
mouvement de l'observateur. Dès lors, le temps unique et universel
soutenu par la physique newtonienne, est remplacé par une multitude de
temps individuels, tous différents les uns des autres.
Après ses succès réalisés avec la
relativité restreinte, Einstein va en 1915 porter un nouveau
coup dur à l'encontre de la mécanique classique. En effet,
Einstein montre par la formulation de la relativité
générale, qu'espace, temps et
matière ne peuvent exister séparément. Ils
forment tous ensemble une seule réalité indivisible. Einstein
montre par la théorie de la relativité
générale que l'espace-temps varie suivant la
quantité de matière présente aux environs. Autrement dit,
il montre que la présence de la matière déforme l'espace
qui, lui-même par sa courbure, ralentit plus ou moins le temps. En
définitive, il faut dire qu'en niant la simultanéité
absolue du temps, Einstein pose la possibilité de l'affirmation d'une
distinction entre l'avant et l'après. L'irréversibilité
n'est plus limitée à un phénomène mental, elle
n'est plus le signe de notre ignorance face à la
réalité.
Pour revenir à notre notion
d'irréversibilité, il faut dire que c'est avec la
science de la thermodynamique, que l'irréversibilité a
intégré les champs de la science. Parti originairement de la
chimie, le concept d'irréversibilité va petit à petit
conquérir tous les domaines de la science. Dans le domaine de la chimie,
Jean Joseph Fourier montre, dans sa théorie de la propagation de la
chaleur dans les solides, que le flux de la chaleur entre deux corps est
proportionnel au gradient de température entre ces deux corps. Cette loi
au caractère irréversible, sera confirmée et
consolidée par l'énonciation du second principe de la
thermodynamique. Il est possible de dire, que c'est le second principe de la
thermodynamique qui a introduit la notion du temps dans le domaine
scientifique. Toutefois, il faut signaler tout de même que l'image de
l'irréversibilité temporelle, a au cours de l'évolution de
la science connu différentes interprétations.
Tout d'abord, le temps s'introduit avec l'idée de la
croissance continue de l'entropie. Originairement formulée par Clausius,
la croissance de l'entropie se fait sous la forme d'une évolution qui se
dirige progressivement vers l'homogénéité et la mort
thermique. Dans ce cas, le temps produit certes, une asymétrie de forme,
mais cette dernière finit par s'annuler sous une nouvelle forme
d'équilibre, où le système retrouve son identité.
Avec le temps cette idée sera abandonnée. En effet, lorsqu'on a
découvert par les travaux de Hubble, Penzias et Wilson, que l'univers
était en expansion, on commença à comprendre que l'univers
n'est pas un système fermé, mais qu'il est au contraire ouvert
vers le futur. Dès lors, la science va
réintégrer le second principe de la
thermodynamique, en y montrant l'émergence d'ordre qui se traduit dans
l'univers par la production de nouveauté.
Désormais, on montre que l'entropie augmente
continuellement, sans atteindre un état d'équilibre final. Car
tout en s'amplifiant, le désordre de l'univers crée dans
certaines localités, des poches d'ordre qui se manifestent à
l'échelle macroscopique par l'apparition des formes nouvelles. En guise
d'illustration, nous recouvrons « L'entropie devient ainsi un
indicateur d'évolution, et traduit l'existence en physique « d'une
flèche du temps » pour tout système isolé, le futur
est la direction dans laquelle l'entropie augmente. »34
Avant de continuer, arrêtons-nous un peu, et expliquons
ce que signifie la notion de flèche du temps. C'est le
physicien Anglais Arthur Eddington qui a équipé le temps
d'une emblème : la flèche. Tirée de la civilisation de la
Grèce antique, la mythologie grecque attribuait la notion de
flèche à Eros, le dieu de l'Amour,
généralement représenté comme un enfant fessu et
ailé qui blesse les coeurs des hommes de ses flèches
aiguisées. En effet, Eddington va reprendre cette belle image de la
mythologie et l'adapter à la science. La flèche du temps
ne symbolisera plus le désir amoureux, mais plutôt le sentiment
tragique que nous éprouvons tous d'une fuite inexorable du temps. Pour
les physiciens, la flèche du temps se traduit par
l'irréversibilité de certains phénomènes physiques,
comme par exemple la chute d'un coco du haut d'un cocotier vers le sol. Ce
mouvement est dit irréversible parce qu'on a jamais vu, et on ne
l'imagine même pas, un coco quitter la terre, où sa chute l'a
conduit, résister à la pesanteur pour rejoindre la place qui
était la sienne sur le cocotier. Ce phénomène digne d'un
miracle, même s'il s'avère possible dans l'entendement d'un
fervent croyant à l'omnipotence de Dieu, est radicalement impossible
à l'égard des lois physiques.
Pour revenir à notre idée de départ, qui
nous a conduit à la notion de l'entropie, attardons nous un peu sur la
thermodynamique. Comme toutes les sciences, la thermodynamique a aussi eu une
histoire. En effet, le développement de la thermodynamique s'est fait
suivant trois étapes différentes que sont : la thermodynamique
d'équilibre, la thermodynamique linéaire et la thermodynamique de
non équilibre.
Dans la thermodynamique dite d'équilibre, la production
d'entropie est nulle à l'équilibre. Cette thermodynamique
correspond aux systèmes isolés et fermés. Quant à
la thermodynamique dite linéaire, la production d'entropie est dans ce
cas faible, de telle sorte
34 Prigogine et Stengers, La nouvelle
alliance Gallimard, 1986, p 189
qu'il est possible de décrire des comportements stables
et prévisibles. Ce qui caractérise cette thermodynamique dite
linéaire nous dit Prigogine, c'est que quelque soit sa situation
initiale, le système considéré atteint finalement un
état déterminé par ses conditions aux limites. Sa
réaction à un changement de conditions, devient elle aussi
prévisible. Enfin ,nous allons pour finir avec cette distinction, voir
le cas de la thermodynamique non linéaire. Aussi appelée
thermodynamique de non équilibre, la thermodynamique non linéaire
se caractérise par le fait que, « la production d'entropie
continue à décrire les différents régimes
thermodynamiques, mais elle ne permet plus de définir un état
attracteur, terme stable de l'évolution irréversible.
i5. Loin de l'équilibre, la stabilité du
système ne peut en aucun cas être prédite par ses
conditions initiales. C'est donc avec la thermodynamique de non
équilibre, que la notion d'irréversibilité va jouer son
plein rôle.
Dans la thermodynamique non linéaire, les structures
dissipatives vont occuper une place fondamentale dans la forme de
l'évolution du système. La structure dissipative se
définit comme étant un ensemble chimique, qui se maintient et
s'organise en dehors de l'équilibre thermodynamique. Contrairement
à la manifestation du second principe de la thermodynamique lorsqu'il
est appliqué à un système fermé, la structure
dissipative représente un système ouvert,
caractérisé par le fait qu'il est constamment traversé par
un flux de matière et d'énergie, ce qui lui permet de diminuer
son entropie et de s'organiser.
En effet la notion d'irréversibilité
diffère en fonction que nous passons de l'interprétation d'un
système isolé fermé, à celui d'un système
ouvert comme celui représenté par une structure dissipative. Dans
un système isolé, l'état d'équilibre auquel aboutit
l'évolution progressive du système est un état
stationnaire, ce qui représente un cas particulier de la
thermodynamique. Dans un tel cas, l'équilibre thermodynamique s'explique
par le fait que l'entropie ne varie pas au cours du temps. Tandis que dans les
processus dissipatifs, loin de l'équilibre, la variation de l'entropie
à l'intérieur du système thermodynamique se constitue de
deux manières : «...l'apport « extérieur »
d'entropie qui mesure les échanges avec le milieu et dont le signe
dépend de la nature de ces échanges, et la production d'entropie,
qui mesure les processus irréversibles au sein du système.
»36. Ce qui veut dire que l'état d'équilibre
correspond au cas particulier où les échanges, avec le milieu ne
font pas varier l'entropie. De cela il en ressort que la production d'entropie
est par conséquent nulle.
35 Prigogine et Stengers, La nouvelle
alliance, Gallimard, 1986, p 212
36 Prigogine et Stengers, Entre le temps et
l'éternité Flammarion, 1992, p 49
Nées de l'instabilité, les structures
dissipatives, intrinsèquement régies par une série de
bifurcations, se caractérisent par leurs capacités à
créer le désordre. Toutefois, lorsque ces structures sont
posées dans des conditions de non équilibres, ces
dernières constituent une source d'organisation. Pour mieux comprendre
cette idée, considérons les explications faites dans ce sens par
Prigogine et Isabelle Stengers concernant le système dit de
tourbillon de Bénard. En effet, ces deux scientifiques montrent
que « Les cellules de Bénard constituent un premier type de
« structure dissipative », dont le nom traduit l'association entre
l'idée d'ordre et l'idée de gaspillage et fut choisi à
dessein pour exprimer le fait fondamental nouveau : la dissipation
d'énergie et de matière, généralement
associée aux idées de perte de rendement et d'évolution
vers le désordre, devient, loin de l'équilibre, source d'ordre ;
la dissipation est à l'origine de ce qu'on peut bien appeler de nouveaux
états de la matière. »37
La symétrie du temps, celle-là même qui
caractérise les systèmes d'équilibre, est brisée
dans la thermodynamique de non équilibre. Dans les systèmes loin
de l'équilibre, les fluctuations que subissent ces derniers, font
apparaître une diversité d'états stables possibles. Lorsque
ces états stables atteignent au cours de leur organisation leur seuil
critique, ils introduisent au sein même du système, un
élément irréductible d'incertitude. Poussé
jusqu'à un tel niveau d'organisation, le système adopte, en
fonction de la nature des fluctuations, l'un des états macroscopiques
possibles.
Un tel processus est ce que l'on nomme en physique une
bifurcation, qui se définit comme étant le point critique
à partir duquel un nouvel état de la matière devient
possible. C'est ce processus qui régit en fait, toutes les formes
d'évolution observées dans la nature, allant de la formation des
étoiles et galaxies à l'apparition de l'homme sur Terre. Ainsi
apparaît-il, que c'est avec le développement de la physique des
processus de non équilibre, que l'irréversibilité sera
réellement considérée comme un phénomène
naturel. Longtemps reléguée dans le domaine de la
phénoménologie, la notion d'irréversibilité n'est
plus une propriété introduite par notre ignorance ; mais
révèle plutôt la marque de la réalité.
Autrement dit, ce n'est pas nous qui produisons l'irréversibilité
en ce sens qu'elle serait le fruit de notre imagination, mais c'est elle qui
nous a produit en ce sens que nous sommes ses enfants. Prigogine écrit,
« L'irréversibilité ne peut plus être
identifiée à une simple apparence qui
37Prigogine et Stengers, La nouvelle
alliance, Gallimard, 1986, pp 215-216.
disparaîtrait si nous accédions à une
connaissance parfaite. Elle est une condition essentielle de comportements
cohérents dans des populations de milliards de milliards de
molécules. » 38
L'affirmation en des termes scientifiques de
l'irréversibilité, va donner à la physique une nouvelle
orientation. Désormais la science va concevoir la flèche du
temps, sans pour autant réduire celle-ci au caractère
approximatif de notre description de la nature. En effet, ,contrairement
à la physique classique qui, basée sur la dynamique newtonienne,
limitait la nature à des observations réversibles, la physique
moderne nous montre que la nature présente à la fois des
phénomènes réversibles et des phénomènes
irréversibles; seulement ceux qui sont irréversibles forment la
règle de la nature, tandis que les autres n'en sont que de rares
exceptions, qui ne s'appliquent qu'à quelques cas particuliers.
Autre fait important, c'est que
l'irréversibilité, longtemps liée à la production
de désordre, va petit à petit, et surtout avec l'avènement
des structures dissipatives, se poser comme étant une condition à
l'émergence d'ordre. On reconnaît maintenant avec le
développement de la thermodynamique des processus de non
équilibre, que l'irréversibilité mène à la
fois au désordre et à l'ordre. Ainsi « Nous pouvons
affirmer aujourd'hui que c'est grâce aux processus irréversibles
associés à la flèche du temps que la nature réalise
ses structures les plus délicates et les plus complexe. La vie n'est
possible que dans un univers loin de l'équilibre. » 39.
Dire que la science de la thermodynamique a fini par remettre en cause le
fameux postulat de l'ordre, longtemps soutenu pas la science classique, n'est
pas une aberration.
En effet, contrairement à la science classique qui
affirmait que l'univers était rigoureusement ordonné dans son
essence même, le second principe de la thermodynamique, postule que
l'entropie - la mesure du désordre - de l'univers doit toujours
augmenter vers un maximum. Cet énoncé révolutionnaire peut
paraître à certains égards, contradictoire à la
réalité, en considération selon l'organisation et la
complexité de notre univers. Cependant, il n'en n'est rien de tout cela.
L'organisation de l'univers est bel et bien conforme avec le second principe de
la thermodynamique. Car la thermodynamique n'interdit pas, qu'en certains
endroits particuliers et privilégiés, l'ordre s'installe, que les
structures s'organisent, que la complexité se construise, que la
conscience émerge. Sans l'existence du désordre, l'univers ne
connaîtrait aucun coin d'ordre, et il n'y aurait aucune vie, pas moins la
moindre
38 I. Prigogine, La fin des certitudes, Odile
Jacob, Paris, 1998, p 12
39 Prigogine, La fin des certitudes, Odile
Jacob, Paris 1998, pp 31-32
trace de l'établissement d'une conscience. C'est ce que
Trinh montre lorsqu'il écrit : « L'ordre que représente
la vie sur Terre n'est possible que grâce au désordre plus grand
que crée le Soleil en convertissant les atomes d'hydrogène en
énergie, lumière et chaleur. Toutes les structures de l'univers,
galaxies ou planètes, doivent leur existence à deux facteurs :
l'expansion de l'univers et la création de désordre par les
étoiles. L'expansion de l'univers est essentielle pour refroidir le
rayonnement fossile et créer un déséquilibre de
température entre les étoiles et l'espace qui les entoure. Ce
déséquilibre permet à son tour aux étoiles de se
transformer en machines à fabriquer du désordre. Celles-ci
rejettent leur lumière chaude désordonnée dans la
lumière plus froide et plus ordonnée qui les enveloppe. Le
désordre se communique de la lumière chaude à la
lumière froide, le désordre total augmente et des coins d'ordre
peuvent surgir sans violer la deuxième loi de la thermodynamique.
»40. Ainsi donc, la complexité et l'organisation
peuvent spontanément surgir dans un univers en expansion et inventeur de
nouveauté. Dès lors, l'hypothèse du Dieu
horloger, qui a inspiré les travaux de Leibniz et Newton, ne semble
plus être nécessaire.
Avec la physique moderne et plus précisément
avec les avènements de la théorie de la relativité, de la
cosmologie moderne et de la thermodynamique, la pensée du temps
revêtira un nouveau visage. La découverte de la flèche
du temps voyageant vers la même direction, va faire voler en
éclats l'image réversible que la physique newtonienne avait
donné à la notion de temps. L'irréversibilité ne se
limite plus à déterminer le monde microscopique, elle permet
aussi à expliquer notre univers, de sa naissance
présupposée avec le big bang à sa structure actuelle.
Observant la complexité et la diversité des structures du
réel, nous pouvons en conclure l'idée d'après laquelle :
« Il est nécessaire à la cohérence de notre
position que la flèche du temps, la différence entre le
rôle joué par le passé et par le futur, fasse partie de la
cosmologie puisqu'elle constitue un fait universel, partagé par tous les
acteurs de l'évolution cosmique. »41
Pour clore ce chapitre nous allons après avoir
révélé la problématique liée à la
pensée du temps, essayer de voir les enjeux qui restent liés au
problème de son commencement. Dans le chapitre huit de son ouvrage
intitulé La fin des certitudes, Prigogine posait cette question
en ces termes : le temps précède-t-il l'existence ? En
effet dit Prigogine, si notre univers a une origine et un commencement
situés dans le temps, ce temps auquel correspond cette origine,
40Trinh xuan thuan, La mélodie
secrète, Gallimard, 1991, pp 303-304 41 Prigogine,
La fin des certitudes, Odile Jacob, Paris, 1998, p 221
ne devrait-il pas lui aussi avoir logiquement existé
à un moment donné qui correspondrait à son
commencement.
A ce propos Saint Augustin, ce théologien dont la
pensée du temps avait bouleversé l'esprit, considérait que
le monde n'a probablement pas existé dans le temps, mais avec le temps.
Selon cet homme de l'Eglise, le monde et le temps sont co-existentiels,
d'où il les situ en un lieu hors de l'existence de Dieu. Dieu, en tant
qu'il transcende le temps, se situe en dehors du temps, il est éternel.
La question de l'origine du temps, se trouve donc à point nommé
entre la réflexion philosophique et les déductions
scientifiques.
Poser la question de savoir où commence le temps,
revient à se demander la question tant débattue en science,
qu'est celle de l'âge de l'univers. En effet, jusqu'à nos jours,
aucune théorie scientifique n'est en mesure de déterminer avec
précision l'âge de l'univers, même si on sait que la
cosmologie contemporaine fixe celui-ci dans une tranche comprise entre dix et
vingt milliards d'années. Il y a toujours une incertitude qui reste
attachée à toute tentative d'approximation de cet âge. La
théorie de la relativité, celle-là même qui sert de
base à la cosmologie moderne, se heurte, dans sa tentative de
reconstruction des premiers moments de l'univers, à une limite
au-delà de laquelle rien n'est donné ; mieux encore, une limite
où rien ne peut être connu de manière scientifique. Ce
milieu dit-on, correspond à un milieu quantique très dense au
point que toutes les hypothèses de la relativité perdent pied. Ce
milieu a selon les physiciens une densité de l'ordre de 1096
kg m1-3, densité qu'on s'accorde à nommer en terme
scientifique, densité de Planck, en référence au
physicien Max Planck. En remontant le temps, ce lieu d'incertitude correspond
au temps évalué à 10 - 43 secondes, c'està-dire aux
tous premiers instants qui ont suivi le big bang.
A cause de ces deux entraves épistémologiques,
la science ne peut plus parler de l'origine de l'univers. Cette question dont
on a voulu faire l'objet de la cosmologie, se rebelle et réclame son
incompatibilité avec toute tentative de conceptualisation. En effet,
nous dit Marc Lachize-Rey « Nous sommes clairement dépourvus du
cadre conceptuel permettant de parler d'une éventuelle naissance, d'une
création de l'univers. Le processus fondateur de l'univers, s'il en
existe un, n'a pu se dérouler dans le cadre de l'univers puisqu'il a
abouti, précisément, à créer ce cadre. Il n'a pu se
dérouler dans le temps puisque l'existence du temps implique
déjà celle de l'univers. Imaginer le contraire conduit vite
à des paradoxes, d'ailleurs reconnus depuis longtemps. S'il y avait eu
quelque chose (ne serait-ce que le temps) avant le « début »
de l'univers, l'univers eût été déjà
là, par définition. Il ne se serait
donc pas agi de son début. Si l'on veut aborder ces
concepts, il faut se placer d'un point de vue « hors du temps ». Mais
la science - et c'est peut-être sa barrière la plus fondamentale -
ne peut rien nous dire de l'intemporel. » 42. L'origine du
temps n'est donc pas l'objet de la science, d'où celle-ci ne devra
s'occuper que de son commencement.
La question du commencement du temps se retrouve en filigrane
dans toute l'oeuvre de l'astrophysicien anglais Stephen Hawking. En effet,
fasciné par la question des origines, cet homme a tourné son
oeuvre entière autour des thèmes des origines, des
singularités, du temps, et dans une certaine mesure du caractère
inévitable des lois qui décrivent l'univers. Même en
relativité générale, cette science qui contrairement
à la théorie gravitationnelle, s'occupe des champs à
très haute énergie, le temps perd toute signification lorsque
nous remontons vers une singularité comme le big bang. Avec la forte
densité de la matière et sa température infiniment chaude,
l'espace-temps compris dans un tel milieu quantique devient infiniment courbe.
Or, écrit Hawking « Et comme toutes les théories
scientifiques actuelles sont formulées sur une base spatio-temporelle,
ces théories aussi cessent de s'appliquer à ces
singularités. Si bien qu'à supposer qu'il y ait des
évènements antérieurs au Big bang, on ne pourrait pas
prédire à partir de ces évènements l'état
actuel de l'univers, parce que la prédictibilité serait rompue au
moment du Big bang. »43
A partir de là nous pouvons qu'il n'est pas non plus
possible, de déterminer ce qui s'est passé avant le big bang, en
partant de la connaissance des faits qui l'ont succédé.
L'existence où non d'évènements antérieurs au big
bang est purement métaphysique, en ce sens que même s'ils ont
existé, ils n'ont aucun effet sur l'état actuel du monde. C'est
ainsi que l'on peut affirmer avec Stephen Hawking, que le temps a
commencé avec le big bang. Et la fin du temps, si elle est un
phénomène possible, adviendra avec l'avènement de ce que
l'on appelle par opposition au big bang, le big crunch ce qui
signifie la grande implosion. Un tel phénomène de la fin
du temps sera identique à celui que l'on observe aux alentours des trous
noirs. En effet, un trou noir est une région de l'espace qui reste
invisible aux observateurs lointains, parce que le champs de gravitation y est
suffisamment intense au point que rien ne puisse s'en échapper, pas
même la lumière.
Pour clore cette idée de l'origine ou du commencement
du temps, essayons de voir ce qu'en dit Alain Bouquet. Ce physicien
écrit, dans la présentation qu'il a faite à l'ouvrage,
42 Klein et Spiro, Le temps et sa
flèche « A la recherche du temps cosmique » Flammarion,
1996, p 92
43 S. Hawking, Commencement du temps et fin de la
physique ?, Flammarion, 1992, p 104
Commencement du temps et fin de la physique ? de
Hawking, ceci : « Au moment du Big bang, le temps est
créé en même temps que l'espace et l'énergie, et
inversement, c'est pour cela qu'il perd son sens près d'une
singularité. Dans un univers dépourvu de singularité
grâce à une « régularisation » quantique aussi
bienfaisant qu'hypothétique, ce problème-là ne se pose
plus. Tous les points de l'espace et du temps sont aussi réguliers les
uns que les autres, il n'y a plus d'instant privilégié,
distingué des autres. »44
II-3 /Evolution et structures émergentes
Le XXème siècle marque en l'homme, la
prise de conscience de sa situation et de son isolement dans l'univers immense
et mystérieux. Jusqu'au XIXème siècle, l'homme
ne savait pas du tout où il était ni même d'où il
venait. Au 17ème siècle déjà, la
découverte de l'infinité de l'univers, celle-là même
qui a brisé les sphères fixes établies par Aristote, avait
rendu Pascal perplexe. L'homme, cet être qui croyait occuper les centres
de l'univers et de la création, s'est vu ballotté dans un petit
coin fini et insensé aux yeux de l'infinité de l'univers. L'homme
on le sait aujourd'hui, est perdu dans un espace étroit de la banlieue
de notre galaxie, la voie lactée, qui elle-même ne
représente qu'un grain de sable insensible, dans l'immense plage de
notre espace cosmique. Dans les Pensées Pascal se demandait
« Qu'est-ce que l'homme dans la nature ? [Il répond] un
néant à l'égard de l'infini, un tout à
l'égard du néant en somme, un milieu entre rien et tout. »
Toutes ces questions au caractère énigmatique,
étaient toutes placées dans le domaine de la spéculation
métaphysique, tant il était difficile d'y répondre avec
certitude.
Le XXème siècle ouvre la voie royale à la
connaissance de l'homme et du monde. Nous savons maintenant avec Darwin, que
l'homme ne constitue plus une singularité par rapport à
l'univers. L'histoire de l'homme ne peut être racontée
parallèlement à l'histoire de tout l'univers, toutes deux tracent
le chemin de la graduation complexe de l'univers. La science moderne, en
découvrant que l'univers n'a pas cessé d'évoluer vers une
complexité croissante, a éclairé la condition humaine d'un
jour nouveau. En effet, nous dit Armand Delsemme « Sorti d'un
état d'une simplicité extrême, l'univers a
échafaudé des structures de plus en plus complexes dont nous
sommes l'aboutissement. L'explosion primordiale a fabriqué d'abord des
particules élémentaires, puis les a assemblées en quelques
atomes légers, qui ont formé les premières étoiles.
Ces étoiles ont fabriqué une grande variété
d'atomes lourds
44 S. Hawking, Commencement du temps et fin de la
physique ?, Flammarion, 1992, p 43
qu'elles ont dispersés dans l'espace interstellaire.
Ces atomes ont fait les premiers grains de matières solides et les
premières molécules organiques. La matière solide allait
permettre l'existence d'une planète comme la Terre ; les
molécules organiques allaient y apporter
toutes les substances indispensables à l'apparition
de la vie. La croissance de la complexitédes structures biologiques sur
notre planète apparaît comme la conséquence
inéluctable de
tout ce qui a précédé, de sorte que
l'évolution qui a finalement conduit à l'homme en semble
l'aboutissement logique. » 45
Ainsi donc, Armand Delsemme raconte par un
résumé très succinct, l'histoire de l'univers, de son
origine explosive à l'apparition de l'homme sur Terre. Vue de
l'extérieur, cette histoire paraît simple et inévitable,
mais nous savons que tel n'est pas le cas. En réalité, comme une
femme en état de grossesse, l'univers enfante au prix de la douleur et
de la patience ; il est en perpétuelle gestation. Comme un architecte,
l'univers pose d'abord des briques, les brise, essaye avec de nouvelles
briques, encore et encore jusqu'à réaliser un édifice
complet. Hubert Reeves le montre bien lorsqu'il dit : « À
chaque seconde, quelque chose mûrit quelque part. La nature sourdement
fait son oeuvre et s'épanouit en son temps. »46. «
La nature ne fait pas de saut » disait Leibniz, tout arrive à
son heure. L'histoire et l'évolution de l'univers, sont des
phénomènes qui arrivent dans le temps et par le temps : le temps
est donc le grand sélecteur.
Comme nous l'avons noté dans le premier chapitre de
cette deuxième partie, l'univers, dans ses débuts, était
très chaud et extrêmement dense. Ce moment qui correspond aux
premières années après le big bang, n'a vu l'existence que
d'une soupe homogène de matière fluide. Cette boule de feu chaude
et dense, contenait toute la matière dont sera formé tout ce qui
existe. L'univers dans ses débuts n'était formé que de
quarks. En effet, le quark est défini comme étant la plus petite
particule élémentaire qui compose le noyau d'atome. C'est par le
jeu de leurs liaisons en nombres très variables, que ces particules
subatomiques ont formé les différents noyaux atomiques.
Cependant, ces particules essentielles dans la structuration de l'univers, ne
peuvent pas exister indépendamment. Selon les physiciens, les quarks
existent avec leurs contraires nommés anti-quarks. Ces mêmes
physiciens affirment que lorsqu'on associe un quark et un anti-quark de
même nature et de charge opposée, ces derniers s'annihilent dans
une forte radiation. Or l'univers, parce qu'il était très dense
et très chaud au big bang et pendant les premières
décennies qui ont suivi cet événement,
accélérait grâce à ses conditions le mouvement des
particules lesquels s'annihilent perpétuellement.
45 A. Delsemme, Les origines cosmiques de la
vie, Flammarion, 1994, pp 16-17
46 H. Reeves, Patience dans l'azur, Seuil,
1988, p 220
Quelques milliers d'années après le big bang,
l'univers va par son expansion, baisser se température. Devenu moins
chaud qu'auparavant, l'univers, en permettant un ralentissement du mouvement
des particules, va favoriser la réalisation des liaisons entre quarks
qui vont donner naissance aux protons et aux neutrons. Au fur et à
mesure que l'univers s'étend, sa température devient de moins en
moins chaude, ce qui permet la formation des premiers noyaux d'atomes et des
électrons. Toutes ces phases d'évolution, parce qu'elles se
produisent à très hautes température et forte
densité, ne mettent en jeu que les forces nucléaires, qui en
fait, sont maître dans l'échelle subatomique.
Lorsque la température de l'univers va descendre
jusqu'à atteindre les quatre mille degrés Kelvin, les noyaux
d'atomes vont se lier aux électrons pour former ensemble les premiers
atomes, parmi lesquels ont d'abord existé l'atome d'hydrogène et
celui de l'hélium. Ce stade d'évolution est très important
et très instructif, si l'on veut comprendre l'histoire de l'univers.
Comme on le sait, à très haute
température, la matière et la lumière se lient dans un
couple matière-radiation. Pendant longtemps, ce thème a
été l'un des débats qui animaient les discussions
scientifiques sur la nature de la lumière. Certains affirmaient à
l'instar du physicien Maxwell, que la lumière est une onde, tandis que
pour les autres, guidés par la figure de Newton, la lumière est
une particule. Ce vieux débat a survécu jusqu'à
l'époque de Einstein. Reconnu comme le génie des grandes
découvertes, Einstein et Louis de Broglie ont été les tous
premiers à reconnaître que la lumière est à la fois
onde et particule. En effet, Einstein montre que, lorsqu'on chauffe un corps
à une température assez élevée pour
désintégrer les atomes dont celui-ci est composé, on peut,
si on continue le chauffage, voir toute la matière du corps se
transformer en une énergie qui se manifeste par une lumière vive.
Einstein montre que cette énergie est égale au produit de la
masse par le carré de la vitesse de la lumière, d'où la
fameuse équation d'Einstein : E = mc2.
Pour revenir à notre évolution, il faut dire
que, avant que les noyaux d'atomes se lient aux électrons pour former
ensemble les premiers atomes, les électrons, parce qu'ils étaient
encore libres dans l'espace, absorbaient la totalité des photons
libérés par les radiations. C'est ce phénomène
d'absorption des rayons lumineux, qui justifie l'opacité des premiers
milliers d'années qui suivirent le big bang.
On voit ainsi que c'est avec la formation des premiers atomes,
que l'univers est devenu transparent. De nos jours, astronomes et
astrophysiciens s'accordent à dire, que cet événement
date de trois cents mille ans après la grande
explosion. A cette époque disent-ils, les électrons
emprisonnés dans les structures atomiques, ne pouvaient plus entraver le
mouvement des photons, qui depuis lors ne cessent de poursuivre leur voyage
vers une sorte d'éternité,
donnant ainsi à l'univers la voie de son expansion. La
matière, jadis annihilée par le rayonnement, peut maintenant
s'épanouir librement. La force de la gravité, la plus faible de
toutes les forces, reprend ses droits d'actions et attire la matière
vers les excès ou fluctuation de densité pour les amplifier.
Ainsi viennent d'être jetées les premières semences de
notre univers. La nature se met à révéler le plan de sa
structure ultérieure.
Avec le découplage du contenu matière-radition,
l'univers entame une nouvelle phase dans sa montée vers la
complexité. C'est en effet grâce à l'action de la
gravité sur la matière, que l'univers va commencer à se
structurer. « La gravité arrive à la rescousse. Elle va
donner à l'univers une deuxième chance pour reprendre son
ascension vers la complexité, et sauver la situation en créant
dans le désert cosmique des oasis qui échapperont au
refroidissement continuel et qui permettront à la vie et à la
conscience d'émerger. Ces oasis auront pour nom planètes,
étoiles et galaxies. »47
Tout juste après le découplage de l'unité
matière-radiation, la température de l'univers va baisser
considérablement avec la libération des photons de
lumière. Devenue de moins en moins chaude, la matière de
l'univers va par son mouvement ralentir les collisions des particules, ce qui
favorisera la formation d'une pléiade d'atomes variés et de plus
en plus complexes. Comme nous l'avons vu, la force de gravité va, avec
le refroidissement de l'univers, jouer un rôle fondamental dans la
complexité de l'univers. Les fluctuations de densité qui
existaient déjà à l'époque de la soupe initiale,
vont avec l'expansion de l'univers, se transformer en des lieux de convergence
de la matière grâce à la force de l'attraction
gravitationnelle. Ces lieux d'attraction vont donner naissance, aux toutes
premières mottes de matières que les astronomes appellent les
grumeaux. Ces grumeaux constituent les graines de semence, de ce qui
sera à l'origine des futures galaxies ou amas de galaxies. Nées
du nuage de gaz initial, les galaxies habitent à perte de vue l'espace
cosmique. En effet, la distribution actuelle des galaxies, se justifie par le
fait qu'au moment du big bang, l'explosion a propulsé un nuage de gaz,
qui par son mouvement s'est réparti dans toutes les directions de
l'univers. Ce qui fait que nous rencontrons de nos jours, dans n'importe
laquelle des directions considérées, une distribution quasi
semblable des galaxies et amas de galaxies.
47 Thinh Xuan Thuan, La mélodie
secrète, Gallimard, 1991, p 178
Toutefois comment est-il possible d'expliquer la
variété de forme observée dans l'univers galactique, s'il
est vrai que toutes les galaxies sont issues du même nuage de gaz
primordial ? La réponse à cette question dépend en effet
selon les astronomes de deux paramètres régulateurs : d'une part,
il y a la vitesse d'expansion du nuage, de l'autre, la force de gravitation de
la matière composante.
Les astronomes classent les galaxies sous trois
catégories différentes, les galaxies elliptiques, les galaxies
spirales et les galaxies irrégulières. Ces formes de galaxies
varient suivant la densité, la composition chimique du nuage et la masse
du nuage de gaz initial. En effet, lorsque le nuage a une répartition
gazeuse très hétérogène, les endroits à
forte concentration de gaz vont s'agglomérer très rapidement, et
donner naissance à des étoiles. L'attraction que ces
étoiles exerceront les unes sur les autres, va lentement les rapprocher
et former ainsi, un ensemble plus ou moins sphérique allongé,
d'où le nom de galaxie sphérique, aussi appelée galaxie
elliptique. Par contre, lorsque le nuage de gaz est plus uniforme et
homogène, son évolution sera très différente.
Propulsés à très grande vitesse, les
multiples frottements des matières vont donner au nuage un mouvement
plus ou moins giratoire, à l'image des tourbillons observés dans
les eaux d'une rivière. Ces tourbillons vont s'organiser petit à
petit et, progressivement, gagner en équilibre un mouvement commun, qui
va engendrer un gigantesque mouvement de rotation autour du centre
nébulaire. Le nuage de gaz prendra dès lors, la forme de
gigantesques spirales enroulées autour du centre, lequel a un mouvement
plus rapide que celui des bords. C'est donc par ce phénomène, que
sont nées les galaxies dites spirales.
Les galaxies spirales semblent constituer la majorité
des galaxies. L'hétérogénéité de leur
mouvement de rotation, crée des variations de densité qui, sont
à l'origine de l'existence des bras observés chez les galaxies
spirales. Dans le cas des galaxies spirales, la formation des étoiles
advient après que la galaxie aura pris sa forme. Nous constatons par
là, que l'antériorité entre la formation des
étoiles et celles des galaxies varie suivant la forme
considérée. « Dans le premier cas, celui des galaxies
elliptiques, l'étoile préexiste à la finalisation de la
galaxie. Dans le second, l'étoile est le produit de la formation de la
galaxie spirale, ce n'en est que le sous-ensemble ; l'organe. Tous les
intermédiaires sont évidemment possibles entre ces deux cas,
d'où la variété des formes réelles des galaxies.
»48
48 Claude Allègre, Introduction à
une histoire naturelle, Fayard, 2004, p 51
A côté de ces deux catégories, existe une
troisième qui en fait, regroupe toutes les autres formes qui ne sont ni
elliptiques ni spirales : c'est la catégorie des galaxies dites
irrégulières. Comme leur nom l'indique, ces galaxies n'ont pas
une forme déterminée. Ce phénomène rend très
difficile l'étude de ces galaxies, ce qui justifie la raison pour
laquelle l'existence de ces galaxies est seulement soulignée par les
astronomes qui jusqu'à nos jours n'ont pas encore maîtrisé
le mécanisme de formation de ces dernières.
Les galaxies elliptiques sont plus massives que les galaxies
spirales. Cette différence de masse a permis aux astronomes d'expliquer,
pourquoi on rencontre beaucoup plus d'étoiles jeunes dans les galaxies
spirales, que l'on n'en rencontre dans les galaxies elliptiques. En effet,
parce qu'initialement composées par le regroupement d'étoiles
massives, les galaxies elliptiques ont fini par absorber la
quasi-totalité des gaz propices à la formation des nouvelles
étoiles. Car plus les étoiles se rapprochent les unes des autres,
plus elles attirent vers elles les matières comprises dans les espaces
qui les séparent. Par contre les galaxies spirales, parce qu'elles ont
des mouvements variant en fonction des lieux, conservent dans leurs
bras, des quantités énormes de gaz nébuleuses
capables de former de nouvelles étoiles. De nos jours, il est encore
observé dans les bras des galaxies spirales, le phénomène
de formation de nouvelles étoiles : les galaxies spirales contiennent
beaucoup de gaz, dont beaucoup de futures étoiles potentielles.
Après avoir montré de façon très
sommaire, comment à partir de la soupe initiale les galaxies se sont
formées, essayons maintenant de voir, comment les étoiles,
observées dans le ciel à travers une nuit sans lune, se sont
formées et ont vu le jour au sein des galaxies.
Appelé par ailleurs astration, le processus de
formation des étoiles qui, illuminent le ciel de myriades de lueurs
vives, joue un rôle fondamental dans la construction évolutive de
l'univers. Les étoiles fabriquent les espèces chimiques, et de
cette fabrication, elles tirent leurs énergies. Hormis les atomes
d'hydrogène et d'hélium, qui ont été
créés quelques années après le big bang, tous les
autres atomes qui existent dans l'univers, ont été
fabriqués dans les étoiles. Ces atomes, par leurs assemblages,
forment la matière : celle qui nous entoure et celle dont nous sommes
constitués. En effet, « Les atomes s'assemblent entre eux pour
donner naissance aux molécules et aux cristaux, donc aux
matériaux qui nous entourent. Leurs combinaisons sont pratiquement
infinies. La combinatoire atomique, c'est la chimie [...]. C'est dans
l'infiniment petit que résident toutes les explications du monde
sensible et, audelà, de l'infiniment grand. Pourtant, il faut
aussitôt préciser que le monde ne serait pas si
varié, si complexe, si multiforme, s'il
était composé par un seul type d'atomes, une seule entité
répétée et combinée à l'infini.
»49
Le destin de l'univers à venir dépend de
l'activité qui se passe dans le coeur des étoiles. Cependant,
comment les étoiles naissent-elles à partir d'un nuage gazeux ?
Comme il en est de la formation des galaxies, la formation des étoiles
se fait suivant une logique bien déterminée.
Il faut noter que c'est dans les nuages de gaz suffisamment
massifs, que les étoiles se forment. En effet, la formation des
étoiles dépend de l'interaction de deux forces à effets
strictement opposés. D'une part, il y a la force gravitationnelle, par
laquelle le nuage se contracte et rassemble dans une petite surface un volume
considérable de gaz, tandis que d'autre part, joue l'agitation thermique
par laquelle, le nuage se dilate et occupe par son gaz tout l'espace disponible
aux alentours. En fait, dans les nuages stellaires, il existe des lieux de
variations de températures et de densité. C'est dans ces milieux
à très forte densité que vont se regrouper, par l'effet de
la gravitation, des volumes de plus en plus important de gaz. Devenant de plus
en plus volumineux, ces régions à forte densité, vont
parallèlement se réchauffer de plus en plus, élargissant
ainsi leur espace. Il se produit, du fait de la forte densité de ces
milieux, une lutte entre la force nucléaire et la force
gravitationnelle.
De ce fait, la pression qui règne dans ces milieux
augmente les vitesses et les collisions des particules qui, dés lors
entraînent l'échauffement de la localité
considérée. L'agitation thermique opposée à la
force gravitationnelle, produit au coeur de la dite zone, un équilibre
entre la température et la gravité.
C'est de cet équilibre que va se déclencher la
fusion nucléaire, qui va donner naissance à une nouvelle
étoile. Cette réaction thermique se produit lorsque la
température du coeur de l'étoile, atteint le cap décisif
des dix mille degrés absolus. Comme nous l'avons noté dans les
pages précédentes, les étoiles connaissent à
l'instar des êtres vivants, une évolution qui les mène
irréductiblement de la naissance à la mort qui, dans le cas des
étoiles, advient soit par suite de désintégration, soit
par perte d'énergie suivant les catégories. Les étoiles,
celles qui sont nommées de première génération,
c'est-à-dire celles qui sont nées à partir du nuage de gaz
initial, sont composées de près de 76% d'hydrogène et de
24% d'hélium. C'est à partir de ces deux gaz, qui, initialement
étaient les seuls existants, que va démarrer toute l'alchimie
49 C. Allègre, Introduction à une
histoire naturelle, Fayard, 2004, pp 60-61
stellaire des métaux. Cette production d'atomes dans le
four ambiant des étoiles, va de la création de l'atome
d'hélium à l'apparition de l'atome de fer, et de tous les
éléments chimiques qui composent la table de Mendeleïev.
Lorsqu'une étoile apparaît au sein d'un nuage de
gaz, celle-ci se sépare du nuage pour entreprendre en solitaire sa vie
stellaire, qui se déroule suivant différentes séquences.
En effet initialement composées d'hydrogène et d'hélium,
les étoiles regroupent leur gaz suivant des couches
séparées en fonction de leur composition. Les atomes
d'hydrogène, parce qu'étant plus légers que les atomes
d'hélium, se concentrent vers le centre de l'étoile et chassent
les atomes d'hélium, qui se contentent d'occuper les couches
périphériques de l'étoile. De ce fait, l'étoile
commencera par brûler sa réserve d'hydrogène en liant les
atomes d'hydrogène en atomes d'hélium. Une fois que les atomes
d'hydrogène seront tous transformés en atomes d'hélium,
l'étoile se rétrécit en condensant sa masse
d'hélium vers le centre. Elle entame ainsi une nouvelle phase de fusion
nucléaire. Cette nouvelle phase consiste chez les étoiles
à lier les atomes d'hélium en une nouvelle catégorie
d'atomes, nommée Carbonne. L'univers vient donc, avec la production du
carbone, d'accoucher d'un nouvel enfant. Par ce nouvel élément,
la nature vient de grimper une nouvelle marche de l'échelle qui
mène vers la complexité.
Dés lors, l'étoile achève ainsi la
séquence principale de son évolution. Ce stade atteint,
l'étoile verra sa température baisser pour pouvoir maintenir en
équilibre, sa partie interne extrêmement chaude et sa
périphérie qui reste moins chaude. Pour mieux comprendre ce
changement de séquences, notons ces lignes de Armand Delsemme lorsqu'il
écrit : « Les couches extérieures compriment le coeur
qui s'effondre sur lui-même jusqu'à atteindre 60 millions de
degrés. Cette température est celle de l'ignition de
l'hélium : 3 noyaux d'hélium s'assemblent en un seul noyau de
carbone, avec dégagement d'une grande énergie. L'étoile
quitte alors la séquence principale : elle réajuste son
équilibre intérieur en enflant son extérieur et en
diminuant sa température superficielle : elle est passée sur la
branche des géantes rouges. »50
Toutefois, il faut souligner que l'évolution des
étoiles, varie en fonction de la masse de leur contenu. Plus une
étoile est massive, plus elle a de la matière à
brûler, et plus vite elle brûlera cette dernière. Les
étoiles massives ont une durée de vie très courte, parce
qu'elles évoluent vers la complexité à un rythme plus
rapide que celui des autres étoiles. Quant aux étoiles les
50 Armand Delsemme. Les origines cosmiques de la
vie, Flammarion, 1994, p 75
moins massives, elles mènent une vie de parcimonie.
Elles dépensent lentement leur énergie, ce qui fait qu'elles
vivent plus longtemps que les étoiles massives.
Essayons de voir de manière abrégée,
comment les différentes sortes d'étoiles mènent leur
évolution. L'évolution et le destin des étoiles, sont
strictement liés à leurs masses de départ. C'est suivant
leurs masses, que les astronomes et astrophysiciens étudient
l'évolution des étoiles ainsi que le destin qui leur est
réservé. Nous allons essayer de faire une petite étude
comparative des différentes sortes d'étoiles. Pour ce, nous
allons considérer cinq catégories d'étoiles, dont la
mesure des masses sera définie en fonction de la masse de notre Soleil.
A cet effet nous étudierons les catégories, de trente masses
solaires, dix masses solaires, trois masses solaires, une masse solaire,
c'est-à-dire égale à notre soleil, et enfin les
étoiles dont, la masse constitue le tiers de notre soleil.
Pour la première catégorie, concernant les
étoiles à trente masses solaires, il faut noter que leur
luminosité correspond à peu près à dix mille fois
la luminosité du Soleil. Ces étoiles comme nous l'avons dit
tantôt, brûlent en un temps record leur réservoir
d'hydrogène et d'hélium. Elles traversent la séquence
principale de leur évolution en six mille années, ce qui ne
représente presque rien dans la vie d'une étoile. Après
avoir vécu leur séquence principale, ces étoiles devenues
géantes rouges, prennent seulement mille ans pour brûler tout leur
réservoir de carbone, transformant celui-ci en oxygène. De
l'oxygène, la matière de ces étoiles passera en peu de
temps au silicium, matière qu'elles finiront par brûler en la
transformant en atomes de fer. Arrivées au stade du fer, ces
étoiles n'auront plus d'énergie suffisante pour assurer la fusion
du fer. Ne pouvant plus évoluer vers d'autres atomes, ces étoiles
explosent leur matière en supernovae, et éjectent en forme de
nuage près de 24 masses solaires, dans l'espace. Le noyau de ces
étoiles, marqué par une zone à très grande
densité, se transformera en un trou noir dont la masse peut atteindre
six masses solaires.
Quant à la deuxième catégorie qui
comporte les étoiles de près de dix masses solaires, elle
détermine les étoiles dont la luminosité environne mille
fois la luminosité du Soleil. Ces étoiles moins massives que
celles de la première catégorie, vivent pendant un million
d'années la première séquence de leur existence. Une fois
géantes rouges, elles y resteront pendant trois mille ans,
période pendant laquelle elles brûlent patiemment leur
réserve de carbone en oxygène. Puis de l'oxygène, elles
produiront progressivement du silicium. Arrivées à ce stade
qu'elles ne peuvent plus franchir, ces étoiles, ne pouvant plus
entretenir la fusion nucléaire de leur coeur, renoncent à
l'existence et explosent en supernovae. De ce fait,
de telles étoiles propulsent dans l'espace
interstellaire un volume de gaz de 8,5 fois la masse de notre Soleil. Du
résidu de leur noyau, découle une étoile à neutrons
très dense qui peut atteindre 1,5 fois la masse du soleil. Avant de
continuer, signalons qu'on définit par supernova, l'explosion
finale d'une étoile massive, par laquelle l'étoile accroît
sa brillance des centaines de millions de fois. La lumière produite par
une supernova reste visible de jour ou de nuit pendant plusieurs semaines. On
dit même qu'elle est quasi égale à la brillance de toute
une galaxie.
L'observation des supernovae est un phénomène
rare dans l'univers. L'histoire de l'astronomie retient en
général trois supernovae, qui sont en fait les plus
célèbres parmi celles qui sont connues. La première a
été observée par un astronome de la cour impériale
de chine en 1054. Celui-ci après l'avoir observé, a
annoncé, d'abord à l'empereur puis à tout l'empire, la
venue au monde d'une nouvelle étoile. Cette prétendue nouvelle
étoile, sera baptisée par les chinois, « étoile
hôte » parce qu'elle était sensé apporter
l'abondance dans les récoltes et la stabilité dans l'empire.
Quant à la seconde supernova généralement retenue, elle a
été découverte par Tycho Brahe en 1573. Comme l'astronome
chinois, Tycho Brahe croyait lui aussi avoir assisté à la
naissance d'une étoile nouvelle, d'où le nom qu'il lui a
donné : « Stella nova » qui signifie en latin
étoile nouvelle. L'observation de la Stella nova a
permis à Tycho Brahe et à tous les scientifiques de cette
époque, de remettre en cause l'immuabilité des cieux, telle que
celle-ci a été pensée par Aristote. Enfin, la
troisième supernova qui va être considérée, est
celle qui a été observée en 1987 plus
précisément le 28 mai. Observée par le satellite COBE de
la NASA, elle a été baptisée Supernova 1987 A
Rings. De nos jours le télescope géant Hubble nous montre,
par les très belles images qu'il nous offre, que ce
phénomène d'explosion stellaire est une des
caractéristiques de notre univers.
Pour revenir à nos étoiles, nous allons
continuer et étudier ici le cas des étoiles dont la masse fait
trois masses solaires. En effet, ces étoiles brillent cent fois plus que
notre Soleil. Elles terminent leur séquence principale, trois millions
d'années après leur formation, d'où elles deviennent des
géantes rouges. Ces étoiles, moins massives que celles des deux
premières catégories, trouvent de moins en moins de
l'énergie pour brûler leurs réserves de carbone en
oxygène. Cette impuissance physique, fait qu'une fois que ces
étoiles terminent après dix millions d'années, de
transformer leurs atomes de carbone en oxygène, elles éclatent
leurs gaz et forment des nébuleuses planétaires dont les masses
peuvent atteindre le seuil des 2,2 masses solaires. Leurs noyaux, très
petits à cause de la faiblesse de l'activité nucléaire qui
a précédé l'explosion, se transforment en des naines
blanches. Une naine blanche est par
définition, une petite étoile très
brillante née de l'explosion d'une géante rouge. Initialement
brillante, la naine blanche, perd petit à petit son énergie et
finit par devenir une naine noire non observable, parce qu'elle n'émet
pas de lumière.
La quatrième catégorie d'étoiles,
représente celles dont les masses égalent la masse de notre
soleil. Ces étoiles ont évidemment la même brillance que le
Soleil. Elles peuvent vivre dix milliards d'années avant d'atteindre la
séquence principale, stade à partir duquel elles deviennent des
géantes rouges. En effet, comme il en sera pour notre soleil, ces
étoiles vivent dans leur phase de géante rouge trois millions
d'années. N'ayant pas la capacité de lier leurs atomes
d'oxygène en atomes de silicium, ces étoiles vont, à leur
stade de géantes rouges, éclater en des vents stellaires dont les
masses ne représenteront que le tiers de leurs masses initiales. De
leurs noyaux vont naître des étoiles naines blanches très
petites.
Pour finir avec cette classification, nous allons prendre le
cas des étoiles faibles, dont la masse fait le tiers de notre masse
solaire. Ces étoiles comme on le sait, ont une très faible
brillance, à peine visible à l'oeil nu. Comme c'est
déjà affirmé, ces étoiles ont une très
longue longévité, qui suivant les cas, peut atteindre 800
milliards d'années avant d'atteindre la séquence principale. En
effet, parce qu'elles ont une très faible masse, ces étoiles
libèrent leur gaz sous forme de vents stellaires après avoir
vécu 80 millions d'années comme géantes rouges. Leurs
résidus finiront comme celui de notre soleil en naines blanches.
Après avoir montré le processus par lequel les
étoiles et les galaxies se sont formées à partir du nuage
de gaz primitif, nous allons à présent nous intéresser
à la formation des planètes, plus précisément
à celle de notre système solaire. La formation des
planètes est une phase importante dans la complexité de
l'univers. L'alchimie stellaire, par laquelle les étoiles produisent les
atomes lourds, va enrichir l'univers de plusieurs éléments lui
permettant de monter avec sûreté vers les plus hautes marches de
la complexité. En effet, ce sont les éléments chimiques et
les atomes lourds, qui vont servir d'ensemencement à la formation des
planètes et à l'émergence de la vie. Cependant, ce ne sont
pas toutes les étoiles qui participent à la complexification de
l'univers.
Comme nous l'avons noté, les étoiles de faibles
masses ne jouent pas un grand rôle dans ce processus. Ces
dernières, parce qu'elles ont une longue durée de vie,
dépensent très lentement leur matière, d'où elles
atteignent rarement les stades où se forment les atomes lourds comme le
carbone, l'oxygène etc. Ne pouvant compter sur le travail des
étoiles faibles, l'univers mise
tous ses espoirs sur les étoiles massives. Ces
dernières sauront, grâce à leur
prodigalitéexcessive, relever le défi de la
complexité. En effet « Ce sont les étoiles de masse
importante qui jouent le rôle essentiel dans l'ensemencement en atomes
lourds du milieu interstellaire. C'est notamment parce que toutes ces
étoiles sont de grande luminosité. De ce fait,
elles développent des vents stellaires considérables,
grâce à la pression engendrée par leur intense radiation
sur les couches extérieures de l'étoile. Mais c'est aussi parce
qu'elles atteignent extraordinairement vite le stade explosif qui termine
leur existence. »51
Les planètes, à l'image des étoiles, se
forment à partir des résidus de nuage issus des supernovae. En
effet, lorsque les étoiles massives se transforment en supernovae, il se
forme au sein du nuage de gaz éjecté, différentes zones
dont les températures sont très hétérogènes.
Ces fluctuations de densités vont par l'effet de la gravité,
attirer la matière située aux alentours, et augmenter ainsi leurs
masses qui deviennent de plus en plus grandes. C'est ce phénomène
identique qui a entraîné, dans les milieux à très
hautes températures, le déclenchement des réactions
nucléaires, responsables en fait de la naissance des étoiles.
Dans le cas des planètes, le processus devient plus compliqué.
Car pour les planètes, il faut d'abord que le gaz issu des supernovae se
condense en particules solides et c'est à partir maintenant de ces
particules solides, que va se faire la formation des planètes.
Dans la vie courante, le passage de l'état gazeux
à l'état solide s'opère toujours par
l'intermédiaire de l'état liquide. Dans l'espace interstellaire,
il n'en n'est pas de même. Dans cet espace, lorsque avec l'expansion de
l'univers, le nuage de gaz se refroidit, sa pression devient très
faible. Avec le mouvement d'extension, ce même nuage se disperse et se
dilue dans l'espace. Dès lors, ses particules de gaz refroidies se
transforment par leur condensation en particules solides. Nous voyons que dans
l'espace interstellaire, le gaz cosmique donne naissance par sa condensation,
à des poussières solides. Ce sont ces poussières solides
qui, par leurs agglomérations permettront la formation des
planètes. Ceci dit, il se pose la question de savoir, comment à
partir d'un nuage de gaz interstellaire, notre système solaire, a t-il
pu voir le jour ?
Comme cela apparaît d'évidence, le soleil
constitue avec les autres planètes un seul et unique système.
L'existence du soleil n'est pas séparée de la formation des
autres planètes qui l'entourent. Le soleil partage avec tout l'ensemble
du système solaire, la même histoire qui les a vu naître. Le
soleil ainsi que les dix planètes qui tournent autour de lui, forment
une seule et
51 A. Delsemme, Les origines cosmiques de la vie,
Flammarion, 1994, p 93
même famille dont l'ancêtre est sans aucun doute,
une grosse étoile massive qui a explosé, il y de cela cinq
milliards d'années, en supernova. Déjà au XVIII ème
siècle, Kant et, après lui, Pierre Simon Laplace avaient
pensé que le soleil, pour pouvoir attirer tout le cortège de
planètes lié à lui, doit avoir existé au même
moment que ces planètes ; d'où ils devaient avoir la même
histoire. Cette idée, qui n'est resté pendant longtemps qu'une
simple hypothèse scientifiques, a été pour la
première fois démontrée comme fait réel par Clair
Patterson en 1950.
C'est Patterson qui en effet, a montré que, les
météorites, les sédiments marins et terrestres, les
basaltes issues des profondeurs de la Terre, avaient tous la même
ancienneté. A partir de ses études faite, par le biais de la
radioactivité, Patterson affirme que tous ces objets ont existé
il y a de cela 4 milliard 550 millions d'années, date qui correspond en
fait à la période de formation de notre système
solaire.
Le Soleil est donc une étoile de la seconde
génération. Il est différent des étoiles de la
première génération qui sont initialement composée,
d'hydrogène et d'hélium. Le soleil comporte en son sein la quasi
totalité des atomes lourds qui composent le tableau de
Mendeleïev. La présence de tous ces atomes lourds dans la
matière du soleil, ne peut s'expliquer que par son origine
résiduelle des supernovae. En effet, la famille des astronomes et
astrophysiciens affirme, que c'est à la suite des explosions en grand
nombre des premières étoiles massives de l'univers, que s'est
formé dans l'espace un immense nuage interstellaire. Ce nuage,
appelé aussi nuage protosolaire constitue en fait le lieu
où va d'abord émerger le soleil, et après lui les
planètes du système solaire, conformément à l'ordre
que nous connaissons aujourd'hui
Composé initialement de particules gazeuses, le nuage
interstellaire va, sous l'effet de la gravité, concentrer une
quantité énorme de matière vers son centre. Cette
concentration de volume de gaz au centre du nuage, va accélérer
le mouvement des atomes compris à l'intérieur de celui-ci. Ces
derniers vont par leurs multiples collisions, se mettre à
réchauffer le centre du nuage. Ce réchauffement augmentera au fur
et à mesure que les particules se mettront à s'entrechoquer entre
elles. De ce mouvement de bouillonnement interne, il va naître au coeur
du nuage, une fusion nucléaire à la suite de laquelle le centre
du nuage protosolaire s'allumera en donnant naissance à une
étoile appelée Soleil.
Dans les premiers millions d'années qui suivirent la
formation du Soleil, le nuage interstellaire, composé d'un
mélange de gaz et de grains de poussière, continuera à se
contracter en direction du centre où la naissance du jeune soleil a
engendré de très hautes températures. Ces hautes
températures, entraîneront la sédimentation des grains de
poussières en particules appelés
planètésimales. Ces
planètésimales vont par leur nature solide, se
séparer par la suite du reste du gaz interstellaire. Les matières
gazeuses se mettront à converger vers le centre, en permettant ainsi au
nouveau Soleil d'agrandir sa masse. Ce mouvement de convergence, durera pendant
tout le temps que le soleil prendra pour atteindre son seuil de
stabilité. Lorsque la nouvelle étoile a atteint sa
stabilité, elle a propulsé sous forme de vent la matière
située autour d'elle. Ce phénomène de propulsion de
matière en forme de vent, est défini par les astronomes sous le
concept de Vent T Tauri. Le choix de ce concept relève du fait,
que ce phénomène a été découvert pour la
première fois, à travers l'observation de l'étoile
T située dans la constellation du Taureau.
En effet, ce vent T Tauri, propulsera le reste du
nuage nébulaire hors du Soleil nouvellement formé. Ce nuage
composé essentiellement d'hydrogène et d'hélium, se
refroidit lentement, en favorisant l'accumulation des
planètésimales qui s'amplifient de plus en plus. L'accumulation
des planètésimales, qui gravitent autour des orbites circulaires
autour du soleil, se fait par suite des collisions. Ces collisions vont durer
pendant quelques centaines de milliers d'années, en formant
progressivement des corps de plus en plus massifs, dont certains pouvaient
atteindre la taille de la lune.
Il est important de noter au passage, que la formation des
planètes est beaucoup plus lente que celle des étoiles. Dans la
formation des planètes, les planètésimales, qui se
trouvent être des objets solides et rocheux, prennent du temps non
seulement pour s'unir en gravillons ; mais encore lorsqu'ils
s'agglomèrent en de gros gravillons, ces planètésimales
deviennent de plus en plus rares, séparés entre eux par de vastes
espaces. Du fait de cet espacement entre gravillons, les unions arrivaient
rarement, pire encore, les rencontres pouvaient entraîner dans certains
cas, des fragmentations.
Les rencontres, ainsi que l'amplification des
planètésimales, n'étaient pas forcément
fructueuses. Chaque rencontre comporte une incertitude, dont la
probabilité était l'union ou la fragmentation. Mais au fur et
à mesure que les planètésimales devenaient massifs et
denses, ils attiraient par leur gravité une matière de plus en
plus grande ; ce qui fait que leur taille devenait de plus en plus
énormes. Les planètes se sont donc formées plusieurs
milliers
d'années après la formation de l'étoile
Soleil. En effet, nous dit Claude Allègre, « Les
planètes ne sont pas nées par effondrement gravitationnel d'un
nuage de poussières. Elles se sont construites doucement, lentement,
pendant des dizaines de millions d'années, par adjonctions successives
d'objets cosmiques un peu particuliers que l'on appelle
planètésimales. »52. C'est par ce lent
phénomène de construction, que tout notre système solaire
s'est formé et s'est étendu, allant de l'astre soleil à ce
qui est nommé aujourd'hui la ceinture de Kuiper. La ceinture de
Kuiper est située à la quasi extrémité de notre
système solaire. Elle se trouve en fait à l'extérieure de
l'orbite occupée par la planète Pluton. Cette ceinture, du nom de
celui qui la découverte Gérald Pieter Kuiper, astronome
américain d'origine néerlandaise, est le lieu de résidence
de près de cent trente astéroïdes et comètes
neigeuses.
Par ailleurs, les tailles et masses des planètes
varient pour chacune suivant la distance qui sépare la planète du
Soleil. Plus la planète est proche du soleil, plus chaude sera sa
matière, d'où il en résulte que ses particules
contiendront moins de matières volatiles. Car avec l'effet de la
chaleur, les particules de matières libèrent les gaz qu'elles
avaient absorbés, ce qui fait que la planète s'appauvrit et perd
ainsi une grande partie de sa masse. Par contre, si la distance qui
sépare la planète du Soleil devient considérable, sa
matière devient très froide. Par ce fait, la planète
devient capable de conserver au sein d'elle même, la quasi
totalité des gaz absorbés par ses particules. L'emprisonnement
des gaz à l'intérieur de la matière givrée ou
glacée, augmente parallèlement la masse de la planète ce
qui par conséquent, permet à la planète d'avoir une
densité de plus en plus élevée. C'est ce
phénomène qui explique, la distribution inégale des masses
observées entre les différentes planètes de notre
système solaire.
En regardant notre système solaire, nous remarquons
qu'il est composé de deux catégories de planètes, que les
astronomes nomment habituellement par les concepts de planètes
internes et planètes externes. Les planètes
internes et les planètes externes sont en fait séparées
par une large étendue composée d'astéroïdes,
communément nommée la ceinture des
astéroïdes.
En regardant à travers les photos astronomiques prises
sur notre système solaire, nous pouvons distinguer deux types de
planètes. D'un côté, celui qui est plus proche du soleil,
nous avons les planètes Mercure, Vénus, Terre, et Mars.
Formées de matières rocheuses, ces planètes sont les moins
massives de notre système solaire. Situées entre la position du
soleil et
52 C. Allègre, Introduction à une
histoire naturelle, Fayard, 2004, p 160
l'espace de la ceinture des astéroïdes, ces
planètes sont celles qui sont nommées planètes
internes.
Dans la seconde catégorie de planètes, nous
rencontrons les planètes Jupiter, Saturne, Uranus, Neptune, Pluton et
Sedna la dixième planète dont on a observé l'existence en
2001. Située, si l'on s'éloigne du soleil, après la
ceinture des astéroïdes, cette catégorie est dans l'ensemble
constituée de planètes géantes, et gazeuses pour
l'essentiel. L'explication de la forme spécifique de ces planètes
est due au fait que, l'environnement glacé de ces planètes
alourdit leur matière. Ces conditions climatiques leur permettent
d'avoir une grande force d'attraction sur les particules solides qui les
entourent. Ces planètes, parce qu'elles captivent dans leur
matière presque tous les gaz volatiles rejetés par les
planètes internes, ont des masses énormes comparées aux
masses de planètes internes.
Arrêtons-nous un instant et essayons d'expliquer le
phénomène apparemment étrange, qui est observé dans
notre système solaire. Comme nous pouvons le constater, la
planète Jupiter est la planète la plus grosse de notre
système solaire. Ce phénomène étrange a
été pendant très longtemps un constat que les astronomes
eux-mêmes n'arrivaient à expliquer. De nos jours, ce
phénomène étonnant trouve une explication
satisfaisante.
La grande agglomération de matière à
travers la planète Jupiter, est en fait due à deux choses. La
première explication c'est que, le nuage nébulaire, en
s'éloignant du disque d'accrétion du soleil devient de plus en
plus froid. Cette baisse de température va en fait favoriser
l'attraction des planètésimales, qui en se condensant, formeront
en très peu de temps une grande masse, dont le noyau peut faire environ
dix fois la masse de la Terre. Cette grande masse, va permettre à la
planète d'avoir une très forte densité, qui favorisera
l'attraction de beaucoup de corps environnants tels que les
astéroïdes, les comètes et les
planètésimales.
La seconde cause d'explication de la très grande masse
de Jupiter, c'est que la matière volatile, qui s'est
échappée des planètes internes où par l'effet de
chaleur elle a été libérée, va, en
s'éloignant de l'intérieur du système solaire avec le
mouvement d'expansion du nuage, s'accrocher sur les objets givrés
situés à la surface de Jupiter. La masse et la densité de
Jupiter devenant de plus en plus croissantes, vont dès lors permettre
à cette planète de pouvoir attirer l'essentiel des objets
situés autour d'elle. Il en résulte l'explication de la forte
couche de gaz observée dans l'atmosphère de Jupiter.
En attirant sur sa surface l'essentiel de la matière
située dans l'actuelle ceinture des astéroïdes, la
planète Jupiter a fini par déstabiliser la formation de ce qui
aurait pu être la « onzième planète » de notre
système solaire. L'essentiel de la matière qui aurait dû
participer à la formation d'une onzième planète,
étant absorbé par l'effet de gravité de la planète
Jupiter, il en résulte que le restant des débris tournera, dans
le sens de l'orbite de la ceinture des astéroïdes, autour du soleil
à l'image de toutes les autres planètes. Par sa masse et sa
densité énormes, la planète Jupiter perturbe, lors de son
mouvement de révolution autour du soleil, tous les objets situés
dans la ceinture des astéroïdes. C'est ce mouvement perturbateur
qui, en fait, justifie les mouvements désordonnés suivant
lesquels se comportent les comètes situées dans cette zone. Au
delà de la ceinture des astéroïdes, le mouvement de la
planète Jupiter, influence toutes les trajectoires des autres
planètes.
En effet avec sa vitesse de mouvement de 61 Km/s, la
planète Jupiter infléchit le mouvement des comètes et
astéroïdes qui se trouvent à son alentour. Ces
comètes et astéroïdes, lorsqu'il arrive qu'ils se
détachent de la ceinture des astéroïdes, se projettent dans
tous les sens de l'univers ; ce qui parfois même, les mène
à se perdre hors de notre système solaire. Il faut noter q'une
grande partie de ces corps célestes, lorsqu'ils finissent de traverser
notre système solaire, ne se perd pas néanmoins dans l'espace
interstellaire. Car plusieurs d'entre eux, seront capturés dans une
sphère énorme située à l'extrémité du
système solaire. Cette sphère, située à plus de
50.000 Unités astronomiques (UA) de la position du soleil, va former
dans ces lieux froids de l'espace, ce qui est reconnu être le «
nuage de Oort », du nom de l'astronome néerlandais Jan Oort
qui en a établi l'existence.
Une autre conséquence causée par le mouvement de
la planète Jupiter, c'est qu'en infléchissant l'orbite de la
ceinture des astéroïdes, plusieurs comètes vont se
détacher de leur résidence, se bombarder lors de leur mouvement
d'évasion tous les corps qu'ils rencontrent sur leur trajectoire
(planètes et satellites planétaires...). Les traces de ces
bombardements cométaires sont encore visibles sur les surfaces de la
lune, Mercure, Vénus, Mars et ses satellites. Même les satellites
de Jupiter ainsi que celles de Saturne, montrent encore des signes de ces
bombardements cométaires. Ce sont ces bombardements, qui ont en fait
créé les formes de cratères observées sur la
surface de la Lune et sur les satellites de Mars. Même notre
planète, la Terre, a elle aussi été victime de ces
bombardements, seulement sur la surface de la Terre, le mouvement
géologique de notre sol a fini par effacer toutes les traces de ces
bombardements.
La dernière conséquence à noter, est
celle que le mouvement de Jupiter a occasionnée sur notre
planète. En effet d'après les astronomes, la planète
Jupiter a aussi perturbé l'excentricité des orbites de
planètes internes, entraînant sur celles-ci des collisions
orbitales. Certains sont allés jusqu'à dire même, que se
sont ces collisions qui ont entraîné des tamponnements entre la
Terre et Mercure. Ils affirment que, c'est la fracture causée sur la
Terre par ce choc violent, qui a finalement donné naissance à
l'actuelle lune, satellite de la Terre. Après avoir longuement
discuté sur la formation des planètes, nous revenons sur notre
planète, pour essayer de voir comment la vie y est apparue. L'apparition
de la vie a été l'un des mystères qui ont, pendant des
siècles, habité les esprits des scientifiques. En effet, à
cause du fait qu'il n'existait aucune trace fossile relative au premier
milliard de l'évolution de la Terre, l'origine de la biosphère
est restée un événement sur lequel on n'avait aucune
connaissance certaine. La biosphère est en fait, l'ensemble des
régions du globe terrestre abritant la vie. La biosphère est
constituée des océans, de l'atmosphère et de la mince
pellicule de terre qui recouvre et contient les matières organiques,
appelée le terreau. Comme nous l'avons noté, l'intervalle
géologique qui correspond au premier milliard d'années de la
Terre, a été perdu pour les géologues.
Il en résulte que toute évidence, à
propos des mécanismes qui ont conduit à l'existence de l'eau des
océans, de l'atmosphère et des différents composés
de la matière organique, a été complètement
oblitérée.
Dans les années 1894, un géologue suédois
du nom de Hogbom avait développé l'hypothèse selon
laquelle l'eau, l'air ainsi que les composés organiques, étaient
originairement dégagés des profondeurs de la Terre par l'effet du
volcanisme. Cette hypothèse, même s'il est vrai qu'elle est
cohérente et vraisemblable, elle ne semble pas pour autant très
plausible. Car, sachant que les gaz dégagés lors des explosions
volcaniques ne comportent aucune trace d'oxygène, d'où vient donc
le volume d'oxygène qui de nos jours compose notre air ?
Après Hogbom, d'autres scientifiques vont tenter de
répondre à cette question de l'origine de l'atmosphère.
Selon ces derniers, l'atmosphère date de l'ère primaire,
c'est-à-dire de la période géologique qui suivit la
formation de la Terre. Ces derniers affirment en effet, qu'à l'image des
planètes géantes, la Terre a, au cours de sa formation,
capturé une partie des matières volatiles contenus dans le nuage
protosolaire. Cette hypothèse, elle non plus ne semble pas très
plausible car, comme nous l'avons noté sur les pages
précédentes, la masse de notre planète est très
faible pour pouvoir retenir cette supposée atmosphère primaire.
La seule
hypothèse qui semble être la plus fiable, est
celle qui consiste à dire que notre atmosphère serait apparue
plusieurs années après la formation de la Terre. Tout au
début de son histoire, la Terre était à l'image des
planètes Mercure et Vénus dépourvue
d'atmosphère.
De nos jours, l'hypothèse acceptée et qui semble
être vérifiée, par l'analyse chimique des traces d'eaux,
recueillies lors du passage de la comète d'Halley, est celle qui
consiste à dire que l'eau des océans, l'atmosphère et
l'essentiel des matières organiques, proviennent des comètes. En
effet, des études faites en laboratoire, des pluies produites par le
passage de la comète d'Halley, montrent des mesures qui, même si
elles ne sont pas précises, restent néanmoins analogues à
celles qui sont observés dans l'eau des océans. Cette origine
cométaire des eaux océaniques, de l'atmosphère etc. est
d'autant plus probable, qu'elle seule, est en mesure de justifier les
bombardements des comètes survenus sur notre Terre, et dont les reliques
expliquent les multiples cratères observés sur la surface
lunaire. Mieux encore, cette hypothèse du bombardement cométaire
peut aussi expliquer, l'effet de destruction de la quasitotalité des
indices fossiles, qui auraient permis aux géologues de pouvoir se
renseigner sur ce qui s'est passé lors du tout premier milliard
d'année de notre évolution terrestre. C'est le bombardement des
comètes, qui, en fait, a labouré en profondeur toute la surface
de notre planète. « Ainsi, nous avons maintenant compris que
c'est un bombardement de comètes, c'est-à-dire de
planètésimales glacées de 5 à 500 kilomètres
de diamètre provenant des zones des planètes géantes et
dont les orbites ont été perturbées par la croissance de
ces dernières, qui pendant un milliard d'années nous a
apporté l'eau des océans, les gaz de l'atmosphère et les
composés du carbone qui étaient nécessaires à
l'éclosion de la vie. »53. Mais si cette
hypothèse est avérée, pourquoi la lune n'a pas au
même titre que la Terre une atmosphère, s'il est vrai que toutes
les deux ont subi au même titre cet effet des bombardements ?
En fait, c'est à cause de sa gravité trop
faible, que la lune n'a pas pu retenir l'eau des comètes qui se sont
écrasées sur elle, et moins encore les gaz volatiles
portés et dégagés par ces dites comètes. En effet,
ce phénomène du bombardement cométaire, plus
fréquent sur la surface terrestre du fait de sa gravité
supérieure à celle de la Lune, connaîtra une suite
différente de celle advenue sur la Lune. Sur Terre, la gravité
plus dense à l'échelle terrestre qu'à l'échelle
lunaire, va réussir à retenir une partie de l'eau
libérée, de même qu'une faible quantité des
matières volatiles dégagées par les comètes. En
plus de l'eau et du gaz éjecté sur la Terre, les bombardements
cométaires ont aussi apporté à la surface de la Terre,
d'infimes
53 A.Delsemme Les origines cosmiques de la vie,
Flammarion, 1994, p 169
poussières microscopiques. Observables à l'oeil
nu, ces poussières voyagent sous la forme d'un nuage en traversant tout
notre espace atmosphérique.
Lors du passage de la comète d'Halley, ce
phénomène a été observé. Ce nuage de
poussière est généralement représenté sur
les photos de la comète d'Halley, sous la forme d'une queue qui suit la
trajectoire de la comète. Ces poussières forment un nuage opaque
qui traverse l'atmosphère en finissant sa course à la surface de
la Terre. En effet, ce nuage de poussières transporte, sans pour autant
la détruire, toute la chimie composée dans l'espace
interstellaire. Composées de matières organiques pré
biotiques, ces poussières vont s'enfoncer en parties dans l'eau des
océans primitifs. Avec l'interaction de l'eau encore très chaude
dans les océans nouvellement formées, ces molécules
organiques vont permettre l'apparition et la multiplication des microbes et des
bactéries : c'est l'apparition de la vie sur Terre.
Au début de son apparition, il n'existait que les
formes de vie unicellulaires. Petit à petit, et cela en se diversifiant,
la vie va grimper les échelles de la complexité en faisant
naître petit à petit, de nouvelles formes de vie qui en fait
correspondent à la vie pluricellulaire. Cette nouvelle forme de vie va
connaître une explosion démographique extraordinaire, d'où
avec la diversité, apparaissent les toutes premières
espèces. En effet, c'est après que les microbes et les
bactéries sont apparus vers trois milliards et demi d'années, que
les premières formes d'espèces pluricellulaires vont
apparaître. Armand Delsemme écrit à ce propos, «
C'est il y a 700 millions d'années que les organismes pluricellulaires
allaient apparaître, conduisant à une accélération
de la diversification des espèces et de leur adaptation à des
conditions nouvelles. Ainsi les trilobites et les algues vertes allaient
apparaître il y a environ 600 millions d'années, suivis de
près par les premiers poissons. Il y a 300 millions d'années, les
premières plantes et les premiers arthropodes allaient bientôt
sortir de la mer, annonçant les fougères arborescentes et les
amphibiens, puis les conifères et les reptiles. » 54
Cette citation de Delsemme traduit en fait, de manière
très condensée, comment avec l'apparition des premiers organismes
pluricellulaires, la vie va progressivement se complexifier et donner naissance
à des formes de vie de plus en plus variées. En effet, une fois
que la vie commence à se diversifier en développant des formes
qui deviennent de plus en plus nombreuses, il va advenir au sein de la
biosphère l'apparition des premiers organismes vivants favorisant
à la fois la reproduction, qui elle-même va conditionner
l'évolution. La reproduction est en fait un processus de copie, qui
permet à un être vivant de fabriquer un
54 A. Delsemme, Les origines cosmiques de la
vie, Flammarion, 1994, p 174
autre qui lui est identique. Ce processus est basé sur
la transmission d'information. Quant à l'évolution, elle
s'effectue par une modification extraordinairement lente, de l'information
transmise pour la reproduction. Toutefois, il faut dire que l'évolution
des formes vivantes se fait suivant deux principes que sont : l'erreur dans la
reproduction, qui est à la base de l'apparition des mutations, et la
survivance de l'individu le plus apte.
L'erreur dans la reproduction se fait souvent lors de la
transmission du code génétique. En effet, il arrive pendant la
transmission du code génétique, qu'un message soit reproduit deux
fois, ce qui au fait constitue une erreur dans l'écriture du code. Si
cette erreur n'est pas éliminée avant que le message ne soit
transmis, elle peut créer par cumulations successives, une modification
génétique qui se manifestera par une différence
accusée dans les formes physiques. C'est cette différence de
formes qui, si elle est transmise de génération en
génération, va entraîner à long terme l'apparition
d'une nouvelle espèce, qui devient de ce fait autonome et totalement
spécifique par rapport à son ancêtre
généalogique.
Le second élément qui participe à
l'évolution, est celui de la survivance de l'individu le plus apte. La
notion de survivance de l'individu le plus apte, est un phénomène
qui se fait par la possession de certaines caractéristiques qui peuvent,
dans le cadre de la compétition, donner un avantage à l'individu
qui les développe. Pour se faire, il suffit que, dans une population
donnée d'espèce vivante, la caractéristique avantageuse
aussi insignifiante qu'elle puisse être, soit multipliée par le
processus de la reproduction. Au fur et à mesure que cette population
donnée se multiplie et continue de consolider cet avantage physique, il
en résultera après quelques générations, que cette
dite population va petit à petit dominer sa niche écologique,
entraînant par ce fait la disparition progressive, ou mieux encore la
réduction en nombre, de toutes les autres espèces qui dès
lors deviennent inaptes aux conditions naturelles.
Initialement apparue dans les océans, la vie va
progressivement s'étendre hors des eaux et commencer à occuper
les espaces continentaux. Ce changement de niche apparemment simple, n'est pas
dans la réalité aussi facile qu'on serait amené à
le croire. La question qui se pose est de se demander, comment à partir
de leurs milieux marins, les premiers êtres vivants vont-ils peupler les
continents encore inhabités ?
Comme nous l'avons noté, les premières formes de
vie étaient constituées essentiellement de microbes,
bactéries et par la suite d'algues. En effet, ce sont ces
dernières et plus particulièrement les algues bleues, qui vont
frayer une nouvelle voie à l'évolution de la vie.
Concentrées aux bords des rochers sur la plage, les
algues vont, par leur activité de photosynthèse, libérer
une très forte quantité d'oxygène en absorbant le gaz
carbonique encore dominant dans l'atmosphère. De ce fait, les algues se
mettent à augmenter la teneur en oxygène de l'atmosphère
en diminuant parallèlement celle du gaz carbonique.
Par ce travail intense des algues marines, notre
atmosphère va progressivement se transformer passant de l'état
réducteur, qui correspond à celui dominé essentiellement
par le dioxyde de carbone, à l'état oxydant
caractérisé par la prédominance de l'oxygène.
Devenus de plus en plus nombreux dans l'atmosphère, les atomes
d'oxygène vont eux aussi entrer dans le jeu. Ces derniers vont par la
liaison atomique, se regrouper trois par trois pour donner naissance à
des atomes d'ozone noté O3. Ces atomes d'ozone vont par leur
nature, se séparer du reste de l'atmosphère, s'élever
au-dessus de celle-ci et forme la fameuse couche d'ozone dont la destruction,
fait aujourd'hui l'objet des débats politiques et écologiques.
L'importance de cette couche d'ozone, est qu'elle va permettre de
réduire l'énorme chute des rayons cosmiques, dont on sait que la
pénétration dans les organismes vivants est une des causes
pouvant entraîner des modifications génétiques. Il est
visible que la couche d'ozone participe elle aussi, à l'évolution
de la vie sur Terre.
D'autres scientifiques évoquent aussi
l'hypothèse des pluies torrentielles, dans l'explication de l'oxydation
de notre atmosphère. Selon ces derniers, notre planète a connu
une période, où des pluies acides se sont déversées
sur elle. Ils affirment en effet, que c'est avec l'interaction de ces pluies
acides que les molécules de dioxydes de carbone, se sont liées
aux molécules d'acide, pour former les premiers rochers
sédimentaires de carbonates, plus connus sous le nom de calcaire.
Qu'importe l'origine de ce phénomène, il faut
dire que c'est avec l'amélioration des conditions atmosphériques,
que la vie commença à se développer et à
s'épanouir sous des formes variées. Cet épanouissement va
conduire certaines bactéries à produire et à
développer, la reproduction sexuée. Cette nouvelle forme de
reproduction, aura un intérêt et une importance capitale dans la
stimulation de la diversité des espèces. Dans ses débuts,
la reproduction sexuée n'était pas ce qu'elle est de nos jours.
Jadis dans la reproduction sexuée, les cellules somatiques,
c'est-à-dire les cellules ordinaires non sexuelles, contenaient un
nombre pair de chromosomes qui sont presque identiques deux à deux. Pour
se reproduire sexuellement, une cellule partageait sa double série de
chromosomes en deux séries simples, processus appelé en biologie
la méiose. Par ce processus, on aboutissait à la
production de
deux cellules sexuelles contenant chacune la moitié des
chromosomes initiaux. Ces cellules hybrides doivent pour se reproduire, se
combiner à d'autres cellules sexuelles. Même si ce
phénomène semble à première vue inutile et
compliqué, il faut toutefois reconnaître ceci : « La
méiose atteint pourtant un double but : d'abord, les enfants
héritent de toutes les propriétés communes à
l'espèce, qui ont assuré sa survie jusqu'à présent
; ensuite, ils héritent du mélange des variations qui proviennent
des différences entre les deux parents, conduisant à une plus
grande diversité des enfants et une lus grande variabilité de
l'espèce. Cette dernière propriété est favorable
à la lutte pour la vie, surtout dans un environnement qui change, par
exemple à cause de la première glaciation, puis de l'apparition
de l'oxygène dans l'atmosphère. »55
Avec ce phénomène de reproduction sexuée,
on assiste parallèlement à une croissance en masse de la
variété. Les nouvelles espèces, de plus en plus
nombreuses, commencent à se complexifier et vont améliorer ainsi
leur taille. Cet accroissement des tailles et poids les mènera, à
développer de nouvelles caractéristiques, capables de les
maintenir sous l'eau tout en préparant leur probable sortie hors des
océans. C'est à cette période, que les mollusques
commencent à se couvrir d'une coquille en calcaire, que l'ancêtre
de l'espèce des poissons va développer des branchies lui
permettant de respirer l'air, mais c'est aussi à cette époque que
cette espèce va aussi développer une prémisse
d'ossification. Une fois que l'oxygène est devenue assez consistant dans
l'atmosphère, on assiste à une remontée en masse de
certaines espèces, qui pendant longtemps animaient la vie dans les
océans.
Les premières espèces capables de s'adapter hors
de l'eau, quittèrent les océans et commencèrent à
peupler les continents jusque-là vierges. Cette phase ne va pas durer
longtemps. La raison de cette extinction s'explique par le fait qu'en ce
moment, les plaques continentales, qui étaient à cette
époque très proches les unes des autres, avaient subi de
violentes collisions. Ces dernières, par leurs chocs,
entraînèrent le réchauffement de la matière,
emprisonnée dans les profondeurs de la Terre, c'est cette matière
qui s'est projetée sur la Terre sous forme de gigantesques volcans. Les
gaz dégagés par l'effet de ces volcans, vont recharger
l'atmosphère d'une quantité énorme de dioxyde de carbone.
Ces nouvelles conditions fatales pour la vie, vont entraîner la
disparition extinctive de plusieurs espèces que nous retracent les
reliques fossiles.
55 A.Delsemme, Les origines cosmiques de la vie,
Flammarion, 1994, p 235
Le phénomène des extinctions, a
été un fait très récurrent dans l'évolution
des espèces. En effet, l'histoire de la vie a été
rythmée par une succession d'extinctions, dont nous allons ici noter les
plus importantes. À la fin de la période géologique dite
du Cambrien, il y a 515 millions d'années, est advenue la
première grande extinction. Cette extinction d'origine volcanique, a vu
disparaître l'espèce des trilobites et des premiers poissons sans
mâchoires. Après cette extinction, suivra celle de la
période de l'Ordovicien. Cette extinction, aussi d'origine volcanique, a
elle aussi diminué plusieurs espèces de crustacés et de
mollusques. Elle est advenue il y a de cela 439 millions d'années.
Soixante millions d'années plus tard, une autre
extinction va bouleverser l'histoire et l'évolution de la vie : il
s'agit de l'extinction du Dévonien. Survenue il y a 367
millions d'année, elle a détruit la faune, jadis dominée
par les insectes, les amphibiens, les poissons à mâchoires etc.
Cette époque a aussi été celle du développement des
premières plantes terrestres. Cette extinction a été
suivie de celle du Carbonifère qui, elle même a duré
jusqu'à la période du Permien laquelle remonte à 245
millions d'années. Puis il y a celle du Crétacé,
qui a éliminé plusieurs espèces de dinosaures et
mammifères. Cette extinction date de 65 millions d'années dans le
passé. La dernière des extinctions est celle qui est advenue
à la fin du quaternaire il y a 50 millions d'années. Cette
dernière extinction est restée celle qui a mis fin au
règne des dinosaures lesquels, depuis lors ont disparus de la surface de
la Terre. Parmi toutes ces extinctions, deux seulement n'ont pas
été d'origine volcanique. Celle advenue dans la période du
Permien et celle du quaternaire. Ces deux extinctions ont été
causées par glaciation. Ceci montre que l'histoire de la vie s'est faite
par des va et vient rythmés par des évolutions et destructions.
L'un des multiples phénomènes qui ont favorisé
l'évolution et l'épanouissement de la vie sur Terre, a
été la variation des glaciations.
En effet, avec la variation des périodes de glaciation,
le niveau de la mer connaîtra alternativement des périodes de
montée et de baisse des eaux. Avec les périodes de baisse du
niveau de la mer, les algues situées aux bords des plages
commencèrent à se complexifier et former les premières
plantes qui, en ce moment n'avaient développé ni racine ni tige.
Ces plantes vont se mettre à évoluer et former petit à
petit la flore qui, en se développant de son côté, va
permettre, progressivement par le jeu des variations, l'apparition des
conifères et des premières fougères géantes.
L'expansion fleurissante de la flore, va entraîner l'oxydation de
l'atmosphère terrestre qui devient de plus en plus favorable à
l'épanouissement de la vie
animale. Les êtres vivants commencent à sortir des
eaux pour habiter la Terre continentale, oüles conditions de
vie sont de plus en plus améliorées ; c'est le cas des scorpions,
des insectes
etc. L'accroissement des forêts va très vite
entraîner un épanouissement étonnant de la faune qui, par
le processus de la reproduction, va commencer à conquérir les
continents par la production d'une multitude de populations variées.
Parmi toute cette multitude d'espèces animales, il y
aura tout de même une, qui restera la plus remarquable : il s'agit de
l'espèce des dinosaures. Cette espèce va très rapidement
s'imposer dans la compétition, et dominer tout le règne animal.
Cependant, on distingue dans cette espèce, deux catégories de
dinosaures. La première catégorie est composée de grands
quadrupèdes herbivores. Ces derniers, très peu variés dans
leur genre, peuvent atteindre l'étonnante mesure des trente
mètres de long. Quant à la seconde catégorie, elle
comprend un très grand nombre de sous-espèces bipèdes,
dont la plus part ont entre cinq et six mètres de long. Dans cette
catégorie très variée, il y en a de toutes les tailles, y
compris de petites espèces dont certaines d'entre elles peuvent
atteindre à l'âge adulte la taille d'un poulet. C'est en fait de
cette famille de dinosaures très petits, qu'est apparu l'espèce
des oiseaux. Ces espèces très petites, ne pouvant s'imposer sur
la surface des continents, face à des prédateurs très
voraces et très puissants, vont développer une de leurs
caractéristiques par modification. C'est ainsi que ces espèces
vont développer sur leurs corps, des plumes au lieu des poils comme il
en était des autres espèces de dinosaures. L'explication de la
possibilité de cette modification, est essentiellement due à la
configuration de la nature de l'ossification des dinosaures. En effet souligne
Armand Delsemme, « Contrairement aux os des mammifères qui sont
denses, les os des dinosaures sont minces et poreux. Ces os légers leur
ont d'une part permis d'atteindre de très grandes tailles, puis ont
conduit à plusieurs familles de dinosaures volants, de transformer leurs
écailles en plumes pour créer les premiers oiseaux, notamment
l'archéoptéryx. »56
Par ailleurs, parallèlement à l'existence des
dinosaures, on peut aussi noter celle de leurs cousins proches que constitue
l'espèce des mammifères. En effet « Il y a 250 millions
d'années, le Thécodonte, ancêtre des dinosaures, avait un
cousin, reptile à quatre pattes qui allait devenir l'ancêtre des
mammifères. Ses descendants étaient devenus, il y a 200 millions
d'années de petits animaux fouineurs qui commençaient à
ressembler très fort aux petits mammifères rongeurs
d'aujourd'hui. Ils devaient sans doute se protéger dans des terriers et
ne s'aventurer au dehors que la nuit tombée, car ils constituaient des
proies de choix pour les redoutables dinosaures carnassiers. Leur reproduction
commençait d'abord par une
56 A. Delsemme, Les origines cosmiques de la
vie, Flammarion, 1994, p 244
incubation dans une poche ventrale à la
manière des marsupiaux, puis très vite ils devenaient de vrais
vivipares. »57. Cependant, l'espèce des dinosaures,
va dominer et occuper la quasitotalité de la niche écologique
située à la surface des continents. Ce fulgurant
développement des dinosaures va, vers la fin de la période du
Crétacé, subir une extinction en masse laquelle entraînera
fatalement la disparition de tous les animaux dont le poids environne le
minimum des vingt kilogrammes ou plus. Cette précision est même
révélée par l'étude des résidus fossiles,
étude selon laquelle toutes les espèces victimes de cette
extinction la plus meurtrière, avaient des tailles et des poids
considérables. A cette époque, disparaîtront les grandes
familles de dinosaures telles que : les Tyrannosaures, les
Diplodocus, les Tricératops, les
Stégosaures et les Camptosaures.
La disparition de ces espèces et autres animaux moyens,
va libérer l'espace de la niche écologique continentale. Il en
résultera un profit pour les autres petits mammifères. Ces
derniers, n'étant plus sous la menace de prédateurs dangereux,
vont à leur tour connaître un épanouissement et une
explosion démographique très rapide. Les mammifères vont
remplacer les dinosaures et dominer le règne animal, composé
d'oiseaux, de reptiles etc. A cette même période, les poissons,
les crustacés et les mollusques animaient la vie dans les océans,
où les algues, plus répandues que toutes les autres
espèces, dominaient la niche écologique marine.
Toutefois, même s'il est avéré que c'est
par une très grande extinction, que la majeure partie de la faune
continentale et une partie de la faune des eaux peu profondes, ont
été détruites, la cause de cette extinction est
restée pendant longtemps un sujet de doute pour les scientifiques. Parmi
les différentes thèses soulevées, nous allons
considérer deux des plus vraisemblables.
D'abord, il y a l'hypothèse soutenue par le physicien
Luis Alvarez et son fils géologue, Walter Alvarez. En effet, c'est
Walter Alvarez qui, en étudiant les couches géologiques
séparant l'ère secondaire de l'ère tertiaire,
découvrit dans ces couches une teneur anormale en iridium. L'iridium est
en fait un métal de la même famille que le platine. Comme les
autres métaux de sa famille, l'iridium est très rare dans notre
planète. Par contre, ce métal est très abondant dans les
météorites. A partir de ce constat, Walter Alvarez et Luis
Alvarez vont rapprocher les données de leur résultat à la
grande extinction survenue à la fin du secondaire. Ils affirment
à cet effet, qu'un bolide cosmique a dû percuter la Terre il y a
65 millions d'années, projetant dans le ciel un énorme nuage de
poussières. Ce nuage, disent-ils, a constitué un écran
pour les rayons de Soleil, plongeant ainsi notre planète dans une
nuit
57 A. Delsemme, Les origines cosmiques de la
vie, Flammarion, 1994, pp 244-245.
glacée. Ce fait selon eux aurait duré quelques
dizaines d'années, ce qui a conduit à la disparition de toutes
les espèces n'ayant pas su s'adapter à ces conditions
climatiques.
Quant à la seconde hypothèse soutenue par le
tectonicien Jason Morgan et son collaborateur paléomagnéticien
Vincent Courtillot, elle explique l'extinction en faisant
référence aux éruptions volcaniques de la
péninsules indienne. Pour eux, ce sont les éruptions des grands
volcans situés dans la trappe du Dekkan, qui seraient
responsables de la modification climatique survenue à cette
époque. De ces deux hypothèses, on ne peut déterminer
celle qui est vraie et celle qui l'est le moins ; car toutes les deux
s'appuient sur des données dont on peut vérifier la
réalité scientifique. Sans chercher à être absolu,
on ne peut qu'accepter ces deux propositions comme manifestant une
réalité scientifique. C'est ainsi que Claude Allègre,
cherchant à faire la synthèse de ces deux hypothèses
scientifiquement vraies écrit : « La disparition brutale de
milliers d'espèces à la fin du Crétacé, il y a
soixante-cinq millions d'années, est un fait désormais
établi ; cette extinction résulte d'une modification des
conditions climatiques et a éliminé les espèces les moins
adaptées à ces conditions extrêmes ; celles qui ont
survécu étaient au contraire celles qui étaient «
anormales » , peu adaptées aux conditions normales, comme ces
espèces de plancton boréal égarées dans la zone
équatoriale : alors que l'étude évolutive montre qu'elles
étaient en train de disparaître lentement, elles s'emparent du
milieu dès la crise du Crétacé. »58.
Passer en revue l'idée darwinienne selon laquelle, l'adaptation aux
conditions créés par une catastrophe, assure la survie en donnant
ainsi un indice d'évolution de l'espèce considérée,
est une entreprise légitime.
Pour revenir à notre chronologie de départ, il
faut dire qu'avec la disparition des dinosaures, les mammifères vont
conquérir l'espace terrestre et se multiplier en très grand
nombre. On assiste par cette multiplication des espèces à
l'apparition de plusieurs nouvelles espèces. En effet, issue de la
famille du Thécodonte, la lignée des mammifères a
pris son autonomie avec la famille des Thérapsides, une
espèce de reptiles apparue il 230 millions d'années. Les
thérapsides étaient de petits carnivores très
actifs. Ces derniers dit-on, contrairement à la famille des
lézards et des crocodiles, ont amélioré la technique de
leur démarche en resserrant leurs membres sous leurs corps. Cette
modification semble-t-il, leur a donné un avantage considérable
dans la compétition avec les autres carnivores. Car non seulement avec
leur vitesse supérieure à celle des autres, ils parvenaient
facilement à attraper leur prébende, mais
58 Claude Allègre, Introduction à
une histoire naturelle, Fayard 2004, p 309
aussi il était plus facile pour eux d'échapper
aux reptiles géants susceptibles de menacer leur vie. Comme il a
été de l'évolution des dinosaures, l'évolution des
mammifères a aussi donné naissance à une
variété étonnante de tailles et de comportement. Ces
tailles varient des êtres très minuscules comme les musaraignes,
petits mammifères insectivores au museau pointu, aux énormes
mammifères tels que les éléphants d'Afrique, les mammouths
ou même les baleines.
Parmi la grande famille de mammifères, les rongeurs ont
été les plus nombreux. C'est dans ce très vaste zoo de
diversification et de compétition, que l'ordre des primates est apparu
environ 75 millions d'années, en pleine période du
Crétacé. Cette espèce originairement très petite de
taille, était composée selon les biologistes de trois grandes
familles. Selon ces derniers, ce sont ces trois familles qui ont
vraisemblablement donné naissance aux espèces des Tarsiers, des
lémuriens et des singes.
Le Tarsier est un insectivore nocturne vivant dans les arbres.
Ce petit animal ressemble au regard, à un petit singe de 10 à 15
cm de long. Caractérisé par sa très longue queue, le
tarsier a, à l'image des autres familles de primates, des yeux
énormes. La deuxième famille de primates, est celle qui a vu
naître le lémurien. Cet animal qui existe encore à
Madagascar de même que dans les îles Comores, possède une
figure qui ressemble à celle du renard et un corps de singe. Il mesure
entre 15 et 60 cm. Comme le tarsier, le lémurien a lui aussi de gros
yeux. Toutefois cet animal des forêts, contrairement au tarsier, mange un
peu de tout : fruits, bourgeons, feuilles, insectes, oeufs d'oiseaux ou
même des petits d'oiseaux. Quant à la troisième famille de
primates, elle est caractérisée par la catégorie des
singes. Cette famille s'est diversifiée en plusieurs espèces qui
semblent avoir toutes pour ancêtre commun, une vieille espèce de
mammifère appelée «l'ancêtre du proconsul africain
».
Ce singe semble embrasser l'origine commune de tous les singes
primitifs tels que, les petits singes à longue queue d'Amérique
centrale, le macaque et le babouin d'Afrique. Il est aussi l'ancêtre des
singes sans queue desquels on peut compter le chimpanzé, le gorille et
l'orangoutang qui est le plus proche cousin de l'homme. C'est en fait, à
cette lignée de singes sans queue, qu'appartient l'ancêtre de
l'actuelle espèce humaine que les paléontologues appellent
Australopithèque.
Apparu il y a environ quatre millions d'années,
l'australopithèque avait un crâne d'environ 500 cm3 de
volume. Il était essentiellement végétarien et se
nourrissait de fruits.
L'australopithèque va, après quelques milliers
d'années, donner naissance à l'homo habilis. Son
apparition date d'environ deux millions d'années. Plus grand que son
ancêtre, homo habilis avait une boîte crânienne
d'à peu près 700 cm3 de volume. En plus du fait qu'il
était carnivore, homo habilis avait appris à marcher debout sur
ses deux pieds, ce qui lui a permis de libérer ses membres
supérieurs. Une fois libérées, ses mains vont lui servir
à développer la cueillette et à pratiquer la chasse. Cet
animal de plus en plus conquérant, vivait en groupe, sans pour autant
développer la méthode du langage parlé, qui semble
être apparue avec son descendant direct qu'est l'Homo
érectus.
En effet, c'est l'homo érectus qui va
succéder à l'homo habilis. Cet être va
perfectionner sa démarche, et devenir par amélioration un homme
de conquête. Homo érectus représentera une
étape importante dans l'évolution de l'homme. C'est avec lui que
plusieurs découvertes seront faites à savoir, la production et le
développement du langage, la découverte du feu, l'organisation en
sociétés primitives etc. Apparu il y a environ 1,5 million
d'années, l'homo érectus va, par les faits de la
compétition, se lancer dans une vaste conquête de l'espace
à la recherche de fruits et de gibier. C'est dans le cadre de ce vaste
mouvement de lutte pour l'existence que, « Homo érectus
découvre le feu et conquiert l'Afrique, l'Europe, l'Indonésie, la
Chine. Ces migrations sont attestées par les crânes
désormais nombreux que l'on a pu trouver sur tous ces continents et qui
traduisent déjà une certaine variabilité dans le type
homo. » 59
Enfin, le type homo érectus va donner
naissance à l'homo sapiens. C'est avec ce type d'homo, que va
advenir véritablement l'éveil de l'intelligence. L'homo
sapiens n'a pas connu, de modifications morphologiques majeures.
Généralement défini à partir de l'homme du
Neandertal apparu il y a 600 milles ans, l'homo sapiens a, depuis lors
jusqu'à nos jours, conservé presque les mêmes
caractéristiques. Avec son crâne d'environ 2000 cm3, on
peut affirmer que « C'est cet homo sapiens qui est l'ancêtre de
tous les hommes, quelques soient leur race, leur couleur de peau, leur
variété. La biologie moléculaire à établi
sans ambiguïté cette généalogie unique en faisant
justice de toutes les théories fantaisistes (et dangereuses) sur
l'origine multiple des hommes modernes suivant leur race. »60.
En définitive, on peut donc dire que l'homme est historiquement
situé dans l'évolution animale, même si ce serait commettre
une très grave erreur, de ne le considérer que comme un simple
animal. Ce qui caractérise l'homme, c'est la faculté de penser,
critère de différenciation par rapport aux
59 Claude Allègre, Introduction à
une histoire naturelle, Fayard, 2004, p 336
60 Idem Pp 336-337
autres êtres vivants. L'univers a, grâce à
sa complexité, monté les marches de l'évolution qui, l'ont
conduit par la traversée de différents passages à
l'émergence de l'homme. Ainsi retracée, l'évolution de
l'univers peut-elle être considérée comme un
phénomène né du hasard et de la pure coïncidence ?
L'apparition de l'homme ne serait-elle pas une conséquence
nécessaire de l'évolution de l'univers ? Ces questions aux
attraits plutôt religieux ont pourtant été débattues
en des termes scientifiques.
La communauté scientifique a été
partagée face à cette question. Pour certains, l'apparition de la
vie, et au delà de celle-ci, l'émergence de l'intelligence et de
la conscience, sont liées à un simple fait du hasard, un accident
de parcours dans la longue marche de l'univers. A côté de ce camp,
s'érige un autre qui lui, tente de briser le joug écrasant du
hasard, et essaye de rendre l'homme à sa place privilégiée
dans le cosmos. Pour ces derniers, l'homme n'a pas émergé par
hasard dans un univers indifférent. Ils affirment au contraire, que tous
les deux sont en étroite symbiose : si l'univers disent-ils, est tel
qu'il est, c'est parce que l'homme est là pour l'observer et se poser
des questions. « L'existence de l'être humain est inscrite dans
les propriétés de chaque atome, étoile et galaxie de
l'univers et dans chaque loi physique qui régit le cosmos. Que des
propriétés et des lois de l'univers se modifient un tant soit peu
et nous ne serons plus là pour en parler. Le visage de l'univers et
notre existence sont donc inextricablement liés. L'univers se trouve
avoir, très exactement, les propriétés requises pour
engendrer un être capable de conscience et d'intelligence.
»61. Cette manière de penser est une façon
pour ces scientifiques, de faire ressurgir la question du déterminisme
dans la problématique de l'apparition de l'homme.
L'homme est apparu dans l'univers, parce que tout y a
été fait tel qu'il ne pouvait pas ne pas exister. Cette
hypothèse est ce que l'on appelle en terme scientifique le «
principe anthropique ». Défendu dans les années 1974
par l'astrophysicien Brandon Carter, ce principe cherche à redonner
à l'homme la place privilégiée où Copernic l'avait
chassé.
Il ne s'agit pas selon Brandon Carter de revenir sur la
position géographique de l'homme dans l'univers, mais plutôt de
voir comment cet être spécifique occupe une place centrale dans le
dessein de l'univers. Ce principe aussi appelé par Hubert Reeves
« principe de complexité », prétend que
l'univers possède, depuis les temps les plus reculés accessibles
à notre exploration, les propriétés requises pour amener
la matière à gravir les échelons de la gravité.
61 Trinh Xuan Thuan, La mélodie
secrète, Gallimard, 1991, pp 277-278
Une telle argumentation est toutefois plus
réductionniste que scientifique. Prise dans on ensemble, elle voudrait
insinuer que l'évolution a, avec l'home, atteint son summum :
d'oüaucune autre espèce ne peut succéder à
celle de l'espèce humaine. Néanmoins, il nous est
permis de nous demander si une autre espèce pourrait un
jour advenir après l'homme ? Vers quelle autre forme de vie
l'espèce humaine peut-elle nous ouvrir ? Toutes ces questions ne
semblent pas très scientifiques, mais elles ne restent pas tout de
même insensées.
Aujourd'hui on voit qu'avec les travaux entrepris dans le
domaine de la génétique, il est possible de stimuler des
modifications, et conditionner ainsi de nouvelles brèches à
l'évolution. Par ailleurs avec la dégradation de notre
environnement, l'homme ne s'expose-til pas à sa propre destruction ? Car
s'il est avéré que la couche d'ozone est cet écran qui
nous protège des rayons cosmiques, et sachant que ces rayons cosmiques
peuvent engendrer dans l'accélération des modifications
génétiques, ne serait-il pas plus noble pour toute
l'humanité de se donner corps et âme dans le combat pour
l'écologie et protéger ce joyau que l'univers nous a offert et
qui se trouve être la Terre ? Ces implications sont de nos jours les
véritables questions, que la science doit désormais se poser, et
qui dans la mesure des débats doivent consolider les discussions sur les
enjeux de la bioéthique.
III
Le chaos : un
nouveau paradigme
Comme l'a montré Thomas Samuel Kuhn, à travers
l'évolution de la science, toute époque génère une
vision générale du monde, un paradigme par lequel elle
interprète et construit la réalité. En effet la science
moderne, du 17ème siècle jusqu'à nos jours,
peut être divisée en deux types de paradigmes : le premier
étant celui dominé par les figures de Descartes, Newton et
Laplace, tandis que le second est celui encadré par les travaux de
Einstein sur la Relativité, de Planck sur la physique quantique et de
Lorenz sur le chaos. Le premier paradigme aussi appelé « paradigme
de la science absolue » traduit l'image traditionnelle de la science.
Selon ce paradigme, la matière, et au-delà de celle-ci l'univers,
étaient caractérisés par le déterminisme, la
réversibilité et la prévisibilité du
phénomène. Dans ce paradigme, pour analyser un
phénomène, on procédait par réductionnisme et
généralisation. Le raisonnement se réduisait en termes
mécanistes, sur des systèmes linéaires, isolés et
fermés.
En effet, c'est sous la bannière de cette conception,
qu'a été forgée l'image d'un monde immuable et
déterministe que la dynamique classique permettait de décrire. Ce
qui justifie le fait que la science traditionnelle, à l'image de la
dynamique classique, ne s'occupait que des phénomènes dont les
comportements étaient à la fois réductibles et
réversibles. Le flou, l'accident, l'événement,
l'incertain, l'aléa étaient tous rejetés hors du champ de
la rationalité, donc hors du domaine de la pensée dominante.
Dés lors, toute tentative visant à les réintégrer
apparaissait, aux yeux des scientifiques éduqués dans le cadre de
l'ancien paradigme, comme anti-scientifique et irrationnel.
Cependant cette vision à la fois réductionniste
et contraignante de la science, sera très vite remise en cause à
partir du 20ème siècle. En effet nous dit Trinh Xuan
Thuan, « Le 20ème siècle a vu
s'écrouler l'un après l'autre les murs de certitudes qui
entouraient la forteresse de la physique newtonienne. Einstein, avec sa
théorie de la Relativité, fit table rase en 1905 de la certitude
newtonienne d'un espace et d'un temps absolus. Dans les années 1920
à 1930, la mécanique quantique détruisit la certitude de
tout pouvoir mesurer aussi précisément que possible. La vitesse
et la position d'une particule élémentaire de matière ne
pouvaient plus être mesurées en même temps avec une
précision illimitée. Un dernier mur de certitude s'est
effondré à la fin du siècle : la science émergente
du chaos est venue éliminer la certitude
newtonienne et laplacienne d'un déterminisme absolu
de la Nature. Avant l'avènement du chaos, « ordre »
était le maître mot. Le mot « désordre
»était au contraire tabou, ignoré, banni du langage de la
science. La Nature devait se comporter de manière
régulière. Tout ce qui était susceptible de montrer des
velléités d'irrégularité ou de désordre
était considéré comme une monstruosité. La science
du chaos a changé tout cela. Elle a mis de l'irrégularité
dans la régularité, du désordre dans l'ordre. Elle a
enflammé l'imagination non seulement des scientifiques, mais aussi du
public, car elle se préoccupe d'objets à l'échelle humaine
et parle de la vie quotidienne. » 62
Ce beau texte de Trinh retrace de manière très
brève, la révolution scientifique et conceptuelle que la
théorie du chaos a établie dans le domaine de la science. En
effet, la théorie du chaos est une des rares, des très rares
théories mathématiques qui ait connu un vrai succès
médiatique. Apparue dans les années soixante en
météorologie, cette théorie s'est très rapidement
étendue à tous les domaines de la science. Certains
spécialistes sont même allés jusqu'à comparer les
remous qu'elle a créés, aux brillants succès qu'ont connus
en leurs débuts, la mécanique newtonienne, la relativité
de Einstein ou même la mécanique quantique.
Tel que le définit le Petit Larousse, le « chaos
» signifie un état de grand désordre, de confusion
générale. Cette définition, malgré le fait qu'elle
ne décrit pas les caractéristiques de la science nouvelle, reste
tout de même celle que la grande partie du sens commun retient, lorsqu'on
prononce le mot chaos. En effet, tel que le comprend le scientifique, le chaos
ne signifie pas « absence d'ordre » ; celui-ci traduit plutôt
un état d'imprévisibilité, d'impossibilité de
prévoir à long terme. Techniquement, le terme « chaos »
correspond à l'état particulier d'un système qui, non
seulement ne se répète jamais, mais aussi a une dépendance
sensitive par rapport aux conditions initiales. Ce qui veut dire que, des
différences extrêmement faibles dans les valeurs des
paramètres, peuvent s'amplifier et aboutir à des résultats
largement divergents.
Historiquement, la science du chaos s'est établie
à la suite des travaux du physicien Américain Edward Lorenz, sur
la prévision météorologique. Cependant, bien avant Lorenz,
un des anciens génies de la science occidentale, Henri Poincaré,
avait posé les jalons de ce qui deviendra la plus brillante
révolution de notre siècle. Mathématicien français
de grande renommée, Henri Poincaré était un des grands
scientifiques qui s'étaient insurgés contre la dictature du
déterminisme newtonien dés la fin du 19ème
siècle. En effet, Poincaré fut le
62 Trinh Xuan Thuan, Le chaos et l'harmonie,
Gallimard, 2000, pp 105-106
premier à réfléchir sur le
problème de la dépendance du comportement de certains
systèmes, vis-à-vis des conditions initiales. Il s'aperçut
que pour de nombreux systèmes, un petit changement au début
conduisait à un changement majeur de leur évolution
ultérieure. Pour ces systèmes, le futur ne pouvait plus
être connu ; ce qui alors rendait les prédictions à long
terme complètement vaines.
C'est ainsi que, contre le credo laplacien du
déterminisme universel selon lequel, « pour une Intelligence
qui embrasserait dans la même formule les mouvements des plus grands
corps de l'univers et ceux du plus léger atome, rien ne serait incertain
pour elle, et l'avenir comme le passé serait présent à ses
yeux » ; Henri Poincaré lança un avertissement
prémonitoire dans son ouvrage Science et méthode
publié en 1908. En effet, Poincaré écrit dans un extrait
de cet ouvrage : « Une cause très petite, qui nous
échappe, détermine un effet considérable que nous ne
pouvons pas ne pas voir, et alors nous disons que cet effet est dû au
hasard. Si nous connaissons exactement les lois de la Nature et la situation de
l'univers à l'instant initial, nous pourrions prédire exactement
la situation de ce même univers à un instant ultérieur.
Mais, lors même que les lois naturelles n'auraient plus de secret pour
nous, nous ne pourrions connaître la situation initiale
qu'approximativement. Si cela nous permet de prévoir la situation
ultérieure avec la même approximation, c'est tout ce qu'il nous
faut, nous disons que le phénomène a été
prévu, qu'il est régi par les lois ; mais il n'en est pas
toujours ainsi, il peut arriver que de petites différences dans les
conditions initiales en engendrent de très grandes dans les
phénomènes finaux ; une petite erreur sur les premières
produirait une erreur énorme sur les derniers. La prédiction
devient impossible et nous avons le phénomène fortuit.
»
L'un des principaux exemples qui mirent en valeur cette
prédiction de Poincaré, est celui connu en physique sous le nom
de problème des trois corps. Comme l'indique son nom, le
problème des trois corps, traduit la difficulté
rencontrée en physique lorsqu'on tente de décrire les
trajectoires produites par l'interaction gravitationnelle d'un système
composé par trois corps, semblable au triptyque Soleil - Lune - Terre.
Dans ce cas précis de notre système solaire, les attractions
exercées d'une part par le Soleil sur la Lune, et d'autre part par la
Terre sur cette dernière, occasionnent des irrégularités
dans les trajectoires de notre gros satellite, la Lune.
En effet, depuis des siècles, les scientifiques et les
astronomes qui se sont succédés tout au long de la civilisation
humaine, de la tradition greco-babylonienne à l'avènement de
la
science moderne, ont tenté, chaque époque avec
ses génies, d'expliquer sans réussir véritablement, le
mouvement de la Lune. Contrairement aux planètes, la lune décrit
un mouvement dont les orbites sont à la fois irrégulières
et imprévisibles. A son temps déjà, Newton, à la
suite de son prédécesseur Kepler, avait tenté de
résoudre ce problème. Pour s'attaquer à cette
difficulté, le scientifique Britannique avait tenté
d'intégrer le problème du mouvement de la lune, dans une suite
d'équations semblables aux équations différentielles par
lesquelles on décrivait le mouvement des planètes.
Pour ce dernier, comme il en est pour deux corps, le mouvement
de la lune devait pouvoir être résolu en augmentant l'indice de la
lune à celle, déjà résolue, de l'interaction entre
le Soleil et la Terre. Cependant, malgré les multiples efforts qu'il
déploya pour résoudre ce problème majeur de la science du
19ème siècle, Newton n'a pas pu faire mieux que ses
prédécesseurs. Ce qui, par conséquent a laissé le
problème des trois corps, sans solution véritable jusqu'au
20ème siècle. En effet, le problème de
l'interaction de trois corps, ne connaitra une solution véritable qu'en
1889. Lors de cette année légendaire, le Roi Oscar de
Suède proposa aux mathématiciens du monde entier un concours,
dont l'objet consistait à résoudre le problème du
comportement de trois planètes. En guise de récompense, le roi
Oscar décida de remettre à celui qui résoudrait ce
problème, sur lequel avaient buté Kepler, Newton et Laplace, le
Grand Prix International du roi de Suède. En fait, ce problème se
formulait comme suit : « Le système solaire est -il stable ?
»
Face à une compétition de cette ampleur, Henri
Poincaré décida de relever le défi. Poincaré
était un personnage hors du commun, un des plus grands
mathématiciens de notre époque et sans doute le plus universel.
Lorsqu'il se mit à travailler sur ce problème, Poincaré
découvrit très vite que les solutions des équations de
Newton n'étaient pas intégrables dans le cas de trois
planètes. C'est alors qu'il eut l'idée géniale d'aborder
le problème d'une toute autre façon : par la
géométrie. Il inventa pour se faire le concept « d'espace
des phases ». Cette notion purement mathématique, permettait en
fait de suivre dans le temps, l'évolution de l'état d'un
système physique. En effet, pour réaliser un « espace des
phases », on construit d'abord un modèle avec les lois physiques et
les paramètres nécessaires et suffisants pour caractériser
le système considéré. Dans cette nouvelle vision
géométrique, les modèles des systèmes sont
caractérisés par des équations différentielles par
lesquelles on définira, à un instant donné, un point dans
un repère. Ce point caractérisera l'état du système
dans l'espace à cet instant. C'est cet espace que l'on nomme «
espace des phases ». Dans cet espace, lorsque le temps
s'écroule, le point représentant l'état
du système, décrit en général une courbe : on parle
alors de son orbite.
A la suite de nombreuses représentations
effectuées dans le cadre des mouvements de trois corps, Poincaré
tira la conclusion que les trajectoires, de trois planètes
s'influençant mutuellement, étaient imprévisibles. Ce qui
revient à dire que le système solaire ne fonctionnait pas comme
une horloge. Pour la première fois donc, les lois de Newton montraient
leurs limites ; sur ce point particulier, l'avenir redevenait
imprévisible. N'ayant pas d'ordinateur, Poincaré ne put explorer
ni même simuler le comportement de trois planètes dans leur espace
des phases, comme le fera cinquante ans plus tard Edward Lorenz sur la
météo. Faute de quoi, il aurait pu donc découvrir les
attracteurs étranges et le chaos. Personne à cette époque,
ne saisit l'importance de la découverte de Poincaré.
Par manque d'intérêt pour la science d'alors, les
travaux de Poincaré sont restés sans continuité ; ce qui
par conséquent a interrompu momentanément le processus qui aurait
permis à la théorie du chaos de voir le jour. C'est ainsi que
Lorenz reprendra en 1960, sans pour autant le savoir, le témoin
longtemps défendu par Poincaré. La théorie du chaos,
née à la suite des travaux de Lorenz, propose pour l'univers un
modèle déterministe tout en laissant une place au hasard, une
dimension à l'imprévisible.
Dans cette troisième partie, nous allons montrer dans
un premier temps comment le hasard, longtemps chassé du domaine de la
science, reste malgré tout une caractéristique qui a beaucoup
joué aussi bien dans la formation du réel, que dans le
comportement de certains phénomènes. Dans une seconde section
intitulée « l'effet papillon », nous montrerons que dans les
systèmes dynamiques instables à forte dépendance sensitive
aux conditions initiales, de petites causes conduisent, dans certains cas,
à de grands effets initialement imprévisibles. Enfin dans la
dernière section consacrée à la mécanique
quantique, nous montrerons comment cette nouvelle branche de la physique a fini
par battre en brèche, la certitude newtonienne du
déterminisme.
III- 1 / Le hasard
Le hasard est la part maudite de notre vie de tous les jours.
Chacun le rencontre, personne ne l'explique. Au regard de notre logique
mentale, le hasard est rejeté, dénié. Cette attitude
participe en fait de ce qui a rendu négative la définition du
hasard : il n'est qu'absence d'ordre. En effet, pour des raisons de
commodité et de cohésion sociales, on préfère
généralement éviter la confrontation directe avec le
hasard, car celui-ci ne se laisse pas facilement apprivoiser par l'explication.
Cependant, au cours de l'histoire de la physique, le hasard a suscité
dans son explication deux attitudes aussi extrêmes et aussi paradoxales
l'une que l'autre. En fait, fondées sur le même refus qu'il puisse
exister une absence d'organisation, ces pensées axées autour de
l'explication du hasard ont fini par scinder les scientifiques en deux camps
qui se heurtent mutuellement. Ceux qui y croient, le font au nom d'un ordre
sousjacent ne relevant pas de la causalité cartésienne, tandis
que ceux qui refusent d'y croire le font, eux aussi, au nom d'un ordre causal
non encore élucidé.
Dans la préface à son ouvrage Hasard et
chaos, David Ruelle écrit : « Le hasard a sa
raison, dit Pétrone, mais quelle raison ? Et qu'est-ce- que en fait le
hasard ? D'où vient-il ? A quel point le futur est-il prévisible
ou imprévisible ? A toutes ces questions, la physique et les
mathématiques apportent quelques réponses. Des réponses
modestes, et parfois incertaines, mais qu'il est bon de connaître.
[...]Les lois de la physique sont déterministes. Comment donc le hasard
peut-il faire irruption dans notre description de l'univers.
»63 Rien que dans la formulation même de cette
citation, la succession des interrogations révèle les
difficultés auxquelles on se trouve confronté, lorsqu'on tente
d'expliquer la notion de hasard.
Si on se réfère aussi bien à l'histoire
de la philosophie qu'à l'évolution des idées
scientifiques, on se rend compte que la notion de hasard, longtemps
chassée du domaine de la rationalité, n'a que tardivement
réintégré les champs de celle-ci. En effet, la science
occidentale a été, pendant prés de trois siècles,
guidée par la philosophie de Descartes et la physique de Newton. Or,
comme on le sait déjà, la science newtonienne considérait
la Nature comme un Tout ordonné, susceptible d'être
expliqué par la raison humaine. Dans ce paradigme
galiléo-newtonien, lorsqu'on connaît l'état d'un
système physique à un instant donné, aussi nommé
instant initial, on peut déduire son état futur à tout
autre instant. Car selon Newton, pour tout système donné, les
forces de celui-ci sont à chaque instant déterminées par
l'état du système à cet instant initial. La
conséquence d'une telle idée consiste à dire que,
connaissant l'état d'un système à son état initial,
on peut calculer comment cet
63 David Ruelle, Hasard et chaos, Odile
Jacob, 1991, p 7
instant varie au cours du temps. Ce qui revient à dire
qu'on peut parfaitement connaître un système physique, dés
lors que l'on connaît les paramètres suivant lesquels celui-ci est
déterminé.
C'est en raison de ce credo déterministe, que Laplace a
soutenu dans son Essai philosophique sur les probabilités la
possibilité, pour une intelligence qui connaitrait pour un instant
donné, l'ensemble des paramètres régissant la Nature,
d'acquérir une connaissance idéale. Même si Laplace
reconnaît la supériorité de cette intelligence par rapport
à l'esprit humain, il n'exclut pas pour autant la possibilité
pour l'homme d'avoir, à l'image de ce « démon », une
connaissance plus ou moins approximative de la réalité. Nous
voyons, que selon Laplace tout peut être prédit dans la Nature,
connaissant au préalable les conditions initiales. Or, une telle
conception scientifique revient à dire que rien n'est fortuit dans la
nature : le hasard en tant que tel n'existe pas, il n'est qu'une imperfection
de notre connaissance. C'est au regard d'une telle considération
philosophique, qu'il devient important de se demander si, le hasard se
réduit seulement à une simple attitude psychologique ou à
une convention sociale ; ou bien existe-t-il un hasard pur, loin de notre
manipulation humaine ?
Comme le souligne David Ruelle, l'étude du hasard,
c'est-à-dire son exploitation scientifique, a commencé à
partir du 17ème siècle. Selon Ruelle, c'est à
partir des travaux de Blaise Pascal, Pierre Fermat, Christiaan Huygens et
Jacques Bernoulli, les tous premiers à s'être
intéressés à l'analyse des jeux dits de « hasard
», que la notion de hasard sera pour la première fois
considérée comme objet de science. En effet, comme leur nom
l'indique, les jeux dits de hasard comportent de manière
intrinsèque une incertitude liée à la connaissance des
résultats. Dans ces types de jeux, aucune connaissance des conditions
initiales n'est en mesure de procurer au joueur une certitude fiable à
propos du résultat final. Ce qui veut donc dire, que quelque soit la
perfection de notre connaissance, nous ne pouvons jamais être totalement
sûr du résultat qui adviendra. L'analyse de ces jeux a
donné naissance à une nouvelle branche des mathématiques
appelée « calculs de probabilités ».
Longtemps considéré par les
mathématiciens eux-mêmes comme une branche mineure des
mathématiques, le calcul des probabilités s'est progressivement
posé comme l'un des outils incontournables pour la connaissance de
nombreux phénomènes. En effet, à l'opposé des
autres branches des mathématiques, « Un fait central du calcul
des probabilités est que si l'on joue à pile ou face un grand
nombre de fois, alors la proportion des piles (ou des faces) devient voisine de
cinquante pour cent. Ainsi, à partir d'une incertitude totale quand
au
résultat d'un jet de pièce, on arrive
à une certitude à peu prés complète pour une longue
série de jets. ». 64 Cependant, en dépit des
énormes progrès accomplis par le développement du calcul
des probabilités, il faut attendre le 20ème
siècle pour voir la notion de hasard intégrer réellement
le domaine de la science.
L'étude du hasard comme objet de science, n'a pu
être effective qu'avec la création vers 1900 de la
mécanique statistique, par Ludwig Boltzmann et l'Américain J.
Willard Gibbs. En effet, cette nouvelle branche de la physique, à
côté du fait qu'elle permet de décrire les mouvements des
molécules contenues dans un gaz, s'intéresse à
déterminer la quantité de hasard contenue dans une structure
à comportement chaotique. Dans un système dit chaotique,
l'état final n'est pas strictement déterminé par les
conditions initiales ; car à cause de la non linéarité de
ce type de système, des structures nouvelles inattendues peuvent
apparaître de manière totalement imprévisible. C'est ainsi
que dans ces dits systèmes, l'évolution ne se calcule pas en
termes linéaires, mais plutôt en termes de probabilités.
Ces dernières consisteront à donner les différentes
chances qu'on a, de trouver le système dans un de ses états
potentiels. Avec l'avènement de la mécanique statistique, le
passage de la négation du hasard à sa domestication par la
physique moderne est devenu plus aisé.
Toutefois, malgré les multiples efforts
consacrés par les défenseurs de la mécanique statistique
en vue d'une reconnaissance du hasard comme caractéristique de la
nature, la physique a dû attendre plusieurs années pour
reconnaître le rôle véritable, que nous devons, dans notre
fabrication du réel, à cette notion. En fait, c'est avec le
changement de paradigme établi par l'avènement de la
théorie du chaos, que peut être mesurée l'importance
jouée par le hasard dans l'élaboration de la Nature. En effet,
pendant plusieurs siècles, l'étude de l'univers ainsi que celle
de ses composantes, a conduit philosophes et scientifiques à
considérer pour la plupart, l'existence de l'univers comme un fait
nécessaire ; négligeant ainsi le rôle, à la limite
essentiel, que l'impact du hasard a pu y exercer.
En dépit des multiples considérations
métaphysico religieuses que l'étude de l'univers a eu à
concéder en faveur du postulat de la nécessité, la
cosmologie moderne compte aujourd'hui de nombreux exemples, à travers
lesquels ce constat du rôle joué par le hasard dans la fabrication
du Réel est sans équivoque. En effet, partant d'une étude
rétrospective, de la formation de notre système solaire à
celle de différentes planètes qui le composent, on se rend compte
que la notion de contingence a, pour bien des cas, joué un rôle
fondamental. Dans un
64 David Ruelle, Hasard et chaos, Odile
Jacob, 1991, p 13
de ses ouvrages, Trinh Xuan Thuan a essayé de montrer
l'importance et la nécessité que la science se doit aujourd'hui
de tenir compte de l'élément contingent de la Nature. En effet
dans un extrait révélateur, l'astrophysicien d'origine
vietnamienne écrit : « Nous avons vu que nombre de processus
physiques relèvent de l'universel. Mais la contingence joue aussi un
rôle non négligeable dans le façonnement du
Réel. Et si nous ne reconnaissons pas cet élément
de hasard, si nous ne tenons pas compte de cette intrusion de l'histoire, nous
courons le risque, dans notre recherche des lois de la Nature, de faire fausse
route. »65
Cette remarque de Trinh, est d'autant plus importante, qu'il
existe dans l'histoire de la science occidentale des exemples qui peuvent la
confirmer. En effet, un des exemples les plus patents, justifiant cet argument
de Trinh, est celui advenu dans l'histoire de la cosmologie avec Johannes
Kepler. Pour avoir négligé la part de contingence que pouvait
avoir la manifestation de la nature, cet astronome Allemand l'apprit à
ses dépens, lorsqu'il voulut expliquer la disposition des
planètes dans le système solaire. Pour Kepler, Dieu est un fin
géomètre, d'où selon lui, la beauté et l'harmonie
des mathématiques devaient se refléter dans le ciel,
c'est-à-dire dans la disposition des planètes. Pour
élaborer sa thèse, Kepler se servit dans son explication d'une
ancienne idée émise par le célèbre
géomètre Euclide. En effet, Euclide avait démontré
que dans l'espace à trois dimensions, il ne peut exister que cinq
solides dont les faces sont identiques. Ces solides nommés
pythagoriciens en référence au nom de leur
découvreur, sont composés du
Tétraèdre constitué de quatre triangles,
du Cube constitué de six carrés, de
l'Octaèdre composé de huit triangles, du
Dodécaèdre constitué de douze pentagones
et enfin de l'Icosaèdre composé de vingt
triangles.
Comme du vivant de Kepler, il n'était connu que six
planètes seulement, en raison des planètes Uranus, Neptune et
Pluton encore ignorées ; ces six planètes connues étaient
séparées par cinq intervalles. Cinq solides, cinq intervalles
entre les planètes. Pour Kepler, ce ne pouvait être une simple
coïncidence, d'où il supposa que cette concordance expliquait
à la fois le problème du nombre de planètes et leur
disposition par rapport au Soleil. Une fois que la concordance fut
établie, Kepler construisit une image nouvelle du système
solaire, où les cinq solides pythagoriciens étaient
encastrés dans les six sphères planétaires. Cette nouvelle
image était ainsi constituée : Mercure - Octaèdre -Venus
-Icosaèdre - Terre - Dodécaèdre - Mars -
Tétraèdre - Jupiter - Cube - Saturne.
65 Trinh Xuan Thuan, Le chaos et l'harmonie,
Gallimard, 2000, p 44
Aujourd'hui, il est facile de constater jusqu'à quel
point, ce précurseur de la science moderne et découvreur des lois
qui régissent le mouvement des planètes, s'était
fondamentalement trompé. Son erreur lamentable vient du fait qu'il n'a
pas su distinguer le hasard de la nécessité, la contingence de
l'universel. Il s'était évertué à appliquer son
sens de la beauté et de l'harmonie de la Nature, à des
phénomènes contingents. De nos jours, on sait que le nombre
exacte des planètes aussi bien que leur disposition par rapport au
Soleil ne sont pas des données nécessaires, mais relèvent
de la succession d'incidents historiques qu'est le hasard de
l'agglomération des grains de poussières dans la nébuleuse
solaire. Car dans un autre système solaire autour d'une autre
étoile, le nombre des planètes et les distances les
séparant seront différents. Il est à noter, que la
nécessité n'est un bon guide que quand il s'agit de l'universel.
Ce qui veut dire, que pour expliquer les phénomènes naturels, il
nous faut à la fois découvrir les lois qui régissent le
nécessaire et reconstituer les événements fortuits.
Pour continuer toujours sur notre exposé
apologétique du hasard, nous allons à présent examiner un
autre exemple concernant cette fois-ci notre planète, la Terre. En
effet, notre planète manifeste une inclination sur son axe du Zodiaque
de 23.5° par rapport à la perpendiculaire. Pendant des
siècles déjà, les astronomes savaient que notre
planète ne se tenait pas droit par rapport à l'axe du Zodiaque,
cependant personne n'était en mesure d'expliquer la raison
véritable de cette légère inclination. Longtemps
restées mystérieuses, l'inclination de notre planète ainsi
que celle de tant d'autres, se révèlent, de nos jours
occasionnées par des collisions avec des astéroïdes. Notre
planète, de même que tous ses homologues voisins ont connu au
cours de leur histoire, une longue période marquée par d'intenses
bombardements de comètes et d'astéroïdes. Ces
événements scientifiquement avérés seront
reconsidérés par le nouveau paradigme du chaos, pour justifier
plusieurs phénomènes.
En effet, c'est dans le cadre de ces reconstructions de
thèses scientifiques, que de nombreuses considérations
cosmologiques stipulent de nos jours, que c'est à la suite d'une de ses
nombreuses collisions que notre planète a quitté sa position
perpendiculaire par rapport à son axe de rotation. Selon cette
même thèse, cet événement de violents tamponnements
s'est produit à une époque où la population des
astéroïdes est devenue très amenuisée. Ce qui de ce
fait, a rendu les collisions tellement rares qu'une correction
ultérieure devenait très improbable. Ainsi, faute de collision
correctrice, notre planète la terre est restée
légèrement penchée, donnant aux hommes l'avantage du
changement de saisons que nous remarquons dans la vie. On voit que cette
collision aujourd'hui bénéfique aux populations terrestres,
relève pourtant du domaine de la contingence et de
l'aléatoire ; puisque celle-ci n'était inscrite de manière
fondamentale dans aucune loi de la Nature.
Pour continuer à entendre les « louanges »
adressées à « notre dame du hasard », restons encore
à l'écoute des chantres de la fabrication du réel. En
fait, un des autres faits relevant du hasard, se trouve lié à la
formation de la Lune, satellite de la Terre. En dépit des
différentes théories et explications soulevées pour
justifier aussi bien sa présence que sa parfaite rotation autour de la
Terre, notre certitude d'avoir atteint l'explication adéquate à
la formation de la Lune est presque établie. En effet, parmi les quatre
hypothèses généralement retenues, une seule nous
paraît concorder avec la réalité.
La première hypothèse suppose que la Lune est
née de la même façon que toutes les autres planètes
et autres satellites du système solaire ; c'est-à-dire par le jeu
de l'agglomération des planétésimales, il y a quelques 4.6
milliards d'années. Selon cette thèse, l'embryon de la Lune s'est
développé au sein d'un anneau de matière gravitant autour
de la Terre, tout comme les neuf planètes de notre système
solaire se sont développées autour d'anneaux de matière
gravitant tous autour de notre étoile le Soleil. Cependant, même
si cette hypothèse paraît plausible, elle n'explique pas pour
autant pourquoi la Lune est si grosse par rapport à la Terre (la taille
de celle-ci fait environ le quart de celle de notre planète), tandis que
les satellites de Jupiter, Mars et Saturne sont beaucoup plus petits,
comparés à leurs planètes.
La seconde hypothèse, plus étonnante que la
première, pose l'idée d'une lune originairement
étrangère à notre système solaire. Selon cette
dernière en effet, la Lune est un astre errant venu visiter notre
système solaire. Cette thèse continue et affirme que c'est lors
de cette visite autour de notre système solaire, que la lune sera
capturé par la gravite de la terre, ce qui depuis lors l'a maintenue en
rotation autour de notre planète. Cette hypothèse, même si
elle permet d'expliquer partiellement pourquoi la Terre est la seule des quatre
planètes telluriques à posséder un si gros satellite, elle
non plus ne tient plus la route dés qu'elle est examinée de
prés. La raison demeure, d'une part il faut reconnaître que la
capture d'astres s'approchant du voisinage de la Terre par cette
dernière est extrêmement improbable ; car nombreux sont les
astéroïdes qui viennent régulièrement visiter les
abords de la Terre, jamais ils ne s'y attachent, tous repartent vers les
confins du système solaire d'où ils sont venus, d'autre part si
la Lune était capturée comme le suppose cette hypothèse,
elle aurait, selon les lois képlériennes du mouvement des
planètes, une orbite en forme d'ellipse aplatie et non
celle presque circulaire observée. Faute de preuve
conséquente, cette hypothèse sera très vite
reléguée aux oubliettes.
La troisième hypothèse plus originale que les
deux premières, a été suggérée par
l'astronome anglais Georges Darwin, le fils de Charles Darwin le père de
la théorie de l'évolution des espèces. Selon lui, c'est la
Terre qui a accouché de son satellite la Lune. Ce dernier stipule que la
lune a été éjectée de la Terre, par la force
centrifuge résultant de sa rotation. En effet souligne Georges Darwin,
« A son origine, la Terre aurait tourné beaucoup plus vite
qu'aujourd'hui. La force centrifuge, très supérieure, aurait
alors arraché une région entière de l'écorce
terrestre et l'aurait propulsée dans l'espace, créant un grand
trou à la surface de notre planète, à l'emplacement de ce
qui est maintenant le bassin de l'océan Pacifique. Ce morceau
expulsé de la Terre se serait ensuite condensé pour former la
Lune. »
66
Selon cette hypothèse donc, la Terre aurait dans le
passé une vitesse de rotation largement supérieure à celle
de 30kms/s que nous lui connaissons aujourd'hui ; condition sans laquelle elle
n'aurait pu produire cette supposée force centrifuge. Cependant, des
données produites sur la base de simulations faites sur ordinateur,
donnent lieu à une improbabilité. Les calculs montrent que, pour
qu'une force centrifuge capable d'éjecter la lune se produise, il aurait
nécessité que notre planète tournât à une
vitesse dix fois supérieure à sa vitesse de rotation actuelle. Ce
qui voudrait dire que la Terre faisait un tour sur elle-même en seulement
deux heures et demie. Or, à une telle vitesse de mouvement, on imagine
mal comment l'agglomération des gravillons qui a conduit à la
formation de la Terre, a pu se réaliser. En outre, cette
hypothèse de Georges Darwin ne nous explique pas comment et pourquoi la
vitesse de la Terre a-t-elle décru jusqu'à atteindre les
vingt-quatre heures, nécessaire aujourd'hui à la Terre pour faire
un tour complet sur elle-même. Enfin, l'hypothèse de la force
centrifuge est irrecevable parce qu'on sait aujourd'hui que les océans
sur Terre, se forment non par l'éjection de morceaux de croûte
terrestre, mais par la dérive des plaques continentales qui crée
de grandes fosses où s'engouffrent leurs eaux. On sait que des quatre
hypothèses retenues, trois se révèlent
inadéquates.
A présent, comme à la fin d'un roman policier
d'Agatha Christie, arrive le moment fatidique où le détective
rassemble tous les indices pour exposer la solution du problème. Dans le
cas de notre tentative d'explication de l'origine de la lune, l'indice
principal se trouve dans ce que
66 Trinh Xuan Thuan, Le chaos et l'harmonie,
Gallimard, 2000, pp 59-60
les astronomes ont appelé la théorie du «
Grand Impacteur ». En effet, cette théorie explique l'origine de la
Lune de la manière suivante : elle postule qu'un très gros
astéroïde de la taille d'un dixième de celle de la terre,
aurait percuté la planète bleue, faisant ainsi voler en
éclat une partie de son écorce. Cette même théorie
continue et affirme que : « Sous la violence du choc, des gerbes de
matière provenant à la fois de la Terre et du Grand Impacteur
jaillissent alors dans l'espace. Une partie de la fantastique énergie
d'impact se convertit en chaleur qui liquéfie et volatilise la
matière éjectée. L'eau et les éléments
volatils s'évaporent et se perdent dans l'espace. De la matière
éjectée, la partie qui ne s'est pas évaporée est
surtout composée d'éléments réfractaires. Celle-ci
s'assemble pour former une Lune pauvre en éléments volatils et
riche en éléments réfractaires. Cette théorie d'une
collision gigantesque explique encore bien d'autres faits. La Lune a une
densité proche de celle de l'écorce terrestre, puisque la
première a été arrachée à la dernière
par un choc violent. Le coeur de la Lune est pauvre en fer, car la partie
centrale de l'astéroïde impacteur, riche en fer, s'est
incorporée à la Terre. La puissance des ordinateurs modernes a
permis de vérifier la plausibilité d'une telle hypothèse.
La théorie du Grand Impacteur est actuellement la meilleure sur le
marché pour expliquer l'origine de la Lune. Elle a le vent en poupe car,
comparée aux théories rivales, c'est elle qui rend le mieux
compte des indices recueillies. »67
Une fois de plus, le hasard et la contingence de la nature ont
encore fait parler leur puissance, s'agissant de déterminer le
réel et de permettre son harmonie à son niveau le plus profond.
Cet événement aléatoire advenu il y a 4.6 milliards
d'années, est aujourd'hui responsable non seulement de la clarté
obscure qui illumine nos campagnes par les nuits de pleine lune, mais aussi
dans une certaine mesure de notre existence. Car comme l'a montré le
professeur Trinh, la Lune joue, au-delà du rôle de lanterne
nocturne ou de compagnon des jeunes amours, un autre rôle à la
limite essentiel pour notre existence. En fait par son rôle de
stabilisatrice du climat terrestre, la Lune a été indispensable
à l'émergence de la vie. Des simulations faites sur ordinateur
ont montré que si on ôtait la Lune de sa position de satellite
terrestre, son absence dans notre système solaire aurait engendré
sur notre planète d'énormes conséquences.
En effet, Jacques Laskar et ses collègues du bureau des
longitudes de Paris, ont montré qu'en l'absence de la Lune, l'axe de
rotation de la terre, se comporterait de façon tout à fait
fantasque. Ce dernier stipule que si notre planète était
démunie de sa très chère Lune, l'état de
67 Trinh Xuan Thuan, Le chaos et l'harmonie,
Gallimard, 2000, pp 61-62
déséquilibre dans lequel elle serait
plongée, l'aurait amenée à décrire des variations
allant d'une position perpendiculaire au plan du Zodiaque, à la position
presque couchée, semblable à celle de la planète Uranus.
Le plus étonnant dans toutes ces prédictions, c'est qu'en
l'absence de la Lune, l'axe de rotation de la Terre qui oscillerait entre
plusieurs variations pendant un temps géologiquement court de quelques
millions d'années se comporterait de façon tout à fait
chaotique. Ce qui, entre autres conséquences, n'aurait pas permis
l'émergence ni le développement de la vie. A ce propos Trinh Xuan
Thuan écrit : « Ainsi, en freinant le comportement inconstant
de la Terre, la Lune a permis à l'homme de faire son apparition. A
nouveau nous devons apprécier ici le rôle fondamental de la
contingence le façonnage de la réalité. Une collision
accidentelle d'un astéroïde avec la Terre, en la faisant accoucher
de la Lune, a permis l'émergence de la vie. »68
Par ces quelques exemples tirés de la cosmologie nous
voyons, comment des événements célestes totalement
fortuits et complètement imprévisibles, ont pu influencer notre
vie dans son sens le plus profond. Au contraire des lois physiques, ces
événements ne sont pas dictés par la
nécessité, mais par le hasard et l'aléatoire. A tous les
niveaux, le Réel est construit par l'action conjuguée du
déterminé et de l'indéterminé, du hasard et de la
nécessité. Dans le cas de notre système solaire, il existe
des phénomènes que les théories physiques pouvaient
prévoir, comme la formation par agglomération de gaz ou de
planétésimales du Soleil et de son cortège de
planètes. En effet, les théories physiques auraient pu
prédire que les planètes tourneraient sur elles-mêmes et
autour du Soleil dans le même sens, d'Ouest en Est, que le Soleil autour
de notre centre galactique. Car ce mouvement à la limite
prédéterminé leur est dicté par le sens de rotation
originelle de la nébuleuse solaire. Toutefois, à
côté de ces phénomènes, il existe d'autres qui sont
totalement imprévisibles, même pour une Intelligence surhumaine
telle que celle imaginée par Pierre Simon Laplace.
C'est dire, au regard de cette constatation, que dans la
fabrication du réel, « Tout est mis à contribution :
hasard et nécessité, événements aléatoires
et lois déterministes. C'est pourquoi le Réel ne pourra jamais
être décrit complètement par les seules lois de la
physique. La contingence et l'histoire limiteront à tout jamais une
explication complète de la réalité. Pour expliquer
l'apparition de l'homme, nous pouvons invoquer l'astéroïde qui a
paru dans le ciel il y a 65 millions d'années avant de frapper la Terre
et d'y tuer les dinosaures, mais nous ne pourrons jamais expliquer pourquoi cet
astéroïde est venu percuter notre planète juste à
ce
68 Trinh Xuan Thuan, Le chaos et l'harmonie,
Gallimard, 2000, p 67
moment-là. Pour expliquer la beauté fleurie
du printemps, nous pouvons invoquer le choc d'un astéroïde avec la
Terre, mais nous ne pourrons jamais expliquer les conditions du choc qui ont
fait que la Terre s'est penchée seulement de 23.5°, au lieu
d'être complètement couchée sur le côté comme
Uranus, ce qui nous aurait donné de longues nuits et d'aussi longues
journées se succédant toutes les demi années L'intrusion
de l'histoire n'est pas seule responsable de la libération de la Nature.
Les lois de la physique ont aussi perdu de leur déterminisme. Avec le
développement de la théorie du chaos, le hasard fit son
entrée fracassante dans le monde macroscopique. » 69
Aujourd'hui nombre d'exemples permettent de remettre en cause
le postulat de la science newtonienne, à savoir l'idée du
déterminisme. En effet, on se rend compte que dans différents
domaines de la vie l'illusion de tout pouvoir prédire, qui guida pendant
longtemps la science classique, a perdu tout son sens
épistémologique. Dans le cas de la psychologie par exemple, on
voit que le comportement d'un individu peut être influencé par une
cause à la limite très banale. Dans ce domaine précis de
la vie de l'individu, on se rend compte qu'il est presque impossible de
prédire véritablement le comportement, quelque puisse être
la connaissance supposée détenue de l'individu
considéré.
Cependant, comment peut-on justifier le fait que,
malgré l'impossibilité avérée d'une
prédiction indéfiniment certaine, l'hypothèse du
déterminisme ait pu prendre le dessus sur l'indéterminisme qui
paraît pourtant plus légitime. C'est probablement face à
une telle indignation, que s'est trouvé Karl Popper avant la
rédaction de son plaidoyer pour l'indéterminisme. Dans
cet ouvrage, Popper essaye d'avancer les arguments qui, selon lui, ont
poussé les scientifiques à soutenir le déterminisme,
plutôt que l'indéterminisme. En effet, Karl Popper stipule que si
en matière de science, les gens sont plus portés à
exploiter les théories qui de prime abord présentent des
implications déterministes et simplistes, cela est dû au fait que
ces théories sont en général celles qui, non seulement
sont plus faciles à expliquer, mais aussi celles qui apportent le plus
de réconfort à l'homme. Car affirme Popper, il est plus facile
pour l'endentement humain de s'accommoder à un univers
déterminé, plutôt que d'être ballotté dans un
monde indéterminé, laissé aux seuls caprices du hasard.
C'est dans le sillage de tels contextes
épistémologiques que Karl Popper a pu écrire : «
C'est de nos efforts pour décrire le monde avec des théories
simples que dépend la méthode de la science. Les théories
qui sont d'une trop grande complexité ne peuvent plus être
testées même
69 Trinh Xuan Thuan pp 102-103
si elles devaient être vraies. L'on peut
décrire la science comme l'art de la sursimplification
systématique - comme l'art de discerner ce que l'on peut avantagement
omettre. »70 Cette attitude réductrice de la
science, va pourtant changer avec l'avènement de la théorie du
chaos. Désormais, l'explication du réel tient compte de la Nature
dans sa totalité ; comme le dit Trinh Xuan Thuan, tout est mis à
contribution : l'ordre coexiste avec le désordre, le
déterminé avec l'aléatoire. L'image de la science n'est
plus réductionniste, mais plutôt holiste. Car c'est la
considération de la nature dans sa totalité, et non pas dans ses
composantes, qui est le plus fondamental.
III- 2 / L'effet papillon
Née historiquement avec les travaux du physicien
américain Edward Lorenz, la notion de l'effet papillon traduit
en substance l'idée que, « le battement d'ailes d'un papillon
à Pékin aujourd'hui, engendre dans l'air suffisamment de remous
pour influer sur l'ordre des choses et provoquer une tempête le mois
suivant à new-york. ». Aussi étrange qu'elle puisse
paraître, cette idée se positionne aux antipodes des principes
déterministes établis par la mécanique newtonienne, et
rigoureusement défendus par le marquis de Laplace. En effet même
si ces derniers étaient pleinement conscients du fait que les mesures
scientifiques ne pouvaient jamais être parfaites, ils croyaient
néanmoins, et cela sous l'égide de l'équivalence
établie par Leibniz entre la cause pleine et l'effet entier, que :
« étant donné une connaissance approximative des
conditions initiales du système et une compréhension des lois de
la Nature, on peut déterminer le comportement approximatif du
systèmes. »71
En fait, c'est sur cette base philosophique que tout
l'édifice de la science classique a été construit. En
effet, comme le souligne si bien Arthur Winfree, « L'idée
maîtresse de la science occidentale, est que vous n'avez pas à
tenir compte de la chute d'une feuille sur une planète dans une autre
galaxie, lorsque vous voulez décrire le mouvement d'une bille sur un
billard terrestre. Vous pouvez négliger les influences imperceptibles.
Il y a convergence dans la façon dont se passent les choses, et des
causes arbitrairement petites ne s'amplifient pas pour engendrer des effets
arbitrairement grands. »72. Cette croyance à
l'approximation, était
70 Karl Popper, L'univers irrésolu,
Hermann, 1984, p 37
71 James Gleick, La théorie du chaos,
Flammarion, 1991, p 31
72 A. Winfree, cité par J. Gleick, in La
théorie du chaos, Flammarion, 1991, pp 31-32
dans une certaine mesure justifiée au regard des lois
de la dynamique classique. Car dans cette branche particulière de la
science, une erreur minime dans la détermination des conditions
initiales, ne peut qu'engendrer une petite erreur dans la prédiction du
futur. Comme l'a si bien noté Arthur Winfree, la science classique
considérait notre système physique comme un ensemble clos,
fermé, n'interagissant nullement avec l'extérieur. C'est sous la
bannière d'une telle croyance, que Newton et Laplace ont
déterminé les systèmes physiques. Selon ces deux chantres
de la science classique, les systèmes physiques sont tous régis
par une évolution dynamique, et donc par une suite d'équations
linéaires.
Cependant, contrairement à ce que croyait Newton, on
sait de nos jours que tous les systèmes dynamiques ne sont pas
identiques. C'est ainsi que nous distinguons deux types de systèmes :
les systèmes stables et les systèmes instables. Parmi les
systèmes instables, on reconnaît désormais une classe
particulièrement intéressante, qui est associée au chaos
déterministe. En fait, même si dans ce type de systèmes,
les lois microscopiques restent déterministes, les trajectoires qui
décrivent ces systèmes prennent quant à elles un aspect
aléatoire. La raison de ce fait est due à ce que les
scientifiques ont appelé « la dépendance sensitive aux
conditions initiales », aussi nommée DSCI. En langage
plus clair, la DSCI signifie que l'évolution des
systèmes sensibles aux conditions initiales, peut être
complètement bouleversée par une modification de comportement
d'un de leurs éléments qui peut sembler tout à fait
insignifiante au départ.
C'est à ce problème de dépendance
sensitive aux conditions initiales, que Lorenz s'était confronté,
lorsqu'il essaya dans les années soixante d'entreprendre son projet sur
les prédictions météorologiques. Même s'il est
possible en météo, de prédire le temps qu'il fera demain
ou après demain, une limite reste tout de même tracée
lorsqu'on veut s'aventurer dans les prédictions à long terme. Ce
fait, facilement constaté de nos jours, était dans le
passé aussi bien ignoré par les scientifiques que par les
météorologues eux-mêmes. En effet jusqu'aux années
60, avant que Lorenz ne découvrit l'imprédictibilité
météorologique, on croyait que le temps de même que le
climat, étaient des faits que l'on pouvait prédire aussi bien
à terme qu'à long terme. Mais, avant de raconter l'histoire qui
fit suite à la découverte par Lorenz de l'effet
papillon, essayons de rappeler brièvement la situation dans
laquelle se trouvait la météorologie à cette
époque.
L'objet de la météorologie est l'étude et
la prévision du déplacement des masses d'air dans
l'atmosphère. Conformément à la tradition classique, on se
servait, en matière de prévision,
des équations différentielles de la
mécanique classique pour résoudre toute équation portant
sur l'étude des mouvements. Il faut rappeler que les équations
différentielles, à côté des différents
comportements qu'elles pouvaient décrire, permettaient aussi de
prévoir le mouvement des objets tels que les planètes, les
comètes, les flux et reflux de marée etc. Ainsi, par ces
équations différentielles, il devenait possible de prévoir
le futur ; car il suffisait pour se faire, de traduire le mouvement en
équations puis de résoudre ces dernières.
Dans de telles circonstances, la météorologie
consistait donc à prévoir au fil du temps le mouvement de
déplacement des masses d'air. Il suffisait selon la logique de la
mécanique classique, de traduire par des équations
différentielles, le mouvement des masses d'air et ensuite de les
résoudre. Ce qui revient à dire que le temps pouvait être
aussi prévisible que le mouvement des planètes ou des
comètes. Jusqu'avant sa fameuse découverte de
l'imprédictibilité météorologique, Lorenz et avec
lui la grande partie de la communauté des météorologues,
marchait encore dans le sillage de cette conception mécanique de
l'évolution du temps.
En fait, c'est dans le domaine de la prévision du temps
que l'effet papillon a été mis en évidence de
manière mathématique. Comme le raconte le journaliste
scientifique James Gleick, tout a commencé pendant un jour d'hiver de
l'année 1961 au Massachusetts Institude of Technology (M.I.T). Dans son
bureau du département de météorologie ce jour là,
Edward Lorenz venait de remettre en marche le programme de simulation
météorologique qui tournait dans son ordinateur. Selon Gleick,
Lorenz était un spécialiste réputé qui
s'intéressait aussi bien aux mathématiques qu'à la
météo. Ce dernier dit-on, avait conçu un logiciel au moyen
duquel il était possible de simuler l'évolution du temps sur de
longues périodes, à partir d'une série d'équations
de base. Ces équations reproduisaient en fait, les relations qui
existent entre les différents éléments déterminant
les conditions atmosphériques à savoir : la température,
l'humidité de l'air, sa pression, la vitesse des vents etc. Pour se
faire, Lorenz faisait entrer les données de départ dans son
ordinateur, puis laissant à ce dernier la charge d'examiner comment ces
paramètres de sa météo numérique, évoluaient
au cours du temps.
En effet se disait-il, puisque la météorologie
est régie par les lois de la nature, et que le monde suit une
trajectoire déterministe ; il suffit d'introduire des données
plus ou moins précises dans un ordinateur, pour que celui-ci donne une
prévision climatique plus ou moins précise. Lorenz constata,
à la suite de ces techniques, que ses équations reproduisaient de
façon satisfaisante les fluctuations du climat qui pouvait être
observé dans la nature.
L'histoire de la découverte de l'effet papillon raconte
que c'est à ce jour d'hiver 1961 que Lorenz, en voulant vérifier
les calculs d'un bulletin météo interrompu
prématurément, apporta son coup de grâce. En effet, ce
dernier voulut reconstituer des résultats, mais cette fois-ci en
mutilant pour chaque nombre les trois dernières décimales. Car se
disait-il, après tout, l'incertitude, en raison du principe de
causalité, ne serait que très minime du fait que de petites
causes ne peuvent créer que de petites conséquences.
Il entra dans son ordinateur, ces chiffres retranchés
afin que la machine poursuive les calculs. Lorsqu'il revint quelques heures
plus tard, quelque chose de très étrange venait de se produire. A
sa grande surprise les deux bulletins étaient si différents, au
point que le premier pouvait représenter une tempête sur le
pôle Nord et le second une sécheresse sous les Tropiques.
Après avoir beau chercher les raisons de cette disparité
fondamentale, Lorenz comprit que cette divergence des résultats, ne
pouvait venir que de la présence de termes non linéaires dans les
équations du modèle. En effet, Lorenz venait de découvrir
que dans des systèmes non linéaires, d'infimes différences
dans les conditions initiales engendraient à la longue des
systèmes totalement différents. Il comprit alors qu'il serait
à jamais impossible de prédire la météo à
long terme. Ce qui remettait ainsi en cause, les belles certitudes de la
physique classique. Car certains phénomènes dynamiques non
linéaires sont si sensibles aux conditions initiales que, même
s'ils sont régis par des lois rigoureuses et parfaitement
déterministes, les prédictions exactes y deviennent
impossibles.
Dans les systèmes climatiques, tous les
éléments sont étroitement dépendants les uns les
autres. Ce qui implique qu'une variation de température peut
entraîner des différences de pression, qui elles mêmes
peuvent modifier la vitesse des vents etc. c'est à cause de ces
relations, qu'une petite modification d'un des éléments peut se
communiquer aux autres et aboutir, à des effets qui s'amplifieront de
manière extraordinaire au bout d'un certain temps. Ce qui veut dire que,
si les éléments ne sont pas étroitement reliés,
l'effet papillon ne pourra pas subsister. A la suite de cette
remarque, Lorenz déduisit que les lois de la météo sont si
sensibles aux conditions initiales, que le simple battement d'ailes d'un
papillon au Brésil peut déclencher une tornade au Texas. Ce qu'il
veut dire par là, c'est qu'une donnée infime, imperceptible,
peut, si elle s'amplifie de poche en poche, aboutir à une situation
météorologique complètement différente de celle qui
aurait prévalu, compte non tenu de cette donnée infime.
Ce que nous apprend le modèle de Lorenz, c'est que
dorénavant aucune incertitude, aussi négligeable puisse-t-elle
paraître, ne doit être négligée ; lorsqu'on veut
prédire un système doté d'une sensibilité aux
conditions initiales, au regard des conséquences que cette incertitude
peut engendrer à long terme. Parallèlement à ce fait, le
modèle de Lorenz nous apprend aussi que la prédiction à
long terme n'a pas de sens, étant donné que de nombreuses
perturbations minimes mais incontrôlées sont toujours
sous-jacentes non seulement en météorologie, mais aussi dans
beaucoup d'autres systèmes physiques. De tels systèmes sont ceux
que les scientifiques appellent les systèmes chaotiques.
Lorsque Lorenz constata l'impuissance de la science de la
météorologie à prédire le temps, il rechercha des
moyens encore plus simples de décrire le mouvement complexe des
systèmes chaotiques. Ce qui l'amena à mettre en place le premier
système chaotique expérimental : la roue hydraulique de
Lorenz qui en fait, est un système susceptible d'être
décrit par trois équations non linéaires. Pour analyser le
comportement de cette roue, Lorenz transposa son système dans un espace
abstrait aux dimensions multiples ; une construction mathématique
appelée l'espace des phases. Ce concept mathématique
traduit nous l'avons déjà dit, la manière suivant laquelle
il est possible de suivre l'évolution de l'état d'un
système physique dans le temps. Pour le faire, le physicien
américain construisit d'abord un modèle avec les lois physiques
et les paramètres nécessaires et suffisants à la
détermination du système. Constitué par des
équations différentielles, ce modèle permettra de
caractériser dans un repère, l'évolution du système
au fur du temps. Les points de ce repère détermineront donc
l'état du système dans l'espace. Cet espace a été
appelé par Poincaré « l'espace des phases ». Lorsque le
temps s'écroule, le point figurant l'état du système
décrit en générale une courbe dans cet espace. On parle
alors de son orbite.
Ce qu'il faut ici comprendre, c'est qu'il n'existe aucune
relation entre notre espace physique tridimensionnel, et un cas d'espace des
phases à trois dimensions. Il s'agit là d'un espace purement
mathématique qui, comporte autant de dimensions qu'il y a de
paramètres dans le système dynamique considéré. La
particularité de cet espace est, comme nous le montre si bien James
Gleick, qu'aussi nombreux que puissent être les acteurs d'un tel
système, un seul point dans cet espace abstrait suffit à
représenter la totalité du système. Après avoir
construit son modèle, Lorenz constata que, « La courbe
présentait en fait une complexité infinie. Elle restait contenue
dans certaines limites, sans déborder de la page ni repasser sur
elle-même. Elle décrivait une forme étrange, très
particulière, une sorte de double spirale en trois dimensions, comme les
ailes d'un papillon. Cette forme signifiait la présence d'un
désordre à
l'état pur : aucun point ou groupe de points ne
réapparaissaient deux fois. Pourtant, elle signalait également la
présence d'un ordre insoupçonné. »73
Cette double spirale à l'allure d'un
lépidoptère adulte sera plus tard appelée l'attracteur
de Lorenz. Ce dernier était stable, de faible dimension et non
périodique. Jamais il ne pouvait se recouper, c'est ce qui, en fait, lui
donnait toute sa beauté. Ses boucles et ses spirales se serraient
à l'infini, sans jamais réellement se joindre, sans jamais
s'intersecter. Toutefois, il faut reconnaître que la notion même
d'attracteur, n'a intégré le domaine de la science que
tardivement. En effet, c'est grâce aux travaux du mathématicien
Suisse David Ruelle et de son homologue Néerlandais Floris Takens, que
cette notion sera connue. Ces deux mathématiciens ont été
les premiers, à constater que de nombreux phénomènes
considérés jusque-là comme uniquement marqués par
le désordre, se comportent en fait comme s'ils étaient
guidés par un ordre sous-jacent invisible. Dans l'espace des phases, la
représentation de ces phénomènes produisait des
attracteurs aux formes complexes, d'où le nom « d'attracteurs
étranges » que ces auteurs leur donnèrent.
Par définition, la théorie du chaos nomme par
attracteur étrange, un phénomène de
régulation se produisant derrière l'anarchie apparente
dictée par le hasard. L'attracteur étrange est en effet
une figure qui, représente l'ensemble des trajectoires d'un
système marqué par un mouvement chaotique. L'attracteur
étrange peut être défini comme étant la carte
des états imprévisibles et chaotiques. L'attracteur
étrange révèle en fait un ordre, une contrainte
cachée, un espace des phases vers lequel convergent des
phénomènes chaotiques.
Pour revenir à notre concept de l'effet
papillon, nous avons vu que, lorsque les effets d'une variation infime,
peuvent s'amplifier jusqu'à produire des changements énormes au
bout d'un certain temps, les prédictions à long terme deviennent
impossible. C'est ce phénomène appelé effet papillon, qui
explique pourquoi les météorologues ne peuvent pas prédire
l'évolution du temps au-delà de quelques jours. Cependant,
découvert dans le cadre de la prévision
météorologique, l'effet papillon présente des
conséquences qui dépassent largement le secteur de la
météorologie. En l'étudiant de plus prés, des
chercheurs ont montré qu'il existe de nombreux domaines dans lesquels
l'effet papillon entre en jeu.
En effet, ces derniers ont montré, qu'il existe dans
l'évolution de certains systèmes des points de bifurcation,
c'est-à-dire des états de crise durant lesquels une infime
modification
73 James Gleick, La théorie du chaos,
Flammarion, 1991, p 50
peut tout faire basculer. Par contre, lorsque le
système ne se trouve pas dans un de ces points, les petites variations
de ses éléments n'ont pas d'effets significatifs : elles sont
amorties ou annulées et n'engendrent pas de changements notables. Des
études faites au cours de ces dernières décennies, ont
montré que même notre système solaire sévissait aux
coups de l'effet papillon
Comme on le sait, Newton et Laplace pensaient que le
système solaire était une mécanique huilée, dont le
futur, le présent et le passé, pouvaient être
déterminés avec une certitude approximative. Cependant, de nos
jours l'astronome Français de l'observatoire de Paris Jacques Laskar a
démontré que notre système solaire tout entier est
chaotique. Ce dernier a montré en effet, que la séparation entre
deux trajectoires d'une planète, avec des conditions initiales
très légèrement, double tous les 3.5 millions
d'années. Ce qui, selon Laskar, voudrait dire que les trajectoires
planétaires ont un passé indéfini et un futur incertain
car les mesures des positions des planètes ne sont jamais parfaitement
précises. Il en arrive à déduire qu'on ne pourra jamais
être absolument sûr, que la Terre restera éternellement sur
son orbite présente. Toujours est-il donc, qu'une incertitude plane
continuellement sur son destin futur.
Un autre astronome Français, cette fois-ci de
l'observatoire de Nice, Michel Hénon a lui aussi consacré une
partie de ses recherches à étudier le mouvement des
étoiles dans le disque de la galaxie. En se servant de la méthode
géométrique du plan vertical de Poincaré,
Hénon a montré que, tant que l'énergie de mouvement des
étoiles ne dépasse pas une certaine valeur critique, les orbites
stellaires resteront stables. Comme Lorenz, Michel Hénon essaya lui
aussi de représenter, les trajectoires de l'amas globulaires qu'il
étudiait, dans un espace des phases. Comme cela a
été avec Lorenz, l'image produite par sa représentation
géométrique décrit elle aussi un attracteur
étrange. Dans le cas du mouvement des étoiles, la
visualisation montre une courbe en forme d'oeuf qui se déforme en une
figure plus compliquée, épousant des figures en formes de huit ou
bien, se morcelant en boucles distinctes. Cependant, lorsque l'énergie
de mouvement des étoiles dépasse la dite valeur critique, alors
les orbites deviennent chaotiques, et les trajectoires décrivent
dés lors des dessins où des zones de stabilité sont
entremêlées avec des zones de chaos. C'est ce qui manifeste la
marque du chaos : changeant tant soit peu l'énergie des étoiles,
leurs orbites deviennent imprévisibles.
Mais comme dans le cas du système de Lorenz, chaos ne
signifie pas désordre total. Car dans l'espace abstrait des phases, les
points ne s'éparpillent pas au hasard : ils sont attirés vers des
courbes à la forme bien définie nommées attracteurs
étranges. Michel Hénon découvrit
que l'attracteur étrange des orbites stellaires a la
forme d'une banane, dont l'agrandissement d'une partie montre un
dédoublement sans fin des lignes. A la base de ses recherches,
Hénon affirma que le mouvement des étoiles est lui aussi
chaotique, car il est impossible de prédire à l'avance, sur
laquelle de ces géodésiques et à quelle localisation, le
point correspondant à l'orbite stellaire suivante tombera.
Au cours de cette dernière décennie, certains
historiens et même des philosophes ont tenté d'appliquer à
nos sociétés humaines cette caractéristique propre aux
systèmes chaotiques. De nombreux écrivains ont jugé notre
fin de siècle comme l'avènement d'un « âge
chaotique ». En effet, le téléphone, la radio et la
télévision ont transformé notre monde en un immense
village planétaire. Car de nos jours, des événements qui
se déroulent à des milliers de kilomètres, nous sont
connus dans les heures qui suivent ; un conflit local dans le golf Persique a
une influence quasi immédiate sur le prix de l'essence à Londres
ou à Paris. Avec l'entrée en scène des réseaux
informatiques, la transmission d'une multitude de données se fait de
manière instantanée d'un point à l'autre du globe. De nos
jours, il est possible d'affirmer que, les sociétés humaines sont
entrées dans l'ère de l'hyper connexion.
Dans ce nouveau millénaire que nous traversons, nous
nous rendons compte qu'une perturbation qui a lieu dans une localité
stratégique de la vie politique ou économique internationale, va
en moins de quelques semaines créer un chamboulement dans presque tous
les autres pays du globe. L'exemple le plus révélateur d'une
telle situation, est celui des attentats survenus les 11 Septembre 2001 aux
Etats-Unis. En effet depuis que cette grande puissance a été
meurtrie par ces attentats, nous avons assisté au cours de ces deux
dernières années à un bouleversement total de l'ordre
géopolitique. Car ces attentats les plus meurtriers de l'histoire de ce
pays, ont conduit les autorités de ce géant militaire à
entreprendre une guerre, contre ce qu'elles ont appelé le terrorisme.
Sans parler des multiples civils innocents, tués lors des deux invasions
américaines en Afghanistan et en Irak, on voit aujourd'hui que ces
fameux attentats ont eu pour conséquence dans ces deux pays,
l'émergence de nouveaux régimes démocratique. Revenant
à l'idée de « l'effet papillon », qu'une cause plus ou
moins minime a conduit à l'écart de quelques années,
à l'apparition d'une crise totale l'ordre géopolitique.
Ce qui montre que nous sommes en crise, crise non seulement de
l'économie, mais aussi des valeurs, des croyances et des normes de la
vie sociale. L'aspect positif de cette crise, c'est qu'elle ouvre la voie
à un renouveau possible, à l'émergence d'un monde
différent. Sera-t-il
pire ou meilleur ? Seul l'avenir nous le dira. Puisque notre
système a atteint un point de bifurcation, tout se jouera sur des
éléments qui sembleront insignifiants au départ.
III- 3 / Le Flou Quantique
Le paradigme de la science classique a assisté au
début du 20ème siècle, à un des
véritables bouleversements qui ont conduit à son effondrement. La
mécanique newtonienne, cette science par laquelle il était
possible de prédire le mouvement de tout corps, va vivre au
20ème siècle l'un des plus mauvais épisodes de
sa gloire. En effet, si Poincaré avait présenti à la fin
du 19ème siècle, les failles de la mécanique
classique, ce fut la mécanique quantique qui sonna véritablement
le glas du déterminisme sur lequel basée la science classique.
Née historiquement le 14 Décembre 1900 avec les
travaux de Max Planck sur « le rayonnement du corps noir »,
la physique quantique, d'abord considérée par les scientifiques
comme un problème mineur, va pourtant bouleverser tout l'avenir de la
physique. Cependant, avant d'entreprendre quoi que ce soit, essayons de
définir au préalable, qu'est-ce que la physique quantique ? Pour
répondre à cette question, proposons à ce propos la
définition qu'en a donnée Richard Feynman. Pour ce grand
théoricien, « La mécanique quantique est la description
du comportement de la matière et de la lumière dans tous leurs
détails et en particulier, de tout ce qui se passe à
l'échelle atomique. A très petite échelle, les choses ne
se comportent en rien comme ce dont vous avez une expérience directe.
Elles ne se comportent pas comme des ondes, elles ne se comportent pas comme
des particules, elles ne se comportent pas comme des nuages, ni comme des
boules de billard, ni comme des poids sur une corde, ni comme rien que vous
avez jamais vu. ».74
Cette définition de Feynman, au-delà de son
apparence quelque peu énigmatique, marque très bien la rupture
établie avec l'avènement de la physique quantique. La physique
quantique est apparue à la suite des travaux de Max Planck sur la
théorie du rayonnement du corps noir. Pour rappeler le problème,
il faut souligner que la théorie du rayonnement était une des
difficultés qui avaient le plus de problème aux scientifiques du
19ème siècle. Le problème qui a conduit
à la naissance de cette nouvelle science, vient d'un constat longtemps
établi en physique. En fait, on avait constaté que, si l'on
considère une enceinte chauffée à une température
constante, les corps matériels contenus dans cette enceinte
émettent et absorbent
74 R. Feynman, cité par Stéphane
Déligeorges in Le monde quantique, Seuil, 1985, p 7
du rayonnement au point qu'il finit par s'établir un
état d'équilibre dans lequel les échanges d'énergie
entre la matière et la radiation restent constantes.
C'est en fait ce phénomène d'échanges
d'énergie, qui a posé problème aux physiciens. En effet,
pendant longtemps les scientifiques ont cherché, chacun avec sa
théorie, à expliquer le mécanisme de ces échanges
d'énergie entre matière et radiation. La première
théorie due à Gustav Kirchhoff, s'appuie sur les principes de la
thermodynamique et stipule que la composition de ce rayonnement dépend
uniquement de la température qui règne dans l'enceinte
considérée. A la suite de cette proposition, le physicien
Autrichien Ludwig Boltzmann a démontré que la densité
totale du rayonnement émis, est proportionnelle à la
quatrième puissance de la température mesurée. Ces travaux
seront suivis par d'autres théories qui, malgré leur
particularité, affirmaient toutes que l'émission aussi bien que
l'absorption de la lumière par la matière se font de
manière absolument continue.
En fait, c'est à cette thèse classique que Max
Planck va radicalement s'opposer. Ce physicien Allemand propose d'admettre que,
l'émission d'énergie lumineuse par un corps doit se faire de
façon discontinue, c'est-à-dire par valeurs discrètes
qu'il nomma « quanta ». En effet Planck va poser comme
postulat fondamental de la physique quantique, l'hypothèse qui consiste
à dire que : « La matière ne peut émettre
l'énergie radiante que par quantités finies proportionnelles
à la fréquence. »75. Ce facteur
proportionnel, nous dit De Broglie, est une constante universelle, ayant les
dimensions d'une action mécanique : c'est la fameuse constante h
de Planck. Ce fait poussa le physicien Allemand à énoncer en
guise d'équation de la physique, que, l'énergie du rayonnement
est égale au produit de la constante h, par la fréquence
de l'onde radiante v ; d'où l'équation E=h v. en effet
souligne Stéphane Déligeorges, « Pour chaque
énergie de rayonnement (E) et pour chaque fréquence (v) de ce
rayonnement, il existe une certaine constante h, tel que, si l'on divise E par
v (E/v), on obtient toujours « h » ou 2 « h » ou 3 « h
». En somme, du fait de cette constante de proportionnalité, il ne
peut se produire de rayonnement pour d'autres quantités d'énergie
qui ne soient des multiples entiers de h. C'est un peu comme si le rayonnement,
donc l'échange d'énergie, était formé de boules.
Des boules de plus en plus grosses au fur et à mesure que
s'élève la fréquence, donc que l'on va de l'infrarouge
à l'ultraviolet. »76. Cette nouvelle conception de
la discontinuité du rayonnement, constituera l'un des véritables
balbutiements de la physique quantique.
75 Louis de Broglie, La physique nouvelle et les
quanta, Flammarion, 1986, pp111-112
76 Stéphane Déligeorges, « La
catastrophe ultraviolette », in Le monde quantique, Seuil, 1985,
p 25
Cette nouvelle branche aura pour objet, de déterminer
le comportement de la matière dans le domaine de l'infiniment petit.
Dans ce domaine du monde atomique, les choses ne se comportent pas comme celles
que nous observons dans notre monde. En effet dans monde des
phénomènes observables, il est possible de déterminer le
mouvement de certains objets dés lors que nous avons une certaine valeur
de leurs conditions initiales. Cette conception déterministe
caractérisant la mécanique newtonienne, ne sera pourtant pas
valide lorsqu'on essaye de l'appliquer aux objets quantiques. Dans ce monde,
les objets, par leur nature à la fois ondulatoire et corpusculaire, ne
peuvent plus être localisés de façon rigoureuse. La preuve
de cette affirmation réside dans les travaux que Schrödinger a fait
en la matière.
En fait, c'est le physicien Autrichien Erwin Schrödinger
qui apporta la justification de ce fait, lorsqu'il tenta de déterminer
dans les années 1925 l'onde de choc engendrée par la collision
entre un électron et un atome. Ce dernier a montré par
expérience que, lorsqu'un électron est mis en collision contre un
atome, il devient impossible de déterminer la direction que cet
électron empruntera après le choc. Schrödinger a
montré en effet qu'après la collision, l'électron peut
repartir dans n'importe quelle direction : d'où il établit une
équation par laquelle on peut déterminer l'onde de choc. En fait
cette fameuse équation de Schrödinger, détermine la
probabilité avec laquelle nous pouvons retrouver l'électron dans
une direction donnée plutôt que dans une autre.
A la suite de Schrödinger, un autre physicien du nom de
Max Born va montrer que cette probabilité est égale au
carré de l'amplitude de la fonction d'onde. Ce qui veut dire selon ce
dernier que, les chances de rencontrer l'électron, sont plus grandes aux
sommets de l'onde, et plus petites à ses creux. Cependant le plus
étonnant dans tout cela c'est que, même aux crêtes de
l'onde, on ne pourra jamais avoir la certitude que l'électron sera au
rendez vous. Il est visible que, dans le monde des atomes, la certitude
ennuyeuse et le déterminisme contraignant de la mécanique
classique sont bannis. Dans ce domaine de l'infiniment petit, entrent en jeu
l'incertitude stimulante et le hasard libérateur de la mécanique
quantique.
Malgré les résultats auxquels leurs
découvertes les ont conduits, ni Schrödinger ni De Broglie,
déterministes, tous deux, ne furent très satisfaits de la
tournure probabiliste qu'empruntait leur invention. Pourtant, dans
l'année qui suivit la découverte de Max Born, en 1926, un autre
physicien Allemand du nom de Werner Heisenberg apporta encore de l'eau dans le
moulin de l'indéterminisme. En réfléchissant aux rapports
qui pouvaient exister entre l'objet observé et l'observateur, le jeune
Heisenberg aboutit à une conclusion remarquable.
Cette dernière consistait à dire que le flou est
inhérent au monde subatomique, et que rien ne pouvait le dissiper. En
effet, Heisenberg a montré qu'il est impossible de mesurer à la
fois la position et la vitesse d'un électron, et cela en raison de la
lumière qu'on utilise pour l'éclairage.
Dans le domaine subatomique, pour déterminer la
position exacte d'un corpuscule, nous devons employer une radiation dont la
longueur d'onde devra être d'autant plus courte que nous désirons
plus de précision. Mais du fait de l'existence d'un quantum d'action,
sous forme de boules de radiation, il se passe un phénomène
étonnant. Car plus nous diminuerons la longueur d'onde de la radiation
exploratrice, plus nous augmenterons sa fréquence et par ricochet
l'énergie de ses photons, qui par leur mouvement, influeront
irrémédiablement le comportement du corpuscule à
étudier. Ce qui veut dire que plus nous chercherons à
déterminer la position du corpuscule, plus sa vitesse de mouvement nous
échappera. Nous pouvons dire que l'observation perturbe la
réalité en rendant incertaines les conditions initiales. C'est ce
résultat, appelé « principe d'incertitude »,
qui remit complètement en cause les bases de la physique classique.
C'est ainsi que nous pouvons affirmer que : « Les atomes imposent une
limite à la connaissance. Nous ne pourrons jamais mesurer à la
fois vitesse et position aussi précisément que possible. Le
« principe d'incertitude » de Heisenberg oblige à sauter
à l'eau et à choisir. L'incertitude est inhérente au monde
des atomes. Quoique nous fassions pour accroître la sophistication de
notre instrument de mesure, nous buterons toujours contre cette barrière
élevée face à la connaissance. Le flou quantique envahit
le monde subatomique, chassant le déterminisme si bien chanté par
Laplace. La Nature nous demande d'être tolérant et de renoncer au
vieux rêve humain du savoir absolu. Ce degré de tolérance
est défini par un nombre appelé « constante de Planck
». Heisenberg nous dit que le produit de l'incertitude sur la position par
l'incertitude sur la vitesse ne peut jamais être inférieur
à la constance de Planck divisée par 2ð.
».77
Toutefois, il faut noter que l'indétermination ne veut
pas dire imprécision. Car chaque grandeur caractéristique des
éléments atomiques, peut être mesurée si elle est
prise séparément. Seulement, si nous voulons mesurer
simultanément des grandeurs conjuguées d'éléments
quantiques, alors il est impossible de descendre au dessous d'une certaine
limite. L'indétermination est ainsi une caractéristique propre
à la mécanique quantique qui, fait qu'on peut indiquer
précisément les limites du domaine de validité de la
connaissance possible. Ce
77 Trinh Xuan Thuan, Le chaos et l'harmonie,
Gallimard, 2000, pp 335-336
principe fondamentalement indéterministe heurtait
profondément Einstein qui, déterministe convaincu, ne pouvait
accepter que des phénomènes puissent être réellement
aléatoires. Il résumait sa pensée par une phrase
célèbre : »Dieu ne joue pas aux dés ». En effet,
dans la lignée des physiciens et mathématiciens du
17ème et 18ème siècles, Einstein
était persuadé que le monde était ordonné,
d'où il ne pouvait nullement être soumis au hasard.
Einstein est l'un des pères fondateurs de la
mécanique quantique. Cependant, malgré l'apport
considérable que ce génie de la science a apporté dans
l'élaboration de cette nouvelle théorie, Einstein a, pendant
presque toute sa vie, combattu avec ferveur les principes sur lesquels repose
cette science. Esprit à la fois réaliste et empiriste dans son
essence, Einstein n'a pas manqué, au nom du déterminisme, de
renoncer à la conception probabiliste à laquelle la
mécanique quantique semblait être attachée. En effet, dans
sa correspondance du 07 Septembre 1944, à Max Born, Einstein a pu
écrire : « Nos espérances scientifiques nous ont
conduits chacun aux antipodes de l'autre. Tu crois au Dieu qui joue aux
dés, et moi à la seule valeur des lois dans un univers où
quelque chose existe objectivement, que je cherche à saisir d'une
manière sauvagement spéculative. [...]. Le grand succès de
la théorie des quanta dés son début ne peut pas m'amener
à croire à ce jeu de dés fondamental, bien que je sache
que mes confrères plus jeunes voient là un effet de la
fossilisation. On découvrira un jour laquelle de ces deux attitudes
instinctives était la bonne. »78
Selon Einstein, une théorie physique digne de ce nom ne
pouvait être probabiliste dans ses fondements. Ce dernier
considère que, la nécessité d'une description statistique
devrait, pour être comprise, être déduite des principes plus
fondamentaux s'appliquant à la description de l'état des
systèmes individuels. Cependant, malgré tous ses efforts, il ne
réussit jamais à prouver que le principe d'incertitude
était faux. Aujourd'hui nous constatons, qu'il y a une contradiction
entre les principes de la physique microscopique, basés sur la
mécanique quantique où le hasard semble jouer un rôle
majeur, et les principes de la physique macroscopique, basés sur le
postulat déterministe de la mécanique newtonienne.
78 Einstein, cité par Michel Paty, in Le
monde quantique, Seuil, 1985, p 52
CONCLUSION
A la fin du 20ème siècle, nous avons
assisté à un bouleversement total de notre manière de
concevoir l'univers. Après avoir dominé, pendant prés de
trois siècles la pensée occidentale, la vision newtonienne d'un
Univers fragmenté, mécaniste et déterministe a fait place
à celle d'un monde changeant et exubérant de
créativité. En effet, la science classique, guidée en cela
par les figures emblématiques de Newton et Laplace, considérait
l'univers comme une immense machine composée de particules
matérielles fixes, soumises à des forces aveugles. Selon la
science classique, on pouvait, à partir d'un certain nombre de lois
physiques, déterminer l'histoire d'un système physique et
prédire son évolution si on pouvait le caractériser
à un moment donné. Le futur était dans une certaine mesure
contenu dans le passé et le présent, ce qui veut dire que le
temps était en quelque sorte aboli.
Par cette conception scientifique, on se trouvait dans une
sorte de dichotomie qui mettait en face à face tragique, d'une part des
lois de la nature invariantes et intemporelles, d'autre part un univers
changeant et contingent ; d'une part des lois de la physique qui ne connaissent
pas la direction du temps, d'autre part un temps thermodynamique et
psychologique qui va toujours de l'avant. Cette opposition contraignante et
incohérente sera très vite remise en cause à la fin du
19ème siècle. La dimension historique entre en jeu
dans plusieurs domaines de la science. On se rend compte que rien n'est
éternel dans la nature, tout est régi par le changement : comme
le disait Héraclite, «Tout coule, tout passe. On ne se baigne
jamais deux fois dans les eaux du même fleuve. ». La
contingence va occuper une place à part entière dans des domaines
aussi variés que la cosmologie, l'astrophysique, la géologie, la
biologie, la génétique etc. Le réel n'était plus
seulement déterminé par des lois naturelles appliquées
à des conditions initiales particulières ; il était aussi
modelé et façonné par une suite d'événements
contingents et historiques.
Cependant, l'intrusion de l'histoire ne fut pas seulement
responsable de la libération de la nature. Les lois physiques perdirent
elles-mêmes de leur rigidité. Car l'avènement de la
mécanique quantique au début du 20ème
siècle, a fait entrer le hasard et la fantaisie dans le monde
subatomique. Ce qui, entre autres conséquences, substitua l'ennuyeuse
certitude du déterminisme, par l'incertitude stimulante du flou
quantique. Cette révolution entreprise dans le domaine de l'infiniment
petit, n'épargna pas pour autant le monde macroscopique. Avec la
théorie du chaos, le hasard et l'indétermination envahirent non
seulement la vie de tous les jours, mais aussi le domaine des planètes,
des étoiles et des galaxies. L'aléatoire fit irruption dans un
monde qui était par excès minutieusement réglé.
En effet, la théorie du chaos propose pour l'univers un
modèle déterministe tout en laissant un espace au hasard, une
dimension à l'imprévisible. Prés d'un siècle
après que Poincaré eut mis en évidence le caractère
imprévisible de certains systèmes dynamiques non
linéaires, nombres de physiciens et de mathématiciens se sont
mués en véritables « chaoticiens » ; entraînant
dans leur sillage turbulent, biologistes, économistes,
spécialistes des sciences sociales, philosophes, psychanalystes,
journalistes etc. En somme la théorie du chaos a tiré le tapis
sous les belles certitudes scientifiques. Certains chercheurs en sciences
sociales brandissent la bannière chaotique et évoque pour les
plus sages, un changement de paradigme, et pour les plus hardis une
révolution qui marque la fin de l'utopie matérialiste. Bien que
les équations non linéaires qui régissent la
société humaine ne soient pas encore découvertes, certains
anthropologues et sociologues sont d'accord pour considérer notre
société comme un système « loin de l'équilibre
» ; qu'ils préconisent de maintenir au bord du chaos, oscillant
entre la sclérose autoritariste et le désordre anarchiste.
Quels que soient leurs buts, tous ces auteurs citent au
passage ce qui est devenu l'emblème du chaos : l'effet papillon.
Impossible en effet de faire l'économie de cet insignifiant papillon
capable, d'un seul coup d'ailes, de déclencher un cyclone. D'abord,
parce qu'il désigne un trait essentiel des systèmes chaotiques,
la sensibilité aux conditions initiales ; ensuite parce que la
théorie des systèmes non linéaires n'est pas facile
à vulgariser, d'où le fait d'y introduire un papillon, a
l'énorme intérêt de faire image dans un monde très
mathématisé.
Pour finir, disons que les conditions initiales, les
constantes physiques et les propres propriétés de l'univers, ont
été agencées de telle sorte qu'elles permettent
l'apparition de la vie et même de la conscience. La destinée de
l'univers ne conduirait sans doute pas, vers une dégradation implacable
et un chaos généralisé. Au contraire, elle serait
marquée par un processus évoluant vers une complexité de
plus en plus croissante, une transformation et un progrès reliant les
êtres et les choses. L'auto organisation de la matière,
démontrée par la théorie du chaos, donne à penser
que l'univers n'est pas absurde, que son évolution a un sens. Un ordre
caché serait en fait présent au sein des systèmes
physiques et phénomènes naturels. Le problème est que pour
l'heure, nous n'avons pas connaissance de la totalité de l'univers.
L'homme qui commence à peine à explorer son environnement, manque
d'assez de moyens pour l'apprécier. La conquête de l'espace,
entreprise par les grandes puissances de ce monde, parviendra peut-être,
dans les siècles à venir, à nous expliquer la vraie nature
de l'univers.
[1]
Allègre, Claude. Introduction à une histoire
naturelle, Fayard, 2004
[2] Barberousse Anouk, Kistler Max, Ludwig Pascal, La
philosophie des sciences au 20ème siècle, Flammarion «
champs », 2000
[3] Beaufay Gabriel, Dinosaures et animaux disparus,
« Le livre de Paris » Hachette, 1994
[5] Bergson Henri, L'évolution créatrice,
PUF, 1941
[6] Bodei Remo, La philosophie au
20ème siècle, Flammarion, 1999
[7] Cassirer Ernst, La philosophie des lumières,
Fayard, 1966
[8] De Broglie Louis, La physique nouvelle et les quanta,
Flammarion « champs », 1986
[9]Déligeorges Stéphane (sous la direction de),
Le monde quantique, Seuil, 1985
[10] Delsemme Armand, L'origine cosmique de la vie,
Flammarion « champs », 1994
[11] Ekeland Ivar, Au hasard : la chance, la science et le
monde, Seuil, 1991
[12] Fukuyama Francis, La fin de l'homme, Gallimard,
2002
[13] Gleick James, La théorie du chaos : vers une
nouvelle science, Flammarion « champs », 1991
[14] Hawking S. W, Une brève histoire du temps : du
big bang aux trous noirs, Flammarion, 1989
[15] Hawking S. W, Commencement du temps et fin de la
physique ? Flammarion, 1992
[16] Klein Etienne & Spiro Michel (sous la direction de),
Le temps et sa flèche, Flammarion, 1996
[17] Kojève Alexandre, L'idée du
déterminisme, Livre de Poche, 1990
[18] Koyré Alexandre, Du monde clos à l'univers
infini, Gallimard, 1973
[19] Leibniz G.W, Principe de la nature et de la grâce,
suivi de la monadologie, GF. Flammarion, 1996
[20] Michaud Yves (sous la direction de), L'Univers,
coll. Université de tous les savoirs, Odile Jacob, 2002
[21] Monod Jacques, Le hasard et la
nécessité, Seuil, 1970
[22] Nottale Laurent, La relativité dans tous ses
états, Hachette Littératures, 2000
[23] Popper Karl, L'univers irrésolu, Hermann,
1984
[24] Prigogine Ilya & Stengers Isabelle, La nouvelle
alliance, Gallimard, 1986
[25] Prigogine & Stengers, Entre le temps et
l'éternité, Flammarion « champs », 1992
[26] Prigogine Ilya, La fin des certitudes : temps, chaos et
lois de la nature, Odile Jacob, 1998
[27] Prigogine Ilya, Les lois du chaos, Flammarion «
champs », 1994
[28] Pucelle Jean, Le temps, PUF, 1959
[29] Reeves Hubert, Patience dans l'azur : l'évolution
cosmique, Seuil, 1988
[30] Reeves Hubert, Malicorne : réflexions d'un
observateur de la nature, Seuil, 1990
[31] Ruelle David, Hasard et chaos, Odile Jacob, 1991
[32] Saint Augustin, Les confessions, GF. Flammarion,
1964
[33] Trinh Xuan Thuan, La mélodie secrète. Et
l'homme créa l'univers, Gallimard, 1991
[34] Trinh Xuan Thuan, Un astrophysicien, Flammarion
« champs », 1994
[35] Trinh Xuan Thuan, Le chaos et l'harmonie : la
fabrication du réel, Gallimard, 2000
[36] Verdet Jean Pierre, Une histoire de l'astronomie,
Seuil, 1990
[37] Yourcenar Marguerite, Le temps, ce grand sculpteur,
Gallimard, 1983
Articles tirés sur Internet
@ /Philippe Etchecopar et Cégep de Rimouski, «
Quelques éléments sur la théorie du chaos »
@ /Gaston Fischer « Système solaire et chaos -
Mort de l'effet papillon », Bulletin 118 (septembre 2003) de
l'institut de la méthode, pp 1-8.
@ / « Questions de temps »,
http://
cdfinfo.in2p3.fr/culture/temps.html @ / « Temps »,
http://fr.wikipédia.org/wiki/temps.html
@ / « D'où vient la vie ? »,
http://
www.nirgal.net/ori-where.html
@ / « Météorologie, hasard, incertitude et
chaos »
http://charlatans.free.fr/météo.
Magazines
§/Le singe, l'homme et après. Enquête
sur notre avenir biologique, Science&vie, n°1036, Janviers
2004
§/ Darwin, coll. Les
génies de la science, Pour la science, n° 18,
Février - Mai 2004
§/ Mars Express dévoile la planète
rouge, Espace Magazine, n°13, Mai - Juin 2005
Vidéo
Hubble : 15 années de
découvertes, Présenté par Bob Fosbury
Mémoire de maîtrise/
Philosophie
Sujet : Cosmologie de l'émergence et
pensée du chaos :
au-delà de la science
classique
Résumé
Nous avons assisté en cette fin de
20ème siècle à un véritable
bouleversement dans notre façon de concevoir le monde. Après
avoir dominé la pensée occidentale pendant 300 ans, la vision
newtonienne d'un univers fragmenté, mécaniste et
déterministe a fait place à celle d'un monde holistique,
indéterministe et exubérant de créativité.
Pour Newton, l'univers n'était qu'une immense machine
composée de particules matérielles inertes, soumises à des
forces aveugles. A partir d'un petit nombre de lois physique, l'histoire d'un
système pouvait être tout entière expliquée et
prédite si l'on pouvait le caractériser à un instant
donné. Le futur était déjà contenu dans le
présent et le passé, et le temps était en quelque sorte
aboli. Si bien que nous nous retrouvions face à une étrange
dichotomie : d'une part, des lois de la Nature invariantes et intemporelles ;
d'autre part, un monde changeant et contingent ; d'une part, des lois de la
physique qui ne connaissent pas la direction du temps ; d'autre part, un temps
thermodynamique et psychologique qui va toujours de l'avant. Un château
non entretenu tombe en ruines, une fleur se fane et nos cheveux blanchissent au
fil du temps, jamais l'inverse. L'univers était enfermé dans un
carcan rigide qui lui ôtait toute créativité et lui
interdisait toute innovation. Tout était irrémédiablement
fixé à l'avance, aucune surprise n'était permise. Ce qui
provoqua la célèbre phrase de Friedrich Hegel : « Il n'y a
jamais rien de nouveau dans la nature. » C'était un monde où
le réductionnisme régnait en maître. Il suffisait de
décomposer tout système complexe en ses éléments
les plus simples et d'étudier le comportement de ses parties pour
comprendre le tout. Car le tout n'était ni plus ni moins que la somme
des composantes. Il existait une relation directe entre la cause et l'effet.
L'ampleur de l'effet était invariablement proportionnelle à
l'intensité de la cause et pouvait être déterminé
à l'avance.
Ce déterminisme contraignant et stérilisant, ce
réductionnisme rigide et déshumanisant prévalurent
jusqu'à la fin du 19ème siècle. Ils furent
bousculés, transformés et, en fin de compte, balayés par
une vision beaucoup plus exaltante et libératrice au cours du
20ème siècle. La dimension historique entra en force
dans nombre de disciplines scientifiques. La contingence occupa une place
à part entière dans des domaines aussi variés que la
cosmologie, l'astrophysique, la géologie, la biologie et la
génétique. Le réel n'était plus seulement
déterminé par des lois naturelles appliquées à des
conditions initiales particulières ; il était aussi modelé
et façonné par une suite d'événements contingents
et historiques. Certains de ces épisodes, modifiant et bouleversant la
réalité à son niveau le plus profond, étaient
à l'origine même de notre existence. Ainsi celui du bolide
rocailleux venu percuter la Terre il y a quelques 65 millions d'années :
en provoquant la disparition des dinosaures et favorisant ainsi la
prolifération de nos ancêtres les mammifères, ce choc
contingent fut responsable de notre émergence. Le rêve
formulé par Laplace au 18ème siècle d'une
intelligence qui « embrasserait dans la même formule les mouvements
des plus grands corps de l'univers et ceux du plus léger atome. »,
et pour laquelle « rien ne serait incertain.... et l'avenir comme le
passé serait présent à ses yeux », volait en
éclats.
L'intrusion de l'histoire ne fut pas seule responsable de la
libération de la nature. Les lois physiques perdirent elles-mêmes
de leur rigidité. Avec l'avènement de la mécanique
quantique au début du 20ème siècle, le hasard
et la fantaisie entrèrent en force dans le monde subatomique. Et
à l'ennuyeuse certitude déterministe se substitua la stimulante
incertitude du flou quantique. Le réductionnisme étroit et
simpliste fut balayé et la réalité morcelée et
localisée devint holistique et globale. Le monde macroscopique ne fut
pas épargné : avec la théorie du chaos, le hasard et
l'indétermination envahirent non seulement la vie de tous les jours,
mais aussi le domaine des planètes, des étoiles et des galaxies.
L'aléatoire fit irruption dans un monde par trop minutieusement
réglé. Une simple relation de cause à effet n'était
de mise. L'ampleur des effets n'était plus toujours en proportion avec
l'intensité des causes. Certains phénomènes étaient
si sensibles aux conditions initiales qu'un infime changement au début
pouvait conduire à un changement tel, dans l'évolution
ultérieure du système, que toute prédiction devenait
vaine. Les propos tenus par Henri Poincaré en 1908 -« Une cause
très petite, qui nous échappe, détermine un effet
considérable que nous ne pouvons ne pas voir, et alors nous disons que
cet effet est dû au hasard » - ne pouvait être plus
éloignés de formulations laplaciennes.
Débarrassée de son carcan déterministe,
la Nature peut donner libre cours à sa créativité. Les
lois intemporelles de la physique lui fournissent des thèmes
généraux autour desquels elle peut broder et improviser. Elles
délimitent le champ du possible et offrent des potentialités.
C'est à la nature de les réaliser. C'est à elle de
décider de son destin et de définir son futur. Pour fabriquer la
complexité, la nature va miser sur le non-équilibre, dans la
mesure où les structures ne naissent qu'à partir de situations
hors d'équilibre. La symétrie n'est intéressante que
dés l'instant où elle est brisée. C'est
éloigné de l'équilibre, que la matière
génère de l'inédit. L'ordre parfait est stérile,
alors que le désordre contrôlé est créatif, le chaos
déterministe, porteur de nouveautés. La nature innove ; elle
crée des formes belles et variées qui ne peuvent plus être
représentées par des lignes droites ou de simples figures
géométriques, mais par des courbes plus complexes que
Benoît Mandelbrot a appelées « fractales ».
La matière s'organise selon des lois d'organisations et
des principes de complexité, et acquiert des propriétés
« émergentes » qui ne peuvent être déduites de
l'étude de ses composantes. Le réductionnisme est bien mort.
Cette liberté recouvrée de la nature jette un éclairage
nouveau sur l'ancienne dichotomie entre les lois physiques intemporelles,
éternelles et immuables, et le monde temporel, changeant et contingent :
la nature est dans le temps car elle peut innover et créer autour de
lois hors du temps.
|
|