Le déterminisme en physique: peut-on tout prévoir?

La version forte du déterminisme

En 1687, la physique connaît l’un de ses bouleversements les plus importants dont les traces nous suivent jusqu’à aujourd’hui. Cette année-là, Isaac Newton publie son ouvrage majeur, celui introduisant sa théorie du mouvement et de la gravitation sous le titre: Philosophiæ Naturalis Principia Mathematica, version latine de « Principes Mathématiques de la philosophie naturelle ». Il y expose une cosmologie reposant sur deux grands axes:

  • L’espace absolu est un espace euclidien infini à trois dimensions
  • Le temps est continu et infini

Il y ajoute les lois d’évolution d’un objet dans cet espace que l’on appelle depuis les trois lois de Newton:

  • Tout corps livré à lui-même (soumis à aucune force) se maintient dans son état de mouvement, immobilité ou mouvement de translation à vitesse constante. C’est le principe d’inertie.
  • Si un corps A exerce une force F sur un corps B alors, réciproquement, le corps B exerce sur le corps A une force -F, égale mais opposée à F. C’est le principe d’action et de réaction.
  • Un corps massif soumis à une force voit son mouvement modifié par cette force selon la relation bien connue, l’accélération de ce corps (c’est à dire la variation de son vecteur vitesse) est égale au rapport des forces auxquelles il est soumis sur sa masse. C’est le principe fondamental de la dynamique.
Résumé de la loi de la gravitation de Newton

Ces principes, ajoutés aux lois de la gravitation postulées par Newton, permettent de très bien décrire les mouvements des corps célestes par exemple. En faisant l’inventaire des différentes forces auxquelles est soumise une planète, on obtient une équation dite équation différentielle. Notons tout de suite que, depuis, les équations de ce type ont envahi toute la physique et qu’elles servent autant à décrire le comportement d’un atome, que d’une colonie de bactéries ou de l’atmosphère. Sans rentrer dans le détail de la théorie de ces équations, il est important d’en comprendre au moins une caractéristique. Contrairement aux équations que l’on apprend au collège et où l’inconnue X à trouver est un nombre (la solution étant X=3 par exemple), ce qui nous intéresse si l’on étudie la Terre, n’est pas un nombre (la distance de la Terre au Soleil à un instant) mais plutôt une fonction du temps (la position de la Terre à tout instant). L’inconnue que l’on cherche à résoudre est donc ici une fonction. Une équation différentielle n’est alors rien d’autre qu’une équation reliant cette fonction à d’autres fonctions et à ses propres dérivées (l’accélération donnée par les équations de Newton étant, par exemple, la dérivée seconde de la fonction de position que l’on cherche). L’une des conséquences mathématiques que cela a est que la donnée des équations de Newton n’est pas suffisante pour résoudre le problème (contrairement à une équation numérique du type 3x+1=10 qui se suffit à elle-même). Il faut y ajouter la donnée de ce que l’on appelle une condition initiale. Dans notre cas, il s’agit de donner la position et la vitesse de la Terre à un instant. A l’aide de ces conditions initiales, on peut résoudre les équations de Newton sans ambiguïté et la résolution donne la position de la Terre à tout instant, autant son mouvement futur que son histoire passée. Cette démarche a fait preuve de sa puissance et permet de prévoir, entre autres, la durée des jours tout au long de l’année, les marées, les saisons, les éclipses etc… cette théorie est souvent qualifiée d’anhistorique. En effet, la donnée de conditions à un instant peut être extrapolée pour donner cette information à tout instant. L’histoire du système est donc toute entière contenue dans un instant. De plus, ces conditions aux limites peuvent être données à n’importe quel instant (la connaissance de la position de la Terre il y a mille ans permet d’en déduire sa position aujourd’hui tout autant que la connaissance de la position de la Terre aujourd’hui permet de connaître cette position il y a mille, deux mille ans ou même dans un siècle). Le qualificatif d’anhistorique est donc bien mérité dans la mesure où tout instant est équivalent à un autre (il ne donne pas plus d’information) et que chacun de ces instants contient en lui-même toute l’histoire du système.

La conséquence la plus intéressante d’un point de vue philosophique de cette théorie a été formulée, sous sa forme la plus forte, par un mathématicien et physicien français de la fin XVIIIème siècle, Pierre-Simon de Laplace. Il s’agit du déterminisme classique. L’idée fondatrice est que l’état d’un système à un instant donné dépend de ses états précédents. Le déterminisme est donc proche de l’idée de « principe de causalité » (la cause précède l’effet et les mêmes causes produisent les mêmes effets) de Leibniz. Le déterminisme fort de Laplace est formulée ainsi: « Une intelligence qui, à un instant donné, connaîtrait toutes les forces dont la nature est animée, la position respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, elle embrasserait dans la même formule les mouvements des plus grands corps de l’univers, et ceux du plus léger atome. Rien ne serait incertain pour elle, et l’avenir comme le passé seraient présents à ses yeux. » (ref). Cette intelligence, toute théorique, est souvent appelée « démon de Laplace » en raison de son caractère omniscient. Caractère qui paraît bien problématique. Si tout est prévisible et calculable dans le mouvement des objets physiques (y compris les atomes de mon corps!), quelle place peut-on accorder à l’inattendu? Au libre arbitre? Pour Laplace, si l’homme n’est pas capable de voir son propre futur, ce n’est pas en raison d’une impossibilité théorique mais purement pratique, c’est juste un problème de puissance de calcul. Cependant, depuis cette époque, l’informatique s’est développée et l’homme a atteint une capacité calculatoire inenvisageable au temps de Laplace, sommes-nous alors en mesure de faire ce calcul proposé par Laplace et d’embrasser en une seule formule non seulement l’avenir mais aussi toute l’histoire de notre univers? Heureusement non, et parce que le problème s’est avéré ne pas être purement calculatoire mais bien théorique.

Les bifurcations, les choix et le rôle du hasard

La découverte d’un processus telle qu’une bifurcation a mis à mal le déterminisme fort de Laplace car ce sont des processus qui ne sont pas entièrement prévisibles. Il s’agit des cas où un système fait un choix entre deux solutions aussi probables l’une que l’autre. Discutons un exemple pour être plus clair, même si cet exemple est très formel, il a aussi une valeur historique dans la fondation de la théorie des bifurcations.

Considérons un plan (problème à deux dimensions) de spins. Pour faire simple, les spins peuvent être considérés comme des aimants dont le pôle nord peut pointer soit vers le haut (on dit que ce spin vaut alors +1), soit vers le bas (spin -1). Ces spins ne sont pas indépendants des uns des autres, et exercent des forces mutuelles (comme deux aimants peuvent s’attirer ou se repousser). Dans cet exemple, l’effet de ces forces est de pousser les spins à s’aligner, c’est à dire à tous pointer dans la même direction, un spin +1 entouré de deux spins -1 subira donc une force importante le poussant à se retourner. Si l’on ajoute aucune autre force à ce système et qu’on laisse faire la dynamique de ces forces, tous les spins finiront par s’aligner soit dans l’état +1 soit dans l’état -1. En effet, à ce stade, ces deux états sont exactement équivalents et il n’y a aucune raison pour que l’un soit privilégié sur l’autre. On se trouve donc bien dans un cas où le système doit faire un choix entre deux solutions possibles. Cela dit, dans ce cas, le déterminisme laplacien n’est pas violé, ni même problématique en effet le choix entre les deux solutions provient simplement du fait que dans l’état initial il y a forcément plus de spins dans l’un des deux états et c’est cet état qui va finir par l’emporter, la donnée d’une condition initiale et des lois d’évolution permet donc de prévoir avec certitude l’état final du système, exactement comme dans le cas des lois de Newton.

L’image change et se complexifie si l’on ajoute une nouvelle force à notre système, la température. On sait que la température est une mesure physique de l’agitation des particules d’un corps (solide, liquide, gaz etc…). L’effet sur un spin de la température est que celle-ci le déstabilise et peut le renverser de manière aléatoire. Notons que plus la température est élevée plus ces retournements sont fréquents et cela reflète donc bien une agitation plus grande du système. Dans cette situation, le système est soumis à deux influences contradictoires. D’un côté, la force magnétique tend à aligner tous les spins et donc à stabiliser le système et, de l’autre, la température fait renverser des spins de manière aléatoire et tend donc à désorganiser le système. On peut donc déjà faire deux prédictions qui paraissent solides. Si la température est très basse alors la force magnétique devient prépondérante et on se rapproche du cas précédent correspondant à une température nulle, on s’attend donc à une organisation même partielle des spins. A l’opposé, si la température devient très grande, la force magnétique devient négligeable devant cette dernière et l’on s’attend à ce que les spins se renversent souvent et ne présentent donc pas d’organisation particulière. La théorie des bifurcations a été inventée dans le but de décrire ce qui se passe entre ces deux extrêmes et, en particulier, lorsque l’on varie très progressivement la température.

La meilleure manière de représenter visuellement cette théorie sont les diagrammes de bifurcation comme celui-ci:

Diagramme de bifurcation d’une bifurcation fourche sous critique. Wikipedia

On y représente en abscisse le paramètre de contrôle qui nous intéresse, mu, qui peut représenter la température dans notre exemple. En ordonnées, on représente la mesure qui nous intéresse et qui est, dans notre exemple, la valeur moyenne des spins c’est à dire la somme de tous les spins divisée par leur nombre. Cette valeur vaut 1 si tous les spins valent +1, -1 si tous les spins valent -1, 0 quand il y a autant de spins valant +1 que -1. Les courbes en bleu représentent l’état final ou les états finaux atteints par le système. On retrouve donc les deux régimes auxquels on s’attendait.

A droite, la température mu est grande et le seul état possible est un état désordonné dans lequel les spins se renversent fréquemment, en moyenne il y en a donc autant dans les deux états et la mesure x vaut alors 0. A l’extrême gauche du graphe, la température devient nulle, le système a deux états possibles correspondant à x=1 (tous les spins valent +1) ou x=-1.

La première observation a priori inattendue à faire est l’existence d’une température critique. Si nous avions deviné les deux comportements extrêmes que l’on vient de rappeler, on ne savait pas quoi attendre de la zone intermédiaire. Il apparaît qu’il existe donc une température particulière (qui correspond sur le graphe à mu=0) à partir de laquelle le système présente une organisation spontanée. Au dessus de celle-ci l’orientation moyenne du système est nulle et l’agitation domine. En dessous de celle-ci, la force magnétique commence à jouer son rôle et aligne spontanément le système, cet alignement devenant de plus en plus important au fur et à mesure que la température diminue si l’on note qu’une valeur de x positive mais différente de 1 signifie que la majorité mais non la totalité des spins sont dans l’état +1.

Revenons en alors à la question du déterminisme. Si l’on donne les lois d’évolution du système et une condition initiale dans la phase désordonnée puis que l’on fait varier la température jusqu’à atteindre la phase ordonnée, peut-on prévoir par un mécanisme à la Laplace, laquelle des deux branches le système va emprunter? Il se trouve que non et la raison se trouve au point critique ou point de bifurcation et implique de faire apparaître le hasard.

Lorsque l’on se trouve dans la phase désordonnée, on considère que, en moyenne, les spins sont équitablement répartis entre ceux valant +1 et ceux valant -1. Mais, dans une situation donnée à un instant donné, il se peut et il est même probable que les nombres de spins +1 et -1 ne soient pas strictement égaux et que donc x ne vaille pas strictement 0. Il existe ce que l’on appelle des fluctuations autour de la valeur x=0. Visuellement, on peut imaginer que le point oscille verticalement autour de x=0 et ce en permanence. Si l’on dit que x=0 est l’état final du système c’est que ces fluctuations sont, dans la phase désordonnée, amortie, c’est à dire qu’un trop grand écart entre nombres de spins positifs et négatifs est rapidement effacé par la température qui agit au hasard. A partir du point de bifurcation, la situation change et les fluctuations deviennent primordiales. En effet, imaginons que l’on place un système proche de x=0 mais à une température plus faible que la température critique. Dans cet état x=0, il existe des fluctuations et il peut se former, par hasard, des zones où de nombreux spins sont alignés dans un sens. Cette zone a alors une grande influence sur les spins voisins, les poussant à s’aligner également et, à basse température, la force magnétique dominant, les spins s’alignent. Ainsi, dans cette zone, les fluctuations autour de x=0 ne sont plus amorties mais, au contraire, amplifiées. Ce sont elles qui sont responsables du choix de la branche positive ou négative par le système. Si l’on imagine que l’on amène progressivement un système jusqu’à sa température critique, on comprend bien que les fluctuations ayant lieu exactement au point critique vont être amplifiées. Si celles-ci sont globalement plutôt positives, le système les amplifie et emprunte la branche positive, et inversement, on parle de processus de fluctuation-amplification (figure). Une fois ce choix fait, le système ne peut plus sauter d’une branche à l’autre et des causes aléatoires ont donc bien sélectionné une certaine organisation, et ces fluctuations sont, par nature, impossibles à prédire depuis un état antérieur. Le déterminisme laplacien ne peut pas répondre à une question du type: « Après abaissement de la température, quel sera le signe de l’orientation moyenne des spins? ». Enfin une petite place offerte à l’inattendu dans la physique…

Cependant, les équations décrivant un tel système sont elles aussi des équations différentielles du type de celles de Newton. En droit, elles sont donc soumises au déterminisme laplacien tel qu’il a été énoncé. Ce que Laplace ne pouvait pas apercevoir est que son démon, aussi intellectuellement supérieur soit il, ne peut pas connaître avec exactitude la position de toutes les particules de l’univers en raison de ces fluctuations dont nous avons parlé. On pourrait alors opposer à cet état de fait l’argument selon lequel les fluctuations sont des causes petites comparées au phénomène étudié et que par voie de conséquence, leur effet doit être faible. Les points de bifurcation ou points critiques sont l’exemple parfait du cas où, au contraire, les petites causes peuvent avoir des effets très importants, propriété largement incompatible avec une version forte du déterminisme et que nous retrouverons dans un autre exemple. Pour illustrer l’influence très forte que peuvent avoir les fluctuations, on peut prendre l’exemple des coquillages dextres et sénestres (voir image) qui résultent probablement d’un mécanisme de ce type. Une simple variation au hasard a sélectionné et figé définitivement le sens d’enroulement de ces coquillages qui, in fine, ne sont pas identiques.

exemple de bifurcation : coquilles dextre et sénestre

Le chaos déterministe ou l’effet papillon

L’idée que nous venons de développer que certaines causes faibles puissent avoir de grands effets est souvent exprimée par la notion d’effet papillon qui dit que les battements d’aile d’un papillon en Californie peut créer un ouragan au large du Japon. Mais la découverte de cet effet ne vient pas de la théorie des bifurcations mais par la découverte du chaos déterministe. Au milieu des années 60 et à l’aide des premiers ordinateurs, le météorologue américain lance les premières simulations numériques de la dynamique de l’atmosphère. Il va découvrir, par hasard, une propriété inattendue de son modèle. Voulant refaire une simulation, Lorenz décida de lancer son modèle non pas de la même condition initiale mais de relancer sa simulation à partir du milieu. Il rentre donc les conditions initiales à cet instant. Pour l’un des paramètres (la pression par exemple), Lorenz rentre la valeur 0.506 au lieu de la valeur 0.506127 réellement obtenue par l’ordinateur lors de la simulation précédente. Son raisonnement, tout à fait valable à l’époque, est qu’une petite différence à un instant ne peut avoir que de petits effets par la suite. Et ce qu’il observa fut bien différent (fig).

Comparaison de deux résultats de simulation aux conditions initiales très proches. Les deux courbes sont, au début, quasiment superposées mais, rapidement, elles divergent jusqu’à ne plus présenter aucune corrélation. (tiré de ref)

On voit sur ce graphe comparant les deux simulations avec des conditions initiales quasiment identiques sont indiscernables pendant un temps mais que, rapidement, les deux solutions divergent jusqu’à ne plus présenter aucune corrélation. Là encore, une variation extrêmement faible a été amplifiée. Les modèles de Lorenz étant des modèles atmosphériques, la formulation de l’effet papillon (par Lorenz lui-même) en découle naturellement. Ce principe explique aussi l’impossibilité de prévoir avec précision le temps sur des périodes longues, ce qui nous ramène sur le terrain du déterminisme. Pour plus de détails techniques sur le modèle utilisé par Lorenz, de nombreux sites le décrivent, Wikipédia compris, mais celui-ci est assez complet et intéressant.

Cette propriété remarquable des systèmes chaotiques est appelée techniquement dépendance sensitive aux conditions initiales. Elle sert fréquemment de définition du chaos. Un système est chaotique si et seulement s’il présente, sous certaines conditions, une dépendance sensitive aux conditions initiales. Tous les systèmes ne sont donc pas chaotiques mais ils se retrouvent dans de nombreux phénomènes naturels. On peut voir aussi qu’un système chaotique ne sera jamais périodique, la variation d’une grandeur semble suivre un comportement erratique, sans répétition et sans tendance particulière. Ajoutons enfin que si la popularisation de cet effet papillon a eu besoin de l’informatique pour avoir lieu, les ordinateurs étant les seuls outils capables d’en donner une représentation visuelle, l’existence de cette propriété a été démontrée, dans un cadre formel et purement mathématique dès la fin du XIXème siècle par un des plus grands scientifiques français: Henri Poincaré (qui aura sans doute droit à son propre post).

Plus précisément, il a été montré que, contrairement au cas des systèmes non chaotiques, la petite différence introduite par Lorenz dans sa simulation croit exponentiellement avec le temps, cette croissance étant linéaire dans un système non chaotique. Ainsi, dans un système linéaire, c’est à dire où la réponse est proportionnelle à la cause, l’erreur relative introduite reste quasiment constante. Dans un système chaotique, cette erreur croit exponentiellement de telle sorte que, rapidement, il n’en reste plus aucune trace et il semble que l’on regarde deux systèmes différents ce qui a fait dire à Lorenz : « To the often-heard question ‘Why can’t we make better weather forecast?’ I have been tempted to reply ‘Well, why should we be able to make any forecast at all?’ ».

Les systèmes chaotiques ont, évidemment, d’autres propriétés intéressantes (attracteurs étranges, lien avec les fractales, transition vers le chaos etc…) qui seraient trop longues à discuter ici mais sont très abondantes sur le net. Notons cependant qu’il existe un lien entre bifurcations et chaos. L’aspect chaotique ou non d’un système peut dépendre d’un des paramètres de ce système. La variation de ce paramètre peut faire passer le système d’un régime cyclique par exemple à un régime chaotique. L’un des chemins possibles de cette transition vers le chaos se fait par une suite de bifurcations. Le plus connu des exemples d’un tel type est sans doute le diagramme de Feigenbaum ci-dessous.

diagramme de Feigenbaum tiré de fr.academic.ru/dic.nsf/frwiki/444128

Ici, les bifurcations représentent les périodes du système en fonction d’un paramètre r. Au début, le système n’a qu’une seule période, ce qui correspond à une seule ligne puis il y a une  première bifurcation qui donne un doublement de période. Ici, le système se comporte comme la somme de deux comportements cycliques avec des périodes différentes. Si l’on continue, les doublements de période se multiplient jusqu’à une valeur critique du paramètre où le système devient chaotique, son comportement n’est plus périodique et on a donc superposition d’une infinité de période ce qui se traduit sur le diagramme par une zone grisée.

Dans ces deux exemples, on a montré qu’une erreur même infime sur les conditions initiales suffit à rendre un système imprévisible à moyen terme. Mais si l’on parle de chaos déterministe (c’est son nom) c’est parce qu’il ne viole pas, à proprement parler, la version laplacienne du déterminisme. Les équations qui décrivent le système sont déterministes, tout comme les équations de Newton, c’est à dire que si l’on connaît exactement les conditions initiales, le système est entièrement prévisible, ce que le démon de Laplace a la faculté de faire. Mais la moindre erreur de mesure fait s’effondrer cette image. Aucun appareil expérimental n’étant jamais capable d’une mesure parfaite en raison de ses limites de fabrication, le déterminisme laplacien n’est plus, à ce stade, qu’un argument purement théorique, scientifiquement irréalisable en pratique, on peut donc déjà en questionner l’importance même s’il reste, pour le moment valide.

Le coup fatal lui sera porté au début du XXème siècle par la démonstration de l’impossibilité, non plus pratique mais théorique (!), pour n’importe quel démon de connaître exactement la position d’une particule. Nous entrons dans le monde étrange de la mécanique quantique qui nous emporterait trop loin. Mais la description quantique d’une particule interdit, de fait, de connaître avec exactitude simultanément sa position et sa vitesse. Brièvement, l’idée sous-jacente est que l’observation d’une particule en modifie l’état. Si l’on cherche à mesurer sa position, plus cette observation sera précise, plus elle perturbera l’état de cette dernière, rendant de plus en plus imprécise toute observation sur sa vitesse. Le monde quantique est étrange et surtout contre-intuitif et il méritera d’être discuté plus en détail. Notons que l’addition de cette étrangeté et de la dépendance sensitive aux conditions initiales finit de terrasser le déterminisme de Laplace.

Conclusions

  1. La vision du monde au temps de Laplace est dominée par les travaux de Newton et Descartes. Le monde est vu comme une grande horloge, réglée par un grand horloger. Tout l’univers ne fait que suivre son cours sereinement, selon les plans d’un créateur divin. On retrouve cette vision du monde du côté de la biologie dans le dualisme cartésien corps/âme et dans la notion d’animal-machine. Eux aussi ne sont que des horloges compliquées avec leurs rouages, leurs moteurs et leurs déchets, une machine sublime mais soumise au plus grand déterminisme, sans contrôle sur ses actes et vouée à reproduire le même fonctionnement, génération après génération. La découverte des systèmes non-linéaires, des bifurcations et de la dépendance sensitive aux conditions initiales nous propose une vision du monde très différente. Le monde est intrinsèquement non-prévisible, le hasard et les fluctuations y jouent un rôle très important et des phénomènes chaotique introduisent des comportements erratiques et, apparemment, sans tendances particulières. La grande horloge divine a été remplacée par le tourbillon permanent des ailes des papillons.
  2. D’un point de vue pratique et plus quotidien, la mort du déterminisme fort a aussi des conséquences. Outre l’impossibilité de prévoir le devenir de certains systèmes, cette idée que, dans certains cas, les petits effets peuvent avoir de grandes conséquences met aussi à mal notre volonté de contrôle sur le monde. Si une simple perturbation, aussi petite soit-elle et aussi locale soit-elle, voit son influence croître exponentiellement et se propager à tout un système, celui-ci devient aussi incontrôlable. En particulier dans l’exemple de la météo, il parait inconcevable de contrôler avec autant de précision l’atmosphère. La moindre poussière, le moindre battement d’aile ferait dévier le système de ce qui a été prévu. Il est non seulement difficile de prévoir le temps mais il parait aussi idyllique de vouloir le modifier à son gré, du moins à moyen terme.

Il ne faut donc pas forcément attendre de la science qu’elle prévoie et qu’elle contrôle tout. Les systèmes décrits sont très bien compris théoriquement mais leur côté imprévisible est intrinsèque, il n’est pas du à notre ignorance. Finalement, le domaine très vaste auquel s’applique ces principes doit nous faire réfléchir et nous pousser à l’humilité. A quel point l’économie peut-elle être contrôlée lorsqu’elle devient si complexe? En  biologie, l’évolution présente aussi des créations d’espèce qui pourrait ressembler à des bifurcations: quelle importance accorder alors aux nombreux accidents (pas toujours de petites tailles) qui ont accompagné l’évolution du vivant (phénomènes climatiques, sismiques, astronomiques). On considère souvent que l’histoire de la vie est contingente, qu’elle s’est écrite avec un rôle prépondérant du hasard, et que, si cela était possible, si on remontait dans le temps pour ré-écrire cette histoire depuis ses origines, les nombreuses perturbations qui ne manqueraient pas d’arriver la bouleverserait profondément. Comme le disait Jacques Monod : « L’homme est seul dans l’univers d’où il a émergé par hasard ».

OC

Bibliographie

  1. Onsager, Discussion, Nuovo Cimento (suppl.) 6: 261
  2. Laplace, Essai philosophique sur les probabilités, Bachelier, 1840.
  3. Gleick, La théorie du chaos: vers une nouvelle science, Flammarion, 1999.
  4. Thom, Prédire n’est pas expliquer, Flammarion, 2009.
  5. Monod, Le hasard et la nécessité,  Seuil, 1973.

Leave a Reply

Your email address will not be published. Required fields are marked *