La nature statistique de l'entropie

L'espace des phases

L'ensemble des états possibles de tout système physique donné, à l'intérieur duquel l'évolution s'effectue autour du temps, est appelé l'espace des phases de ce système.

Il faut distinguer si l'étude se fait dans le cadre de la physique classique, ou de la physique quantique.
En fin de compte le vrai cadre est bien sûr celui de la physique quantique. Mais ses propriétés sont plus étranges et difficiles à se représenter, tant qu'on n'adopte pas pleinement le formalisme de la physique quantique.

La présente approche se voulant vulgarisée, ne reposera pas sur le plein formalisme de la physique quantique, trop abstrait, mais s'appuiera sur certaines de ses propriétés qualitatives les plus utiles.

Par ailleurs, l'introduction des mêmes notions dans le cas classique aidera à s'en donner certaine représentation précise et cohérente, ayant assez de propriétés essentielles communes avec le cas quantique, et aidera donc à comprendre par analogie le cas quantique, même si en toute rigueur les deux cas restent distincts.

Cas classique : l'espace des phases pour un système de N particules est un espace à 6N dimensions (dont 3 pour la position et 3 pour la vitesse). L'évolution conserve le volume dans cet espace, autrement dit elle se comporte comme le mouvement d'un fluide incompressible. Un état élémentaire du système y est un point, évoluant de manière continue et déterministe (même si cahotique) comme emporté par le fluide.
Tant dans le cas classique que quantique, le volume total de l'espace des phases est ainsi limité par l'espace et l'énergie disponibles pour le système, mais peut croître à l'infini s'il dispose d'un espace et/ou d'une énergie illimité.

Cas quantique, difficilement imaginable, mais à admettre !  L'espace des phases comporte une unité de volume indivisible. Le volume de toute portion délimitée de cet espace, compté suivant cette unité, est toujours un nombre entier. Un état élémentaire du système est défini par une "case" également appelé micro-état, de volume 1.
Mais la manière dont un espace se divise en micro-états n'est pas fixée à l'avance. A l'état naturel, l'espace des phases n'est pas divisé, mais il est continu et évolue comme tel. C'est le processus de mesure qui définit une division en micro-états, et un micro-état donné n'évolue pas nécessairement vers un micro-état particulier de la prochaine mesure effectuée. S'il tombe entre plusieurs micro-états, le résultat de la mesure sera un des micro-états du nouveau découpage entre lesquels s'étale le micro-état obtenu par évolution de celui dont on était parti, aléatoirement suivant une loi de probabilité déterminée par la manière dont le micro-état obtenu par évolution est étalé au travers des nouveaux. Après la mesure, le micro-état du système sera exactement défini par celui où il a été trouvé.

On a un équivalent de la propriété de conservation des volumes: les systèmes dont l'état est dans un volume donné à un instant t ne peuvent jamais évoluer avec certitude vers un volume plus petit à un instant ultérieur t'. Cela se traduit formellement en disant que, si un système peut évoluer d'un micro-état A à un micro-état B suivant une probabilité p et s'il est possible de renverser exactement  le sens de cette évolution, alors l'évolutionn inverse de B en A se fait suivant la même probabilité p. Ainsi, tout comme l'évolution depuis un état initial donné se décrit par des probabilités d'états finaux (suivant un découpage final arbitraire) dont la somme vaut 1, l'incompressibilité de l'espace des phases se traduit par le fait que, pour un état final donné, la somme des probabilités d'y aboutir à partir de chaque case d'un découpage initial, sera également 1.

Définition de l'entropie

L'entropie n'est pas à la base une propriété intrinsèque, mesurable, d'un système physique; mais c'est une propriété de la connaissance a priori que l'on a l'égard du système.
Voici donc sa définition:
L'entropie d'un système est l'ampleur de l'imprécision de la connaissance dont on dispose a priori sur le micro-état du système.

Comment traduire une qualité semblant aussi vague que l'expression ci-dessus, en un nombre, pour pouvoir la traiter mathématiquement ? Ce nombre se définit intuitivement ainsi:

L'entropie mesure la taille moyenne espérée du fichier qui serait nécessaire pour spécifier le micro-état du système, présenté suivant le format conçu comme le plus compressé possible (= de plus petite taille moyenne espérée) étant donnée la connaissance préalable qu'on avait de cet état.

Il y a une définition mathématique exacte de l'entropie,  qui est la suivante (histoire de dire qu'il y a une définition exacte, mais que pour éviter les formules nous n'utiliserons guère dans la suite):
La connaissance a priori de l'état du système se décrit par un découpage adéquat de l'espace des phases en micro-états possibles x, et une probabilité p(x) assignée à chacun; son entropie est alors la somme sur toutes les micro-états x, de -p(x)*ln(p(x)).

L'entropie zéro

Le fait qu'il existe une entropie zéro, sous laquelle on ne peut pas descendre, tient à la nature quantique des systèmes. A savoir, que l'espace des phases n'est pas découpable plus finement qu'en un nombre entier de micro-états. Une fois spécifié le micro-état dans lequelle se trouve le système, c'est déjà l'information la plus exacte possible qu'on puisse en avoir. Aucune mesure supplémentaire ne peut aboutir à une connaissance plus précise, car un autre découpage en micro-état ne ferait que réduire l'état du système à un micro-état du nouveau découpage, sans préserver la précision que l'ancien découpage pouvait constituer.

Ainsi l'entropie zéro est liée aux effets quantiques du système qui se manifestent au voisinage du zéro absolu. Sans ces effets quantiques, autrement dit dans le cadre de la mécanique classique, il n'y aurait pas de limite inférieure nécessaire à l'entropie du système.

Dans l'espace des phases classique, l'état d'un système est un point, qui ne serait pas spécifiable exactement, mais chaque avancée de la précision serait une information supplémentaire. La suite des décimales de précision des coordonnées du système, qu'on pourrait extraire de mesures de plus en plus précises, serait infinie. La notion même d'état exact du système n'aurait aucun sens, mais nécessiterait pour être spécifiée une infinité de mesures, autrement dit nécessiterait d'évacuer du système une quantité d'entropie infinie. La notion d'entropie zéro est incompatible avec la mécanique classique.

Unités d'entropie et son caractère non-entier

La formule exacte plus haut fait intervenir un logarithme. Ainsi l'entropie est au fond une quantité sans dimension, qui seulement a l'air d'avoir une dimension d'un point de vue macroscopique, du fait qu'elle y est multipliée par le nombre d'atomes en jeu. Macroscopiquement, le nombre d'atomes se comporte comme une quantité dimensionnée avec une unité arbitraire (une mole). Il en va de même pour l'entropie, dont l'unité macroscopique est sujette à des liens physiques précis avec les nombres de moles.

Dans la traduction intuitive de l'entropie en termes de taille des fichiers, cette unité logarithmique correspond naturellement à l'unité de mesure des tailles de fichier. La mesure en bits correspond au logarithme binaire; la mesure en octets correspond à la base 256. Si on traduisait les fichiers sous un format décimal (comme suite de chiffres de 0 à 9) il faudrait ln(10)/ln(2) fois moins de chiffres qu'il ne fallait de bits pour exprimer la même information.

Un système à N micro-états possibles nécessite un nombre de 1 à N pour être spécifié, ce qui constitue une information de taille ln(N) lorsque ces états sont équiprobables. L'entropie du système est alors ln(N).
Mais cette entropie diminue au fur et à mesure que  la loi de probabilité s'éloigne de l'équiprobabilité. A la limite, la loi de probabilité la plus inégale est celle qui donne la probabilité 1 à un état et 0 à tous les autres. Son entropie est alors nulle.
Par exemple, imaginons un système à 3 états possibles A,B,C. S'ils sont de probabilité 1/3 chaque, l'entropie vaut ln(3) (un chiffre de base 3). Mais si les probabilités sont 1/2,1/4,1/4, alors il faut d'abord un bit pour distinguer entre A d'une part, B ou C de l'autre. Une chance sur 2 que ça soit A et que donc ça suffise; une chance sur 2 que ce soit (B ou C), et que donc il faille un bit d'information supplémentaire pour conclure. Finalement, la taille moyenne du fichier nécessaire pour spécifier l'état est de 1,5 bit, ce qui est moindre que l'entropie dans le cas d'équiprobabilité qui valait ln(3)/ln(2)=1,585 bit.

On peut demander: si une quantité d'information plus grande que 1 bit peut se compter en nombre non-entier de bits, un bit d'information isolé est-il divisible en unités plus petites ? Bien sûr, ce n'est pas praticable tel quel isolément, mais ça l'est en un certain sens en élargissant le contexte. Bien sûr, les états possibles étant distincts par nature, on ne peut pas avoir plus de 1 mais moins de 2 états possibles. Mais comme précédemment, on peut réduire l'entropie d'un système à un nombre d'états donné en s'éloignant de l'équiprobabilité. Ainsi, si un bit a plus de chances de valoir 0 que 1 (s'il y a une chance sur 3 d'avoir pile et 2 chances sur 3 d'avoir face), on peut réduire sa place de la manière suivante: il suffit de mettre ensemble N tirages indépendants d'un tel bit, d'en faire ainsi un fichier à N bits, puis de compacter le tout. La taille moyenne espérée du fichier ainsi obtenue est alors inférieure à N bit, à cause de l'écart systématique de probabilités entre le pile et le face. Il y a bien sûr un risque que la taille soit finalement supérieure à N, à savoir lorsque ses cas a priori les moins probables sont finalement obtenus. Cela ne survient que rarement si les probabilités sont effectivement inégales comme attendu, mais cela arriverait plus souvent dans le cas de l'équiprobabilité.

Reprenons la formule de l'entropie, et expliquons comment la description intuitive en terme de taille de fichier, en est le reflet:
Si un micro-état x a la probabilité p(x) de survenir, alors le fichier d'information le mieux compacté décrivant le micro-état du système, se trouvera être de longueur -ln(p(x)) lorsqu'il sera x. On peut le comprendre en l'imaginant regroupé avec tous les autres micro-états de même probabilité. Si tous les états étaient équiprobables, ils seraient en nombre 1/p(x), donc la taille de l'information spécifiant le choix serait ln(1/p(x))=-ln(p(x)).
La taille moyenne espérée du fichier, est la moyenne de ces -ln(p(x)) pondérée par les probabilités p(x), donc somme des -p(x)ln(p(x)).

La mesure comme extraction d'entropie

Expliquons le comportement de l'entropie lors d'une mesure d'un système physique en général. Lorsqu'une mesure améliore l'information dont on dispose sur un système, elle diminue l'entropie de ce système. Mais elle ne la diminue généralement que d'une faible quantité: l'information obtenue comme résultat d'une mesure physique ordinaire d'un système macroscopique est généralement négligeable face à la quantité proprement astronomique d'informations qui serait idéalement nécessaire pour décrire positions et vitesses (dans la limite des inégalités de Heisenberg) de tous les atomes thermiquement agités dans ce système.

On n'est certes pas à ça près en pratique, mais en toute rigueur on peut se demander: où est passé cette petite quantité d'entropie qui a quitté le système lors de la mesure de quelques-uns de ses paramètres ?
Elle a été tout simplement transmise à l'observateur. Il y a en effet plusieurs états possibles dans lesquels l'observateur peut se retrouver après la mesure, suivant le résultat de celle-ci. Si en guise d'observateur on a un appareil enregistreur, alors l'état final de l'enregistrement est indéterminé suivant les probabilités des quantités mesurées de prendre telle ou telle valeur. Donc cet enregistrement est devenu le support de la petite quantité d'entropie correspondant à l'information qui a été extraite du système au cours de la mesure (cette diminution de l'imprécision de la connaissance dont on disposait sur le système).

En effet un appareil de mesure et son enregistreur, étant matériel et inconscient, peut être considéré comme étant dans un état indéterminé, et donc porteur d'entropie. Dans le cas d'un observateur conscient, on aurait envie d'interpréter la situation en disant que l'indétermination est levée (puisque l'observateur est conscient du résultat, qui a donc une valeur bien déterminée), donc comme si l'entropie avait disparu. En pratique, cela ne peut évidemment pas servir à éliminer l'entropie, puisque le fonctionnement interne d'un observateur humain (ou animal...) crée en permanence de l'entropie en flux bien plus considérable que la quantité d'information qui peut être reçue par les sens. Le processus de création d'entropie sera expliqué plus loin.

Comme une information enregistrée signifie une quantité d'entropie, l'effacement d'une information nécessite d'évacuer cette entropie ailleurs.

Peut-on mesurer l'entropie ?

On ne peut certes pas donner de signification exacte à la mesure de l'entropie; mais on peut y donner une signification approximative, dont la marge d'erreur de plusieurs unités (taille d'expression de l'information mesurée) s'estompe en compraraison des quantités d'entropie nettement plus considérables qui sont en jeu dans les systèmes physiques macroscopiques, et qui sont l'objet de la mesure.
En fait, on a déjà vu un aperçu de cette notion plus haut, lorsqu'une petite partie de l'information peut servir à évaluer la taille qui sera prise par le reste de l'information. Cette taille étant déterminée par la probabilité des micro-états considérés, on peut donc concevoir une mesure physique distinguant différentes classes (ou macro-états) de micro-états du système, où les micro-états individuels ont des probabilités voisines dans chaque classe (on n'est pas à un facteur 1000 près, 3 chiffres décimaux n'étant pas grand-chose face au nombre gigantesque d'atomes d'atomes d'un système macroscopique dont chacun porte plusieurs chiffres d'information), mais peuvent varier bien plus largement d'une classe à l'autre.

Les classes d'états individuellement les moins probables contiennent généralement beaucoup plus de micro-états, que celles des micro-états individuellement plus probables, afin que le rapport de probabilité totale entre l'une et l'autre classe soit équitable, et ainsi que la mesure en vaille la peine.

C'est tout ce qu'on aura en guise de mesure de l'entropie.

Diminutions exceptionnelles d'entropie

Suivant la définition que nous venons de présenter, l'entropie s'avère plus précisément définie comme une moyenne espérée par rapport à tous les micro-états possibles, d'une valeur plus précise de l'entropie.
La mesure d'un paramètre du système permet de faire une certaine mesure de l'entropie et ainsi de la modifier. Si par exemple le résultat de la mesure est une information binaire avec une probabilité 1/2 chaque, cela divise l'espace des phases en 2 parties. Suivant la manière dont cette division est configurée par rapport à l'état initial du système, les deux valeurs S1 et S2 prises par l'entropie finale suivant le résultat de la mesure, sont reliées à l'entropie initiale S0 du système, par la formule

S0 - 1bit < (S1+ S2)/2  (qui peut dans certains cas être supérieur à S0)

Si on définit l'entropie finale comme somme des entropies finales du système et de l'appareil de mesure (hypothèse qui sera questionnée plus loin), cela donne en moyenne (S1+ S2)/2 + 1 bit, qui est donc supérieur à l'entropie initiale S0. Mais ce n'est qu'une moyenne espérée. En l'occurrence, il y a une chance sur 2 qu'on soit dans le premier cas, d'entropie S1 + 1 bit; et une sur 2 qu'on soit dans l'autre cas, S2 + 1 bit.
Il est possible que de l'entropie soit détruite au cours de certains processus.
Par contre ce qu'on sait, c'est que tout processus qui a des chances de détruire de l'entropie, a aussi des chances d'en créer; que ces destructions d'entropie seront le plus souvent très faibles (de l'ordre de l'unité, donc négligeables pour les systèmes macroscopiques), et qu'au bilan l'espérance de variation est positive. Tout comme il n'est pas raisonnable d'aller jouer au casino avec les machines automatiques dans l'espoir de faire des affaires, car les gestionnaires du casino ont su s'arranger pour être bénéficiaires en moyenne espérée quoi que vous fassiez. De même il n'est pas raisonnable de jouer avec ces processus de hasard qui peuvent dans certains cas détruire de l'entropie, parce que cela peut aussi bien en créer, et que quelle que soit la stratégie adoptée, en moyenne cela en créera effectivement.

Remarque: les situations où l'entropie de départ est voisine de la moyenne espérée des entropies d'arrivée, mais où ces dernières diffèrent significativement les unes des autres (au moins de l'ordre de l'unité), sont des situations de déséquilibre thermodynamique, qui nécessitent donc des conditions expérimentales difficiles à mettre en place, en ce sens que cela risque toujours de créer un zeste d'entropie.

L'entropie de dissolution

Une substance soluble dans un fluide (par exemple de l'encre dans de l'eau) porte une entropie d'autant plus grande qu'elle est diluée.

Le calcul de cette entropie est le suivant.
Soit N le nombre de molécules diluées. L'information qu'il faudrait pour décrire le micro-état de la solution comporte bien sûr diverses données sur les agitations de toutes les molécules diluées et diluantes. Contentons-nous des données décrivant les positions des molécules diluées, et plus précisément comment varie cette masse de données entre des volumes de dilutions différents.
On peut décrire l'état de dilution d'un ensemble de molécules, en décrivant la position de chaque molécule. En fait, une telle description ne correspond pas à la réalité, car l'échange de 2 molécules identiques ne modifie pas l'état. Tenant compte de toutes les permutations possibles entre molécules laissant ainsi l'état inchangé, cela présenterait donc N! descriptions différentes du même état physique. Mais il suffit alors de diviser le nombre d'états par N! (et donc multiplier la probabilité de chaque état par N!) pour retrouver un calcul correspondant à la réalité.
Mais si on fixe le nombre total N de molécules diluées, le facteur N! étant constant n'intervient pas dans le résultat des différences d'entropie entre des dillutions différentes. Donc on peut tranquillement faire le calcul comme s'il s'agissait de décrire les positions de toutes les molécules indépendamment les unes des autres.

L'état de N molécules diluées se décrit simplement en indiquant pour chacune des N molécules sa position. Ces données sont indépendantes tant que ces molécules ne se bousculent pas, autrement dit qu'elles tiennent une faible place par rapport à l'espace disponible (il y a presque autant d'espace de liberté pour la dernière molécule que pour la première).
Donc si on double le volume de la dilution, chaque molécule dispose d'un espace double, de sorte que l'information de sa position nécessite 1 bit d'information suppémentaire.

A un doublement du volume de dilution d'un ensemble de N molécules, correspond une augmentation d'entropie de N bits

Au fait, mais pourquoi la substance diluée doit-elle se compter en molécules plutôt qu'en atomes ?
C'est parce que la dilution éloigne les molécules les unes des autres, mais n'éloigne pas entre eux les atomes cormant chaque molécule.

Il en va de même de l'expansion d'un gaz dans le vide: un gaz qui s'étend fournit de l'énergie mécanique à partir de son énergie thermique, tout en gardant son entropie. Cela le refroidit. Si alors on lui redonne de la chaleur pour remonter sa température à la sa valeur initiale, cela fait croître son entropie. Le bilan de ces transformations peut se décrire comme une "dilution du gaz dans le vide", et s'accompagne d'une augmentation de l'entropie qui se calcule de la même manière qu'une dissolution d'une substance dans un liquide.

En fait, le calcul de l'entropie d'une goutte de substance soluble diluée dans un liquide, est identique à celui de l'entropie de l'état d'un système qu'on imagine abstraitement comme dilué dans l'espace des phases. A savoir, si on divise abstraitement le volume du liquide en cellules microscopiques fixé, l'entropie du tout se calcule comme somme des entropies internes à chaque cellule, où l'entropie dans une cellule de volume v où la concentration est c, vaut v*c*ln(c). (Il n'importe pas que le nombre moyen espéré v*c de molécules présentes dans cette cellule, soit très supérieur ou très inférieur à 1, l'important est que ces molécules soient concrètement rares, = minoritaires dans le milieu).

D'un cas à l'autre, la loi de probabilité remplace le champ de concentration; la seule différence est que la somme des probabilités est égale à 1 par définition, tandis que la somme des valeurs de concentration dans un liquide égale le nombre total de molécules diluées (ou le nombre moyen espéré de molécules).

Création spontanée d'entropie dans un système isolé

L'évolution d'un système isolé se décrit par un mouvement interne de son espace des phases, à la ressemblance du mouvement d'un fluide incompressible. La connaissance initiale de son état se décrit telle une goutte d'encre dans ce fluide, dont le degré moyen de dilution définit l'entropie.
Tant que le système est isolé, il n'y a rien du genre loi de diffusion qui disperse l'encre directement pour la diluer. Il n'y a qu'un mouvement de convection. En elle-même, cette convection ne dilue pas, ne modifie pas la concentration de ce qu'elle transporte, mais ne fait que la transporter.

Imaginons d'abord la situation dans le cas classique. Au cours de ce transport, les zones de concentrations s'étirent en filaments et surfaces de plus en plus fins et entremêlés. Sans qu'une dilution ne se produise en un sens absolu, élémentaire, il s'en produit néanmoins une dans un sens pratique: chaque petit volume "de forme normale" (non étirée: sphère, cube), contiendra le plus probablement un fin entremêlage de ces filaments et surfaces, avec une quantité d'encre totale à peu près la même que dans le volume voisin. Ainsi, bien qu'il ne se soit pas produit de dilution en un sens absolu, ce qui s'est produit y ressemble fichtrement, et peut en pratique être assimilé à une dilution effective (et donc à une création d'entropie) dans une bonne approximation.

Est-il néanmoins possible de refuser cette conclusion de création d'entropie, au nom du fait que la dilution (de l'état du système dans son espace des phases) ne s'est pas réellement produite au sens fondamental, à savoir que, bien que fines et entremêlées, les zones de concentration existent ? Pour que ce fait élémentaire soit qualifiable de "réalité physique", encore faudrait-il pouvoir lui donner une conséquence pratique effective. Il faudrait pouvoir inverser au moins en partie le mouvement du fluide, en sorte que les zones de concentration se regroupent à nouveau vers "un même lieu".
Or, même si en théorie tout mouvement est inversible, à savoir que l'inverse de chaque mouvement possible est un mouvement possible (et même aussi probable), le problème est l'impossibilité de mettre en oeuvre ce mouvement inverse (qui seul pourrait conduire à un regroupement de l'état dispersé dans l'espace des phases à un certain moment en une connaissance "descriptible" et observable de l'état final du système) dans le contexte où on en a besoin. En effet, ce contexte étant la présence d'un système physique fait de particules ayant des positions et vitesses indéterminées, l'idée naïve pour cela serait de prendre ce système tel quel, sans le mesurer, conservant la position de chaque particule ou objet, mais inversant sa vitesse. Mais l'étude générale de la mécanique classique comporte une propriété qui établit qu'un tel "rebondisseur" qui renverserait exactement le mouvement d'un système, quel que soit son état qu'on n'a pas mesuré, est rigoureusement impossible.
En conclusion, en un sens élémentaire toute évolution est réversible et l'entropie reste fixe, au sens où on ne peut pas parler de dilution et de création d'entropie en un sens clair et précis, comme si l'entropie se créait suivant des processus précis et délimités et qu'on puisse définir sa valeur en chaque lieu et à chaque instant. Néanmoins, on peut considérer que l'état se dilue dans l'espace des phases et donc de l'entropie se crée au bilan, mais uniquement d'un point de vue global et pratique.

Cela étant ainsi compris dans le cas classique, qu'en est-il dans le cas quantique ? cela y ressemble beaucoup, avec de subtiles différences, là encore à admettre faute d'avoir introduit le formalisme adéquat, qu'on va essayer d'expliquer.

Dans le cas quantique donc, l'équivalent de la situation où les zones de concentrations sont étirées et dispersées, sont celles où les grilles d'observation à disposition ne collent pas avec le micro-état du système: il est quasi impossible d'opérer une mesure divisant l'espace des phases en parties de telle sorte que le micro-état du système soit assez principalement dans une des parties. Autrement dit,
le système se trouve à cheval entre un grand nombre des micro-états tels qu'on peut délimiter suivant les moyens d'observation directement disponibles.

Jusque-là, tout semble pareil. Bien sûr il doit y avoir une différence, due au fait que l'espace des phases n'est pas infiniment divisible, et que cela doit bien à un certain moment mettre une limite à la dispersion du micro-état dans l'espace des phases, et donc donner une chance pour que le micro-état se retrouve correspondre à un état directement mesurable ultérieurement.
Effectivement, cela se produit ainsi: l'espace des phases étant fini à n micro-états quantique, au bout d'un certain temps le système revient dans l'état de départ suivant une bonne probabilité.
 Le problème est que dans le cas pessimiste, le plus général et probable (sans structures ou symétries particulières aidant spécialement à reconduire vers l'état intial), le temps nécessaire pour cela est de l'ordre de l'exponentielle de n. Euh, l'exponentielle de quelle base ? Si on définit ce temps comme 10 puissance n, par exemple, il se trouvera un instant dans cet période où l'état sera trouvé, si on le mesure, dans l'état initial suivant une probabilité plus proche de 1, que si on se contente de l'instant de meilleure probabilité de retour dans un intervalle de durée de 2 puissance n seulement. Les temps où le système se retrouve dans l'état initial (ou, dans les contextes optimistes, dans un certain autre état précis) avec une bonne probabilité si on voulait alors subitement l'y mesurer, sont ainsi tout-à-faits exceptionnels, et leur occurrence est semi-périodique (=non pas périodique mais plus on veut être précis, plus il faut un long  temps pour y trouver une périodicité suivant cette approximation, mais dont la durée de validité sera de toute manière limitée aussi). Tout le reste du temps, il est comme brouillé comme intermédiaire entre un grand nombre d'états au sens défini par les moyens d'observation disponibles.

Dès lors, comme chaque particule supplémentaire ajoutée au système multiplie le nombre d'état possibles par une constante, cela aboutit à ce que le temps de retour soit élevé à une certaine puissance !
Ainsi si chaque particule a 10 états possibles, et qu'il y a 100 particules, cela fait un espace des phases de volume 10100 (nombre de micro-états théoriquement distinguables dans le système), et donc un temps de retour de l'ordre de l'exponentielle de 10 100. C'est donc bien un temps démentiellement long, qu'on ne peut pas espérer attendre en pratique.
On pourrait se dire: prenons un système bien plus réduit, à deux particules par exemples, et attendons le temps nécessaire, quoique long (style 10 puissance 20 fois le temps qu'il faut pour aller d'un atome à son voisin à la vitesse du son, pour un système à une trentaine d'états...), pour qu'il revienne à peu près à son état initial.
Le problème est que, on a beau savoir que dans le cas général une périodicité approximative existe, elle n'est exploitable qu'à condition d'en connaître la valeur exacte de sa période pour saisir le système précisément à cet instant. Comment la connaître: la théorie ou l'observation ? D'une manière ou de l'autre la tâche est de toute manière démentielle. Par l'observation il faudrait essayer toutes les possibilités de périodes un grand nombre de fois, or il y en a trop. Par le calcul c'est extrêmement complexe également. Or, tant les observations que les calculs informatiques sont des processus créateurs d'entropie. La difficulité de mener cette recherche à bien ne laisse guère d'espoir d'en faire une entreprise bénéficiaire énergétiquement (comme évitement de création d'entropie).

En fait, ces occurrences exceptionnelles de temps dans lesquels un système peut revenir dans son état initial ou un autre état précis observable, de par la complexité du calcul de leur instant d'occurrence, peuvent être qualifiés de pseudo-aléatoires. En effet, une donnée pseudo-aléatoire est une donnée déterminée par un calcul précis, mais tellement complexe que son résultat est imprévisible, comme ressemblant au hasard, tant que ce long calcul n'a pas été effectué. Les occasions d'exploitation effective de ces cas exceptionnels où un système a une bonne probabilité de se retrouver dans un état précis, ne sont généralement pas saisies par la nature, qui ne sait pas faire le calcul nécessaire de façon suffisamment "consciente" pour cela.

C'est ainsi que malgré de subtiles différences de nature entre cas classique et cas quantique, la conclusion est principalement la même: les lois de la physique ont beau être rigoureusement réversibles dans leur expression élémentaire, elles engendrent au bilan une création d'entropie pratiquement irréversible.

Etats corrélés et non-additivité de l'entropie

Soit un système AB composé de deux sous-systèmes A et B.

On dit que les systèmes A et B sont non-corrélés, si leurs états sont complètement indépendants, autrement dit lorsqu'une information plus précise sur l'état de A n'apporte aucune indication sur l'état de B, et inversement. Formellement cela se traduit ainsi: pour tout micro-état a de A et tout micro-état b de B, étant donné un moyen de mesurer si A est dans l'état a ou non, et de même mesurer si B est dans b, alors la probabilité de trouver à la fois A dans a et B dans b est égale au produit des probabilités séparément définies (de trouver A dans a d'une part, B dans b d'autre part).
A travers ce critère formel, on voit que les deux sens sont équivalents: si une information sur A permettait de préciser l'état de B, alors inversement une information sur B allant dans le même sens constituerait une indication rendant plus probable l'indication premièrement évoquée sur A.

Mais ceci, non pas seulement pour chacun des micro-états d'un découpage donné des deux espaces des phases, mais pour tous les micro-états possibles suivant quelque découpage que ce soit.

L'entropie de AB est égale à la somme des deux entropies de A et B pris séparément lorsque A et B sont non-corrélés. Dans le cas contraire, l'entropie de AB est inférieure à la somme des entropies de A et de B.

Si A et B sont corrélés, donc, on peut considérer qu'une fois faite une mesure sur A, l'entropie de B a diminué. On a ainsi une entropie de B relative au résultat d'une mesure sur A, inférieure à ce qu'était l'entropie de B avant cette mesure.
On a déjà évoqué un tel scénario précédemment dans le cas d'un système formé d'un appareil de mesure et de son objet mesuré: après la "mesure", l'entropie de l'objet a été "transféré" à l'appareil de mesure, mais seulement dans le sens où on considère l'état de l'objet relatif à l'état supposé connu de l'appareil de mesure.
Car si jamais on perdait ou ignorait le résutat de la mesure (information stockée dans l'appareil de mesure), alors on serait tout aussi mal informé qu'au départ sur l'état de l'objet, donc l'entropie de celui-ci n'aurait pas diminué.
Sauf bien sûr si après avoir mesuré l'état de l'objet, l'appareil de mesure, grâce à sa connaissance de cet état, a ensuite agi sur l'objet pour l'amener dans un même état final qui ne dépend plus de l'état initial. Dans ce dernier cas, le transfert de l'entropie de l'objet vers l'appareil de mesure serait entièrement accompli.

Faisons enfin quelques remarques sur la distinction entre corrélation classique et corrélation quantique, et sur le paradoxe EPR.
La seule distinction, en fait, est qu'une corrélation classique est "explicable" en se disant que bien qu'étant inconnu, l'état d'un système physique existe avant d'être mesuré, la mesure ne fait que le découvrir, et que la loi de probabilité qu'on lui avait donné n'était que l'expression de notre ignorance qui n'engage que nous et non pas l'objet étudié.
Tandis qu'une corrélation quantique n'admet pas une telle explication. Mais le formalisme de la physique quantique ne comporte en lui-même aucune raison de distinguer ces deux sortes de corrélations: il leur attribue la même nature. Une corrélation quantique est semblable à une corrélation classique à la seule différence que les frontières du domaine (le système d'inégalités) encadrant la loi de probabilité à laquelle sont assujettis les résultats de mesure en fonction du type de mesure choisi, peuvent être dépassés. Le système d'inégalités qui encadrait les possibles loi de probabilité dans le cas d'une corrélation classique, est devenu caduque. Seules les équations en forme d'égalités demeurent valables.
Il en résulte qu'il suffit de brouiller une corrélation quantique par une proportion suffisante de bruit, pour faire entrer le système de probabilité dans le domaine des corrélations classiques.

Donnons des exemples.

Un exemple typique général de corrélation classique, est celui défini par un certain découpage de chacun des systèmes A et B en micro-états, une correspondance injective j entre les deux, et pour chaque micro-état a de A, la donnée d'une probabilité p(a) pour que A soit dans a et que B soit dans l'état correspondant b=j(a). Plus précisément, la corrélation classique dont il est ici question est celle où cette description est la seule chose qu'on sache sur le système AB. En effet, il s'agit de supposer qu'un tirage au sort a eu lieu, dont le résultat a été de déterminer A comme étant dans a et B dans b=j(a).
Alors l'entropie de A est égale à celle de B et aussi égale à celle du système AB. Si on mesure le micro-état de A suivant ce même découpage, alors B sera dans un micro-état déterminé, donc son entropie relative sera nulle. Mais si on mesure le micro-état de A suivant un autre découpage, observant un micro-état qui ne coïncide avec aucun de ceux du découpage précédent, alors il mélange les possibilités de micro-états initiaux pour A et donc aussi les possibilités pour B, de sorte que l'entropie relative de B sera non nulle.

Concernant les corrélations quantiques, l'exemple extrême, qui est en fait la brique de base qui permet de construire tous les autres par tirages au hasard de cas de ce type, est celui d'un unique micro-état du système AB, donc d'entropie nulle, mais qui ne correspond à aucun couple de micro-états respectifs des systèmes A et B. Dans ce cas, A et B ont chacun une même entropie non-nulle mais l'entropie du tout est nulle.

En fait, la description ressemble beaucoup au cas précédent: il existe un découpage adapté de chacun des 2 espaces des phases de A et de B en micro-états, avec chacun une probabilité, où l'observation d'un des micro-états de A oblige à être dans le micro-état correspondant.

Mais il y a une différence essentielle, liée au fait que l'entropie du tout est nulle (le système AB est dans un seul micro-état) et non plus égale à la valeur commune de l'entropie de chacun pris séparément. C'est que pour tout autre découpage de l'espace des phases de A en micro-états, quel que soit le micro-état alors observé, B se trouvera alors dans un micro-état très précis (bien que ne coïncidant pas avec un de la liste).
Et de même en échangeant A et B.

De façon générale, l'entropie S d'un système AB et les entropies SA et SB de chacun de ses sous-systèmes, sont liés par les inégalités:
|SA - SB| < S < SA + SB

et la valeur moyenne S'B de l'entropie de B relativement à un micro-état observé de A, moyennée sur ces micro-états possibles lors d'une observation, est liée par les inégalités

max(S, SB) - SA < S'B < min(S, SB)

(mais les valeurs individuelles de l'entropie relative ne sont liées par aucune inégalité: on peut toujours ajouter une chance minuscule que A soit dans un état exceptionnel où B aura n'importe quelle entropie de 0 à son maximum accessible)
En fait, le cas de la non-corrélation S=SA + Simplique d'égalité S'B=SB mais ne lui est pas équivalent, car S'B=SB n'exprime la non-corrélation que sous l'aspect d'une seule manière de mesurer A. Seulement lorsque S'B=SB a lieu pour toutes les manières de mesurer A alors cela est globalement une non-corrélation au sens où S=SA + SB.
Dans le cas inverse S=SB - SA où A porte une corrélation quantique maximale à B, on a S'B=S=SB - SA.
Plus généralement, S'B=SB - SA exprime la situation où A est un appareil de mesure idéal qui vient de faire une mesure partielle (un classement) de l'état de B, et où la mesure ensuite faite sur A est précisément celle qui retrouve l'information portée, obtenue par cette mesure: chaque micro-état possible observé de A correspond à un résultat possible de la mesure initiale. Ainsi l'état de A est la pure expression d'une information sur l'état de B.

Création d'entropie par décohérence

Nous avons précédemment expliqué comment l'entropie peut se créer spontanément dans un système isolé d'un point de vue pratique, alors même que d'un point de vue fondamental l'entropie se conserve.
Nous avons précisé comment cette croissance de l'entropie pratique est liée à la complexité du système: plus le système a un grand nombre d'états possibles, donc est capable de porter une entropie élevée, plus le processus de création d'entropie paraît net et irréversible; et ce très rapidement lorsque le nombre d'états accessibles (et donc plus encore le nombre de particules ou degrés de liberté du système, autrement dit son entropie maximale) augmente.
Nous allons voir maintenant l'autre raison qui explique la création d'entropie, de manière encore bien plus claire et nette que ce qui avait lieu pour un système isolé.
C'est la création d'entropie par interaction du système avec son environnement, ce qu'on appelle la décohérence.
Comment l'appréhender ? En un sens on pourrait considérer le grand système formé par le petit système et son environnement, comme un système isolé. Oui mais l'environnement n'est pas isolé non plus, car il interagit avec un environnement plus lointain. Ainsi l'air à un endroit interagit avec le reste de l'atmosphère et de la terre, qui interagit par rayonnement avec le soleil et l'espace interstellaire, donc finalement avec l'univers entier.
Alors, dans un tel système s'avérant ainsi très grand (d'autant plus qu'on le regarde sur un temps long, rendant le temps de retour à l'état initial toujours très largement plus grand que le temps écoulé, donc inaccessible), ce qui était déjà approximativement vrai dans un système un peu grand prend dès lors toutes les allures d'une vérité exacte: de l'entropie est effectivement créée.
Nous allons préciser comment cette création d'entropie se produit lors de l'échange de particules du système étudié avec le milieu extérieur.

Il suffit en fait de se rapporter aux formules plus haut sur l'entropie.
En permanence le système étudié reçoit des particules du milieu extérieur (molécules de gaz, photons...), puis en renvoie de façon à avoir en moyenne toujours environ autant de particules.
Généralement, les particules reçues sont non corrélées au système. En effet, même si à un moment des particules environnantes sont corrélées au système, elles perdent rapidement cette corrélation en s'échangeant ou interagissant avec le milieu plus lointain: pour pouvoir encore retrouver une corrélation qui dans l'absolu existe, il faudrait mesurer l'état d'un environnement de plus en plus grand et lointain, ce qui en pratique n'est pas possible.

Donc:

Un système reçoit quelques particules du milieu environnant, qui viennent avec leur propre entropie... ou pas; mais qui en tout état de cause ne sont a priori pas corrélées. Donc, sans corrélation, le système augmenté de ces particules a pour entropie absolue la somme de l'entropie du système initial et des particules reçues.
Cela interagit, de sorte que, si ce n'était pas déjà au départ dans son équilibre thermodynamique (d'entropie maximale, définie par la loi de Boltzmann),  cela a toutes les chances d'engendrer une entropie pratique supplémentaire par rapport à son entropie absolue. Puis, lorsque les particules quittent le système, il y a par contre toutes les chances qu'elles lui soient alors corrélées (toujours dans le cas où il n'y avait pas équilibre thermodynamique), car les micro-états non corrélés du système (définis par un couple de micro-état de chaque sous-système), bien que formant un système complet de micro-états (éléments d'un découpage), ne constituent qu'un cas très particulier de système complet de micro-états.
Pour un micro-état quelconque du système obtenu suite à une évolution sauvage à partir d'un micro-état initial, si A est un système beaucoup plus petit que B (A est fait de quelques particules, son entropie maximale est nettement plus faible que celle de B), le plus probable est d'avoir une situation voisine d'une corrélation quantique, autrement dit une situation où SB et SA sont tous deux voisins de l'entropie maximale de A.
Plus généralement, étant donnée une entropie de départ S nettement inférieure au maximum théorique (qui est aussi l'entropie pratique), à savoir que leur différence est très supérieure au maximum de SA, alors à la sortie, SA sera à son maximum, et SB sera très proche de son maximum permis par les inégalités ci-dessus, à savoir SB=S+SA (tant que cette valeur ne dépasse pas le maximum d'entropie possible pour B).

C'est donc l'interaction avec le milieu extérieur qui finalement crée l'entropie.
A savoir, c'est cette interaction qui met son dernier paraphe validant la quasi-création d'entropie qui avait déjà eu lieu lors de l'évolution interne du système, et la transformant en entropie absolue (dans la mesure où la corrélation du système à son environnement s'avère inexploitable), à un rythme à peu près égal au rythme maximal auquel l'entropie s'échapperait du système s'il n'en recevait pas aussi régulièrement de l'environnement en retour.
Ainsi, si on prend comme système la Terre, et comme environnement, le rayonnement échangé par la Terre avec l'espace, le rayonnement infrarouge émis par la Terre est capable de convertir l'entropie pratique créée par la Terre en entropie absolue, au même rythme qu'il peut évacuer cette dernière entropie elle-même. Ainsi, en même temps que le rayonnement évacue dans l'espace une certaine quantité d'entropie pratique, il peut augmenter l'entropie absolue de la Terre de la même quantité. Cela peut donc diminuer à un rythme double la différence entre les 2, de sorte qu'en fin de compte l'entropie absolue de la Terre en suit de près l'entropie pratique (ne pouvant évidemment pas dépasser celle-ci).

On peut encore détailler les raisons pour lesquelles cette création d'entropie est irréversible.
Mais il est pour cela intéressant de distinguer 2 cas.
L'un est la simple disparition de toute corrélation entre un système et son milieu, lorsque celui-ci est simplement agité thermiquement.

En effet, au départ certaines particules de l'environnement sont corrélées au système. Mais ces particules se mêlent ensuite à d'autres qui ne l'étaient pas. Ainsi, les mesures des premières particules qui étaient corrélées au système, correspondent désormais à certaines mesures d'un ensemble plus grand de particules environnantes, mais ce ne sont plus que des mesures de corrélations entre un ensemble de particules environnantes de plus en plus grand. Supposons que certaines de ces particules soient "perdues", oubliées, négligées, par exemple des photons infrarouge partant au loin.
Alors du point de vue de cette division arbitraire entre particules oubliées et l'environnement accessible, les mesures de l'environnement qui étaient corrélées au premier système, ne sont plus que des mesures de corrélation entre les particules oubliées et l'environnement accessible. Corrélations impossibles à mesurer en pratique, faute justement d'avoir accès aux particules oubliées. C'est ce qui explique pourquoi les prochaînes particules de l'environnement qui interagiront avec le système, ne lui seront pas corrélées.

L'autre est celui qui fait les choses à moitié, de façon spéciale: il ne fait que dégrader une corrélation quantique en corrélation classique, d'une manière qui n'est autre que la modélisation du processus de mesure de l'état d'un système par un appareil de mesure.
Dans ce cas, cela commence de la même manière: l'appareil de mesure devient corrélé au système observé, puis interagit avec son environnement. La différence est l'appareil de mesure est dotée d'une mémoire capable de préserver son information au lieu de la perdre en corrélation avec son environnement. Mais il ne préserve pas n'importe quel micro-état: il préserve uniquement les informations "classiques", c'est-à-dire certains découpages particuliers de son espace des phases, ce qui en théorie peut même être un découpage complet en micro-état; mais il ne préserve pas de découpages incompatibles: un micro-état qui serait non conforme au découpage préservé, autrement dit à cheval entre plusieurs classes (qui représentent les résultats de mesure), ne reste pas un micro-état de cette mémoire mais se perd en corrélation avec son environnement de la même manière que dans le cas précédent. C'est de cette manière que la corrélation quantique entre la mémoire de l'appareil de la mesure et le système observé, devient corrélation classique, et que l'on dit que la mesure a été effectuée et a subi une décohérence.

En pratique, lorsque l'environnement n'est pas à l'équilibre thermodynamique, il arrive spontanément que son défaut d'entropie se convertisse un grand nombre de fois en mesures du contenu de la mémoire, donc des copies de la même information classique corrélées entre elles. Cela constitue bien sûr un défaut d'entropie d'autant plus grand qu'il y a de copies de cette information. Un tel processus de copie de l'information classique inscrite dans la mémoire, autrement dit définie par un même découpage de l'espace des phases de cette mémoire, suffit à obliger à ce que soit perdu dans l'environnement comme indiqué plus haut, tout micro-état (ou toute mesure ou corrélation de la mémoire avec le système qui a été observé) qui soit incompatible avec ce découpage.


Retour