« Précis d'épistémologie/Entropie, matériaux désordonnés et démon de Maxwell » : différence entre les versions

Contenu supprimé Contenu ajouté
retour à la version antérieure. La nouvelle version est en cours de réflexion.
Balise : Révocation manuelle
Nouvelle version
Ligne 1 :
(en cours de réécriture)
 
== La réalité de l'entropie thermodynamique ==
 
Ligne 5 ⟶ 7 :
Du point de vue de la physique statistique, la réalité de l'entropie est pourtant un problème.
 
== Les trois définitions de lL'entropie statistique ==
 
La physique statistique nous demande de distinguer deux notions d'état pour un système physique, l'état microscopique, ou microétat, et l'état macroscopique, ou macroétat.
Ligne 15 ⟶ 17 :
Le macroétat n'évolue pas ou lentement et de façon en général déterministe. Le microétat change en général tout le temps, très rapidement et d'une façon aléatoire.
 
Il semble que lL'état réel d'un système est toujours son microétat. Le macroétat n'est qu'une description grossière qui ignore tous les détails microscopiques.
 
Sauf cas exceptionnel, on ne connaît jamais exactement le microétat d'un système macroscopique, parce qu'il faudrait connaître les états quantiques de tous ses constituants microscopiques, qui sont beaucoup trop nombreux pour être recensés, et la façon dont ils sont intriqués.
Ligne 35 ⟶ 37 :
L'entropie mesure le manque d'information sur le microétat d'un système, donc l'ignorance de l'observateur. Mais alors il semble qu'elle n'est pas une grandeur réelle puisqu'elle dépend de la façon dont l'observateur est informé. Faut-il en conclure que la thermodynamique a tort de postuler que l'entropie est une fonction d'état ?
 
Pour répondre il faut distinguer trois façons d'interpréter la définition mathématique de l'entropie à partir de l'ensemble des microétats possibles, parce qu'on peut donner trois définitions d'un microétat possible :
 
== La réalité de l'entropie statistique ==
* Un microétat accessible au système étudié. Tous les microétats accessibles peuvent être visités par le système lors de son cheminement aléatoire.
* Un microétat compatible avec les contraintes macroscopiques qui définissent le macroétat.
* Un microétat compatible avec l'information dont l'observateur dispose.
 
Cela conduit à trois formes d'entropie qui seront appelées sur cette page l'entropie d'accessibilité, l'entropie des contraintes et l'entropie d'information.
 
En général mais pas nécessairement, ces trois entropies sont égales parce que tous les microétats compatibles avec les contraintes macroscopiques sont accessibles, et parce que ces contraintes sont précisément l'information dont l'observateur dispose.
 
L'entropie d'accessibilité peut être plus petite que l'entropie des contraintes, parce qu'il se peut que le système soit empêché d'accéder à une partie des microétats compatibles avec les contraintes macroscopiques. En particulier, si <math>T=0</math> le système est bloqué dans l'un de ses microétats de plus basse énergie, donc le nombre de microétats accessibles <math>\Omega_A=1</math> mais les microétats de plus basse énergie peuvent être très nombreux. Le nombre de microétats compatibles avec les contraintes macroscopiques peut donc être beaucoup plus grand que 1, <math>\Omega_C \gg 1</math>. Avec <math>S= k_B \ln \Omega_A</math>, l'entropie d'un système à température nulle est toujours nulle, mais avec <math>S= k_B \ln \Omega_C</math> elle peut être très différente. Comme l'entropie de température nulle, qu'on appelle aussi l'entropie résiduelle, est une grandeur mesurable qui est parfois non-nulle, il ne faut pas ignorer la différence entre l'entropie d'accessibilité et l'entropie des contraintes.
 
L'entropie d'information peut être plus petite que l'entropie des contraintes ou que l'entropie d'accessibilité dès que l'observateur est informé sur des détails microscopiques. Elle peut être plus grande que l'entropie des contraintes lorsque l'observateur ne connaît pas toutes les contraintes macroscopiques que le système observé doit respecter.
 
Clairement l'entropie d'information dépend en général de l'observateur et n'est pas déterminée par l'état réel du système étudié. La physique statistique nous invite en revanche à considérer que l'entropie des contraintes est une grandeur réelle. Mais cela n'est pas du tout évident a priori, puisqu'elle est comme l'entropie d'information une mesure du manque d'information sur le microétat du système. L'entropie d'accessibilité semble beaucoup plus réelle, parce qu'elle dépend de l'espace des microétats qui peuvent être réellement visités.
 
L'entropie des contraintes est une sorte d'entropie d'information. C'est l'entropie d'information d'un observateur qui est informé des contraintes macroscopiques qui déterminent l'équilibre d'un système thermodynamique.
 
Pour justifier la réalité de l'entropie statistique on suppose en général que l'entropie des contraintes est égale à l'entropie d'accessibilité (Diu, Guthmann, Lederer, Roulet 1989). On suppose en outre que les grandeurs thermodynamiques mesurables peuvent être définies à partir de moyennes calculées sur l'ensemble de tous les microétats accessibles. Quand le microétat change tout le temps il est naturel de considérer une moyenne temporelle qui prend en compte ces variations. Mais ces justifications de la réalité de l'entropie statistique se heurtent à de nombreuses difficultés.
 
Les sections suivantes montrent que l'entropie thermodynamique n'est pas l'entropie d'accessibilité mais l'entropie des contraintes lorsqu'elles sont différentes, et qu'il faut raisonner sur l'entropie d'information pour comprendre l'impossibilité du mouvement perpétuel de seconde espèce.
 
== La réalité de l'entropie d'accessibilité ==
 
=== Ensembles statistiques, ergodicité et moyennes temporelles ===
Ligne 96 ⟶ 77 :
 
Le manque d'information sur l'état réel d'un système thermodynamique ne vient pas de la paresse ou de l'incompétence de l'observateur mais de la nature des phénomènes observés. Les expériences thermodynamiques laissent les systèmes observés atteindre ou s'approcher d'un équilibre. On ne contrôle qu'un petit nombre de grandeurs macroscopiques et on laisse l'équilibre s'établir en ignorant les microétats. Si on essayait de les connaître plus précisément, on pourrait empêcher le système de s'approcher de l'équilibre et on ne pourrait pas observer justement ce qu'on veut observer, l'équilibre ou la proximité de l'équilibre. Laisser le système vagabonder au hasard dans son espace de microétats est une condition nécessaire pour qu'on puisse observer un équilibre thermodynamique. Paradoxalement, l'ignorance des microétats, qui est une propriété subjective de l'observateur, est une condition nécessaire pour qu'un équilibre thermodynamique, un événement réel, objectif, puisse se produire. C'est pourquoi l'entropie, qui mesure un manque d'information, est une propriété matérielle objective. Elle est le manque d'information qui rend possible l'équilibre thermodynamique réellement observé.
 
== La différence entre l'entropie thermodynamique et l'entropie d'accessibilité ==
 
Un verre est un liquide figé. Plus précisément, c'est un liquide dont la viscosité est tellement élevée qu'on ne peut pas observer son écoulement, sauf sur des durées très longues, des jours, des siècles ou davantage. On peut donc le considérer comme un solide mais sa structure microscopique est aussi désordonnée que celle d'un liquide.
 
Lors de la transition liquide-verre, la variation de l'entropie thermodynamique est continue, donc l'entropie thermodynamique d'un verre est égale à celle du liquide à la même température. Mais l'entropie d'accessibilité est beaucoup plus petite, parce que le verre est bloqué dans une configuration particulière tandis que le liquide peut explorer toutes les configurations compatibles avec les contraintes macroscopiques.
 
L'existence des verres prouve donc que '''l'entropie thermodynamique est l'entropie des contraintes et non l'entropie d'accessibilité si elles sont différentes'''. L'entropie thermodynamique est donc une sorte d'entropie d'information. C'est l'entropie d'information d'un observateur qui est informé des contraintes.
 
L'entropie de température nulle est la différence entre l'entropie des contraintes et l'entropie d'accessibilité à <math>T=0</math>. Plus exactement elle est la limite de cette différence quand <math>T</math> tend vers zéro. Les matériaux qui ont une entropie de température nulle sont des solides désordonnés tels que les verres. L'entropie de température nulle est égale à <math>k_B \ln \Omega_D</math> où <math>\Omega_D</math> est le nombre de microétats compatibles avec les contraintes macroscopiques.
 
Qu'il faille compter des microétats qui ne sont pas visités par un système thermodynamique est a priori surprenant. Le manque d'information sur la configuration microscopique d'un solide désordonné dépend de l'observateur. Si nous observons les détails microscopiques d'une configuration, nous réduisons ce manque d'information. On est donc tenté d'affirmer que l'entropie thermodynamique devrait être l'entropie d'accessibilité et non l'entropie des contraintes si elle doit être une grandeur réelle. Mais il faudrait alors renoncer à la loi de non-décroissance de l'entropie puisque l'entropie d'accessibilité est réduite spontanément lors de la transition liquide-verre.
 
Pourquoi faut-il tenir compte de microétats qui ne sont pas visités par un système pour calculer correctement son entropie thermodynamique ?
 
Comme l'entropie mesure le manque d'information sur les microétats d'un système on est tenté de conclure que l'observation des détails microscopiques d'un solide désordonné devrait réduire son entropie. Mais alors l'entropie thermodynamique ne pourrait pas être une grandeur réelle, mesurable, la même pour tous les observateurs, elle ne serait rien d'autre qu'une entropie d'information arbitraire. Pourquoi alors l'entropie thermodynamique est-elle vraiment une grandeur réelle ?
 
Les deux problèmes ci-dessus sont étroitement liés. Pour les résoudre il faut comprendre que l'information peut être utilisée comme un carburant et que la thermodynamique nous demande de raisonner sur l'entropie d'information.
 
== L'information comme carburant ==
Ligne 181 ⟶ 144 :
Faut-il conclure qu'un démon de Maxwell peut réduire l'entropie totale ?
 
(...)
Un dispositif qui acquiert de l'information doit la mettre en mémoire pour pouvoir l'utiliser. Si on observe un désordre figé, le dispositif d'enregistrement de l'information reproduit dans sa propre mémoire le désordre figé observé. Par exemple des atomes à la surface d'un cristal peuvent servir à enregistrer de l'information. Un atome peut enregistrer un bit d'information s'il a deux positions possibles. 0 est mémorisé par l'atome à gauche par exemple et 1 par l'atome à droite. Si initalement tous les atomes de la mémoire sont bien rangés, tous à gauche ou tous à droite, ils ne le sont plus après l'observation d'un désordre figé. L'entropie de la mémoire a donc augmenté.
 
Affirmer que l'entropie d'une mémoire augmente lorsqu'elle enregistre des informations est très paradoxal. Pour un observateur qui enregistre des informations, l'entropie de sa mémoire n'augmente pas, parce qu'il n'ignore pas dans quel état est sa mémoire. C'est seulement pour un observateur extérieur, qui ne sait pas quelles informations ont été enregistrées, que l'entropie d'information de la mémoire non-observée augmente.
 
Pour résoudre le problème il faut comprendre que la remise à zéro d'une mémoire requiert en général de l'énergie. Pour le prouver on a d'abord besoin de la loi de conservation de l'entropie d'information d'un système isolé.
 
== La conservation de l'entropie d'information d'un système isolé ==
 
Si un système est isolé, son évolution spontanée conserve l'entropie d'information d'un observateur extérieur, c'est à dire que le nombre de microétats compatibles avec les informations d'un observateur extérieur ne change pas.
 
Cette loi est une conséquence du déterminisme hamiltonien de l'évolution d'un système isolé : des microétats distincts à un instant initial évoluent vers des microétats distincts à un instant ultérieur.
 
Si on calcule l'entropie d'information non avec le nombre de microétats mais avec une distribution de probabilités sur les microétats, la loi de conservation de l'entropie d'information d'un système isolé demeure parce que la distribution de probabilités sur les microétats finaux est la même que celle des états initiaux.
Lorsqu'un observateur acquiert des informations en observant un système, son entropie d'information peut diminuer mais le système observé n'est pas isolé.
 
Comme l'entropie thermodynamique est une sorte d'entropie d'information, la loi de conservation de l'entropie d'information d'un système isolé vaut aussi pour l'entropie thermodynamique. Comment alors se fait-il que l'entropie thermodynamique d'un système isolé puisse augmenter ?
 
== Pourquoi l'entropie peut-elle augmenter ? ==
 
L'entropie thermodynamique et plus généralement l'entropie d'information d'un système parfaitement isolé ne peuvent pas augmenter parce que sa dynamique est hamiltonienne. Un système dont l'entropie augmente ne peut donc pas être parfaitement isolé. Lorsqu'on raisonne en thermodynamique sur un système isolé dont l'entropie augmente, on veut seulement dire qu'il est quasi-isolé, c'est à dire que l'énergie échangée avec son environnement peut être négligée par rapport à son énergie interne. Les perturbations de l'environnement introduisent du hasard dans l'évolution du système. Elle suffisent pour que sa dynamique ne soit pas hamiltonienne mais stochastique (Diu, Guthmann, Lederer, Roulet 1989).
 
== Les calculs irréversibles réduisent-ils toujours l'entropie thermodynamique d'un ordinateur ? ==
 
Le raisonnement suivant suggère que les calculs irréversibles réduisent toujours l'entropie thermodynamique d'un ordinateur :
 
Lorsqu'un calcul est réversible, le nombre d'états finaux possibles est égal au nombre d'états initiaux possibles. Si le calcul est irréversible le nombre d'états finaux possibles est plus petit que le nombre d'états initiaux possibles. Un calcul irréversible permet donc de réduire le nombre d'états compatibles avec l'information disponible, et donc de réduire l'entropie d'information d'un ordinateur du point de vue d'un observateur extérieur qui n'est pas informé sur l'état de sa mémoire.
 
L'entropie d'information d'un système isolé ne peut pas décroître. Si l'observateur n'acquiert pas d'informations sur le système au cours de son évolution, l'entropie d'information ne peut décroître que si l'entropie thermodynamique décroît également. La thermodynamique impose qu'une telle réduction est accompagnée d'une augmentation d'entropie thermodynamique de l'environnement. Si l'entropie de l'environnement augmente parce qu'il absorbe de la chaleur, c'est qu'il a fallu fournir de l'énergie à l'ordinateur. On est ainsi conduit à une formule paradoxale : il faut travailler pour oublier. Plus précisément, il faut dépenser de l'énergie pour perdre des informations (Landauer 1961).
 
Mais il y a une faille dans le raisonnement précédent. On peut représenter un bit par l'état d'un gaz dans un récipient muni d'une paroi intérieure amovible. 0 est représenté par le gaz enfermé dans la partie gauche, 1 par le gaz également réparti à gauche et à droite. Retirer la paroi puis la remettre en place permet de faire un calcul irréversible :
 
<math>f ( 0 ) = f ( 1 ) = 1 </math>
 
Un calcul irréversible ne réduit donc pas forcément l'entropie thermodynamique d'un ordinateur.
 
Il suffit de se donner une condition supplémentaire pour prouver qu'un calcul irréversible réduit toujours l'entropie thermodynamique d'un ordinateur : les espaces de microétats qui font exister matériellement les divers états de la mémoire de l'ordinateur doivent être disjoints.
 
== Le démon de Maxwell et l'impossibilité du mouvement perpétuel de deuxième espèce ==
 
Pour un observateur extérieur qui n'est pas informé des observations faites par le démon, la diminution de l'entropie thermodynamique du système sur lequel le démon agit est compensée par l'augmentation de l'entropie d'information du démon. C'est pourquoi le démon ne réduit pas l'entropie totale.
 
Pour qu'un démon de Maxwell fasse un mouvement perpétuel, il faut qu'il réinitialise sa mémoire au commencement de chaque cycle afin de faire de la place pour enregistrer les informations sur le système qu'il observe. Mais la remise à zéro d'une mémoire est un calcul irréversible qui réduit son entropie thermodynamique. Cette réduction doit être compensée par une augmentation d'entropie thermodynamique de l'environnement. Si le démon réduit sa propre entropie en chauffant l'environnement, il faut lui fournir de l'énergie pour compenser cette perte de chaleur. C'est donc la remise à zéro de la mémoire du démon de Maxwell qui est la source ultime de l'impossibilité du mouvement perpétuel de deuxième espèce (Bennett 1982).
 
La mémoire du démon peut être remise à zéro sans dissipation de chaleur par un observateur qui la manipule de l'extérieur, mais alors il faut tenir compte de la mémoire de l'observateur qui elle aussi doit être remise à zéro pour commencer un nouveau cycle.
 
Si la mémoire du démon peut être remise à zéro sans réduire sa propre entropie thermodynamique, parce que les espaces de microétats qui réalisent les états de mémoire ne sont pas disjoints, c'est que l'enregistrement des observations requiert une réduction d'entropie thermodynamique, qui doit être compensée par une augmentation ailleurs.
 
Dans tous les cas un démon de Maxwell ne peut pas faire un mouvement perpétuel de deuxième espèce.
 
== La thermodynamique est une physique de l'observation ==
 
'''Pour comprendre la thermodynamique, il faut raisonner sur les trois formes d'entropie statistique''', l'entropie d'accessibilité parce qu'elle explique pourquoi un système quasi-isolé évolue vers l'équilibre en augmentant son entropie, l'entropie des contraintes parce qu'elle est l'entropie thermodynamique mesurée par les expérimentateurs, et l'entropie d'information parce qu'elle permet d'expliquer pourquoi un démon de Maxwell ne peut pas faire un mouvement perpétuel de seconde espèce.
 
L'entropie thermodynamique est une sorte d'entropie d'information, parce que c'est l'observateur qui est informé des contraintes macroscopiques qui déterminent un équilibre thermodynamique, mais cela ne l'empêche pas d'être une grandeur réelle, parce que les contraintes macroscopiques imposées par un observateur existent réellement.
 
'''La thermodynamique ne nous invite pas seulement à raisonner sur les propriétés de la matière, elle nous invite également à raisonner sur le rôle des observations.''' Mais c'est toujours de la physique, parce que les observateurs sont réels eux aussi.
 
== Compléments ==
Ligne 249 ⟶ 156 :
Pour qu'un tel moteur puisse fonctionner il faudrait pouvoir séparer un corps dont la température est uniforme en deux parties, l'une plus chaude, l'autre plus froide. Mais c'est interdit par la seconde loi de la thermodynamique parce que cela réduirait l'entropie totale. L'impossibilité du mouvement perpétuel de seconde espèce résulte donc de la loi de non-décroissance de l'entropie totale, la seconde loi de la thermodynamique.
 
=== Croissance de l'entropie d'accessibilitéstatistique et distribution microcanonique ===
 
Les <math>n</math> sont tous les états accessibles d'un système presque isolé, c'est à dire que les perturbations par l'environnement ne modifient pas ou presque pas l'énergie du système. <math>T_{np}</math> est la probabilités de transition par unité de temps de l'état <math>p</math> à l'état <math>n</math>. On suppose que toutes les évolutions microscopiques sont ''réversibles'' :
Ligne 296 ⟶ 203 :
et la distribution n'est pas à l'équilibre.
 
=== La réalité de la croissance de l'entropie d'accessibilitéstatistique ===
 
Le théorème de croissance de l'entropie d'accessibilité est prouvé d'une façon mathématiquement rigoureuse pour un ensemble statistique qui n'a pas d'existence réelle. <math>P_n(t)</math> définit la probabilité d'occupation de l'état <math>n</math> à l'instant <math>t</math> pour tous les systèmes d'un immense ensemble imaginé par les théoriciens. Elle décrit l'évolution de cet immense ensemble, pas l'évolution d'un système physique réel. Mais sous des conditions très générales, on peut interpréter les <math>P_n(t)</math> comme des probabilités vraiment mesurables, et comparer ainsi leur évolution aux quantités observées.
 
On suppose que l'évolution macroscopique du système est lente par rapport aux fluctuations microscopiques. L'environnement de chaque constituant microscopique est alors presque constant sur une durée suffisante pour qu'il explore son espace d'états et définisse ainsi des probabilités d'occupation de ces états. Pour chaque constituant microscopique <math>i</math> on peut donc définir des probabilités <math>P_{im}(t)</math> d'occupation de ses états <math>m</math> et en principe les mesurer. Si on suppose que tous les constituants microscopiques sont statistiquement indépendants, ces <math>P_{im}(t)</math> suffisent pour définir les probabilités <math>P_n(t)</math> de tous les états <math>n</math> du système macroscopique.
 
=== Désordre figé et décroissance spontanée de l'entropie d'accessibilité ===
 
Lors de la transition liquide-verre, l'entropie d'accessibilité totale du liquide et du bain thermique qui le refroidit diminue. La diminution d'entropie d'accessibilité du verre n'est pas compensée par l'augmentation d'entropie d'accessibilité du bain thermique. Il semble donc que le théorème de croissance de l'entropie d'accessibilité est transgressé, alors qu'il est prouvé rigoureusement sous des conditions très générales. Mais lorsque le verre s'est figé dans un configuration désordonnée, les autres configurations restent théoriquement accessibles. Il y a une probabilité négligeable mais non-nulle que le bain thermique cède brièvement une partie de sa chaleur qui permettrait au verre d'être à nouveau liquide puis de redevenir verre dans une autre configuration désordonnée. Toutes les configurations sont donc en principe toujours accessibles, mais en pratique le verre reste figé dans une seule. Le théorème de croissance de l'entropie d'accessibilité considère que l'espace des états accessibles ne change pas. Il ignore la possibilité que des microétats deviennent en pratique inaccessibles.
 
=== L'entropie est une grandeur extensive lorsque les parties sont statistiquement indépendantes ===