« Mécanique, enseignée via l'Histoire des Sciences/L'information » : différence entre les versions

Contenu supprimé Contenu ajouté
Aucun résumé des modifications
Ligne 1 :
<noinclude>{{Mécanique, enseignée via l'Histoire des Sciences}}</noinclude>
 
Une digression importante est la notion d''''information'''.
 
''A priori'', dans un système dynamique sans bifurcation, la neg-information ou entropie (notée $ )est nulle.
Mais il est des cas où une sensibilité aux conditions initiales donne une floppéeflopée d'orbites largement différentes dans l'espace des phases. Tout en restant déterministe, le système devient imprédictible. Le raisonnement "à la Gibbs" redonne cohérence à une approche thermodynamique, à priori très éloignée de la mécanique.
 
Sans vouloir prétendre à autre chose qu'une '''introduction à la notion d'information''', cette digression sera bien utile lors de la présentation des systèmes dynamiques.
Ligne 33 ⟶ 35 :
 
 
{{exemple|EnoncéÉnoncé|Entropie de SHANNON|<math>\ \$ = - \Sigma p_i \cdot log_2 p_i </math>}}
 
 
Ligne 84 ⟶ 86 :
=== Description d'un Système à l'équilibre ===
 
*Un système thermodynamique est composé d'un grand nombre de particules ( typiquement pour une mole N ~ 6.10^23). L'espace des phases est donc de dimension 6N. Or, la connaissance de l'état d'équilibre MACROSCOPIQUE n'exige que la connaissance de v grandeurs macroscopiques ( Principe zéro de la thermostatique sur l'existence de la variance v ; pour un gaz pur , v= 2). Souvent le choix se porte sur le couple {volume V et énergie interne E}
 
*Cependant, on sait bien en mécanique quantique,qu'à un niveau d'énergie E correspond une multiplicité d'états g(E). Citons deux exemples classiques :
Ligne 103 ⟶ 105 :
===Mise en contact thermique ===
*Si on place en ''contact thermique'' deux systèmes S1 et S2 ( le tout isolé) , alors les états accessibles seront tous les états des niveaux E1 et E2 tels que E1+E2 = E et nous admettrons :
*'''Postulat d'équiprobabilité''' : tous ces microétatsmicro-états ont une égale probabilité d'être réalisés.
*Alors il en résulte que la proba pour que S1 possède l'énergie E1 ( donc S2 l'énergie E-E1)est :
 
p(E1) ~ <math>\Omega_1(E_1) \cdot \Omega_2(E-E_1)</math>.
 
soit une fonction extrèmementextrêmement pointue, dont le sommet se situe à une abscisse E1* telle que :
 
<math>\frac{\partial Ln\Omega_1}{\partial E_1} = \frac{\partial Ln\Omega_2}{\partial E_2}</math>
Ligne 131 ⟶ 133 :
Ce dernier terme n'intervient que si la "particule" révèle par analyse plus fine des degrés de liberté internes observables, dont la prise en compte doit alors s'intégrer à N(E) donc <math>\Omega</math>.
 
=== Conclusion :{{exemple|EnoncéÉnoncé|DéfintionDéfinition de Boltzmann|<math> \ S = k \cdot Ln \Omega(E,V,N) </math>}}===
 
==Interprétation du second principe==
Dans le cadre de cette interprétation de l'entropie, le principe d'évolution n'a plus qu'un caractère probabiliste.
 
Reprenons l'exemple-type de l'expriencel’expérience de Joule&Gay-Lussac : 2 compartiments égaux, contenant p particules dans C1 et N-p dans C2 aurait une réalisation C(N,p) , correspondant à une entropie S0 + k Ln C(n,p) : cet état sera "extrèmementextrêmement beaucoup moins" probable que le cas C(N, N/2); la loi de probabilité est semblable à une gaussienne de largeur très grande en sqrt(N) , mais de '''largeur relative''' en 1/sqrt(N): très petite.
 
Le deuxième principe s'énonce maintenant :
 
 
{{exemple|EnoncéÉnoncé|deuxième principe de Boltzmann|<math> Il \cdot est\cdot extremementextrêmement \cdot peu \cdot probable \cdot que\cdot l \cdot entropie \cdot d \cdot un \cdot systeme\cdot isole \cdot decroissedécroisse </math>}}
 
==Illustrations==
Ligne 161 ⟶ 163 :
* Voici plus fascinant: Pomérantchuk étudiant l'hélium III dégénéré a remarqué que cette fois la variation d'entropie est négative (-R Ln2)! donc il faut chauffer le liquide pour qu'il devienne solide ! Cela est compréhensible : à très basse température le liquide fermionique dégénéré occupe un seul état : <math>\Omega</math> = 1 . Pour le solide, les atomes localisés ont un spin quelconque ( sans champ magnétique), <math>\Omega</math>= 2^N ( cf pb ensParis 1980, Claire Lhuillier).
 
* ''Last but not least '', le calcul de C(N) pour les gaz parfaits n'est autre que le calcul de la classique constante de Sackur-Tetrode. On retrouve l'entropie de l'Argon_computer à 3ChS.
 
===la boule B(n)===
Ligne 183 ⟶ 185 :
#b(8) = Pi^4/6.4 = Pi^4/4!
 
Et voilà : à partir de n= 3,4 le nombre b(n) qui croîssaitcroissait décroît : Pi/p est supérieur à 1 si p=3, mais inférieur à 1 si p=4 !
 
et la somme des b(2p) = exp(Pi) !
Ligne 192 ⟶ 194 :
L'idée est maintenant celle-ci (due à Manin ?) :
 
Quand n devient très très grand, il faut compter le nombre de solutions de l'inéquation sur les entiers naturels : a^2 + b^2 +c^2 + ... n fois < E^2 : ce nombre est W(2,E) quand E est TRESTRÈS grand et n est TRESTRÈS grand aussi ( évidemment E^2 >>> n ) : ce problème est relié aux nombres de Waring.
 
=== les C(n,p)===
Ligne 203 ⟶ 205 :
#Souvent on considère : C(2n, n-k) avec k < sqrt(n) : alors, cela revient à dire x = 1/2 -eps avec eps = k/2n tout petit.Au total, on va retrouver la Gaussienne.
 
Cet exercice est TRESTRÈS important ; car il fonde la thermodynamique [[ cf exercice : trouver la position du centre de gravité d'un gaz dans une boîte ( il serait amusant de le poser sur le disque , ou sur la sphère , etc. bigre : sur la surface du cube ... ? ) .
 
réflexions issues du Combinatorial_issues.