Le second principe de la thermodynamique
La naissance du second principe repose sur les épaules de Sadi Carnot, mais c'est à Clausius que l'on doit le
second principe et le concept d'entropie .
A la différence de l'énergie qui est un concept issu de la mécanique, l'entropie
est, lors de sa création, un concept entièrement nouveau.
Sans trop simplifier, on peut dire, en l'absence de tout formalisme mathématique,
que la notion d'entropie a été créée pour interpréter le fait que la chaleur circule
toujours du chaud vers le froid, et que la chaleur ne peut jamais circuler de la source
froide vers la source chaude.
La principale conséquence de la manipulation du concept d'entropie est que cette
grandeur ne fait que croître au cours des tranformations physico-chimiques naturelles. Il
s'agit donc de la première grandeur qui permet d'interpréter, dans le cadre d'une
théorie physico-chimique, la flèche du temps.
Naissance du concept d'entropie
En travaillant sur des cycles de Carnot, Clausius met en évidence que pour un cycle,
la grandeur sur un formule lui permet d'écrire :
|
dQrev |
= 0 |
T |
Ce qui l'amène à introduire une nouvelle grandeur, S, l'entropie qui
ne dépend que de deux états, un état initial EI et un état final EF, et ainsi :
SEF - SEI = |
|
dQrév |
T |
Que l'on pourra aussi écrire en notation différentielle :
Expression du second principe
Il existe de nombreuses façon d'énoncer le second principe. La première est celle de
Clausius qui dit que :
" La chaleur ne peut passer spontanément d'un corps froid vers un corps chaud
sans compensation."
Le second énoncé, dû à Lord
Kelvin est :
" Il est impossible de construire un système, comme un moteur, qui décrit un
cycle complet et qui convertit la chaleur en travail mécanique, à partir d'une seule
source de chaleur".
Entropie interne et entropie d'échange
Le second principe a permis d'élucider un certains nombre de phénomènes mas s'est
retrouvé limité dans certains situations : comment expliquer, en se basant que le
principe que le désordre augmente en permnance, qu'il existe des systèmes
auto-organisés, comme, par exemple, les êtres vivants.
Pour répondre à cette apparente exception au second principe, il a été
indispensable de dissocier les concepts d'entropie interne, dSi
(ou entropie produite), et d'entropie externe, dSe(ou
entropie d'échange).
L'expression élementaire de l'entropie devient :
dS = dSe + dSi
L'existence du terme dSi résulte de l'apparition
de l'irréversibilité dans la transformation physico-chimique.
|
dQirrev |
< 0 |
T |
Entropie statistique
On doit à Boltzmann une
interprétation statistique de l'entropie basée sur le fait que pour un système isolé
à l'équilibre, tous les états microscopiques ont la même probabilité, appelée
hypothèse microcanonique :
S = k ln W
S est l'entropie du système, k est la contante
de Boltzmann définie comme R = k.NA où R est la constante des gaz
parfaits et NA le nombre d'Avogadro, et W est le
nombre de complexion, et W est le nombre d'état microscopique.
On peut calculer W comme le nombre de façons de regrouper deux
sous-systèmes constitués de N1 et N2 particules, le nombre de
possibilité de répartir les N1 + N2 particules étant :
Bibliographie
- Locqueneux R. - Préhistoire et histoire de la thermodynamique
classique, une histoire de la chaleur - Cahiers dHistoire et de Philosophie des
Sciences, Société Française d'Histoire des Sciences et des Techniques, Lib. A.
Blanchard diff., 1997, p. 222-237.