Insieme microcanonico: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: E'->È |
Funzionalità collegamenti suggeriti: 2 collegamenti inseriti. |
||
(77 versioni intermedie di 48 utenti non mostrate) | |||
Riga 1:
[[
1) "postulato dell'uguale probabilità a priori": quando un [[sistema isolato]] è in [[equilibrio termodinamico]], il suo stato può essere qualunque tra quelli che soddisfano le condizioni macroscopiche del sistema, ognuno con la stessa probabilità.
2) [[Ipotesi ergodica]]: la media nel tempo di una certa proprietà termodinamica è uguale alla media di tale proprietà su tutti gli elementi dell'insieme.
In pratica ciò che è utile in meccanica statistica, non è accertare lo stato per ogni istante, ma solo le sue proprietà macroscopiche; inoltre non è utile (oltre che impossibile) risolvere le [[Meccanica hamiltoniana|equazioni hamiltoniane]] delle <math>N</math> particelle che compongono il nostro sistema. L'ensemble microcanonico permette di correlare la [[termodinamica]] alle proprietà statistiche microscopiche di un corpo. Per fare ciò, si considera un sistema chiuso di <math>N</math> particelle e volume <math>V</math>, che ha energia ben definita e costante <math>E</math>. L'energia è compresa tra <math>E \ </math> e <math>E+\Delta E \ </math>, dove <math>\Delta E \ll E</math>, dal momento che non può essere definita con esattezza.
== Descrizione nello spazio delle fasi ==
Si considera lo [[spazio delle fasi]] come lo spazio <math>6N</math>-dimensionale, i cui assi sono tutte le <math>3N</math> [[Coordinate generalizzate|coordinate]] e i <math>3N</math> impulsi coniugati: ogni punto dello spazio delle fasi rappresenta uno stato del sistema in questione. Col passare del tempo il '''punto rappresentativo del sistema''' si muove nello spazio delle fasi e descrive una traiettoria, passando per un numero praticamente infinito di stati: questa traiettoria giace su una superficie (o meglio un'[[ipersuperficie]]) che è la superficie identificata dall'energia <math>E = \mathcal{H}(p,q)</math>, dove <math>\mathcal{H}</math> è l'[[Meccanica hamiltoniana#Hamiltoniana ed equazioni di Hamilton|hamiltoniana]] del sistema.
Assegnando quindi <math>E</math> ed <math>E + \Delta E</math>, assegniamo due superfici molto vicine nello spazio delle fasi, sulle quali il nostro sistema descrive una traiettoria. È da notare che le condizioni fissate di energia sono soddisfatte da un numero infinito di stati compatibili con essi: questo significa che possiamo pensare di rappresentare il sistema come un'infinità di copie identiche del sistema ad un certo istante, ognuna delle quali è uno stato compatibile con le condizioni macroscopiche imposte al sistema: questo è quello che si intende per '''ensemble di Gibbs'''. Esso è rappresentato da un insieme di punti nello spazio delle fasi caratterizzato da una funzione densità <math>\rho(q,p,t)</math> definita in modo che
:<math>\rho (q,p,t) d^{3N}q d^{3N}p \ </math>
rappresenti il numero dei punti rappresentativi del sistema contenuti nel volume infinitesimo dello spazio delle fasi <math>d^{3N} q d^{3N} p</math> all'istante <math>t</math>. Come sappiamo dal [[Teorema di Liouville (meccanica hamiltoniana)|teorema di Liouville]] tale densità si deforma nello spazio delle fasi, mantenendo il suo volume, cioè segue un'[[equazione di continuità]] di tipo [[Idrodinamica|idrodinamico]].
Seguendo il postulato dell'uguale probabilità a priori, si evince che la funzione densità classica deve essere del tipo:
:
\end{matrix}\right.
</math>
Un altro modo di scrivere in modo generale
:<math>\rho (p,q) = C \cdot \delta(E - H)</math>
facendo intervenire la funzione [[delta di Dirac]], vediamo che questa densità è diversa da zero solo in prossimità dell'energia <math>H</math> assegnata e zero altrove. Tale funzione densità deve essere normalizzata:
:<math>\int d^{3N} p d^{3N} q \rho (p_i q_i) = C \int_{E \le \mathcal{H} \le E + \Delta E} d^{3N} q d^{3N} p = 1</math>
La conoscenza della funzione densità permette di ricavare tutte le informazioni macroscopiche del sistema. Definiamo <math>\Gamma(E)</math> (vedi figura): il ''volume dello spazio delle fasi occupato dall'ensemble microcanonico'' come:
:
oppure definiamo <math>\Sigma (E)</math> come il ''volume dello spazio delle fasi al di sotto della superficie di energia E'' come:
:
e quindi:
:
oppure ancora definiamo ''la densità degli stati con energia <math>E</math>'':
:
in modo che:
:
Allora l'[[Entropia (termodinamica)|entropia]]
:
dove <math>k_{B} = 1.38 \cdot 10^{-23} \, J/K</math> è la [[costante di Boltzmann]], questa rappresenta la connessione tra la meccanica statistica e la termodinamica.
== Conteggio del numero dei microstati ==
Come abbiamo detto consideriamo un ensemble microcanonico costituito da <math>\mathcal N</math> copie identiche del sistema chiuso ognuna di esse identificata da grandezze macroscopiche <math>E,V,N</math>. Ognuno di questi sistemi si trova in un microstato identificato da <math>(q_i, p_i)</math> dello spazio delle fasi, diversi uno dall'altro, ma tutti si trovano sulla superficie di energia E. Dividiamo la ipersuperficie dello spazio delle fasi corrispondente al valore di energia E in tante celle di uguale grandezza <math>\Delta \sigma_i</math>. In ognuna di queste celle si trovano in generale <math>n_i</math> sistemi per cui:
:<math>\mathcal N = \sum_i n_i</math>
Il numero <math>n_i</math> rappresenta proprio il peso del corrispondente microstato nell'ensemble. La quantità <math>p_i = n_i / \mathcal N</math> può essere interpretata come la probabilità che il microstato i si trovi nella cella <math>\Delta \sigma_i</math>. Questa quantità corrisponde esattamente alla <math>\rho d^{3N} q d^{3N} p</math> nella formulazione precedente cioè considerando i punti nello spazio delle fasi talmente densi da essere continui.
Per definire il sistema dobbiamo trovare la distribuzione degli <math>n_i</math> microstati più probabile. Quindi dobbiamo essere in grado di conteggiare il numero totale di modi in cui possiamo ottenere una certa configurazione (macrostato) <math>\{n_1, n_2, \dots\}</math> degli <math>\mathcal N</math> sistemi. Ognuna di queste configurazioni è ottenibile in:
:<math>W\{ n_i \} = \frac{\mathcal N !}{\prod_i n_i !}</math>
modi diversi. Ora però dobbiamo pesare ognuna di queste configurazioni secondo la probabilità <math>\omega_i</math> di trovare esattamente <math>n_i</math> sistemi in <math>\Delta \sigma_i</math> e tale probabilità è <math>(\omega_i)^{n_i}</math>. La distribuzione totale di probabilità è quindi:
:<math>W_{tot} \{ n_i \} = \mathcal N ! \prod_i \frac{(\omega_i)^{n_i}}{n_i !}</math>.
Per ottenere la distribuzione più probabile <math>\{ n_i \}^*</math> sappiamo essere quella per cui <math>W_{tot}</math> è massima. Usiamo convenientemente il logaritmo e approssimiamo con la formula di Stirlng per i fattoriali <math>\ln n! \approx n \ln n - n</math>, quindi massimizziamo:
:<math> \begin{align} \ln W_{tot} &= \ln \mathcal N! + \sum_i (n_i \ln \omega_i - \ln n_i!) \\ &=
\mathcal N \ln \mathcal N - \mathcal N + \sum_i (n_i \ln \omega_i - [n_i \ln n_i - n_i]) \end{align}</math>.
Per massimizzare deve essere:
:<math>d \ln W_{tot} = - \sum_i (\ln n_i - \ln \omega_i) dn_i = 0 \ </math>
Questo è un problema vincolato che si risolve con il metodo di Lagrange e un moltiplicatore di Lagrange <math>\lambda</math> sul numero totale di particelle:
:<math>d \ln W_{tot} = -\sum_i (\ln n_i - \ln \omega_i - \lambda) d n_i = 0 \ </math>
L'unico modo per ottenere l'annullamento dell'equazione sopra è che:
:<math> \ln n_i - \ln \omega_i - \lambda = 0 \, \, \Rightarrow \, \, n_i = \omega_i e^{\lambda} = cost </math>
Ora questa ci dice che il numero di sistemi negli elementi di superficie <math>\Delta \sigma_i</math> è proporzionale alla probabilità <math>\omega_i</math> di trovare un sistema in un elemento suddetto. Quindi è chiaro che <math>\omega_i</math> è proporzionale a <math>\Delta \sigma_i</math>, per cui il postulato di eguale probabilità a priori è plausibile: come sopra per lo spazio delle fasi <math>\rho</math> rappresenta la probabilità di trovare un sistema nell'elemento dello spazio delle fasi <math>d^{3N}p d^{3N}q</math> allora <math>p_i = n_i / \mathcal N</math> è la probabilità di trovare un sistema dell'ensemble nel microstato <math>i</math>.
Siamo in grado di riesprimere la (1) come:
:<math>\, \, \rho (p,q) = \left\{\begin{matrix} 1/\Gamma(E) & \mbox{per} \, E < \mathcal{H}(p,q) < E+\Delta E \\ 0 & \mbox{altrove}
\end{matrix}\right.
</math>
e quindi la connessione con la termodinamica tramite la:
:<math>S(E,V,N) = k_B \ln \Gamma(E,V,N) \ </math>.
== Entropia ed ensemble microcanonico ==
{{Vedi anche| Entropia}}
L'entropia definita nella (7), ha un valore ben definito in un sistema in equilibrio termodinamico: questa proprietà si esprime dicendo anche che l'entropia è un [[differenziale esatto]]. Poiché <math>\Gamma (E)</math> rappresenta il volume dello spazio delle fasi con l'imprecisione di <math>\Delta E</math>, anche l'entropia assume lo stesso significato, essa rappresenta una misura dell'imprecisione della conoscenza del sistema. Se un sistema è in non equilibrio, col passare del tempo esso tende spontaneamente all'equilibrio (si considerano solo sistemi che raggiungono l'equilibrio), cioè i vari stati compatibili con le condizioni macroscopiche tendono allo stato di equilibrio, che è lo stato più probabile, passando cioè per stati sempre più probabili: questo vuol dire che <math>\Gamma (E)</math> diventa via via più grande fino al suo massimo valore per lo stato di equilibrio, di conseguenza ''l'entropia per uno stato di equilibrio è massima'', questa è anche detta ''legge dell'aumento dell'entropia'' o [[Secondo principio della termodinamica]].
Ricordiamo che l'entropia per come è definita è una quantità additiva come in termodinamica ed è una funzione non decrescente, cioè dati due sottosistemi di energia <math>E_1</math> ed <math>E_2</math>, e trascurando l'interazione tra essi, l'hamiltoniana totale è:
Riga 64 ⟶ 116:
per cui l'entropia totale del sistema:
:<math>S = k \cdot \
Si può dimostrare che l'entropia si può definire alternativamente:
:<math>S = k \cdot \
:<math>S = k \cdot \
Formalmente basta scrivere:
:<math>\begin{align} S (E, V, N) &= \int_{E \le \mathcal H \le E + \Delta E} d^{3N} q d^{3N}p \rho (- k_B \ln \rho) \\
&= \int_{E \le \mathcal H \le E + \Delta E} d^{3N}q d^{3N} p \frac{1}{\Gamma} \left(-k_B \ln \frac{1}{\Gamma} \right) \\ &= \frac{1}{\Gamma} k_B \ln \frac{1}{\Gamma} \int_{E \le \mathcal H \le E + \Delta E} d^{3N}q d^{3N} p \\ &=
\frac{1}{\Gamma} k_B \ln \Gamma \cdot \Gamma = k \ln \Gamma \end{align}</math>
o equivalentemente una delle definizioni sopra.
== Deduzione della termodinamica ==
{{Vedi anche|Relazioni di Maxwell}}
Abbiamo visto che dall'entropia possiamo ricavare naturalmente il secondo principio della termodinamica. Ora cerchiamo tutte le altre relazioni termodinamiche per il microcanonico, nel quale sono fissati il numero di particelle <math>N</math>, il volume <math>V</math> e l'energia <math>E</math>. La variazione di entropia per una trasformazione che sia [[Trasformazione quasistatica|quasi-statica]], cioè sufficientemente lenta in modo da poter supporre che il sistema passi solo attraverso stati di equilibrio successivi:
:<math>dS (E,V,N) = \left(\frac{\partial S}{\partial E} \right)_{V,N} \cdot dE + \left(\frac{\partial S}{\partial V} \right)_{E,N} \cdot dV + \left(\frac{\partial S}{\partial N} \right)_{E,V} \cdot dN</math>
Definiamo allora la [[temperatura assoluta]]:
:
la [[pressione]]:
:
e il [[potenziale chimico]]:
:
Di conseguenza la (8) diventa:
:
ossia:
:
che rappresenta il [[Primo principio della termodinamica]] (per ritrovare la formula più nota alla termodinamica <math>dU \equiv dE</math>). Infatti fissato il numero di particelle, l'ultimo termine è nullo, il primo termine invece rappresenta la variazione di [[energia interna]] per pressione e volume costanti:
:
cioè il [[calore]] dovuto a variazione della temperatura. Il secondo termine rappresenta la variazione di energia interna causata dagli agenti esterni:
:
cioè il [[lavoro]] fatto sul sistema dagli agenti esterni.
Riga 112 ⟶ 170:
Possiamo introdurre tutti potenziali termodinamici, per cui, l'[[energia libera di Helmholtz]]:
:
e l'[[energia libera di Gibbs]]:
:
== Ensemble microcanonico in meccanica statistica quantistica ==
In [[meccanica quantistica]] uno stato del sistema <math>|\psi \rangle</math> viene descritto da una [[funzione d'onda]] nello [[spazio di Hilbert]], in generale a infinite dimensioni. La funzione d'onda descrive completamente uno stato del sistema. La funzione d'onda <math>\psi</math> di un sistema può essere espressa come [[combinazione lineare]] di un insieme ortonormale e completo di autofunzioni <math>\phi_n</math> cioè:
:<math>\psi = \sum_n c_n \phi_n \ </math>
dove <math>c_n</math> sono coefficienti complessi, il cui modulo quadro rappresenta una probabilità. Le grandezze fisiche del sistema si chiamano osservabili e in accordo con l'interpretazione probabilistica della meccanica quantistica, sono rappresentati da un operatore il cui valore medio fornisce il valore più probabile per la grandezza fisica in questione:
Riga 134 ⟶ 191:
sono gli elementi di matrice dell'operatore <math>\hat f</math>. Vediamo come l'ensemble microcanonico sia immediatamente trasportabile nella [[meccanica statistica quantistica]]. In generale il valore medio di una grandezza fisica in meccanica statistica deve essere calcolato in base al fatto che non conosciamo i coefficienti <math>c_n</math> dello sviluppo della funzione d'onda o almeno non li conosciamo tutti. Questo implica che al posto del prodotto <math>c_{n}^{*} c_m</math> dobbiamo inserire la matrice <math>\omega_{nm}</math> intesa come matrice statistica, cioè la matrice che ha come elementi le probabilità dei coefficienti <math>c_n</math>. In tal caso:
:<math>\bar f = \sum_{n} (\hat \omega \hat f )_{nn} = Tr (\hat \omega \hat f)</math>,
dove per <math>Tr</math> si intende la [[traccia (matrice)|traccia]] dell'operatore. Consideriamo un sistema composto da N particelle in un volume V e la sua energia si trovi in un intervallo <math>E, E+\Delta E</math> con <math>\Delta E \ll E</math>.
Sia <math>H</math> l' :<math>H \phi_n = E_n \phi_n \ </math>.
:<math>\hat \rho = \left\{\begin{matrix} 1 & E < E_n < E + \Delta E \\
0 & \text{altrove} \end{matrix} \right.</math>
e che la funzione d'onda completa del sistema:
:<math>\Psi = \sum_n b_n \phi_n \ </math>.
dove:
:<math>|b_n|^2 = \rho \ </math>.
:<math>\langle f \rangle = \frac{\sum_n |b_n|^2 \langle |f| \rangle}{\sum_n |b_n|^2}</math>.
La matrice densità non è altro che:
Riga 163 ⟶ 221:
con elementi dati da:
:<math>\rho_{mn} = \delta_{mn} |b_n|^2 \ </math>.
Per l'ensemble microcanonico si assume:
:<math>|b_n|^2 = \left\{\begin{matrix} \text{cost} & E < E_n < E + \Delta E \\
0 & \text{altrove} \end{matrix} \right. </math>
Il numero di stati la cui energia è compresa tra <math>E, E+ \Delta E</math> è dato da:
:<math>\sum_n \rho_{nn} = \Gamma (E) \ </math>.
Per sistemi macroscopici, lo spettro di energia è continuo e quindi possiamo scrivere:
:<math>\Gamma (E) = \omega (E) \cdot \Delta E</math>,
dove <math>\omega (E)</math> è la [[densità degli stati]] all'energia E. L'entropia si può ottenere da:
:<math>S(E,V) = k \cdot \
e questa definizione non porta al [[paradosso di Gibbs]]. Da questa definizione di entropia possiamo ricavare tutte le grandezze termodinamiche.
== Bibliografia ==
* {{cita libro|autore=[[Kerson Huang]]|titolo=Meccanica statistica|editore=[[Zanichelli]]|città=Bologna|anno=1997|ISBN=978-88-08-09152-9}}
* {{cita libro|cognome1=Landau|nome1=L.|wkautore1=Lev Davidovič Landau|cognome2=Lifshitz|nome2=E.M.|wkautore2=Evgenij Michajlovič Lifšic|titolo=Fisica statistica|editore=Editori Riuniti Univ. Press|anno=2010|ISBN=978-88-64-73206-0}}
== Voci correlate ==
*[[Teorema di Liouville (meccanica hamiltoniana)|Teorema di Liouville]]
* [[Entropia (termodinamica)]]
* [[Insieme Canonico]]
* [[Insieme gran canonico]]
* [[Paradosso di Gibbs]]
* [[Gas ideale monoatomico (meccanica statistica)]]
* [[Gas perfetto biatomico (meccanica statistica)]]
* [[Termodinamica]]
* [[Teorema di equipartizione dell'energia]]
* [[Meccanica statistica quantistica]]
== Collegamenti esterni ==
* {{Collegamenti esterni}}
{{Meccanica statistica}}
{{Portale|meccanica}}
[[Categoria:Meccanica statistica]]
|