Meccanica statistica: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
 
(60 versioni intermedie di 38 utenti non mostrate)
Riga 1:
In[[File:Gibbs-Elementary principles in statistical mechanics.png|thumb|Frontespizio di ''Elementary principles in statistical mechanics'' di [[fisicaJosiah Willard Gibbs|J. Willard Gibbs]], la1902]]La '''meccanica statistica''' è l'applicazionela branca della [[teoria della probabilitàfisica]], che includeutilizza strumentila [[matematica|matematicistatistica]] pere gestirela insiemi[[teoria formatidella daprobabilità]] numerosiper elementi,lo alstudio del comportamento [[Meccanica (fisica)|meccanico]] e [[termodinamica|termodinamico]] di sistemi composti da un grandegran numero di [[particella (fisica)|particelle]]. LaDa meccanicatale statisticaapproccio forniscederiva unanche modellola per''termodinamica collegarestatistica''. leStoricamente, proprietàin seguito all'introduzione nella disciplina dei singoliconcetti della [[atomimeccanica quantistica]], eviene molecoleusato alleanche proprietàil macroscopichetermine del''meccanica sistemastatistica da essi compostoquantistica''.
 
Da un punto di vista classico lo studio di un sistema con <math> N
Da un punto di vista classico lo studio di un sistema con ''N'' particelle non interagenti richiede la soluzione di ''N'' [[equazione differenziale|equazioni differenziali]], che descrivono il moto di ogni particella. Quando il numero di particelle è molto grande, dell'ordine del [[numero di Avogadro]], la meccanica statistica permette di poter caratterizzare il sistema attraverso grandezze macroscopiche, come il [[calore]], l'[[energia libera]], la [[pressione]] o il [[volume]].
</math> particelle non interagenti richiede la soluzione di ''<math> N
Da un punto di vista classico lo studio di un sistema con ''N'' particelle non interagenti richiede la soluzione di ''N</math>'' [[equazione differenziale|equazioni differenziali]], che descrivono il moto di ogni particella. Quando il loro numero di particelle è molto grande, dell'ordine deldella [[numerocostante di Avogadro]], la meccanica statistica, permettefornendo diun potermodello caratterizzareper ilcollegare le proprietà delle particelle, siano singoli [[Atomo|atomi]] o [[Molecola|molecole]], alle proprietà macroscopiche del sistema, permette di caratterizzarlo attraverso grandezze macroscopiche, come illa [[caloretemperatura]], l'[[energia libera]], la [[pressione]] o il [[volume]].
 
== Il postulato dell'equiprobabilità a priori ==
Riga 9 ⟶ 11:
Questo postulato è una premessa fondamentale in meccanica statistica – stabilisce infatti che un sistema isolato in equilibrio non ha nessuna preferenza per nessuno dei suoi microstati possibili. Dati <math>\Omega</math> microstati associati ad una particolare energia, la probabilità di trovare il sistema in un particolare microstato è dunque
 
:<math>P = \frac{1}{\Omega} \ </math>.
 
Questo postulato è necessario perché permette di concludere che per un sistema in equilibrio lo [[stato termodinamico]] che può risultare dal maggior numero di microstati è anche il macrostato più probabile del sistema.
 
Il postulato è giustificato in parte, per i sistemi classici, dal [[teoremaTeorema di Liouville (meccanica Hamiltonianahamiltoniana)|teorema di Liouville]], il quale mostra che se la distribuzione di punti accessibili al sistema nello [[spazio delle fasi]] è uniforme in un certo tempo allora rimarrà tale anche in tempi successivi. Una simile giustificazione per un sistema discreto è fornita dal meccanismo di [[bilancio dettagliato]].
 
Nel contesto della [[teoria dell'informazione]] questo permette la definizione della ''funzione informazione'':
Riga 19 ⟶ 21:
:<math>I = \sum_i \rho_i \ln\rho_i = \langle \ln \rho \rangle</math>
 
Quando tutti i <math>\rho_i </math> sono uguali, <math>I </math> è minima, e ciò riflette il fatto che abbiamo minime informazioni riguardo al sistema. Quando la nostra informazione è massima, ad esempio quando <math>\rho_k </math> è uguale ad <math>1</math> e gli altri a zero, ovvero sappiamo in quale stato si trova il sistema, la funzione è massima. La "funzione informazione" è l'equivalente della ''funzione entropica ridotta'' in termodinamica.
 
== Insiemi statistici ==
Riga 31 ⟶ 33:
* [[Insieme gran canonico]]: descrive un sistema aperto, caratterizzato dal poter scambiare materia ed energia con il resto dell'universo.
 
{| class="wikitable" style="text-align: center;"
 
!
<center>
!Insieme microcanonico
{| class="WSerieV" tableborder="1" cellspacing="0" cellpadding="8" style="border:1px solid; padding: 0.3em; clear: right;margin: 0px 0px 5px 1em; border:1px solid #FFF; border-right-width: 2px; text-align:center;line-height: 1.2em; font-size: 95%"
!Insieme canonico
| rowspan="2"|
!Insieme gran canonico
|-----
|-
| bgcolor="#FFF" style="border-left:1px solid; border-top:1px solid;" | [[Insieme microcanonico]]
!Variabili costanti
| bgcolor="#FFF" style="border-left:1px solid; border-top:1px solid;" | [[Insieme canonico]]
|<math>E</math>, <math>N</math>, <math>V</math> o <math>\beta</math>
| bgcolor="#FFF" style="border-left:1px solid; border-right:1px solid; border-top:1px solid;" | [[Insieme gran canonico]]
|<math>T</math>, <math>N</math>, <math>V</math> o <math>\beta</math>
|-----
|<math>T</math>, <math>\mu</math>, <math>V</math> o <math>\beta</math>
| style="border-left:1px solid; border-top:1px solid; background:#FFF;" |Variabili costanti
|-
| style="border-left:1px solid; border-top:1px solid;" | E, N, V o B
!Funzioni macroscopiche
| style="border-left:1px solid; border-top:1px solid;" | T, N, V o B
|<math>\Omega</math><br/><small>[[Microstato (fisica)|Numero di microstati]]</small>
| style="border-left:1px solid; border-top:1px solid; border-right:1px solid;" | T, μ, V o B
|<math>Z style="border-left:1px solid;\sum_k bordere^{-top:1px solid;" |\beta E_k}</math><br/><small> [[Funzione di partizione (meccanica statistica)|Funzione di partizione canonica]]<br /><br /><math>Z = \sum_k e^{-\beta E_k}</mathsmall>
|-----
|<math> \mathcal{Z} = \sum_k e^{-\beta (E_k - \mu N_k )}</math><br/><small>[[Funzione di partizione (meccanica statistica)|Funzione di partizione gran canonica]]</small>
| style="border-left:1px solid; border-top:1px solid; background:#FFF;" | Funzioni microscopiche
|-
| style="border-left:1px solid; border-top:1px solid;" | <small> Numero di [[Microstato (fisica)|microstati]] </small><br /><br /><math> \Omega </math>
!Funzioni microscopiche
| style="border-left:1px solid; border-top:1px solid;" | <small> [[Funzione di partizione (meccanica statistica)|Funzione di partizione canonica]]<br /><br /><math>Z = \sum_k e^{-\beta E_k}</math>
|<math>S = k_B \ln \Omega</math>
| style="border-left:1px solid; border-top:1px solid; border-right:1px solid;" | <small>[[Funzione di partizione (meccanica statistica)]]<br /><br /><math> \mathcal{Z} \ = \ \sum_k e^{ -\beta (E_k - \mu N_k ) }
|<math>F = -k_B T\ \ln Z</math>
|<math>F-G = -p V =-k_B T \ln \mathcal{Z} </math>
|-----
|}
| style="border-left:1px solid; border-top:1px solid;border-bottom:1px solid; background:#FFF;" | Funzioni macroscopiche
| style="border-left:1px solid; border-top:1px solid; border-bottom:1px solid;" | <math>S \ = \ k_B \ \ln \Omega</math>
| style=" border-left:1px solid; border-top:1px solid; border-bottom:1px solid;" | <math>F \ = \ - \ k_B T \ \ln Z</math>
| style=" border-top:1px solid; border-left:1px solid; border-right:1px solid; border-bottom:1px solid;" | <math>F-G=-p V =- \ k_B T \ln \mathcal{Z} </math>
|} </Center>
 
=== Insieme microcanonico ===
Riga 71 ⟶ 69:
=== Insieme canonico ===
{{vedi anche|Insieme canonico}}
L'insieme canonico descrive un sistema in [[equilibrio termico]] con il resto dell'universo, caratterizzato dall'avere numero di particelle, volume e temperatura costante, e quindi dal poter scambiare solamente energia in forma di [[calore]].<br />La probabilità <math>P_i</math> che un sistema macroscopico in equilibrio termico col proprio ambiente a temperatura <math>T</math> sia in un dato microstato con energia <math>E_i</math> è data dalla [[distribuzione di Boltzmann]]:
La probabilità <math>P_i \ </math> che un sistema macroscopico in equilibrio termico col proprio ambiente a temperatura <math>T \ </math> sia in un dato microstato con energia <math>E_i \ </math> è data dalla [[distribuzione di Boltzmann]]:
 
:<math>P_i = {\exp\left(frac{e^{-\beta E_i\right)\over}} {\sum_jsum_{j}^{j_{max}}\exp\left( e^{-\beta E_j\right)}}</math>
 
dove
Riga 80 ⟶ 77:
:<math>\beta={1\over{k_B T}}</math>,
 
La temperatura <math> T \ </math> deriva dal fatto che il sistema è in equilibrio termico con il proprio ambiente. Le probabilità dei vari microstati devono aggiungersi ad 1, ed i fattore di [[normalizzazione (statistica)|normalizzazione]] nel denominatore è la [[funzione di partizione (meccanica statistica)|funzione di partizione]] canonica:
 
:<math>Z = \sum_j^{j_{max}} \exp\left(e^{-\beta E_j\right)}</math>
 
dove <math>E_i \ </math> è la figal'energia dell'<math>i \ </math>-esimo microstato del sistema. La funzione di partizione è una misura del numero di stati accessibili al sistema a una data temperatura. L'articolo [[insieme canonico]] contiene una derivazione del fattore di Boltzmann e la forma della funzione di partizione dai primi principi.<br />
In definitiva, la probabilità del microstato è:
 
Riga 91 ⟶ 88:
==== Connessione termodinamica ====
 
La funzione di partizione può essere usata per trovare il valore previsto medio di una proprietà microscopica del sistema, la quale può poi essere collegata a variabili macroscopiche. Per esempio, il valore previsto dell'energia <math> E \ </math> è interpretato come la definizione microscopica della variabile termodinamica energia interna <math> U \ </math>, e può essere ottenuto prendendo la derivata della funzione di partizione con riguardo alla temperatura. Infatti,
 
:<math>\langle E\rangle={\sum_i E_i e^{-\beta E_i}\over Z}=-{1 \over Z} {dZ \over d\beta}</math>
 
implica, insieme all'interpretazione di <math><\langle E> \ rangle</math> come <math> U \ </math>, la seguente definizione microscopica di [[energia interna]]:
 
:<math>U\colon = -{d\ln Z\over d \beta}.</math>
Riga 109 ⟶ 106:
è l'[[energia libera]] del sistema, o in altre parole:
 
:<math>Z=e^{-\beta F}</math>.
 
Avere una descrizione microscopica per i potenziali di base termodinamici, l'[[energia interna]] <math> U \ </math> (), l'[[Entropia (termodinamica)|entropia]] <math> S \ </math> e l'[[energia libera]] <math> F \ </math>, è sufficiente per dedurre espressioni per altre quantità termodinamiche. La strategia di base è la seguente: può esserci una quantità intensiva o estensiva che entra esplicitamente nell'espressione per l'energia microscopica <math>E_i \ </math>, per esempio il [[campo magnetico]] o il [[volume]]. Allora, le variabili termodinamiche coniugate sono derivate dell'energia interna. La magnetizzazione macroscopica è infatti la derivata di <math> U \ </math> con riguardo al campo magnetico, e la [[pressione]] è la derivata di <math> U \ </math> rispetto al volume.
 
Il valore medio, che corrisponde al valore macroscopico, di una proprietà <math>J</math> che dipende dallo stato energetico del sistema è pari a:
 
:<math> \langle J \rangle = \sum_i p_i J_i = \sum_i J_i \frac{\exp(e^{-\beta E_i)}}{Z}</math>
 
dove <math><J> \langle J \rangle</math> è il valore medio della proprietà <math> J \ </math>. Questa equazione può essere applicata all'energia interna, <math> U \ </math>:
 
:<math>U = \sum_i E_i \frac{\exp(e^{\beta E_i)}}{Z}</math>.
 
In seguito, queste equazioni possono essere combinate con relazioni termodinamiche note tra <math>U \ </math> e <math> V \ </math> per giungere ad esprimere la pressione in termini solo di temperatura, volume e funzione di partizione. Relazioni simili in termini di funzione di partizione possono essere dedotte per altre proprietà termodinamiche mostrate nella seguente tabella.
 
{| class="wikitable"
Riga 134 ⟶ 131:
| <math>P = -\left({\partial F\over \partial V}\right)_{N,T}= {1\over \beta} \left( \frac{\partial \ln Z}{\partial V} \right)_{N,T}</math>
|-
| [[Entropia (termodinamica)|Entropia]]:
|<math>S = k (\ln Z + \beta U)</math>
|-
Riga 155 ⟶ 152:
 
==== Contributi energetici ====
È spesso utile considerare che l'energia di una data molecola è distribuita fra diversi tipi di energie. Il principale è l'energia di traslazione, che si riferisce a quella porzione di energia associata al moto del [[centro di massa]] della molecola. Vi è inoltre l'energia di configurazione, che si riferisce a quella porzione di energia associata con le varie forze attrattive e repulsive fra le molecole di un sistema. Le altre energie in gioco riguardano i gradi di libertà interni alla molecola, come l'energia rotazionale, vibrazionale, elettrica e nucleare. Se si suppone che ogni contributo energetico sia indipendente dagli altri l'energia totale può essere espressa come la somma di ciascuna componente:
 
: <math>E = E_t + E_c + E_n + E_e + E_r + E_v</math>
 
Dove le lettere <math> t \ </math>, <math> c \ </math>, <math> n \ </math>, <math> e \ </math>, <math> r \ </math>, e <math> v \ </math> corrispondono rispettivamente ai tipi: traslazionale, configurazionale, nucleare, elettrica, rotazionale e vibrazionale. La relazione di quest'ultima equazione può essere sostituita nella prima equazione ottenendo:
 
: <math>Z = \sum_i \exp\left(e^{-\beta(E_{ti} + E_{ci} + E_{ni} + E_{ei} + E_{ri} + E_{vi})\right)} =</math>
: <math>= \sum_i
\exp\left(e^{-\beta E_{ti}\right)}
\exp\left(e^{-\beta E_{ci}\right)}
\exp\left(e^{-\beta E_{ni}\right)}
\exp\left(e^{-\beta E_{ei}\right)}
\exp\left(e^{-\beta E_{ri}\right)}
\exp\left(e^{-\beta E_{vi}\right)}</math>
 
Se è corretto supporre che tuttetutti questi tipi d'energia siano indipendenti l'uno dall'altro, in modo che anche tutti questi fattori siano completamente indipendenti, allora: <math>Z = Z_t Z_c Z_n Z_e Z_r Z_v</math>
 
Pertanto per ogni tipo può essere definita una funzione di partizione. Semplici espressioni sono state dedotte collegando ciascuno dei vari tipi a varie proprietà molecolari misurabili, come le frequenze rotazionali o vibrazionali caratteristiche.
Riga 185 ⟶ 182:
|-
| Vibrazionale
| <math>Z_v = \prod_j \frac{\exp(e^{-\theta_{vj} / 2T)}}{1 - \exp(e^{-\theta_{vj} / T)}}</math>
|-
| Rotazionale (lineare)
Riga 201 ⟶ 198:
|}
 
Queste equazioni possono essere combinate con quelle nella prima tabella per determinare il contributo di un particolare tipo d'energia ad ununa proprietà termodinamica. Per esempio è in questo modo che si può determinare la "pressione rotazionale".
La pressione totale può essere trovata sommando i contributi alla pressione di tutti i singoli tipi:
 
Riga 208 ⟶ 205:
=== Insieme gran canonico ===
{{vedi anche|Insieme gran canonico}}
L'insieme gran canonico descrive un sistema aperto, caratterizzato dall'avere temperatura, volume e [[potenziale chimico]] fissati, e quindi dal poter scambiare materia ed energia con il resto dell'universo. In un tale sistema il numero di particelle non è conservato, e diventa necessario introdurre i [[potenziale chimico|potenziali chimici]] μ<submath>j\mu_j</submath>, con ''<math>j''=1,...\ldots,''n''</math>, e rimpiazzare la funzione di partizione canonica con la funzione di partizione per l'insieme gran canonico:
 
: <math>\mathcal{Z} = \sum_{N=0}^\infty\,\sum_{\{n_i\}}\,\prod_i e^{-\beta n_i(\varepsilon_i-\mu)}</math>
 
dove ''<math>N''</math> è il numero totale di particelle nel volume ''<math>V''</math>, e l'indice ''<math>i''</math> varia a ogni microstato del sistema, essendo ''n''<submath>''i''n_i</submath> il numero di particelle nello stato ''<math>i''</math> ed ε<submath>''i''\varepsilon_i</submath> l'energia dello stato ''<math>i''</math>. {''n''<submath>''i''\left \{ n_i \right \}</submath>} è l'insieme di tutti i possibili numeri di occupazione per ciascuno dei microstati come Σ<submath>''i''\sum_i n_i=N</submath>''n''<sub>''i''</sub> = ''N''.
 
Nel caso di un [[gas ideale]] quantistico occorre usare il "conteggio corretto di Boltzmann" e dividere il fattore Boltzmann <math>e^{-\beta (\varepsilon_i-\mu)}</math> per ''n''<submath>''i''n_i!</submath>!.
 
: <math>\mathcal{Z}_i
Riga 225 ⟶ 222:
\langle n_i\rangle
= -\left(\frac{\partial\ln(\mathcal{Z}_i)}{\partial (\beta \mu)} \right)_{\beta,V}
= \frac{1}{\beta}\left(\frac{\partial\ln(\mathcal{Z}_i)}{\partial \mu} \right)_{\beta,V}.
</math>
 
Riga 236 ⟶ 233:
 
==== Statistiche di Bose-Einstein e Fermi-Dirac ====
{{vedi anche|statisticaStatistica di Bose-Einstein|statisticaStatistica di Fermi-Dirac}}
In un sistema composto da [[bosone (fisica)|bosoni]] non interagenti non vi è un limite al numero di occupazione di uno stato, pertanto la funzione di granpartizione è:
 
Riga 243 ⟶ 240:
= \frac{1}{1-e^{-\beta (\varepsilon_i-\mu)}}</math>
 
In un sistema composto di [[fermioni]] non interagenti, invece, per il [[principio di esclusione di Pauli]] il numero di occupazione può essere <math>0</math> o <math>1</math>, pertanto:
 
: <math>\mathcal{Z}_i
Riga 297 ⟶ 294:
Nell'insieme micro canonico, il sistema non scambia energia col resto dell'universo, e non è di conseguenza soggetto a fluttuazioni di energia, mentre nell'insieme canonico, il sistema è libero di scambiare energia col resto dell'universo in forma di [[calore]].
 
Al [[limite termodinamico]] (quando il numero di particelle prese in esame tende a infinito, ''cioè <math>N''&nbsp;→&nbsp;∞ \to +\infty</math>), che è il limite dei grandi sistemi, le fluttuazioni diventano trascurabili, così che tutte queste descrizioni convergano in una sola. In altre parole, il comportamento macroscopico di un sistema non dipende dal particolare insieme usato per la descrizione.
 
Fatte questa considerazioni, il miglior insieme da scegliere per il calcolo delle proprietà di un sistema microscopico è quel sistema che permette di ricavare più facilmente il risultato.
Riga 303 ⟶ 300:
== Cammini casuali ==
 
Lo studio delle lunghe catene di [[polimero|polimeri]] è diventato una fonte di problemi nell'ambito della meccanica statistica fin dagli anni cinquanta. Una delle ragioni per le quali gli scienziati erano interessati a questi studi è che le equazioni che governano il comportamento di una catena di polimeri sono indipendenti dalla chimica delle catene. Inoltre, le equazioni che governano questo comportamento si rivelano essere (cammini diffusivi) casuali nello spazio. Infatti, l'[[equazione di SchrodingerSchrödinger]] è anch'essa una [[equazione di diffusione]] se si considera un [[tempo immaginario]], <math>t' = it</math>.
 
=== Cammini casuali nel tempo ===
Riga 309 ⟶ 306:
Il primo esempio di cammino casuale è un cammino nello spazio, in base al quale una particella si muove di moto casuale dovuto a forze esterne nel mezzo che la circonda. Un esempio tipico potrebbe essere un granello di polline in una bacinella piena d'acqua. Se si potesse in qualche modo evidenziarne il percorso, questo sarebbe definito un cammino casuale.
 
Si consideri un problema "giocattolo", un treno che si muove lungo un tracciato monodimensionale nella direzione delle <math>x</math>. Supponiamo anche che il treno si muova avanti o indietro di una distanza fissata ''<math>b''</math>, a seconda che lanciando una moneta esca testa o croce. Partiamo considerando le statistiche dei passi che il treno giocattolo percorre:
 
:<math>\langle S_{i} \rangle = 0</math>
Riga 318 ⟶ 315:
 
conosciuta come la [[funzione correlazione]].<br />
Il delta è la [[delta di Kronecker]], che vale <math>0</math> se gli indici ''<math>i''</math> e ''<math>j''</math> sono differenti, e vale <math>1</math> se ''<math>i'' = ''j''</math>, così che la funzione correlazione dà un valore di <math>b^2</math>. Questo ha senso, perché se ''<math>i'' = ''j''</math> allora noi stiamo considerando lo stesso passo. Piuttosto semplicemente può allora essere mostrato che lo spostamento medio del treno dall'asse <math>x</math> è <math>0</math>;
 
:<math>x = \sum_{i=1}^{N} S_{i}</math>
Riga 326 ⟶ 323:
:<math>\langle x \rangle = \sum_{i=1}^{N} \langle S_{i} \rangle</math>
 
Come detto <math>\langle S_{i} \rangle=0</math> è 0, quindi la somma di <math>0</math> è sempre <math>0</math>.
Può essere anche calcolata, usando lo stesso metodo dimostrato sopra, la radice della media aritmetica dei quadrati del problema, il cui valore risulta
 
:<math>x_{rms} = \sqrt {\langle x^2 \rangle} = b \sqrt N </math>
 
Dall'[[equazione di diffusione]] si può vedere che la distanza percorsa da una particella che si diffonde in un mezzo è proporzionale alla radice del tempo nel quale il sistema si è diffuso, dove la costante di proporzionalità è la radice della costante di diffusione. La relazione di sopra, sebbene esteticamente differente, rivela un significato fisico simile, dove ''<math>N''</math> è semplicemente il numero di passi percorsi, che è approssimativamente connesso con il tempo, e ''<math>b''</math> è la lunghezza caratteristica del passo. Di conseguenza possiamo considerare la diffusione come un processo di cammino casuale.
 
=== Cammini casuali nello spazio ===
Riga 337 ⟶ 334:
I cammini casuali nello spazio possono essere pensati come istantanee del tragitto percorso da un camminatore casuale nel tempo. Un esempio di questo è la configurazione spaziale delle lunghe catene di polimeri.
 
Ci sono due tipi di cammini casuali nello spazio: cammini "autoevitanti" , dove le connessioni della catena di polimeri interagiscono e non si sovrappongono nello spazio, e cammini "puramente casuali", dove le connessioni della catena di polimeri non interagiscono e sono libere di sovrapporsi. Il primo tipo è più applicabile ai sistemi fisici, ma la sua soluzione sono più difficili da trovare da principîprincipi primi.
 
Considerando una catena di polimeri liberamente collegata, senza interazioni, il vettore testa-coda è
Riga 344 ⟶ 341:
 
dove <math>\mathbf {r}_{i}</math> è il vettore posizione dell''i''-esima connessione nella catena.
Come risultato del [[teorema del limite centrale]], se <math>N »\gg 1</math> allora ci si aspetta una [[funzione gaussiana|distribuzione Gaussiana]] per il vettore testa-coda. Possiamo anche fare affermazioni delle statistiche delle connessioni stesse:
 
:<math>\langle \mathbf{r}_{i} \rangle = 0</math>
Riga 364 ⟶ 361:
Presupponendo, come stabilito, che la distribuzione dei vettori testa-coda per un numero molto grande di identiche catene di polimeri è gaussiana, la distribuzione delle probabilità ha la seguente forma
 
:<math>P = \frac{1}{\left (\frac{2 \pi N b^2}{3} \right )^{3/2}} \exp \left(\frac {-3 \mathbf R \cdot \mathbf R}{2NB^2} \right)</math>
 
Richiamando il principio dell'equiprobabilità ''a priori'', il numero di microstati, <math>\Omega</math>, corrispondenti a qualche valore fisico è direttamente proporzionale alla distribuzione delle probabilità a quel valore fisico:
Riga 378 ⟶ 375:
:<math>\Delta F = - T \Delta S \left ( \mathbf {R} \right )</math>
 
dove ''<math>F''</math> è l'[[energia libera di Helmholtz]], è semplice dimostrare che
 
:<math>\Delta F = k_B T \frac {3R^2}{2Nb^2} = \frac {1}{2} K R^2 \quad ; K = \frac {3 k_B T}{Nb^2}</math>
Riga 387 ⟶ 384:
 
== Bibliografia ==
* {{Cita libro|wkautore=Willard Gibbs|nome=J. W.|cognome=Gibbs|url=httphttps://www.archive.org/details/elementaryprinci00gibbuoft|titolo=Elementary principles in statistical mechanics, developed with special reference to the rational foundations of thermodynamics|editore=[[Università Yale|Yale University Press]]|città=New Haven, [[Connecticut]]|anno=1914|lingua=en}}
* {{Cita libro|nome=J.|cognome=Rice|url=httphttps://www.archive.org/details/introductiontost029716mbp|titolo=Introduction To Statistical Mechanics For Students Of Physics And Physical Chemistry|editore=Constable & co. ltd.|città=Londra|anno=1930|lingua=en}}
* {{Cita libro|nome=J. E.|cognome=Mayer|nome2=E. G.|cognome2=Mayer|url=httphttps://www.archive.org/details/statisticalmecha029112mbp|Statistical Mechanics|editore=John Wiley and Sons|città=New York|anno=1940|lingua=en}}
* {{Cita libro|nome=R. B.|cognome=Lindsay|url=httphttps://www.archive.org/details/introductiontoph031701mbp|titolo=Introduction to physical statistics|editore=John Wiley and Sons|città=New York|anno=1941|lingua=en}}
* {{Cita libro|nome=L. D.|cognome=Landau|wkautore=Lev Davidovič Landau|nome2=E. M.|cognome2=Lifsits|wkautore2=Evgenij Michajlovič Lifšic|nome3=L. P.|cognome3=Pitaevskij|titolo=Fisica teorica|volume=5: Fisica Statistica|editore=[[Editori Riuniti]]|città=Roma|anno=1978}}
* {{Cita libro|nome=Morikazu|cognome=Toda|nome2=Ryōgo|cognome2=Kubo|wkautore2=Ryogo Kubo|nome3=Nobuhiko|cognome3=Saito |titolo=Statistical Physics I|editore=Springer|città=Heidelberg|anno=1998}}
* {{Cita libro | autore=Chandler, David | titolo=Introduction to Modern Statistical Mechanics | url=https://archive.org/details/introductiontomo0000chan | editore=Oxford University Press | anno=1987 | isbn=0-19-504277-8 }}
* {{Cita libro | autore=Huang, Kerson | titolo=Statistical Mechanics | editore=[[John Wiley & Sons]] | anno=1990 | isbn=0-471-81518-7 }}
* {{Cita libro | autore=Kroemer, Herbert; Kittel, Charles | titolo=Thermal Physics (2nd ed.) | url=https://archive.org/details/thermalphysics0000kitt | editore=W. H. Freeman Company | anno=1980 | isbn=0-7167-1088-9 }}
*Peliti, L. (2003). ''Appunti di Meccanica Statistica''. Torino: Bollati Boringhieri.
 
== Voci correlate ==
Riga 407 ⟶ 405:
* [[Ipotesi ergodica]]
* [[Temperatura]]
{{MultiColColonne}}
=== Statistica di Maxwell-Boltzmann ===
* [[Ludwig Boltzmann]]
Riga 416 ⟶ 414:
* [[Paradosso di Gibbs]]
* [[Limite termodinamico]]
{{ColBreakColonne spezza}}
=== Statistica di Bose-Einstein ===
* [[Bosone (fisica)|Bosone]]
Riga 424 ⟶ 422:
* [[Statistica di Bose-Einstein]]
* [[Satyendra Nath Bose]]
{{ColBreakColonne spezza}}
=== Statistica di Fermi-Dirac ===
* [[Condensato chirale]]
Riga 433 ⟶ 431:
* [[Statistica di Fermi-Dirac]]
* [[Enrico Fermi]]
{{EndMultiColColonne fine}}
 
== Altri progetti ==
{{interprogetto|commonspreposizione=Category:Statisticalsulla|wikt=meccanica mechanicsstatistica}}
 
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{Cita libro|nome=Giovanni|cognome=Gallavotti|titolo=Trattatello di Meccanica Statistica|volume=Quaderno CNR-GNFM, 50|anno=settembre 1995}} ({{Cita web|http://ipparco.roma1.infn.it/pagine/deposito/1995/Enc1.ps.gz|p. 1-126}}, {{Cita web|http://ipparco.roma1.infn.it/pagine/deposito/1995/Enc2.ps.gz|p. 127-258}},{{Cita web|http://ipparco.roma1.infn.it/pagine/deposito/1995/Enc3.ps.gz|p. 259-355}})
* {{Cita web|1=http://handle.dtic.mil/100.2/AD400926|2=LECTURES IN STATISTICAL MECHANICS; WITH AN APPENDIX ON QUANTUM STATISTICS OF INTERACTING PARTICLES|anno=1961|lingua=en|autore=G. E. Uhlenbeck, G. E. Ford, E. W. Montroll|urlmorto=sì}}
* {{Cita web|httphttps://hdl.handle.net/2249.1/4509|Statistical Mechanics: Notes on lectures|editore=[[Les Houches]]|anno=1952|lingua=en|autore=L. Rosenfeld}}
* {{Cita web|httphttps://hdl.handle.net/2249.1/4510|Notes on the theory of phase transitions|editore=[[Les Houches]]|anno=1955|autore=G. E. Uhlenbeck}}
* {{Cita web|http://plato.stanford.edu/entries/statphys-statmech/|Philosophy of Statistical Mechanics|lingua=en}} articolo di Lawrence Sklar per la Stanford Encyclopedia of Philosophy.
* {{Thesaurus BNCF}}
 
{{Settori della Fisica}}
 
{{Meccanica statistica}}
{{Controllo di autorità}}
{{Portale|Meccanica|Termodinamica}}
{{Portale|meccanica|termodinamica}}
 
[[Categoria:Meccanica statistica| ]]
[[Categoria:Termodinamica]]
{{categorie qualità}}