Entropia: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
fix intro (etimologia e spiegazione) |
Nessun oggetto della modifica |
||
Riga 5:
La [[termodinamica]] è il primo campo in cui l'entropia fu introdotta nel XIX secolo, a partire dagli studi della relazione fra [[calore]] e [[Lavoro (fisica)|lavoro]] di [[William Rankine]] e [[Rudolf Clausius]].<ref name="Clausius">{{cita pubblicazione|autore=Rudolf Clausius|titolo=Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen |lingua=de |anno=1850 |doi=10.1002/andp.18501550306 |rivista=Annalen der Physik |volume=155 |numero=3 |bibcode=1850AnP...155..368C |pp=368-397}}</ref> L'entropia è una [[funzione di stato]] di un sistema in [[equilibrio termodinamico]], che, quantificando l'indisponibilità di un sistema a produrre [[Lavoro (fisica)|lavoro]], si introduce insieme con il [[secondo principio della termodinamica]]<ref>https://www.garzantilinguistica.it/ricerca/?q=entropia</ref>. In base a questa definizione si può sostenere, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno [[stato termodinamico|stato di equilibrio]] ''ordinato'' a uno ''disordinato'' la sua entropia aumenta; questo fatto fornisce l'indicazione sulla direzione in cui evolve spontaneamente un sistema, quindi anche la [[freccia del tempo]] (come già affermato da [[Arthur Eddington]]<ref>Arthur Eddington, ''The Nature of the Physical World'', Cambridge University Press, 1927</ref>).
È tuttavia bene notare che esiste una classe di fenomeni, detti ''fenomeni non lineari'' (ad esempio i fenomeni [[teoria del caos|caotici]]) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale.{{senza fonte}} L'approccio molecolare della [[meccanica statistica]] generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema<ref>Gordon M. Barrow, ''Physical Chemistry'', WCB, McGraw-Hill, 1979</ref>. Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le [[scienze sociali]], la [[teoria dei segnali]], la [[teoria dell'informazione]], acquisendo una vasta popolarità.
== Storia ==
|