See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Entropia (termodinamica) - Wikipedia

Entropia (termodinamica)

Da Wikipedia, l'enciclopedia libera.

bussola Nota disambigua – Se stai cercando altri significati, vedi Entropia.
La fusione del ghiaccio è un classico esempio di processo irreversibile, in cui si ha aumento dell'entropia.
La fusione del ghiaccio è un classico esempio di processo irreversibile, in cui si ha aumento dell'entropia.

In termodinamica l'entropia è una funzione di stato che si introduce insieme al secondo principio della termodinamica e che viene interpretata come una misura del disordine di un sistema fisico o più in generale dell'universo. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato ordinato ad uno disordinato la sua entropia aumenta.

Nel Sistema Internazionale si misura in joule su kelvin (J/K).

Indice

[modifica] Storia e definizione

Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui estrema generalità venne osservata per la prima volta da Sadi Carnot nel 1824) di tutti i sistemi allora conosciuti nei quali si osservava che le trasformazioni avvenivano invariabilmente in una direzione sola, ovvero quella verso il maggior disordine.

In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore), pubblicato nel 1864. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τροπή, "cambiamento", "punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento di particelle meccaniche interne al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante l'assorbimento del calore.

Per chiarire maggiormente il concetto di entropia possiamo presentare alcuni esempi:

  • Si pensi di far cadere una gocciolina d'inchiostro in un bicchiere d'acqua: quello che si osserva immediatamente è che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si ottiene una miscela uniforme (stato completamente disordinato). È esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso (separare l'acqua e l'inchiostro) richiederebbe energia esterna.
  • Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata, ossia isolata dal resto dell'universo, le molecole saranno costrette a rimanere all'interno e non avendo spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre ed urtando casualmente tra di loro e contro le pareti della boccetta usciranno da questa disperdendosi all'esterno (evaporazione). Dopo un certo tempo tutte le molecole saranno uscite disperdendosi. Anche se casualmente qualche molecola rientrerà nella boccetta il sistema complessivo è ormai disordinato e l'energia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile.

Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed essere adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica teorica. È tuttavia bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale.

[modifica] Definizione termodinamica

La variazione della funzione di stato entropia S venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come

\Delta S = \frac{\Delta Q_{rev}}{T}

dove ΔQrev è la quantità di calore assorbito o ceduto in maniera reversibile e isoterma dal sistema a temperatura T.

In forma differenziale, la legge si presenta così:

{\rm d} S = \frac{\delta Q_{rev}}{T}

È importante notare come, mentre δQrev non è un differenziale esatto, dividerlo per la temperatura T lo rende tale: \frac 1 T è dunque il fattore d'integrazione. Occorre sottolineare che dS è un differenziale esatto solo se è valido il secondo principio della termodinamica.

In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per trasformazioni termodinamiche reversibili.

[modifica] Gas perfetti

Un'applicazione termodinamica basilare del concetto di entropia è quella legata alle trasformazioni di gas perfetti.

Considerando una qualsiasi trasformazione da uno stato A ad uno B, con definite pressione, temperatura e volume occupato, è possibile calcolare la variazione di entropia eseguendo l'integrale di Clausius

\int_A^B{ \left( \frac{\delta Q}{T} \right)}_{\rm{rev}}

su di un qualsiasi cammino reversibile, ad esempio sulla composizione di una isocora reversibile con una isoterma reversibile. Si ottiene (dipendentemente solo dagli stati A e B):

\Delta S = n \, C_V \log{\frac{T_B}{T_A}} + n \, R \log{\frac{V_B}{V_A}}

da cui, applicando la nozione di funzione di stato si ottiene una formulazione analitica per l'entropia in funzione delle variabili di stato, a meno di una costante additiva:

S = n \, C_V \log{T} + n \, R \log \! {V}

Essa è equivalente, tramite l'equazione di stato dei gas perfetti, alle altre due forme, talvolta utili, definite sempre a meno di una costante additiva:

S = n \, C_V \log{ \left( TV^{\gamma-1} \right) } \, = \, n \, C_V\log{ \left( pV^{\gamma} \right) }

Si nota così che nelle trasformazioni adiabatiche reversibili l'entropia rimane costante.

[modifica] Sistemi materiali

Per calcolare l'entropia associata a sistemi materiali è possibile effettuare una integrazione che tenga conto anche di tutti i contributi dovuti ai passaggi di stato. Per una sostanza gassosa ad una temperatura T, l'entropia molare si può ricavare da

S =\int_{0}^{T_{fus}} \frac {C_{ps}}{T} dT+\frac {\Delta H_{fus}}{T_{fus}}+\int_{T_{fus}}^{T_{eb}} \frac {C_{pl}}{T} dT+\frac {\Delta H_{eb}}{T_{eb}}+\int_{T_{eb}}^{T} \frac {C_{pg}}{T} dT

dove Cps,Cpl,Cpg sono rispettivamente i calori specifici della sostanza allo stato solido, liquido e gassoso mentre ΔHfusHeb sono rispettivamente il calore latente di fusione e il calore latente di ebollizione.

[modifica] Definizione matematica

Accanto a questa trattazione dell'entropia, ne esiste un'altra (matematica) che tratta l'entropia come una funzione di stato della sola temperatura, ossia una funzione che dipende esclusivamente dallo stato iniziale e dallo stato finale del sistema e non dal particolare cammino seguito (definita a meno di una costante arbitraria; come l'energia interna, anch'essa funzione di stato).

In quanto funzione continua e monotona crescente della sola temperatura essa ammette un massimo e un minimo assoluti (teorema di Weierstrass) cui l'universo converge con continuità (per il principio di aumento dell'entropia).

L'aumento di entropia è un fattore strutturale dell'universo. Impossibile è al momento quantificare tale entropia massima, non essendo noto un legame analitico fra le variabili entropia e temperatura, che nell'intera teoria termodinamica (nei diagrammi T-s) si rappresentano appunto come variabili indipendenti.

Dunque, dell'universo si conosce lo stato iniziale a entropia nulla, non lo stato finale a cui converge (a entropia e temperatura massime); la funzione entropia non dipende e non dà informazioni sul cammino che è stato e che sarà seguito per arrivarci, ovvero non ci dice il futuro termodinamico dell'universo. Tuttavia, è possibile inferire alcune ipotesi riguardo al destino ultimo dell'Universo da considerazioni termodinamiche.

[modifica] Energia ed entropia

Assumendo che l'intero universo sia un sistema isolato - ovvero un sistema per il quale è impossibile scambiare materia ed energia con l'esterno - il primo ed il secondo principio della termodinamica possono essere riassunti da un'unica frase:

l'energia totale dell'universo è costante e l'entropia totale è in continuo aumento.

valida per qualsiasi sistema isolato.

In altre parole ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si può completamente trasformare da una forma in un'altra senza che una parte venga dissipata sotto forma di calore.

Se per esempio si brucia un pezzo di carbone, la sua energia si conserva e si converte in energia contenuta nell'anidride carbonica, nell'anidride solforosa e negli altri residui di combustione oltre che naturalmente in forma di calore. Per quanto non si sia persa energia nel processo, sappiamo che non possiamo invertire il processo di combustione e ricreare dai suoi scarti il pezzo di carbone originale.

La spiegazione si trova nel secondo principio della termodinamica che può così essere parafrasato:

ogni volta che una certa quantità di energia viene convertita da uno stato ad un altro si ha una penalizzazione che consiste nella degradazione di una parte dell'energia stessa in forma di calore, in particolare questa parte non sarà più utilizzabile per produrre lavoro.

Lo stato in cui l'entropia raggiunge il massimo livello e non vi è più energia libera disponibile per compiere ulteriore lavoro è detto stato di equilibrio. Per l'intero universo concepito come sistema isolato ciò significa che la progressiva conversione di lavoro in calore (per il principio di aumento dell'entropia totale), a fronte di una massa dell'universo finita, porterà infine ad uno stato in cui l'intero universo si troverà in condizioni di temperatura uniforme; la cosiddetta morte termica dell'Universo.

L'entropia caratterizza il verso di qualunque trasformazione reale come trasformazione irreversibile: infatti anche tornando da uno stato finale a uno identico allo stato iniziale (per temperatura, volume, pressione o altri parametri, come continuamente avviene nei cicli di una centrale) almeno una variabile fisica differirebbe dal punto da cui si è partiti, l'entropia (che inevitabilmente aumenta).

Ogni trasformazione reale è una trasformazione irreversibile perché l'entropia aumenta; l'ipotesi di idealità equivale appunto all'ipotesi di una variazione d'entropia nulla.

[modifica] La definizione quantistica dell'entropia

Mentre nella visione classica l'entropia è sempre espressa in termini di variazione, e mai assoluti, in meccanica quantistica è possibile definire l'entropia in termini assoluti, ad esempio attraverso l'entanglement.

Si considerino due sistemi A e B, ognuno con associato uno spazio di Hilbert HA, HB. Il sistema dello stato composito è allora:

 |\Psi \rangle \in H_A \otimes H_B.

In generale, non è possibile associare uno stato puro al componente A. Tuttavia è comunque possibile associarvi una matrice di densità. Sia definito l'operatore proiezione

\rho_T = |\Psi\rangle \; \langle\Psi|.

Lo stato di A è la traccia parziale di ρT sulle basi del sistema B:

\rho_A \equiv \sum_j \langle j|_B \left( |\Psi\rangle \langle\Psi| \right) |j\rangle_B = \hbox{Tr}_B \; \rho_T .

Ad esempio, per lo stato entangled "classico" di A e B, ognuno composto da due stati puri "0" e "1"

{1 \over \sqrt{2}} \bigg( |0\rangle_A \otimes  |1\rangle_B - |1\rangle_A \otimes |0\rangle_B \bigg).

la matrice densità è

\rho_A = (1/2) \bigg(  |0\rangle_A \langle 0|_A + |1\rangle_A \langle 1|_A \bigg)

e la matrice densità dello stato puro di A è

\rho_A = |\psi\rangle_A \langle\psi|_A .

ossia semplicememte l'operatore proiezione di |ψ〉A. Da notare che la matrice densità del sistema composto, ρT, ha la stessa forma. Ciò non sorprende, in quanto lo stato entangled classico è uno stato puro.

Data una matrice di densità qualsiasi, ρ, possiamo calcolare la quantità

S = - k \hbox{Tr} \left( \rho \ln{\rho} \right)

dove k è la costante di Boltzmann, e la traccia è presa sullo spazio H in cui è definita ρ. Risulta che S è esattamente l'entropia del sistema corrispondente ad H.

L'entropia di ogni stato puro è zero, in quanto non vi è indeterminazione sullo stato del sistema. L'entropia di ciascuno dei due sottosistemi A e B entangled è semplicemente kln2, il massimo ammissibile per un sistema a due stati.

Se il sistema nel suo complesso è puro, l'entropia di ogni sottosistema può essere usata per misurarne il grado di "entanglement" con gli altri sottosistemi.

Si può anche mostrare come gli operatori unitari che agiscono su uno stato, come ad esempio l'operatore di evoluzione temporale ottenuto dall'equazione di Schrödinger lasciano invariata l'entropia. Si associa dunque la reversibilità di un processo alla sua variazione di entropia, confermando dunque la teoria termodinamica e, contemporaneamente, l'entropia di un segnale secondo la teoria dell'informazione.

[modifica] La definizione statistica dell'entropia

In meccanica statistica l'entropia è il tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che ad una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema, definito da precisi valori di grandezze come pressione e temperatura) corrispondano diverse configurazioni microscopiche (stati dinamici o microstati, definiti solo se si conoscono posizione e velocità di tutte le molecole del sistema).

Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con Γ. Allora possiamo definire l'entropia "alla Boltzmann" come

S=k~\ln \Gamma

dove k è la costante di Boltzmann.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica ed in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici).

La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale ad una identica allo stato iniziale.

La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema e la seconda, lo stato di agitazione molecolare.

Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto una delle sue variabili naturali E, N e V (energia, numero di particelle e volume) tenendo costanti le altre.

È necessario tenere conto che questa trattazione riposa sull'ipotesi ergodica che assicura di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente -Gibbs- sostituire le medie temporali con quelle sull'ensemble).

[modifica] Entropia e informazione

Dalla definizione statistica dell'entropia si intuisce che l'informazione e questa grandezza termodinamica siano in qualche modo correlati. Gli studi approfonditi in questo campo sono legati al lavoro pionieristico di Claude Shannon nel campo della Teoria dell'informazione.

L'informazione viene matematicamente espressa dalla relazione

\operatorname I = -log_2 P

che, utilizzando il logaritmo in base 2 della probabilità P che si verifichi un dato evento, permette di ottenere un valore misurato in bit. 1 bit equivale ad esempio all'informazione ottenibile dal lancio di una moneta (P = 0,5).

Dall'entropia espressa dalla relazione di Boltzmann è facile ricavare l'uguaglianza

\operatorname S = log_2 P

che permette di esprimere l'entropia nella medesima unità di misura dell'informazione, ovvero il bit. Notare come P si identifichi con Γ.

In conclusione si dimostra che vale la relazione

\operatorname I = - S

che si può enunciare come "a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa".

L'applicazione dei concetti di informazione ed entropia risulta molto utile, oltre che nel campo dell'informatica e delle scienze della comunicazione, anche in termodinamica e nell'ambito delle scienze naturali in generale. Consideriamo ad esempio un sistema formato da un solido ionico cristallino: in fase solida gli ioni occuperanno posizioni ben definite all'interno del reticolo e quindi la loro posizione risulterà facilmente identificabile; il sistema sarà caratterizzato da elevata informazione e bassa entropia. Passando via via prima allo stato liquido e poi a quello aeriforme, la posizione dei singoli ioni risulterà non più univoca ma tendente a variare fino alla massima variabilità dello stato aeriforme; di conseguenza l'informazione tende a diminuire mentre l'entropia aumenta fino al valore massimo associato alla fase aeriforme.

[modifica] Curiosità

  • Entropia è anche il nome di un romanzo di Thomas Pynchon pubblicato dalla casa editrice Edizioni e/o nella prima edizione del 1992. Si tratta di un racconto dei quattro (sicuramente il più famoso) che Pynchon scrisse tra il 1958 e il 1964.
  • Com'è possibile diminuire in modo massiccio il quantitativo di entropia dell'universo ?. Da questo interrogativo prende le mosse il racconto di Isaac Asimov "L'ultima domanda" (1956)
  • L'importantissima relazione
S=k~\ln \Gamma
che lega l'informazione sulle configurazioni microscopiche del sistema alle sue quantità macroscopiche termodinamiche è incisa sul monumento viennese dedicato a Boltzmann con la sola variante che il volume dello spazio delle fasi accessibile al sistema non è lì indicato con Γ bensì con "W" maiuscola perché così originariamente proposta da Boltzmann stesso (W dal tedesco Wahrscheinlichkeit traducibile come la probabilità matematicamente determinabile).

[modifica] Voci correlate

[modifica] Collegamenti esterni


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -