ecco a cosa sto pensando... Morte termica - TopicsExpress



          

ecco a cosa sto pensando... Morte termica delluniverso Entropia Da Wikipedia, lenciclopedia libera. Se riscontri problemi nella visualizzazione dei caratteri, clicca qui. bussola Disambiguazione – Se stai cercando altri significati, vedi Entropia (disambigua). La fusione del ghiaccio avviene con aumento dellentropia. In meccanica statistica lentropia (dal greco antico ἐν en, dentro, e τροπή tropé, trasformazione) è una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, luniverso. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule su kelvin (J/K). In termodinamica classica, il primo campo in cui lentropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando lindisponibilità di un sistema a produrre lavoro, si introduce insieme al secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato ad uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema. Lapproccio molecolare della meccanica statistica generalizza lentropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema[1]. Il concetto di entropia ha potuto grazie a questa generalizzazione essere esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dellinformazione e conoscere quindi una vastissima popolarità. Indice 1 Entropia e disordine 2 Storia e definizione 3 Postulato dellentropia 4 Definizione termodinamica 4.1 Gas perfetti 4.1.1 Trasformazione reversibile isoterma 4.1.2 Trasformazione reversibile isocora 4.1.3 Trasformazione reversibile isobara 4.1.4 Trasformazione reversibile 4.2 Sistemi materiali 5 Definizione matematica 6 Energia ed entropia 7 Definizione quantistica dellentropia 8 Definizione statistica 9 Equazione di bilancio 10 Entropia nellinformazione 11 Entropia nelleconomia 12 Note 13 Bibliografia 14 Voci correlate 15 Altri progetti 16 Collegamenti esterni Entropia e disordine Il concetto di entropia è piuttosto complesso e per comprendere appieno il suo significato è necessaria almeno una conoscenza di base della termodinamica e della meccanica quantistica; esistono infatti almeno due definizioni rigorose dellentropia: una definizione macroscopica, fornita dalla termodinamica e una definizione microscopica, fornita dalla meccanica quantistica. È possibile comunque dare una spiegazione semplicistica dellentropia, interpretandola come il grado di disordine di un sistema. Quindi un aumento del disordine di un sistema è associato ad un aumento di entropia, mentre una diminuzione del disordine di un sistema è associata ad una diminuzione di entropia. Per maggiore chiarezza, nella figura seguente sono mostrate tre configurazioni dello stesso sistema costituito da 24 oggetti, in cui si ha un aumento di disordine (cioè un aumento di entropia) andando da sinistra a destra e una diminuzione di disordine (cioè una diminuzione di entropia) andando da destra a sinistra. Rappresentazione del grado di disordine di un sistema: sistema ordinato (a), con basso grado di disordine (b) e disordinato (c). Nella figura seguente è rappresentato un esempio pratico in termodinamica in cui si assiste ad un aumento di disordine (cioè un aumento di entropia). In questo caso gli oggetti sono delle molecole di due gas (ogni gas è contraddistinto da un colore diverso), ad esempio si supponga che le sferette blu siano molecole di ossigeno e le sferette rosse siano molecole di azoto. Rappresentazione di un sistema (costituito da due gas differenti) in cui si ha aumento di entropia. Inizialmente i gas sono situati in due compartimenti stagni, per cui in ciascun compartimento sono presenti solo molecole dello stesso tipo di gas. Se i due compartimenti sono messi in comunicazione (ad esempio aprendo una valvola), i due gas si mescolano tra di loro e si ha un aumento di disordine, ovvero un aumento di entropia (che in tal caso viene detta variazione di entropia di miscelamento). Nellesempio precedente si è assistito ad un aumento di entropia spontaneo (è bastato infatti mettere in comunicazione i due compartimenti). Tale aumento di entropia spontaneo avviene sempre in natura, mentre non avviene una diminuzione di entropia spontanea. Tale constatazione empirica si traduce nel fatto che le configurazioni disordinate sono le più probabili e corrisponde al cosiddetto Secondo principio della termodinamica. Altri sistemi che possono assumere diversi gradi di disordine sono i materiali metallici. Essi infatti possono assumere le seguenti strutture: struttura cristallina (ordinata): gli atomi sono disposti in maniera ordinata; una struttura cristallina è formata da diverse celle tutte uguali tra loro, che si ripetono nello spazio; si parla in questo caso di ordine a lungo raggio; struttura policristallina (parzialmente ordinata): si riscontrano più cristalli (strutture ordinate) allinterno del materiale; si parla in questo caso di ordine a corto raggio; struttura amorfa (disordinata): gli atomi sono disposti in maniera completamente disordinata; non si ha né ordine a corto raggio né ordine a lungo raggio. Possibili strutture di un materiale metallico: struttura cristallina (a sinistra), struttura policristallina (al centro) e struttura amorfa (a destra). Il disordine delle strutture dei materiali metallici aumenta anche in presenza dei cosiddetti difetti cristallini (tra cui linclusione di atomi di altro tipo o la mancanza di un atomo in una posizione del reticolo), la cui presenza determina appunto un aumento del contenuto entropico del materiale. Storia e definizione Il concetto di entropia venne introdotto agli inizi del XIX secolo, nellambito della termodinamica, per descrivere una caratteristica (la cui generalità venne osservata per la prima volta da Sadi Carnot nel 1824) di tutti i sistemi allora conosciuti, nei quali si osservava che le trasformazioni avvenivano spontaneamente in una direzione sola, quella verso il maggior disordine. In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore), pubblicato nel 1864. In tedesco Entropie deriva dal greco ἐν en, dentro, e da τροπή tropé, cambiamento, punto di svolta, rivolgimento (sul modello di Energie, energia): per Clausius indicava dove va a finire lenergia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento meccanico di particelle interne al corpo. Egli infatti la definì come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante il cambiamento di stato. Per chiarire il concetto di entropia possiamo presentare alcuni esempi: Si faccia cadere una gocciolina dinchiostro in un bicchiere dacqua: si osserva che, invece di restare una goccia più o meno separata dal resto dellambiente (che sarebbe uno stato completamente ordinato), linchiostro inizia a diffondere e, in un certo tempo, si ottiene una miscela uniforme (stato completamente disordinato). È esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso, separare lacqua e linchiostro, richiede energia esterna. Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata, ossia isolata dal resto delluniverso, le molecole saranno costrette a rimanere allinterno e non avendo spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre e, urtando casualmente tra di loro e contro le pareti della boccetta, usciranno da questa disperdendosi allesterno (evaporazione). Dopo un certo tempo tutte le molecole saranno uscite disperdendosi. Anche se casualmente qualche molecola rientrerà nella boccetta, il sistema complessivo è ormai disordinato e lenergia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile (si ha un equilibrio dinamico). Il concetto di entropia ha conosciuto grandissima popolarità nellOttocento e nel Novecento, grazie alla grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dallambito prettamente fisico ed essere adottato dalle scienze sociali, nella teoria dei segnali, nellinformatica teorica e nelleconomia. È tuttavia bene notare che esiste una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche lentropia) devono essere profondamente riviste e non hanno più validità generale. Postulato dellentropia Una proprietà fondamentale, anche chiamata (impropriamente[2]) postulato dellentropia, afferma che in un sistema isolato lentropia S del sistema non diminuisce mai e, durante un ordinario processo irreversibile, aumenta. La dimostrazione è la seguente: si consideri un sistema isolato sia meccanicamente che termicamente che, a causa di una perturbazione interna, si porta da uno stato 1 ad uno stato 2. Essendo lentropia una funzione di stato, quindi per definizione la variazione della stessa non dipende dal percorso seguito ma solo dallo stato iniziale e finale, è possibile concepire un processo reversibile che ci riporti da 2 a 1. Per la disuguaglianza di Clausius: \oint_{}\frac{\delta Q}{T} \leq 0 Ma questa circuitazione può essere spezzata nella somma dei due integrali, dallo stato 1 al 2 e viceversa: \int_{1}^{2}\frac{\delta Q}{T} + \int_{2}^{1}\frac{\delta Q_{R}}{T} \leq 0 Il primo integrale è nullo poiché il processo è adiabatico, ovvero essendo il sistema isolato non subisce trasferimenti di calore con lesterno. Il secondo integrale si può scrivere nella forma: \int_{2}^{1}\frac{\delta Q_{R}}{T} = \int_{2}^{1} dS \leq 0 Allora: S_{1}-S_{2} \leq0 Ovvero: S_{2} \geq S_{1} Definizione termodinamica La variazione della funzione di stato entropia S venne introdotta nel 1864 da Rudolf Clausius nellambito della termodinamica come:[3] \Delta S = \frac{Q_{rev}}{T} dove Q_{rev} è la quantità di calore assorbita o ceduta in maniera reversibile e isoterma dal sistema a temperatura T. In forma differenziale, la legge si presenta così:[4] {\rm d} S = \frac{\delta Q_{rev}}{T} È importante notare come, mentre \delta Q_{rev} non è un differenziale esatto, dividerlo per la temperatura T lo rende tale: \frac 1 T è dunque il fattore dintegrazione. Occorre sottolineare che dS è un differenziale esatto se e solo se è valido il secondo principio della termodinamica. In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato lentropia può solo aumentare, o al limite rimanere costante per cicli termodinamici reversibili. Gas perfetti Trasformazione reversibile isoterma Essendo per un gas ideale lenergia interna U funzione della sola temperatura, in condizioni isoterme \Delta U = 0, quindi applicando il primo principio della termodinamica abbiamo leguaglianza del calore e del lavoro scambiati, ovvero: Q = W \ ne segue che per una trasformazione tra gli stati A e B in assenza di lavoro isocoro, abbiamo: \Delta S = S_B-S_A = \frac {Q_{rev}}{T} = \frac{W}{T} = \int_A^B\frac{p \rm{d}v}{T}[5] per una mole di gas ideale, dalla equazione di stato dei gas perfetti: pv = nRT \ ovvero: \int_{v_A}^{v_B}\frac{pdv}{T} \frac{v}{v}=\int_{v_A}^{v_B} nR \frac{dv}{v} = nR \cdot \ln \left(\frac{v_B}{v_A}\right) quindi: \Delta S|_T = nR \cdot \ln \left(\frac{v_B}{v_A}\right) Possiamo riscrivere lequazione sopra in funzione della pressione, se consideriamo che in questo particolare caso (trasformazione isoterma reversibile di un gas ideale) pdv = -vdp [6]. pdv = -vdp = -nRT \cdot \frac {dp}{p} ovvero: \int_{p_A}^{p_B}-\frac{vdp}{T} \frac{p}{p}=\int_{p_A}^{p_B} -nR \frac{dp}{p} = -nR \cdot \ln \left(\frac{p_B}{p_A}\right) = nR \cdot \ln \left(\frac{p_B}{p_A}\right)^{-1} = nR \cdot \ln \left(\frac{p_A}{p_B}\right) quindi: \Delta S|_T = nR \cdot \ln \left(\frac{p_A}{p_B}\right) Trasformazione reversibile isocora Dalla definizione di entropia: \Delta S = \int_A^B \frac {Q|_V}{T} = \int_A^B c_v \cdot \frac {dT}{T} = \bar c_v \cdot \ln \left(\frac{T_B}{T_A}\right) in cui c_v è il calore specifico molare a volume costante (funzione della temperatura) e \bar c_v è la sua media tra le temperature T_B e T_A. Per cui, per una mole di gas perfetto: \Delta S|_v = \bar c_v \cdot \ln \left(\frac{T_B}{T_A}\right) Trasformazione reversibile isobara Seguendo la stessa procedura, possiamo scrivere: \Delta S = \int_A^B \frac {Q_p}{T} = \int_A^B c_p \cdot \frac {dT}{T} = \bar c_p \cdot \ln \left(\frac{T_B}{T_A}\right) in cui c_p è il calore specifico molare a pressione costante (funzione della temperatura) e \bar c_p è la sua media tra le temperature T_B e T_A. Per cui, per una mole di gas perfetto: \Delta S|_p = \bar c_p \cdot \ln \left(\frac{T_B}{T_A}\right) Trasformazione reversibile Essendo lentropia una funzione di stato, considerando una qualsiasi trasformazione reversibile da uno stato A ad uno B, con definite pressione, temperatura e volume occupato, è possibile calcolare la variazione di entropia eseguendo lintegrale di Clausius \int_A^B{ \left( \frac{\delta Q}{T} \right)}_{\rm{rev}} su di un qualsiasi cammino reversibile, ad esempio sulla composizione di una isocora reversibile con una isoterma reversibile. Si ottiene per n moli (dipendentemente solo dagli stati A e B): \Delta S = n \, c_V \log{ \left( \frac{T_B}{T_A} \right) } + n \, R \log{ \left( \frac{V_B}{V_A} \right) } da cui, applicando la nozione di funzione di stato si ottiene una formulazione analitica per lentropia in funzione delle variabili di stato, a meno di una costante additiva: S = n \, c_V \log{T} + n \, R \log \! {V} Essa è equivalente, tramite lequazione di stato dei gas perfetti, alle altre due forme, talvolta utili, definite sempre a meno di una costante additiva: S = n \, c_V \log{ \left( TV^{\gamma-1} \right) } \, = \, n \, c_V\log{ \left( pV^{\gamma} \right) } In cui \gamma è il coefficiente della politropica. Si nota così che nelle trasformazioni adiabatiche reversibili lentropia rimane costante. Sistemi materiali Per calcolare lentropia associata a sistemi materiali è possibile effettuare una integrazione che tenga conto anche dei contributi dovuti ai passaggi di stato. Per una sostanza gassosa ad una temperatura T, lentropia molare si può ricavare da S =\int_{T_{0}}^{T_{fus}} \left( \frac {c_{ps}}{T} \right) dT+ \frac {\Delta H_{fus}}{T_{fus}}+ \int_{T_{fus}}^{T_{eb}} \left( \frac {c_{pl}}{T} \right) dT+ \frac {\Delta H_{eb}}{T_{eb}}+ \int_{T_{eb}}^{T} \left( \frac {c_{pg}}{T} \right) dT dove c_{ps}, c_{pl}, c_{pg} sono rispettivamente i calori specifici della sostanza allo stato solido, liquido e gassoso mentre \Delta H_{fus}, \Delta H_{eb} sono rispettivamente il calore latente di fusione e il calore latente di ebollizione. Definizione matematica Accanto a questa trattazione dellentropia, ne esiste unaltra, matematica, che tratta lentropia come una funzione di stato, ossia come una grandezza che dipende esclusivamente dallo stato iniziale e dallo stato finale del sistema e non dal particolare cammino seguito (definita a meno di una costante arbitraria; come lenergia interna, anchessa funzione di stato). In quanto funzione limitata, continua e monotona crescente della temperatura essa ammette un massimo e un minimo assoluti (teorema di Weierstrass) cui luniverso converge con continuità (principio di aumento dellentropia). Laumento di entropia è un fattore strutturale delluniverso. Impossibile è al momento quantificare tale entropia massima, non essendo noto un legame analitico fra le variabili entropia e temperatura, poiché nellintera teoria termodinamica (nei diagrammi T-S) si rappresentano come variabili indipendenti. Dunque delluniverso si conosce lo stato iniziale, entropia nulla, non lo stato finale a cui converge (entropia e temperatura massime); la funzione entropia non dipende e non dà informazioni sul cammino che è stato e che sarà seguito per arrivarci, ovvero non ci dice il futuro termodinamico delluniverso. Tuttavia, è possibile inferire alcune ipotesi riguardo al destino ultimo dellUniverso da considerazioni termodinamiche. Definita come vettore di probabilità, lentropia è una funzione strettamente concava definita su un dominio convesso compreso tra 0 e 1, che pertanto possiede un unico massimo, quando tutti i valori sono equiprobabili (distribuzione uniforme). È inoltre un funzione non-negativa, simmetrica, invariante rispetto alla permutazione degli assi cartesiani. Energia ed entropia Assumendo che lintero universo sia un sistema isolato - ovvero un sistema per il quale è impossibile scambiare materia ed energia con lesterno - il primo ed il secondo principio della termodinamica possono essere riassunti come segue: lenergia totale delluniverso è costante e lentropia totale è in continuo aumento, fino a raggiungere un equilibrio affermazione valida per qualsiasi sistema isolato. Ciò significa che non solo non si può né creare né distruggere lenergia, ma nemmeno la si può completamente trasformare da una forma in unaltra senza che una parte venga dissipata sotto forma di calore. Se per esempio si brucia un pezzo di carbone, la sua energia si conserva e si converte in energia contenuta nellanidride carbonica, nellanidride solforosa e negli altri residui di combustione, oltre che in forma di calore. Sebbene nel processo non si sia perduta energia, non possiamo invertire il processo di combustione e ricreare dai suoi scarti il pezzo di carbone originale. Il secondo principio della termodinamica può quindi essere così riscritto: ogni volta che una certa quantità di energia viene convertita da una forma ad unaltra si ha una penalizzazione che consiste nella degradazione di una parte dellenergia stessa in forma di calore. Questa parte non sarà utilizzabile per produrre lavoro. Lo stato in cui lentropia raggiunge il massimo valore e non vi è più energia libera disponibile per compiere lavoro è detto stato di equilibrio. Per lintero universo, concepito come sistema isolato, ciò significa che la progressiva conversione di lavoro in calore (per il principio di aumento dellentropia totale), a fronte di una massa delluniverso finita, porterà infine ad uno stato in cui lintero universo si troverà in condizioni di temperatura uniforme; la cosiddetta morte termica dellUniverso. Lentropia caratterizza il verso di qualunque trasformazione reale come trasformazione irreversibile: infatti anche tornando da uno stato finale a uno identico allo stato iniziale per temperatura, volume, pressione o altri parametri, come continuamente avviene nei cicli di una macchina termica, almeno una variabile fisica differirebbe dal punto da cui si è partiti: lentropia (che inevitabilmente è aumentata). Ogni trasformazione reale è una trasformazione irreversibile perché lentropia aumenta; viceversa lipotesi di idealità equivale allipotesi di una variazione dentropia nulla. Definizione quantistica dellentropia Mentre nella visione classica lentropia è sempre espressa in termini di variazione, e mai in termini assoluti, in meccanica quantistica è possibile definire lentropia in termini assoluti, ad esempio attraverso lentanglement. Si considerino due sistemi A e B, ognuno con associato uno spazio di Hilbert H_A, H_B. Lo stato del sistema composito è allora: |\Psi \rangle \in H_A \otimes H_B. In generale, non è possibile associare uno stato puro al componente A. Tuttavia è comunque possibile associarvi una matrice di densità. Sia definito loperatore proiezione \rho_T = |\Psi\rangle \; \langle\Psi|. Lo stato di A è la traccia parziale di \rho_T sulle basi del sistema B: \rho_A \equiv \sum_j \langle j|_B \left( |\Psi\rangle \langle\Psi| \right) |j\rangle_B = \hbox{Tr}_B \; \rho_T . Ad esempio, per lo stato entangled classico di A e B, ognuno composto da due stati puri 0 e 1 {1\over \sqrt{2}}\bigg(|0\rangle_A \otimes|1\rangle_B - |1\rangle_A \otimes |0\rangle_B \bigg) la matrice densità è \rho_A = (1/2) \bigg( |0\rangle_A \langle 0|_A + |1\rangle_A \langle 1|_A \bigg) e la matrice densità dello stato puro di A è \rho_A = |\psi\rangle_A \langle\psi|_A ossia semplicemente loperatore proiezione di |ψ〉A. Da notare che la matrice densità del sistema composto, ρT, ha la stessa forma. Ciò non sorprende, in quanto lo stato entangled classico è uno stato puro. Data una matrice di densità qualsiasi, \rho, possiamo calcolare la quantità S = - k \hbox{Tr} \left( \rho \ln{\rho} \right) dove k è la costante di Boltzmann, e la traccia è presa sullo spazio H in cui è definita \rho. Risulta che S è esattamente lentropia del sistema corrispondente ad H. Lentropia di ogni stato puro è zero, in quanto non vi è indeterminazione sullo stato del sistema. Lentropia di ciascuno dei due sottosistemi A e B entangled è semplicemente k \ln 2, il massimo ammissibile per un sistema a due stati. Se il sistema nel suo complesso è puro, lentropia di ogni sottosistema può essere usata per misurarne il grado di entanglement con gli altri sottosistemi. Si può anche mostrare come gli operatori unitari che agiscono su uno stato, come ad esempio loperatore di evoluzione temporale ottenuto dallequazione di Schrödinger, lasciano invariata lentropia. Si associa dunque la reversibilità di un processo alla sua variazione di entropia, confermando dunque la teoria termodinamica e, contemporaneamente, lentropia di un segnale secondo la teoria dellinformazione. Definizione statistica In meccanica statistica lo studio sullentropia è un tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che ad una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema, definito da precisi valori di grandezze come pressione e temperatura) corrispondano diverse configurazioni microscopiche (stati dinamici o microstati, definiti solo se si conoscono posizione e velocità di tutte le molecole del sistema). Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con \Gamma. Allora possiamo definire lentropia secondo il principio di Boltzmann come:[7][3] S=k~\ln \Gamma dove k è la costante di Boltzmann. Possiamo definire \Gamma come la misura dellinsieme di tutte le possibili disposizioni (o probabilità a livello macroscopico) dei livelli molecolari: \Gamma rappresenta quindi il numero di stati totali accessibili al sistema alla temperatura T. Questa misura tiene conto dellindistinguibilità tra le particelle introducendo il fattore correttivo di Gibbs. Per capire il significato fisico di \Gamma prendiamo in esempio un caso di entropia per miscelamento riferendoci ad un cristallo di atomi A. Supponiamo di inserire atomi B (simili in dimensione e dal punto di vista elettronico) nei siti di A per semplice sostituzione: in questo modo abbiamo un numero di atomi A N_A e un numero di atomi B N_B che si distribuiscono nei siti N del cristallo. Man mano che introduciamo gli atomi B nei siti di A aumenta il numero delle configurazioni possibili tra gli atomi A e B, cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazioni \Gamma corrisponde al numero di modi possibili di distribuire a caso N_A e N_B oggetti su N (= N_A + N_B) siti e vale: \Gamma = \frac{\left ( N_A + N_B \right )!} { N_A! ~ N_B!} In generale, se nel cristallo di A vengono introdotti diversi tipi di atomi simili (B, C, ecc...), il numero massimo di configurazioni possibili vale: \Gamma = \frac{\left (N_A + N_B + N_C + ... \right )!} {N_A! \cdot N_B! \cdot N_C! \cdot ...} = \frac{\left ( \sum_i N_i \right )!} {\prod_i N_i ! } A temperature ordinarie, nei gas, queste disposizioni seguono la distribuzione di Maxwell-Boltzmann, ma lapproccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige lindistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allo zero assoluto, le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella di Fermi-Dirac o di Bose-Einstein (a seconda del fatto che ricadano o meno sotto il principio di esclusione di Pauli). La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del 1896, si è dimostrata lespressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per lentropia in termodinamica classica. Si può dimostrare che lentropia così definita possiede tutte le caratteristiche dellentropia termodinamica ed in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione dentropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale ad una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) di agitazione molecolare. Dallequazione S=k~\ln \Gamma, con alcune considerazioni combinatorie su \Gamma e dalla distribuzione di Boltzmann degli stati possibili, si giunge alla: S=\frac{E-E_0}{T} + R \ln \frac {Z}{N_A}+R dove T è la temperatura, E-E_0 energia termica, R costante dei gas, Z la funzione di partizione, e N_A il Numero di Avogadro. La formula torna utile per il calcolo di S nei gas. Volendo informazioni macroscopiche del sistema basta derivare lentropia rispetto ad una delle sue variabili naturali E, N e V (energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sullipotesi ergodica che postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sullensemble -Gibbs- ). Equazione di bilancio In un sistema isolato, il secondo principio della termodinamica asserisce che lentropia può solo aumentare. In un sistema aperto, in cui quantità come calore, energia e massa possono fluire verso e dallesterno, lentropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere una equazione di bilancio. Un sistema aperto è generalmente definito da un volume di controllo, ovvero una porzione dello spazio che determina il sistema in esame. Tutto ciò che non è contenuto in questo volume è esterno al sistema. Lentropia del sistema S varia nel tempo, e la sua derivata è determinata da unequazione di bilancio del tipo \dot S = J_S + {\partial S \over \partial t} dove J_S, {\partial S \over \partial t} denotano rispettivamente la corrente di entropia netta e quella generata allinterno del sistema. Tutte queste quantità sono derivate temporali. In una equazione di bilancio normalmente il secondo termine può essere negativo, qui invece no conformemente al secondo principio della termodinamica. I termini di bilancio possono essere esplicitati nel modo seguente: \dot S = \sum_{i} \left({\dot Q_i \over T_i} + \dot m_i s_i\right) + {\partial S \over \partial t}. In questa espressione ciascuna delle correnti di entropia S_{i} è spezzata in due addendi: il termine conduttivo tiene conto dello scambio di calore Q con una sorgente termica esterna a temperatura T . il termine convettivo tiene conto della variazione di entropia dovuta a masse entranti o uscenti dal sistema; il termine \dot m indica la variazione di massa e s lentropia per unità di massa; In un sistema chiuso il termine convettivo è nullo, per cui la relazione diventa: \dot S = \sum_{i} {\dot Q_i \over T_i } + {\partial S \over \partial t} In un sistema isolato si annullano anche i termini entropici legati al flusso termico, per cui: \dot S = {\partial S \over \partial t} Entropia nellinformazione Exquisite-kfind.png Per approfondire, vedi Entropia (teoria dellinformazione). Si deve a Claude Shannon lo studio dellentropia nella teoria dellinformazione, il suo primo lavoro sullargomento si trova nellarticolo Una teoria matematica della comunicazione del 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale dinformazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media. Nella teoria dellinformazione - e in rapporto alla teoria dei segnali - lentropia misura dunque la quantità di incertezza o informazione presente in un segnale aleatorio, che può essere interpretata anche come la minima complessità descrittiva di una variabile aleatoria, ovvero il limite inferiore della compressione dei dati. La connessione con lentropia termodinamica sta allora nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi laumento della compressione. Lentropia dellinformazione raggiunge un minimo che, in generale è diverso da zero, al contrario dellentropia termodinamica (vedi terzo principio della termodinamica). Tale risultato era implicito nella definizione statistica dellentropia di John Von Neumann, anche se lo stesso Von Neumann, interrogato al riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione. Come ricordò Shannon più tardi a proposito del risultato da lui trovato: « La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione, ma la parola era fin troppo usata, così decisi di chiamarla incertezza. Quando discussi della cosa con John Von Neumann, lui ebbe unidea migliore. Mi disse che avrei dovuto chiamarla entropia, per due motivi: Innanzitutto, la tua funzione dincertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza lentropia, così in una discussione sarai sempre in vantaggio » Entropia nelleconomia Exquisite-kfind.png Per approfondire, vedi Entropia (economia). Georgescu-Roegen applicando il secondo principio della termodinamica alleconomia, e in particolare alleconomia della produzione, ha introdotto una teoria economica che discute i fondamentali della decrescita: ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) lentropia del sistema-Terra: tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato sullambiente. Note ^ Gordon M. Barrow, Physical Chemistry, WCB, McGraw-Hill, 1979 ^ Poiché è dimostrabile, non è un vero postulato. ^ a b (EN) IUPAC Gold Book, entropy ^ (EN) J. M. Smith; H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 4ª ed., McGraw-Hill, 1987, p. 150. ISBN 0-07-100303-7 ^ v indica il volume molare, pari al volume rapportato al numero di moli, ovvero: v = V/n \ ^ Infatti, dalla definizione dellentalpia: H = U + pv; e in termini differenziali: dH = dU + d(pv). Ma dU e dH sono nulli essendo la trasformazione a temperatura costante, quindi d(PV) = 0, ovvero pdv = -vdp ^ (EN) J. M. Smith; H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 4ª ed., McGraw-Hill, 1987, pp. 159-163. ISBN 0-07-100303-7 Bibliografia (IT) Ben-Naim Arieh, Lentropia svelata. La seconda legge della termodinamica ridotta a puro buon senso, 1ª ed., Edizioni libreriauniversitaria.it, 2009. ISBN 978-88-6292-011-7 (EN) J. M. Smith; H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 6ª ed., McGraw-Hill, 2000. ISBN 0-07-240296-2 (EN) Robert Perry; Don W. Green, Perrys Chemical Engineers Handbook, 8ª ed., McGraw-Hill, 2007. ISBN 0-07-142294-3 Arieh Ben-Naim, Entropy Demystified, World Scientific, 2007. ISBN 981-270-055-2. J. S. Dugdale, Entropy and its Physical Meaning, 2nd Ed., Taylor and Francis (UK); CRC (US), 1996. ISBN 0-7484-0569-0. Enrico Fermi, Termodinamica, ed. italiana Bollati Boringhieri, (1972), ISBN 88-339-5182-0; Enrico Fermi, Thermodynamics, Prentice Hall, 1937. ISBN 0-486-60361-X. Herbert Kroemer; Charles Kittel, Thermal Physics, 2nd Ed., W. H. Freeman Company, 1980. ISBN 0-7167-1088-9. Roger Penrose, The Road to Reality : A Complete Guide to the Laws of the Universe, 2005. ISBN 0-679-45443-8. F. Reif, Fundamentals of statistical and thermal physics, McGraw-Hill, 1965. ISBN 0-07-051800-9. Goldstein, Martin; Inge, F, The Refrigerator and the Universe, Harvard University Press, 1993. ISBN 0-674-75325-9. vonBaeyer; Hans Christian, Maxwells Demon: Why Warmth Disperses and Time Passes, Random House, 1998. ISBN 0-679-43342-2. Voci correlate Entalpia Trasformazione reversibile Disuguaglianza di Clausius Secondo principio della termodinamica Entropia residua Diagramma entropico Entropia molare standard Entropia di fusione Entropia di vaporizzazione Entropia (teoria dellinformazione) Sintropia Morte termica delluniverso Rendimento isoentropico Altri progetti Collabora a Wikizionario Wikizionario contiene il lemma di dizionario «entropia» Collabora a Commons Commons contiene immagini o altri file su entropia Collegamenti esterni Entropia La termodinamica nei processi di trasformazione energetica Lentropia è disordine? Entropia e filosofia Chimica Portale Chimica va bene signor/signora...facebook? ^_^!
Posted on: Fri, 25 Oct 2013 18:20:32 +0000

Trending Topics



Recently Viewed Topics




© 2015