Site icon ExPartibus

Irreversibilità e freccia del tempo

Freccia del tempo


Nel suo saggio Il mito dell’eterno ritorno il grande storico delle religioni rumeno Mircea Eliade ha preso in esame la concezione ciclica del tempo nelle culture arcaiche.

Il tempo viene periodicamente “rifondato” e le azioni fondamentali della vita sacralizzate, ogni cosa è reversibile, destinata a tornare infinite volte. Nelle culture orientali ci si smarrisce nei vari cicli che scandiscono il tempo umano e quello cosmico, che possono durare migliaia, centinaia di migliaia o milioni di anni, terminando e iniziando con distruzioni e rigenerazioni dell’Universo.

La tradizione giudaico-cristiana contiene una sostanziale novità, che ha preparato l’umanità all’evo moderno: il tempo non viene più concepito in modo ciclico: alla fine dei tempi ci sarà il ritorno del Messia e un Giudizio definitivo dei vivi e dei morti, che deciderà chi è destinato alla resurrezione della carne e alla vita eterna e chi, invece, all’eterna dannazione.

Ma sono state la scienza e la rivoluzione industriale ad aver affermato in modo definitivo l’idea di un tempo che procede dal passato al futuro in modo irreversibile, esemplificato da una freccia che ha una precisa direzione e non può essere invertita.

Nella meccanica newtoniana ogni fenomeno fisico poteva ancora essere teoricamente invertito nel suo svolgersi, come in un film proiettato all’inverso: le equazioni differenziali che descrivono il comportamento e l’evoluzione di un sistema sono compatibili con un ritorno alle sue condizioni iniziali.

Certo, è difficile immaginare una lastra di vetro rotta in mille pezzi reintegrarsi, un’auto che frena recuperare l’energia dissipata in calore sotto forma di energia cinetica, o un corpo in decomposizione tornare in vita ripercorrendo alla rovescia le fasi della morte (il chimico Ilya Prigogine introdurrà nel XX secolo l’idea di “sistemi dissipativi”, per descrivere lo scambio di energia con l’esterno degli organismi viventi).

Nel XVIII secolo Laplace poteva ancora immaginare che un demone onnisciente, che conoscesse posizione, velocità e accelerazione di ogni particella nell’Universo, avrebbe potuto prevedere, con l’aiuto del calcolo matematico, l’evoluzione dell’Universo per i secoli a venire.

I meccanicisti e i deterministi più convinti estesero questa convinzione a fenomeni di tipo biologico, economico o sociale. Si cercavano modelli meccanici dei fenomeni da spiegare. Un caso estremo è rappresentato dalle equazioni di Maxwell: il fisico costruì un complicatissimo modello meccanico delle sue equazioni. La fine del XVIII secolo vide convergere le ricerche sul rapporto tra lavoro meccanico e calore in una trasformazione termodinamica.

La forte motivazione per queste ricerche va ricercata nella logica stessa del capitalismo: chi avesse trovato il segreto del moto perpetuo avrebbe potuto realizzare macchine in grado di lavorare all’infinito, producendo beni senza dissipazione di energia, e, in prospettiva, senza mano d’opera umana. Quindi: profitto senza limiti e spese ridotte quasi a zero.

Questo interesse fu anche determinato dall’espansione coloniale, dalla spinta a produrre sempre di più e a costi sempre più bassi, dalla fine della produzione artigianale e dal prevalere della produzione in serie, che si avvaleva di macchinari.

Fisici, tecnici e ingegneri erano mossi dalla necessità di determinare con precisione il rapporto intercorrente tra perdite e profitti nel funzionamento di una macchina, cioè tra combustibile impiegato per farla funzionare e lavoro meccanico ottenuto.

Agli albori della termodinamica sono soprattutto docenti di politecnici francesi, inglesi e tedeschi e alcuni privati che lavorano con l’ingegneria meccanica a fare le principali scoperte. La prima macchina a vapore di T. Savery, capitano del genio, risale alla fine del Seicento, e funzionava con altissime pressioni, la prima macchina impiegata su larga scala all’inizio del Settecento, fu inventata, invece, da T. Newcomen.

Le prime macchine erano caratterizzate da enormi sprechi e la minima disattenzione ne determinava la rottura o l’esplosione. Si lavorava ai concetti di Potenza, lavoro nell’unità di tempo, e Rendimento, effetti utili/lavoro in ingresso. La valutazione economica della resa delle macchine divenne sempre più importante così come riuscire a utilizzare una stessa macchina per più “cicli”.

Fu J. Watt, grazie ad alcune sue fondamentali scoperte, a mettere a fuoco i moderni concetti termodinamici, dopo il 1769. Mentre scienziati come Laplace e Lavoisier si interrogavano sulla natura del calore – il calore come fluido, calorico, etc. – gli studiosi di ingegneria meccanica dei politecnici facevano grandi progressi nella scienza del calore. In particolare, all’inizio dell’Ottocento, Lazare e Sadi Carnot, ricorrendo anche ad analogie idrauliche, e successivamente Kelvin, Clausius e Joule verso la metà del secolo, formularono i principi della termodinamica così come li conosciamo oggi.

Il meccanicismo settecentesco era legato alla concezione di un tempo reversibile, perché i modelli che fisici e matematici avevano in mente erano modelli meccanici, ideati per descrivere eventi la cui evoluzione era caratterizzata da un’informazione completa sul moto di ogni singola particella. Questo tipo di fenomeni assomiglia, come abbiamo detto, a un film che possa essere proiettato al contrario.

I termodinamici si occuparono invece di un altro tipo di energia, quella termica, che ha caratteristiche profondamente diverse.

Il Secondo Principio della termodinamica, constatando l’irreversibilità di molti fenomeni naturali che fino ad allora la fisica aveva ritenuto, almeno teoricamente, reversibili, sancisce la fine della visione meccanicistica del mondo e muta la concezione che la civiltà occidentale ha del tempo. Per i termodinamici la freccia del tempo ha una sola direzione e non può essere invertita.

Così: se freno con una macchina, l’energia cinetica (ordinata) dell’auto si trasforma in calore che riscalda i freni. Impossibile ritrasformare di nuovo integralmente quel calore in moto della macchina. Una monetina che cade dall’alto di riscalda, ma riscaldandola non riesco a farla risalire. Se buco un palloncino l’aria ne fuoriesce spontaneamente, ma è altissima l’improbabilità del fenomeno inverso. Un essere vivente che muore è totalmente asimmetrico rispetto a un morto che torna in vita.

L’interrogarsi dei fisici sui motivi profondi di questa irreversibilità dei fenomeni nel tempo portò al lavoro di Ludwig Boltzmann (1844 – 1906), che tentò di coniugare le scoperte dei termodinamici con il determinismo meccanicistico, stabilendo una connessione tra il calcolo delle probabilità e l’evoluzione dei fenomeni, tra la nostra percezione di Ordine e Caos e il Secondo Principio della termodinamica. Boltzmann fu osteggiato dalla comunità scientifica del suo tempo, le sue intuizioni geniali non furono comprese – i suoi avversari lo avevano soprannominato il “terrorista algebrico” – e lui finì con il suicidarsi.

In termodinamica ci sono vari modi di concepire i concetti di Ordine e Caos. Il termine “ordine” viene inteso come la quantità di informazioni che abbiamo sulle singole parti di un sistema e sulla loro evoluzione futura, per esempio la possibilità di descrivere tale evoluzione con un’equazione.

Viene inteso anche come emersione di strutture complesse e differenziate all’interno di un sistema. Venne anche introdotto il concetto di “entropia”, come misura del grado di disordine di un sistema: più un sistema evolve verso il suo stato più probabile, meno ordine e meno informazioni avremo sui suoi stati interni.

Sappiamo intuitivamente che un sistema governato dal caso difficilmente evolve in modo spontaneo verso una maggiore complessità. Per questo motivo riteniamo impossibile (altamente improbabile) che una scimmia, pestando a caso sui tasti di una macchina da scrivere possa compitare la Divina Commedia, o che in una caverna in cui da secoli l’acqua formi stalattiti e stalagmiti, una stalattite assuma la forma della Pietà di Michelangelo.

Osserviamo, in un conduttore percorso da corrente, il moto ordinato delle cariche elettriche riscaldare una resistenza, ma riscaldando la resistenza non riteniamo possibile generare un moto ordinato di cariche nel conduttore.

Una pentola d’acqua messa sul fuoco difficilmente cristallizza in ghiaccio, anzi, diciamo che è “impossibile” tanto bassa è la probabilità di questo evento; le molecole d’acqua dovrebbero essere “teleguidate” da un’invisibile intelligenza e urtarsi in modo tale da diminuire la loro velocità.

Il Princìpio d’Ordine di Boltzmann fu l’ultimo e disperato tentativo di ricondurre il caos caratteristico dell’energia termica all’ordine predittivo dei modelli deterministici.

Boltzmann chiamò “macrostato” ogni stato termodinamico caratterizzato da un preciso valore di pressione, volume e temperatura, ad esempio di un gas, e “microstato” ognuna delle disposizioni di molecole, con le loro velocità e accelerazioni, che rendevano quel macrostato possibile.

Il suo princìpio stabilisce che un sistema su cui non agiscono influenze esterne tende sempre ad assumere come stato finale il macrostato più probabile, cioè quello che ha a disposizione più microstati, cioè disposizioni di molecole con date velocità, per realizzarsi. Questa formulazione, pur se contestata da molti fisici, resta una delle vie più semplici per intuire il perché l’entropia tenda a crescere in un sistema chiuso.

Cerchiamo di spiegarlo con un esempio: supponiamo che il nostro sistema “chiuso” sia costituito da quattro biglie rosse e quattro biglie blu in moto in una piccola scatola. Le biglie si urteranno e si sposteranno nel recipiente. Supponiamo di voler sapere, in ogni istante, dove si trova una data biglia.

La situazione in cui tutte le biglie rosse si trovano da un certo lato della scatola e tutte le biglie blu dall’altro, ci consentirebbe di saperlo “a colpo d’occhio”, ma ha solo due possibilità di realizzarsi: tutte le biglie rosse dal lato A e tutte le blu dal lato B, o viceversa.

Ci sono invece 16 modi in cui tre biglie rosse e una blu possono fermarsi da una parte e tre blu e una rossa da un’altra, le 4 scelte di una biglia rossa per le 4 scelte di una blu.

E ci sono ben 36 modi in cui le biglie possono fermarsi in modo che ce ne siano 2 rosse e 2 blu per parte: i 6 modi di sceglierne 2 rosse per i sei modi di sceglierne 2 blu.

[In generale ci sono n!/h!(n-h)!  modi di scegliere h oggetti da n dati, senza tener conto dell’ordine].

Se assumiamo una data distribuzione di colori delle biglie come un “macrostato termodinamico” e ogni distribuzione di biglie che lo realizza come “microstato” si vede che lo stato più probabile è quello verso il quale il sistema tenderà ad evolvere spontaneamente, perché ha a disposizione più combinazioni casuali di biglie per realizzarsi.

Nel divenire che caratterizza il nostro universo, questa tendenza alla crescita dell’entropia nei sistemi chiusi si traduce in una diminuzione dei dislivelli termici e in un’attenuazione della differenziazione e della complessità degli stati finali.

Descriviamo tutto ciò come perdita di ordine e di informazione e il Secondo Principio ci fa dire che l’irreversibilità dei fenomeni, la loro tendenza ad evolvere sempre verso gli stati più probabili, è destinata a condurre l’universo verso la morte termica, lo stato in cui non avvengono più trasformazioni.

Il Secondo Principio della termodinamica ha così modificato la nostra percezione di ciò che è Ordine: più probabile è uno stato, meno differenziazione c’è al suo interno, meno informazione abbiamo sulle singole trasformazioni che vi si svolgono, meno strumenti abbiamo per scorgere ordine e regolarità al suo interno.

Nel corso del XX secolo il Secondo Princìpio e il Princìpio d’Ordine sono stati estesi a tutte le situazioni in cui sia possibile attribuire una distribuzione di probabilità a un insieme finito di eventi possibili in un sistema in evoluzione.

Ad esempio, nella teoria della comunicazione si parla di entropia di un “messaggio” seguendo ciò che avviene nel suo passaggio dalla fonte al destinatario.

Riassumendo, se facciamo evolvere “spontaneamente” un sistema isolato la sua entropia aumenterà, quindi, nel suo equilibrio finale, ci saranno meno differenziazioni, diminuirà la complessità della struttura del fenomeno, scemeranno quelle simmetrie locali che ci fanno discriminare forme regolari, avremo meno informazioni sullo stato delle parti del sistema.

Un altro colpo all’illusione di fisici come Laplace, che un dèmone sufficientemente intelligente avrebbe potuto, conoscendo la posizione e la velocità di tutte le particelle dell’universo, predire lo svolgersi degli eventi futuri fino alla fine dei tempi, fu dato dal princìpio di indeterminazione di Heisenberg.

Questo princìpio stabilisce che non è possibile calcolare simultaneamente con assoluta precisione quali siano la velocità e la posizione di una particella elementare perché, osservandola, ne modifichiamo lo stato.

Maggiore è dunque la precisione con cui ne determiniamo la velocità, maggiore sarà l’intervallo di incertezza con cui possiamo determinarne la posizione, e viceversa.

Questo mette in discussione la possibilità stessa di una “realtà indipendente dall’osservatore” in cui le particelle possiedano “effettivamente” una loro velocità e posizione senza che le osserviamo.

Dato che velocità e posizione sono impossibili da osservare simultaneamente, i fisici tendono a pensare che la realtà “ultima” sia di tipo stocastico, che si debbano immaginare i “fenomeni in sé” come realtà di tipo probabilistico.

In questa direzione si è evoluta la fisica quantistica e si è modificato il vecchio principio di causalità. Schrödinger ideò l’esempio di un gatto in una scatola che è simultaneamente vivo o morto a seconda di come si “guardi” al prodursi di un fenomeno riguardante le particelle elementari, che aziona o meno l’apertura di una fiala contenente cianuro: solo aprendo la scatola, lo stato del gatto diviene univoco e il gatto sarà vivo oppure morto, altrimenti lo stato del gatto sarà indecidibile.

Un addio definitivo, quindi all’idea kantiana di “noumeno”, di una realtà “in sé” “dietro” i fenomeni, che persista come essenza al di là di ciò che possiamo osservare. Osservando la realtà la modifichiamo – e per la scienza non c’è nulla come “la realtà ultima delle cose”.

Per concludere, per l’uomo moderno la freccia del tempo conduce dal passato a un futuro irreversibile, fatto che sembra ribadito dal visibile e sempre più veloce degrado del clima e dell’ambiente.

La chimera alchemica della palingenesi, la possibilità di ripercorrere il tempo a ritroso, non ha alcun riscontro nelle scienze che studiano la materia.

Se gli scritti alchemici hanno ancora un valore, questo deve essere cercato nelle due operazioni, raccomandate dagli alchimisti, di cui la scienza non potrà mai occuparsi: “corporificare lo spirito” e “spiritualizzare la materia”.

Autore Alessandro Orlandi

Alessandro Orlandi (1953) matematico, museologo, curatore per 20 anni dell'ex museo kircheriano, musicista, saggista ed editore della Lepre edizioni, è autore di numerosi articoli e libri riguardanti la matematica, la museologia scientifica, la storia delle religioni, la tradizione ermetica, l’alchimia, le origini del Cristianesimo e i Misteri del mondo antico.

Exit mobile version