Presi in un vortice
Fenomenologia della turbolenza
di Guido Boffetta
a.
Affresco “Madonna con Bambino e santi Antonio, Domenico, Pietro martire e Cristoforo”, attribuito a Pietro di Giovanni Laniori (1428-1460), Basilica di San Domenico (Bologna).
Tra i piedi di San Cristoforo sono riconoscibili le tipiche scie vorticose di von Kármán (descritte nel 1911).
“Un’intelligenza che, per un dato istante, conoscesse tutte le forze di cui è animata la natura e le posizioni rispettive degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più leggero”. Affresco “Madonna con Bambino e santi Antonio, Domenico, Pietro martire e Cristoforo”, attribuito a Pietro di Giovanni Laniori (1428-1460), Basilica di San Domenico (Bologna).
Tra i piedi di San Cristoforo sono riconoscibili le tipiche scie vorticose di von Kármán (descritte nel 1911).
Questa celebre affermazione di Laplace illustra la visione deterministica del mondo: quando diciamo che le leggi della fisica classica sono deterministiche intendiamo dire che, se lo stato di un sistema a un certo istante è esattamente noto, la sua evoluzione futura è univocamente determinata e, se siamo abbastanza bravi, riusciamo a trovarla. Ma, ovviamente, non esiste un matematico infinitamente bravo. Ed è evidente che non pochi fenomeni sono irregolari e difficili da prevedere (basti pensare all’atmosfera). Si potrebbe pensare che queste irregolarità siano solo “apparenti”, cioè dovute a un numero molto grande di cause ognuna delle quali sia semplice se presa singolarmente, e che magari un computer sufficientemente potente potrebbe fare le veci del super-matematico di Laplace. Questa interpretazione dei fenomeni irregolari, che possiamo chiamare “filosofia del mattone elementare”, è stata sostanzialmente accettata fino a pochi decenni or sono – ma le cose sono più complicate.
Il motivo è il caos, un fenomeno scoperto intorno al 1890 da Henri Poincaré, paradossalmente proprio nell’ambito della meccanica celeste, la scienza che per secoli ha incarnato l’ideale laplaciano.
Studiando la dinamica di tre corpi che interagiscono gravitazionalmente (ad esempio Sole-Giove-asteroide), Poincaré capì che la difficoltà nel trovare una soluzione non dipende dalla limitata bravura dei matematici, ma da un’importante proprietà intrinseca del sistema, il “caos deterministico”: “Una causa piccolissima che sfugge alla nostra attenzione – scrisse – determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l’effetto è dovuto al caso. […] Può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diventa impossibile e si ha un fenomeno fortuito”.
Laplace, insomma, non aveva impostato il problema nel modo “giusto”. La domanda pratica più corretta è: che cosa possiamo dire se conosciamo la condizione iniziale con una piccola incertezza? Tuttavia, nonostante il grande prestigio di Poincaré, i sistemi caotici non attirarono l’attenzione della comunità scientifica – a parte poche eccezioni – e si dovette attendere fino agli anni ’60 del secolo scorso per comprendere che il caos nei sistemi deterministici non è affatto una patologia matematica, bensì una proprietà comune e “fisiologica”.
L’importanza del caos è manifesta, per esempio, nelle previsioni meteorologiche. L’atmosfera è ovviamente un sistema molto complicato, descritto da tante variabili, ma ci sono anche altre difficoltà. Edward Lorenz (uno dei pionieri del caos), studiando un modello minimale per la circolazione atmosferica, mostrò in modo inequivocabile come il comportamento irregolare dei fluidi sia dovuto anche al caos deterministico.
b.
Il colorante in acqua mostra il flusso che si genera a valle di una sfera con numero di Reynolds pari a 15.000. L’instabilità della superficie produce vortici di scala comparabile a una frazione del raggio della sfera, che in breve si rompono a formare un flusso turbolento.
Il colorante in acqua mostra il flusso che si genera a valle di una sfera con numero di Reynolds pari a 15.000. L’instabilità della superficie produce vortici di scala comparabile a una frazione del raggio della sfera, che in breve si rompono a formare un flusso turbolento.
Questa seconda considerazione è spiazzante non solo per il creazionismo, o per l’umanesimo fondamentalista di chi vorrebbe trincerarsi dietro un muro di differenze strutturali, fra noi e le altre specie animali, ma anche per chi, mosso dal desiderio di capire com’è che funzionano tanto bene, cerca nell’organizzazione delle nostre reti neurali tracce concrete di uno sforzo di ottimizzazione, che chissà perché l’evoluzione avrebbe dedicato esclusivamente a noi. Fra questi, anche coloro che in pur pregevoli studi di modelli astratti di reti neurali applicano principi variazionali importati dalla fisica matematica, atti ad affinare uno strumento buono e a renderlo perfetto. Come se noi, e solo noi, fossimo arrivati al culmine del percorso evolutivo, guidati da un ingegnere perfezionista. Quand’è invece che la fisica, ovvero la matematica sviluppata dai fisici, ha contribuito effettivamente alla comprensione del cervello? Quando ne ha abbracciato la natura di strumento impreciso, che si trova a operare in un mondo cangiante e poco prevedibile, arrangiandosi in gran parte con materiali di risulta (il concetto di “exaptation”, il riutilizzo di reti preesistenti per processi cognitivi sviluppati in seguito), ricavati da quella “nave sanza nocchiere in gran tempesta” che è l’evoluzione delle specie. In altre parole, quando ha messo in luce i vincoli e le limitazioni derivanti dalla sua natura di sistema disordinato.
Perfino un sistema con poche variabili può essere caotico: in questo caso, un piccolo errore sulle condizioni iniziali viene amplificato esponenzialmente. Quindi anche se (ipoteticamente) l’evoluzione dell’atmosfera fosse descritta da poche variabili, in presenza del caos non saremmo in grado di fare previsioni dopo un certo tempo caratteristico, determinato da un parametro chiamato “esponente di Lyapunov”. Questo è quello che viene chiamato “effetto farfalla” (dal titolo della conferenza di Lorenz “Può il battito d’ali di una farfalla in Brasile provocare un tornado in Texas?”). I risultati di Lorenz mostrano come l’irregolarità presente in sistemi complessi come l’atmosfera non sia necessariamente una conseguenza della sovrapposizione del comportamento di tanti mattoni “elementari”, ma sia piuttosto dovuta al caos.
La scoperta del caos ha permesso anche di chiarire il dominio di validità dell’approccio probabilistico: ovviamente lo si deve adottare se il numero delle variabili dinamiche è molto grande (questo è ciò che facciamo da tempo in meccanica statistica), ma anche in presenza del caos deterministico, indipendentemente dal numero delle variabili coinvolte.
La possibilità di comportamenti caotici anche in sistemi apparentemente semplici ha un impatto non banale per la modellizzazione di una gran classe di fenomeni. Se il modello è caotico allora si deve fare particolare attenzione alla reale rilevanza dei risultati. Infatti, modificando leggermente i parametri di controllo (oppure le condizioni iniziali), il risultato può cambiare in modo drammatico. Che cosa si può realmente ottenere da tali modelli? Certamente non sono attendibili le previsioni puntuali (quello che succede un certo giorno); tuttavia, previsioni di tipo meno accurato (cosa succede in media in un mese) possono essere precise e questo, anche se può suonare paradossale, proprio per la presenza del caos.
La teoria dei sistemi caotici ha interessanti relazioni con la teoria dell’informazione e la complessità algoritmica. Ricordiamo che la complessità algoritmica di una sequenza di simboli è la lunghezza del più breve programma di computer che genera quella sequenza (quanto più lungo è il programma, tanto più complessa è la sequenza), ed è quantificata da una grandezza chiamata “entropia di Shannon”. Il fatto interessante è che se traduciamo in una sequenza binaria una serie temporale generata da un sistema caotico, troviamo che l’entropia di Shannon è connessa al “grado di caoticità” del sistema, espresso a sua volta da un’altra entropia, quella “di Kolmogorov-Sinai”, che nei sistemi a bassa dimensionalità altro non è che l’esponente di Lyapunov. L’entropia di Shannon, l’entropia di Kolmogorov-Sinai e l’entropia di Boltzmann della termodinamica sono accomunate dal fatto di essere contatori logaritmici delle configurazioni di un sistema, e di misurare quindi un certo grado di “complessità”. Ma il significato preciso del termine “complessità” dipende dalle diverse situazioni ed è bene astenersi da generalizzazioni arbitrarie, che possono provocare grosse confusioni.
Infine, la teoria del caos ha trovato applicazioni anche al di fuori delle scienze della natura. Per esempio, la modellizzazione matematica dell’economia è stata basata per molto tempo sull’assunzione di comportamenti regolari, ad esempio periodici, e sulla convinzione di poterli controllare modificando i parametri di controllo, cioè agendo su tassi di interesse, svalutazione, tasse ecc. Ora anche gli economisti si interessano di modelli caotici e i risultati sembrano mettere in discussione alcuni dei paradigmi classici. Tra l’altro, è stato recentemente mostrato come in un regime di duopolio i produttori ottengano maggiori profitti in un mercato con andamento caotico rispetto a quelli ottenuti in un mercato che si assesti su valori di equilibrio stabile, in netto contrasto con l’opinione ampiamente diffusa che i sistemi stabili siano preferibili a quelli con continue variazioni. Una conclusione sorprendente e controintuitiva, che senza la conoscenza dei fenomeni caotici non sarebbe stata neanche immaginabile.
Perfino un sistema con poche variabili può essere caotico: in questo caso, un piccolo errore sulle condizioni iniziali viene amplificato esponenzialmente. Quindi anche se (ipoteticamente) l’evoluzione dell’atmosfera fosse descritta da poche variabili, in presenza del caos non saremmo in grado di fare previsioni dopo un certo tempo caratteristico, determinato da un parametro chiamato “esponente di Lyapunov”. Questo è quello che viene chiamato “effetto farfalla” (dal titolo della conferenza di Lorenz “Può il battito d’ali di una farfalla in Brasile provocare un tornado in Texas?”). I risultati di Lorenz mostrano come l’irregolarità presente in sistemi complessi come l’atmosfera non sia necessariamente una conseguenza della sovrapposizione del comportamento di tanti mattoni “elementari”, ma sia piuttosto dovuta al caos.
La scoperta del caos ha permesso anche di chiarire il dominio di validità dell’approccio probabilistico: ovviamente lo si deve adottare se il numero delle variabili dinamiche è molto grande (questo è ciò che facciamo da tempo in meccanica statistica), ma anche in presenza del caos deterministico, indipendentemente dal numero delle variabili coinvolte.
La possibilità di comportamenti caotici anche in sistemi apparentemente semplici ha un impatto non banale per la modellizzazione di una gran classe di fenomeni. Se il modello è caotico allora si deve fare particolare attenzione alla reale rilevanza dei risultati. Infatti, modificando leggermente i parametri di controllo (oppure le condizioni iniziali), il risultato può cambiare in modo drammatico. Che cosa si può realmente ottenere da tali modelli? Certamente non sono attendibili le previsioni puntuali (quello che succede un certo giorno); tuttavia, previsioni di tipo meno accurato (cosa succede in media in un mese) possono essere precise e questo, anche se può suonare paradossale, proprio per la presenza del caos.
La teoria dei sistemi caotici ha interessanti relazioni con la teoria dell’informazione e la complessità algoritmica. Ricordiamo che la complessità algoritmica di una sequenza di simboli è la lunghezza del più breve programma di computer che genera quella sequenza (quanto più lungo è il programma, tanto più complessa è la sequenza), ed è quantificata da una grandezza chiamata “entropia di Shannon”. Il fatto interessante è che se traduciamo in una sequenza binaria una serie temporale generata da un sistema caotico, troviamo che l’entropia di Shannon è connessa al “grado di caoticità” del sistema, espresso a sua volta da un’altra entropia, quella “di Kolmogorov-Sinai”, che nei sistemi a bassa dimensionalità altro non è che l’esponente di Lyapunov. L’entropia di Shannon, l’entropia di Kolmogorov-Sinai e l’entropia di Boltzmann della termodinamica sono accomunate dal fatto di essere contatori logaritmici delle configurazioni di un sistema, e di misurare quindi un certo grado di “complessità”. Ma il significato preciso del termine “complessità” dipende dalle diverse situazioni ed è bene astenersi da generalizzazioni arbitrarie, che possono provocare grosse confusioni.
Infine, la teoria del caos ha trovato applicazioni anche al di fuori delle scienze della natura. Per esempio, la modellizzazione matematica dell’economia è stata basata per molto tempo sull’assunzione di comportamenti regolari, ad esempio periodici, e sulla convinzione di poterli controllare modificando i parametri di controllo, cioè agendo su tassi di interesse, svalutazione, tasse ecc. Ora anche gli economisti si interessano di modelli caotici e i risultati sembrano mettere in discussione alcuni dei paradigmi classici. Tra l’altro, è stato recentemente mostrato come in un regime di duopolio i produttori ottengano maggiori profitti in un mercato con andamento caotico rispetto a quelli ottenuti in un mercato che si assesti su valori di equilibrio stabile, in netto contrasto con l’opinione ampiamente diffusa che i sistemi stabili siano preferibili a quelli con continue variazioni. Una conclusione sorprendente e controintuitiva, che senza la conoscenza dei fenomeni caotici non sarebbe stata neanche immaginabile.
c.
Andrej N. Kolmogorov (1903-1987), uno dei maggiori matematici sovietici, fondatore tra l’altro della moderna teoria della probabilità. Diede anche contributi fondamentali in diversi campi della meccanica teorica, della teoria dell’informazione e della complessità e formulò la prima teoria della turbolenza.
Andrej N. Kolmogorov (1903-1987), uno dei maggiori matematici sovietici, fondatore tra l’altro della moderna teoria della probabilità. Diede anche contributi fondamentali in diversi campi della meccanica teorica, della teoria dell’informazione e della complessità e formulò la prima teoria della turbolenza.
Biografia
Guido Boffetta è professore di fisica teorica della materia presso l’Università di Torino. È fellow della European Mechanics Society ed è editore di Physical Review Fluids (APS). Si occupa di sistemi dinamici, turbolenza, fluidi complessi e materia attiva, principalmente per mezzo di simulazioni numeriche.
DOI: 10.23801/asimmetrie.2022.32.6