Creatività aumentata
Modelli teorici per l’interpretazione dei dati
di Vittorio Loreto
“Noi, in un’occhiata, percepiamo: tre bicchieri su una tavola. Funes: tutti i tralci, i grappoli e gli acini d’una pergola. Sapeva le forme delle nubi australi dell’alba del 30 aprile 1882, e poteva confrontarle, nel ricordo, con la copertina marmorizzata di un libro che aveva visto una sola volta, o con le spume che sollevò un remo, nel Rio Negro, la vigilia della battaglia di Quebracho”. (“Funes, o della memoria” di Jorge Luis Borges, in “Finzioni”)
Iniziamo con questa citazione di Borges per far comprendere, con un esempio forse paradossale, come la disponibilità di enormi moli di dati non sempre rappresenti un vantaggio. Ireneo Funes, condannato a una prodigiosa capacità di registrare e ricordare anche il più piccolo dettaglio del suo universo, sarebbe stato incapace di riconoscere un suo familiare la mattina dopo perché nella notte, mentre dormiva, la disposizione dei capelli era cambiata. Quando la mole di dati da “processare”, di cui, per fortuna o purtroppo, tutti noi disponiamo, è smisurata, possiamo essere incapaci di creare categorie o cogliere regolarità. Questa incapacità, associata alla mancanza di strumenti per dare un senso alla vastità di dati, può seriamente menomare la nostra possibilità di comprendere e spiegare i fenomeni che ci circondano. E in ultima analisi la nostra capacità di anticipare il futuro e fare previsioni. Non era di questo avviso, Chris Anderson, che nel 2008, allora direttore della rivista Wired, scrisse un pezzo intitolato provocatoriamente “The end of theory” (vd. link sul web). Anderson sosteneva, al contrario, che l’enorme abbondanza di dati, unita alle straordinarie capacità computazionali di cui disponiamo, potesse dar luogo ad algoritmi di machine learning capaci addirittura di surclassare gli esseri umani e la loro capacità di costruire teorie. L’affermazione chiave (argomentata principalmente attraverso le scoperte prodotte pochi anni prima dal sequenziamento del genoma umano, vd. Le reti della vita ndr) era: “Le correlazioni sostituiscono la causalità, e la scienza può avanzare persino senza modelli coerenti, teorie unificate e addirittura qualsiasi tipo di spiegazione meccanicistica”.
Henri Poincaré (1854 - 1912) e Mark Kac (1914 - 1984, nella foto) provarono due risultati importantissimi per la predicibilità dei sistemi dinamici deterministici. Poincaré dimostrò il celebre teorema di ricorrenza, che stabilisce che un sistema dinamico deterministico ritornerà dopo un tempo opportuno vicino allo stato iniziale. Esistono dunque in teoria degli stati analoghi di cui si potrebbe trovare traccia nel passato. La domanda è quanto tempo impiegherà il sistema a tornare vicino allo stato inziale. Il lemma di Kac mostrò come tale tempo di ricorrenza può essere arbitrariamente grande per sistemi anche di bassa complessità.
Ma è veramente così? Il criterio fondamentale per comprendere la bontà di una teoria o di una costruzione matematica dovrebbe essere la capacità di effettuare previsioni e verificarne l’attendibilità in opportuni contesti. La predizione del futuro rappresenta da sempre una sfida per le nostre capacità cognitive. E anticipare il futuro significa indovinare l’esito più probabile di una data situazione, a partire da un certo numero di possibilità. Una delle strategie più ovvie per effettuare previsioni del futuro è sempre stata quella di appoggiarsi alla nostra esperienza del passato e, in particolare, alla frequenza con cui si sono verificati nel passato determinati eventi. La straordinaria abbondanza di “serie storiche” (cioè l’insieme di variabili casuali ordinate rispetto al tempo) dei fenomeni più disparati, da quelli fisici a quelli riguardanti gli individui e la società, sembrerebbero far ben sperare. Uno dei criteri storicamente considerato più promettente è il cosiddetto “metodo degli analoghi”. Se in una serie temporale passata si scoprissero delle situazioni analoghe a quelle che viviamo oggi, potremmo dedurne, anche in assenza di un contesto teorico ben definito, che il futuro attuale potrebbe non essere molto diverso dal futuro di quel distante passato. Sappiamo ora che così non è e che il metodo degli analoghi è per la maggior parte dei casi fallimentare. Già James Clark Maxwell, verso la metà del XIX secolo, mise in guardia la comunità scientifica dai rischi di quella che considerava una “dottrina metafisica”, ossia che dagli stessi antecedenti derivino conseguenze simili. Da un punto di vista matematico furono i contributi di Henri Poincaré e Mark Kac a farci comprendere la fallacia dell’approccio: la chiave è che anche in un sistema deterministico il tempo necessario perché il sistema evolva in uno stato simile a quanto già osservato in passato è tanto maggiore quanto meno probabile è questo stato. Benché in linea di principio si possa catturare la complessità di un dato fenomeno a partire dalle serie temporali delle sue osservazioni, dal punto di vista pratico tale operazione è resa impossibile non appena la complessità del fenomeno è minimamente grande. È il caso delle previsioni del tempo, oggi basate sulla simulazione di un modello matematico che ci permette, con l’aiuto determinante di dati sulle serie storiche, di proiettare il sistema nel futuro generando gli scenari più attendibili. Da tutto ciò evinciamo che un compromesso intelligente tra modellizzazione teorica e machine learning sembra essere la migliore strategia di previsione. Chiediamoci ora se il metodo degli analoghi, e più in generale la strategia di guardare al futuro con gli occhi del passato, non sia problematica anche per quelle che oggi chiamiamo intelligenze artificiali guidate da algoritmi di machine learning. Esemplare, a tal proposito, è il caso delle auto senza guidatore della Volvo che, come riportato dal Guardian nell’estate del 2017 (vd. link sul web), si bloccarono totalmente davanti ai canguri australiani.
Nel 2017 la Volvo testò delle auto senza guidatore, che si bloccarono totalmente davanti ai canguri australiani perché, essendo macchine svedesi, erano “addestrate” su esempi di alci e renne. Un esempio perfetto della fallacia del metodo degli analoghi nell’intelligenza artificiale.
Schema semplificato dell’adiacente possibile. In questo esempio, il pallino rosso rappresenta un individuo che si muove in un certo spazio (ad esempio uno spazio di amicizie). I cerchietti neri rappresentano le persone già conosciute mentre quelli verdi rappresentano l’adiacente possibile dell’individuo, ossia l’insieme delle persone che potrebbe incontrare in un prossimo futuro. Il punto cruciale è che l’insieme dei cerchietti verdi diventa disponibile solo nel momento in cui si effettua un nuovo incontro. Ad esempio, si fa una nuova conoscenza e solo allora gli amici del nuovo amico diventano potenziali nuovi amici. L’insieme dei cerchietti grigi, infine, rappresenta lo spazio delle persone che potrebbero essergli presentate solo dopo aver incontrato alcuni degli amici dell’adiacente possibile.
Biografia
Vittorio Loreto è professore di Fisica dei Sistemi Complessi presso la Sapienza Università di Roma e membro di Facoltà del Complexity Science Hub di Vienna. Attualmente dirige il Sony Computer Science Lab a Parigi, dove guida il gruppo di “Innovation, Creativity and Artificial Intelligence”. La sua attività scientifica è focalizzata sulla fisica statistica dei sistemi complessi e le sue applicazioni interdisciplinari. Ha coordinato diversi progetti a livello europeo.
Link
https://www.wired.com/2008/06/pb-theory/
https://www.theguardian.com/technology/2017/jul/01/volvo-admits-its-self-driving-cars-are- confused-by-kangaroos
http://whatif.cslparis.com/
https://www.ted.com/talks/vittorio_loreto_need_a_new_idea_start_at_the_edge_of_what_is_known/
{jcomments on}