Il 15 febbraio, giorno in cui ricorre la nascita del padre della scienza moderna Galileo Galilei, sono stati annunciati i vincitori della medaglia intitolata al grande fisico pisano, riconoscimento assegnato ogni due anni dal Centro Nazionale di Studi Avanzati GGI (Galileo Galilei Institute) dell’INFN a ricercatrici e ricercatori distintisi, nei 25 anni precedenti al conferimento, per rilevanti risultati conseguiti nel campo della fisica teorica. Ad aggiudicarsi il premio, giunto quest’anno alla sua terza edizione, sono stati Zvi Bern, Lance Dixon e David Kosower, protagonisti a partire degli anni ’90 di una rivoluzione svoltasi in varie fasi, e per molti versi ancora in corso, che ha avuto origine all’interno del settore dedicato allo studio e alla caratterizzazione di eventi in collisioni di particelle], propagandosi successivamente ad altri indirizzi di ricerca. Una rivoluzione che ha preso le mosse dal già consolidato e ampio quadro di conoscenze definito dal Modello Standard, la teoria di riferimento per la descrizione delle particelle elementari, a partire dal quale è stato sviluppato un nuovo e potente metodo teorico per il calcolo delle probabilità con cui fenomeni a piccolissime distanze avvengono. La sua adozione ha consentito di incrementare l’accuratezza delle previsioni relative agli esiti degli urti tra protoni ad alte energie che hanno luogo in grandi apparati sperimentali come il Large Hadron Collider del Cern e i suoi rivelatori, permettendo per esempio la scoperta e la caratterizzazione del bosone scalare di Higgs nel 2012 e aumentando così la capacità di discriminare eventuali segnali inattesi e fenomeni di nuova fisica. Il comprovato potere predittivo e l’efficacia dimostrata nel riuscire a ottimizzare i complessi calcoli necessari per descrivere le dinamiche e l’evoluzione delle componenti subatomiche coinvolte nelle interazioni tra particelle hanno quindi sancito il successo di questo strumento teorico, il cui impiego sta acquisendo sempre maggiore importanza anche in indirizzi di ricerca differenti, come quelli dedicati alla modellizzazione delle forme delle onde gravitazionali generate dalla fusione di buchi neri o all’elaborazione di teorie quantistiche della gravità.
Prima che i tre vincitori della medaglia Galilei iniziassero a prefigurare una strategia alternativa per la descrizione dei processi previsti cromodinamica quantistica (QCD), la teoria che descrive le interazioni tra particelle elementari per mezzo della forza forte nell’ambito del modello standard, l’accuratezza delle previsioni ottenibili per un evento complesso come quello rappresentato dalla collisione (scattering) dei componenti di due protoni, quark e gluoni, prodotta a seguito di un urto ad alta energia risultava limitata a causa di una ridotta capacità di calcolo, e non solo. La tecnica fino ad allora utilizzata non era difatti in grado di includere tutti quei contributi e correzioni quantistiche coinvolte nello scattering, pena l’aumento dei termini da considerare e del tempo necessario per risolverle. Una situazione che lo stesso strumento di calcolo contribuiva a raffigurare facendo ricorso ai cosiddetti diagrammi di Feynman, ideati negli anni ’40 del secolo scorso da Richard Feynman, i quali, a ogni trasformazione subita da una particella a causa di un decadimento o di un’interazione, associano un grafo in cui sono indicati lo stato iniziale e finale del processo.
“Per quanto corretta, – spiega Fabio Maltoni, ricercatore INFN e docente dell’Università Alma Mater di Bologna – la tecnica di calcolo delle ampiezze di probabilità per gli stati finali di interazioni tra protoni ad alte energie basata sui diagrammi di Feynman presenta un importante ostacolo. Quest’ultimo dipende dal fatto che all’aumento degli ordini perturbativi, i quali fissano anche il livello di precisione con cui si possono analizzare gli eventi, corrisponde un aumento dei diagrammi con linee chiuse, chiamati loops, che rappresentano il contributo apportato al processo dalle particelle virtuali, oggetti effimeri di vita brevissima che possono avere effetti sia reali che illusori. La crescita del numero dei loops comporta infatti una crescita fattoriale dei termini delle funzioni che descrivono il processo, le quali non risultano più alla portata delle regole di calcolo prescritte dalla tecnica di Feynman, l’applicazione della quale non consente, se non quando si tratti di contenti che prevedano poche particelle nello stato finale e un numero limitato di loops, o i due casi presi singolarmente, di ottenere risultati in un tempo finito”.
Come un albero la cui crescita incontrollata abbia reso necessaria la potatura dei rami al fine di rendere omogenea la chioma, allo stesso modo, la moltitudine di diagrammi di Feynman caratteristici degli ordini perturbativi superiori al cosiddetto livello di base (tree level) senza loop, devono quindi poter essere sfrondati e ridotti, tramite opportune metodologie, per ottenere forme più gestibili che consentano di accedere alle previsioni sull’esito delle interazioni tra particelle di cui sono portatori. Il merito di aver introdotto gli strumenti matematici responsabili di quella che, non a caso, è stata definita ‘next-to-leading-order revolution’, spetta proprio a Bern e Kosower, i quali, in alcuni lavori della seconda metà degli anni ’90, sfruttando proprietà matematiche emergenti dalle somiglianze esistenti tra la struttura delle funzioni relative al tree level e quella delle funzioni per la descrizione dei casi ad un loop, furono in grado di trovare soluzioni per le seconde riducendo il problema ad un calcolo delle ampiezze di scattering nell’ordine inferiore. In particolare, il risultato principale descritto in quei lavori riguardava l’adozione del ‘principio di unitarietà’, a partire dal quale i due fisici elaborarono un metodo per la riduzione dei termini non necessari legati agli effetti spuri delle particelle virtuali nelle equazioni a 1 loop.
“Ponendo al centro del calcolo il principio di unitarietà, il quale stabilisce che la somma delle probabilità di tutti i possibili risultati - in questo caso di tutti i possibili stati finali di un processo di scattering - sia pari al 100 per cento, il metodo proposto da Zvi e Bern, partendo dalle indicazioni già ottenibili al livello privo di loops, permetteva letteralmente di immaginare quale sarebbe stata, nell’ordine perturbativo successivo, l’ampiezza di uno stato finale, la cui funzione veniva così costruita sotto determinate condizioni considerando solo i contributi derivanti dalle principali e più plausibili trasformazioni subite dalle particelle. A causa di queste sue peculiarità, alla fine degli anni ’90, il metodo venne considerato dal resto della comunità della fisica delle particelle alla stregua di ‘magia nera’”, chiarisce Maltoni.
Conclusa la fase seminale, coincisa con l’introduzione delle intuizioni di Zvi e Bern, il definitivo compimento della next-to-leading-order revolution si concretizzò solo 10 anni più tardi, con lo sviluppo, avvenuto con il contributo di Lance Dixon, di un algoritmo deterministico, ovvero una serie di regole di calcolo meccaniche, applicabile a qualsiasi caso. La successiva codifica dell’algoritmo e la sua implementazione automatizzata su computer risultarono infine di fondamentale importanza per le iniziali attività di LHC, in quanto consentirono di ottenere previsioni per tutti gli stati finali d’interesse per l’indagine fisica, tra cui quello relativo alla produzione del bosone di Higgs.
“In virtù delle sue straordinarie capacità predittive”, illustra Maltoni, “il metodo dell’unitarietà e la sua automatizzazione hanno completamente cambiato il modo in cui la comunità della fisica delle particelle interpreta i dati dei grandi collisori di particelle come LHC. Gli applicativi che implementano questo strumento di calcolo sono infatti in grado di fornire un codice che può simulare il numero degli stati finali oggetto della nostra richiesta iniziale. Per esempio, al programma può essere sottoposto il caso di uno stato finale complesso risultante dalla collisione di due protoni, come quello costituito da un bosone di Higgs e di una coppia di top-anti-top quarks, che genererà come risultato un codice utilizzabile per studiare in dettaglio tutte le proprietà di questo stato finale, partendo dal contare quanti eventi di questo genere saranno prodotti, fino a prevedere quale direzione saranno rivelati in LHC in dato periodo di tempo.”
Oltre a sancire il successo del metodo dell’unitarietà, i dati sperimentali acquisiti dagli esperimenti di LHC hanno infine dimostrato come gli espedienti matematici utilizzati da questo strumento di calcolo non fossero dei meri costrutti teorici, ma possedessero una reale controparte fisica. Pregi che hanno di recente spinto i ricercatori a esplorare le potenzialità dello strumento anche in settori, come quello dedicato allo studio della gravità, in cui la teoria di riferimento, la Relatività Generale, non è di tipo quantistico, al fine di migliorare la precisione delle previsioni sulle dinamiche di collisione e fusione di due buchi neri. Ulteriori applicazioni del metodo riguardano indirizzi di ricerca volti allo sviluppo delle cosiddette teorie unificate, che cercano di integrare la gravità nel contesto della meccanica quantistica. Tra queste le teorie della supergravità, al centro di un rinnovato interesse proprio grazie alla capacità del metodo dell’unitarietà di sviluppare le equazioni per modelli che prevedono l’esistenza di particelle elementari, comunemente denominate gravitoni, portatrici dell’interazione gravitazionale.
“Lo sviluppo del metodo dell’unitarietà oltre il proprio settore di nascita”, specifica Maltoni, “ha messo in evidenza relazioni molto interessanti tra le ampiezze di scattering delle particelle e le interazioni tra osservabili astrofisiche. Negli ultimi anni, Bern e Kosower e collaboratori sono riusciti a riprodurre le previsioni sulla velocità con cui i buchi neri si fondono, svolgendo i relativi calcoli addirittura a ordini superiori. Un altro aspetto molto suggestivo che il metodo ha permesso di approfondire le teorie, che, sulla base del fatto che l’interazione gravitazionale sembra agire come il quadrato di teorie di gauge non abeliane, descrivono la gravità come la manifestazione delle interazioni di coppie di bosoni vettori.”
Se il percorso che ha portato al conseguimento del paradigma metodologico descritto ha certamente visto la partecipazione di molti scienziati, i quali hanno contribuito a definire concetti e applicazioni, il principale merito dei vincitori della terza edizione della Medaglia Galilei è stato quello di aver avuto il coraggio di credere in idee, inizialmente basate solo su intuizioni, in grado di superare un precedente approccio acquisito e di attribuire alla pura astrazione teorica un significato fisico, fornendo, come spesso accade nell’impresa scientifica, un nuovo e più efficace strumento per lo studio dei fenomeni naturali. [Matteo Massicci]