Oggi è già domani
La fisica dopo il bosone di Higgs
di Guido Altarelli
Dopo la prima fase degli esperimenti al Large Hadron Collider (Lhc) del Cern, la fisica delle particelle si trova dinanzi a un paradosso. Da una parte la teoria delle interazioni forti ed elettrodeboli, il cosiddetto modello standard, ha ottenuto dei successi strepitosi, come la scoperta del bosone di Higgs, il superamento di test di precisione di ogni tipo ecc. Dall’altra parte, forti motivazioni teoriche (principalmente il problema della gerarchia o della naturalezza, vd. anche in Asimmetrie n. 8 l'approfondimento Naturalezza e supersimmetria, ndr) ed evidenti problemi sperimentali (per esempio la natura della materia oscura) ci dicono che il modello standard non è una teoria del tutto completa e che, in realtà, segnali di una nuova fisica avrebbero già dovuto apparire negli esperimenti agli acceleratori. I paradossi sono sempre molto interessanti, perché dalla loro soluzione si può arrivare a una vera svolta nello sviluppo delle teorie fisiche.
Completato con il bosone di Higgs, il modello standard è una teoria perfettamente funzionante: è infatti rinormalizzabile, il che significa che, dopo un numero finito di misure sperimentali, la teoria è ben “calibrata” e può essere utilizzata per prevedere il risultato di qualunque altra misura, in linea di principio, senza ambiguità, fino ad altissime energie. Quanto alle sorti del nostro universo, si trova che, nell’ipotesi di validità completa del modello standard, esso si mantiene metastabile: potrebbe collassare in un nuovo stato completamente diverso dall’attuale, ma, fortunatamente, la probabilità che ciò avvenga in un tempo paragonabile all’età dell’universo è praticamente nulla (vd. approfondimento in Asimmetrie n. 14 In bilico, ndr).
Dato che decenni di esperimenti agli acceleratori hanno sempre ribadito la validità del modello standard, perché si continua a invocare una nuova fisica? Innanzitutto, perché ci sono delle evidenze sperimentali molto impressionanti che vengono “dal cielo”, ovvero dall’astrofisica e dalla cosmologia: quasi tutta la densità di energia dell’universo è sotto forma di energia del vuoto (circa il 73%), descrivibile in termini di una costante cosmologica non nulla chiamata energia oscura (vd. ... che muove il Sole e l'altre stelle, ndr) e di materia oscura (circa il 22%, vd. Dietro le quinte dell'universo, ndr), né l’una né l’altra contenute nel modello standard. Inoltre il modello standard non rende ragione delle proprietà dei neutrini (masse e mescolamenti)
Il 4 luglio del 2012, Rolf Heuer (direttore del Cern), Fabiola Gianotti (all’epoca responsabile dell’esperimento Atlas, oggi direttrice designata del Cern) e Joe Incandela (responsabile dell’esperimento Cms in quel periodo) danno la notizia della scoperta del bosone di Higgs, che sancisce il successo del modello standard delle particelle.
Le caselle in questo schema simile al “gioco dell’oca” rappresentano le diverse scale di energia (in blu) e le corrispondenti scale di lunghezza (in arancione). La corrispondenza tra energia, espressa in elettronvolt, e lunghezza, espressa in metri, è data dalla relazione E(eV) ~ 2 x10-7 / L(m), cosicché piccole distanze corrispondono a grandi energie e viceversa. Sono riportate le masse delle particelle del modello standard già note (elettrone, muone, tau, vari tipi di quark, neutrini, bosone di Higgs...), quelle di altre particelle ancora ipotetiche (assioni, neutrini sterili...) e le energie caratteristiche di alcuni fenomeni fisici osservati o raggiungibili negli acceleratori di particelle.
Ci sono poi dei problemi concettuali che “invocano” una nuova fisica. Tra questi, ricordiamo che l’interazione gravitazionale (la gravità nel linguaggio comune) è fuori dal modello standard e che il problema della teoria quantistica della gravitazione rimane aperto (potrebbe emergere una soluzione dalla teoria delle stringhe, vd. Accordi fondamentali, ndr).
Gli effetti quantistici della gravitazione diventano apprezzabili solo a energie enormemente maggiori rispetto a quelle esplorate in Lhc (dell’ordine di 10 TeV, ossia 104 GeV, vd. anche in Asimmetrie n. 14 l’approfondimento Da chilogrammi a elettronvolt, ndr) e cioè alla cosiddetta scala di Planck, dell’ordine di 1019 GeV. Estrapolando le teorie note a scale un po’ inferiori, ma comunque sempre molto al di là del limite sperimentale attuale, si ottiene un indizio molto suggestivo sul comportamento della nuova fisica. Infatti, l’evoluzione (calcolabile) delle costanti di accoppiamento di gauge (i parametri che determinano l’intensità delle diverse interazioni fondamentali) in funzione della scala di energia indica che queste tendono ad assumere lo stesso valore alla scala della grande unificazione (1015 GeV): questo comportamento è previsto dalle teorie di grande unificazione (in inglese, grand unification theories abbreviato con Gut), in cui le tre interazioni esistenti alle “basse” energie studiate in Lhc (forte, debole ed elettromagnetica) si fondono in un’unica interazione fondamentale a una scala di energia molto maggiore (vd. fig. c). L’unificazione a una stessa scala è però solo approssimata nel modello standard e, inoltre, potrebbe portare a un decadimento del protone troppo veloce rispetto ai limiti sperimentali esistenti. Entrambi questi problemi potrebbero essere risolti se esistesse una nuova fisica, ovvero una teoria che va oltre il modello standard, a scale di energia al di sotto di quella della grande unificazione.
Per molti dei problemi del modello standard si può rinviare la soluzione a una teoria più fondamentale (di cui il modello standard sia il limite di bassa energia, vd. Su e giù per le scale, ndr), magari a una teoria alla scala di Planck, che includa anche l’interazione gravitazionale nell’unificazione. Per esempio, la soluzione del problema del sapore, ovvero la spiegazione delle tre generazioni di quark e leptoni e delle misteriose gerarchie tra
le loro masse (vd. in Asimmetrie n. 11 Quark e sapori, ndr), potrebbe non essere accessibile a bassa energia.
Ma ci sono problemi del modello standard che richiedono (come il problema della gerarchia) oppure suggeriscono (come la materia oscura) una soluzione in prossimità della scala elettrodebole. Il problema della gerarchia consiste nel fatto che, nel modello standard, il valore della massa del bosone di Higgs dipende in modo molto pronunciato dai valori delle masse di eventuali nuove particelle esistenti a scale più elevate. In altre parole, in presenza di questa gerarchia delle masse, il valore misurato della massa del bosone di Higgs (pari a 125 GeV) sarebbe il risultato di una cancellazione tra termini che potrebbero essere molto più grandi, dovuti all’accoppiamento tra il bosone di Higgs e alcune nuove particelle. Perché questo meccanismo sia “naturale”, occorre che queste nuove particelle non siano troppo pesanti, ovvero che i termini indotti dal loro accoppiamento con il bosone di Higgs non eccedano di molto il valore osservato della massa di quest’ultimo. Per cui, per poter estrapolare la teoria fino alla scala della grande unificazione o a quella di Planck, senza dover “invocare” una calibrazione troppo accurata e innaturale (in inglese, fine tuning) di queste cancellazioni (vd. in Asimmetrie n. 8 l'approfondimento Naturalezza e supersimmetria, ndr), bisogna estendere la teoria introducendo nuove particelle che abbiano una massa non troppo lontana dalla scala elettrodebole. Lo schema teorico più studiato è quello della supersimmetria (o Susy, dall’inglese SUper SYmmetry), una simmetria tra bosoni e fermioni, secondo cui a ogni particella nota del modello standard è associato un corrispondente partner supersimmetrico o s-partner (vd. Il mondo con la esse davanti, ndr).
La dipendenza dalle scale alte si cancella per energie più alte delle masse delle particelle supersimmetriche (o almeno di alcune di esse) e il modello standard così esteso (come per esempio quello chiamato modello standard supersimmetrico minimale) è insensibile alla presenza di particelle ancora più pesanti, risolvendo perciò il problema della gerarchia. Inoltre, se la supersimmetria fosse una simmetria esatta, gli s-partner avrebbero esattamente la stessa massa delle corrispondenti particelle del modello standard, ma, dato che nessuno di questi nuovi oggetti è mai stato osservato, dobbiamo concludere che essi hanno una massa maggiore, il che richiede che la supersimmetria sia una simmetria solo approssimata o, in gergo, rotta (vd. in Asimmetrie n. 16 Rotture spontanee, ndr).
Però, per risolvere il problema della gerarchia soddisfacendo alla richiesta di “naturalezza”, gli s-partner non devono essere troppo più pesanti delle particelle del modello standard.
c .
Le costanti di accoppiamento dell’interazione forte, debole ed elettromagnetica in funzione della scala di energia secondo il modello standard (a sinistra) e secondo il modello standard supersimmetrico minimale (a destra). Nel caso supersimmetrico le tre costanti di accoppiamento assumono lo stesso valore a una scala di energia di circa 1016 GeV, così come previsto negli scenari di grande unificazione.
La supersimmetria ha molte virtù oltre a quelle puramente teoriche: rende precisa l’unificazione degli accoppiamenti di gauge a una scala di circa 1016 GeV, garantisce una sufficiente stabilità per il protone e possiede ottimi candidati di materia oscura, in particolare i neutralini. I neutralini sono particolari Wimp (acronimo inglese di weakly interacting massive particles, cioè ‘particelle pesanti che interagiscono debolmente’). Si tratta infatti di particelle con massa tra qualche GeV e qualche TeV, stabili (ovvero che non decadono) e le cui interazioni sono tali da far sì che esse siano prodotte nell’universo primordiale proprio con l’abbondanza richiesta dalle osservazioni cosmologiche. La ricerca delle Wimp procede molto intensamente non solo in Lhc, ma anche in esperimenti di laboratorio e nello spazio, in mare e sotto i ghiacci. La soluzione del problema della materia oscura, che suggerisce l’esistenza di nuove particelle con masse al di sotto del TeV, rappresenta oggi il problema cruciale della fisica delle particelle. Infatti non si ha un’idea nemmeno approssimata dell’intervallo di massa rilevante: si va dagli assioni (ipotetici bosoni senza carica elettrica e che interagiscono assai poco con la materia), di massa attorno a 10-5 eV, ai neutrini sterili (ovvero non soggetti ad alcuna interazione tra quelle presenti nel modello standard) di qualche keV, alle già citate Wimp e anche ad altri candidati più esotici.
Per altri fenomeni che indicano nuova fisica esistono, invece, possibili estensioni molto plausibili del modello standard. Per esempio, le minuscole masse dei neutrini possono essere elegantemente spiegate dal cosiddetto meccanismo ad altalena (see-saw mechanism) (vd. Misteri sfuggenti, ndr). Come si pone la comunità dei fisici rispetto al problema della “naturalezza”? Molti pensano che il problema potrebbe svanire almeno in parte, se la tanto invocata nuova fisica si decidesse ad apparire nella seconda fase di Lhc a 13-14 TeV, che è stata appena avviata. C’è stato un grande sviluppo di modelli in cui la nuova fisica è effettivamente vicina, ma con proprietà tali da renderla fino ad ora invisibile. Ma altri si rivolgono a contemplare scenari più esotici: la dipendenza dalle masse alte di cui abbiamo parlato non farebbe danno, se non ci fossero nuove particelle fino alla scala di Planck e se un meccanismo dovuto proprio alla sconosciuta teoria della gravità risolvesse il problema della naturalezza a quelle altissime energie. In questo caso però i problemi della materia oscura, delle masse dei neutrini e la bariogenesi andrebbero risolti tutti con una fisica attorno alla scala elettrodebole. Questo è possibile assumendo l’esistenza di nuovi neutrini sterili leggeri (uno di qualche keV e due altri a qualche GeV).
Uno scorcio del tunnel di 27 km dell’acceleratore Lhc, nella periferia di Ginevra tra la Svizzera e la Francia, dove hanno ripreso a circolare i fasci di protoni dal 4 aprile scorso.
Biografia
Guido Altarelli è professore emerito di fisica teorica all’Università di Roma Tre. È stato direttore della sezione di Roma dell’Infn (’85-’87). Dal 1987 al 2006 ha fatto parte della divisione teorica del Cern, della quale è anche stato direttore (’00-’04).
{jcomments on}