Per un pugno di sigma
Come distinguere tra fondo e segnale
di Marco Delmastro
I grandi esperimenti del Lhc sono alla ricerca di fenomeni molto rari. Prendiamo ad esempio il bosone di Higgs: la probabilità che ne venga prodotto uno in una delle collisioni tra due protoni in Lhc è circa una su dieci milioni. I fisici sanno calcolare queste probabilità, ma devono poi fare i conti con il fatto che sono, appunto, solo delle probabilità. Sapere che il bosone di Higgs viene prodotto in media ogni dieci milioni di collisioni di Lhc non significa che, raccolti e registrati i dati di dieci milioni di collisioni, tra questi ci sia davvero un bosone di Higgs. La presenza delle tracce di un bosone di Higgs in quei dati è l’evento più probabile, ma sono possibili anche scenari in cui ci siano tracce della produzione di due, tre o anche di nessun bosone di Higgs: sono meno probabili, ma non esclusi a priori. Quando si va a caccia di un fenomeno raro, è necessario poi sapere come si manifesterà nel proprio rivelatore. Nel caso della ricerca di una nuova particella instabile, come lo è per esempio il bosone di Higgs, bisogna tenere conto di come si disintegrerà. Serve dunque preoccuparsi non solo di quanto sia probabile che la nuova particella venga prodotta in una collisione, ma anche di quale sia la probabilità che, una volta prodotta, decada proprio nel modo che è stato deciso di osservare. Se il fenomeno di cui si è alla ricerca, per raro che sia, fosse l’unico modo che la natura ha di produrre un certo segnale nel rivelatore, per scoprirlo servirebbe soltanto essere pazienti. Se, per produrre delle coppie di fotoni in una collisione tra due protoni, la natura avesse creato soltanto il bosone di Higgs, la sua scoperta sarebbe stata molto più semplice. Sebbene il bosone di Higgs si disintegri in due fotoni in media solo due volte su mille, sarebbe bastato aspettare: la prima manifestazione di una coppia di fotoni nei rivelatori avrebbe fatto urlare alla scoperta! La natura conosce però modi alternativi per produrre una coppia di fotoni, modi che niente hanno a che fare con la nascita e morte del bosone di Higgs. “Rumore di fondo” è il nome che i fisici danno a questi processi, che hanno l’apparenza dei fenomeni nuovi di cui sono a caccia, ma che con questi fenomeni non hanno nulla a che fare. Come già il “segnale” (ad esempio, la produzione di un bosone di Higgs che si disintegra in due fotoni), anche il rumore di fondo (nel nostro caso, la produzione diretta di due fotoni) è un fenomeno governato da leggi statistiche. Anche per il rumore di fondo è dunque possibile sapere quanto sia probabile, in media, che si manifesti. Come già per il segnale, però, resta aperta la possibilità che anche il rumore di fondo si manifesti con frequenza maggiore o minore della media. E bisogna fare i conti con questa possibilità.
[as] approfondimento
La curva degli errori
La figura riproduce la distribuzione di Gauss (o “gaussiana”), detta anche distribuzione normale degli errori, perché rappresenta la distribuzione di probabilità tipica degli errori di misura. La distribuzione è simmetrica rispetto al parametro μ, che ne rappresenta il valor medio (e può essere considerato il “valore vero” della quantità da misurare) e ha una caratteristica forma a campana, la cui larghezza dipende da un secondo parametro, σ, che prende il nome di “deviazione standard” e che dà una stima dell’errore tipico di una misura. La probabilità che una singola misura cada in un certo intervallo dell’asse delle x è data dall’area sottesa dalla curva in quel dato intervallo. In figura sono rappresentate le probabilità che una misura cada negli intervalli compresi tra μ e μ+σ, tra μ+σ e μ+2σ, e così via fino a 4σ. Poiché la curva è simmetrica, la probabilità che una misura cada in un intervallo di ±σ, ± 2σ, ± 3σ ecc. intorno a μ è del 68,3%, 95,5%, 99,7% ecc. La probabilità che una misura cada a destra di 5σ, considerato il limite convenzionale di una scoperta, è di una parte su 3,5 milioni. [Egidio Longo]
La curva degli errori
La figura riproduce la distribuzione di Gauss (o “gaussiana”), detta anche distribuzione normale degli errori, perché rappresenta la distribuzione di probabilità tipica degli errori di misura. La distribuzione è simmetrica rispetto al parametro μ, che ne rappresenta il valor medio (e può essere considerato il “valore vero” della quantità da misurare) e ha una caratteristica forma a campana, la cui larghezza dipende da un secondo parametro, σ, che prende il nome di “deviazione standard” e che dà una stima dell’errore tipico di una misura. La probabilità che una singola misura cada in un certo intervallo dell’asse delle x è data dall’area sottesa dalla curva in quel dato intervallo. In figura sono rappresentate le probabilità che una misura cada negli intervalli compresi tra μ e μ+σ, tra μ+σ e μ+2σ, e così via fino a 4σ. Poiché la curva è simmetrica, la probabilità che una misura cada in un intervallo di ±σ, ± 2σ, ± 3σ ecc. intorno a μ è del 68,3%, 95,5%, 99,7% ecc. La probabilità che una misura cada a destra di 5σ, considerato il limite convenzionale di una scoperta, è di una parte su 3,5 milioni. [Egidio Longo]
La presenza di un nuovo fenomeno nei dati di Lhc dovrebbe manifestarsi come un eccesso di eventi, eccesso rispetto alla quantità media di eventi di quel genere che ci si aspetterebbe, se in natura esistesse solo il rumore di fondo. Osservare un eccesso non è però la garanzia della scoperta di un fenomeno nuovo. È infatti necessario stabilire se l’eccesso sia realmente associato alla presenza di un segnale che si sovrappone al rumore di fondo o se, invece, i dati contengano solo il rumore di fondo, ma ci si trovi in una di queste situazioni meno probabili, in cui è stato prodotto più rumore di fondo di quanto uno si aspetterebbe in media. I fisici analizzano dunque i dati e calcolano la probabilità che un eccesso osservato sia più compatibile con l’ipotesi che esista solo il rumore di fondo, rispetto all’ipotesi che al rumore di fondo si sia sovrapposto il segnale. Più questa probabilità è piccola, maggiore è la sicurezza con cui si può affermare di aver osservato un fenomeno nuovo. Valori grandi di questa probabilità fanno invece pensare a una fluttuazione statistica del rumore di fondo. I fisici hanno stabilito dei valori convenzionali per queste probabilità, misurati in un’unità legata alla larghezza “sigma” della curva a campana di Gauss (la cosiddetta “gaussiana”, vd. approfondimento). Tre sigma rappresentano una probabilità sufficientemente piccola da permettere di annunciare l’osservazione di un fenomeno di interesse, cinque sigma una talmente piccola da dichiarare una scoperta (come è avvenuto nel 2012 per il bosone di Higgs). Nel dicembre del 2015, in occasione della presentazione dei primi risultati ottenuti con i dati di Lhc raccolti all’energia nel centro di massa di 13 TeV, il mondo della fisica delle particelle è stato scosso dall’annuncio di un eccesso apparentemente molto intrigante, osservato nella ricerca di nuove particelle che, come il bosone di Higgs, si disintegrerebbero in coppie di fotoni. Sia Atlas che Cms, due dei quattro esperimenti che operano a Lhc, avevano osservato un eccesso di coppie di fotoni rispetto quelle attese dal solo rumore di fondo, coppie di fotoni che sembravano provenire dalla disintegrazione di una particella circa sei volte più pesante del bosone di Higgs. In entrambi i casi, la probabilità che l’eccesso fosse compatibile con il solo fondo era piuttosto bassa. Inoltre, lo stesso fenomeno sembrava manifestarsi in maniera indipendente in entrambi gli esperimenti. La faccenda, ovviamente, era più complessa di così. E infatti in quell’occasione i fisici di Atlas e Cms invitarono alla cautela. La statistica è una signora permalosa ed esigente. Nel caso specifico, non sarebbe stato corretto fidarsi solo della probabilità “locale”, associata al solo valore della massa della presunta nuova particella.
b.
Nei dati del 2015 (i due grafici di sopra), sia in Atlas che in Cms c’era un eccesso di eventi inatteso nella regione segnata in giallo. Tale eccesso di eventi è sparito in entrambi gli esperimenti nei dati del 2016 (in basso).
Nei dati del 2015 (i due grafici di sopra), sia in Atlas che in Cms c’era un eccesso di eventi inatteso nella regione segnata in giallo. Tale eccesso di eventi è sparito in entrambi gli esperimenti nei dati del 2016 (in basso).
Quando si cercano fenomeni nuovi in molte direzioni diverse, bisogna, infatti, tenere conto del vasto spettro di ipotesi possibili. Immaginate di lanciare un dado a sei facce per cinque volte consecutive: la probabilità di ottenere il sei per dieci volte di seguito è piccola, circa una su ottomila. Se faceste una scommessa, vi riterreste piuttosto fortunati di vincerla. Immaginate invece di lanciare per cinque volte di fila mille dadi. La probabilità che, almeno per uno di questi mille dadi, esca il sei per cinque volte di fila è molto maggiore, e l’evento vi stupirebbe dunque molto di meno. Quando si calcola la probabilità delle osservazioni di Lhc, è necessario tenere conto del fatto che la ricerca non si limita a un solo fenomeno specifico, ma che cercare in tutte le direzioni corrisponde a lanciare moltissimi dadi di rumore di fondo, e che la probabilità che in almeno una di queste ricerche il fondo possa fluttuare e generare un eccesso che assomigli a un segnale è maggiore. Le probabilità “locali” vanno dunque corrette tenendo conto di questo aspetto, chiamato in gergo l’effetto del “guardare altrove” (vd. approfondimento in Convivere con l'incertezza, ndr). Nel caso dell’eccesso della fine del 2015, le probabilità “globali” di una fluttuazione del fondo, corrette per l’effetto del “guardare altrove”, salivano a valori molto poco eccitanti. Quando nell’estate del 2016 Atlas e Cms presentarono l’analisi dei nuovi dati raccolti durante la primavera scorsa, l’eccesso osservato alla fine del 2015 era sparito nei dati di entrambi gli esperimenti. La prudenza delle prime analisi, una volta considerato l’effetto del “guardare altrove”, era stata dunque certamente necessaria! La natura probabilistica dei fenomeni microscopici studiati in Lhc richiede cautela e pazienza. Nel frattempo, la comunità dei fisici teorici si era già cimentata nell’inventare nuove teorie che spiegassero l’inattesa presunta nuova particella. Tra la fine del 2015 e l’estate del 2016, più di quattrocento articoli hanno proposto la loro interpretazione dell’eccesso, nell’ipotesi che si trattasse del segnale genuino di un fenomeno nuovo. Ci si potrebbe chiedere se l’esercizio sia servito a qualcosa, ma questa è un’altra storia.
Biografia
Marco Delmastro è ricercatore per il Cnrs francese e lavora all’esperimento Atlas al Cern. È nato e cresciuto a Torino, dove si è laureato in fisica. Ha conseguito il dottorato all’Università di Milano. Dal 2005 lavora tra la Francia e la Svizzera, spendendo buona parte del tempo al Cern.
DOI: 10.23801/asimmetrie.2017.22.3
{jcomments on}