Alta tensione
Le misure della costante di Hubble
di Alessandro Melchiorri
Il fisico canadese, naturalizzato americano, James Peebles, uno dei maggiori “architetti” del modello cosmologico standard Lcdm.
Nelle ultime due decadi la cosmologia ha sicuramente fatto dei passi da gigante nella comprensione della struttura ed evoluzione del nostro universo. Grazie in special modo alle accurate misure delle anisotropie della radiazione di fondo cosmico effettuate da due satelliti, Wmap (Nasa) e Planck (Esa), si è giunti alla formulazione del modello standard cosmologico, detto in gergo scientifico “modello Lambda Cold Dark Matter” (Lcdm), in grado di spiegare buona parte delle osservazioni. Questo successo, sancito dall’assegnazione di ben sei premi Nobel (l’ultimo, assegnato nel 2019 a James Peebles, uno dei maggiori “architetti” del modello Lcdm) ha creato una situazione nel campo della cosmologia per certi versi simile a quella presente nella fisica delle particelle elementari. Analogamente al modello standard delle interazioni fondamentali, il modello Lcdm è infatti un modello che non solo spiega “tutto”, ma che permette anche di fare predizioni accurate che vengono a loro volta puntualmente verificate dai nuovi dati. Tale è il successo del Lcdm che si è ormai giunti a definire in cosmologia come “nuova fisica” ogni deviazione sperimentale dal Lcdm stesso. E tali deviazioni sono spesso guardate con sospetto e sufficienza. Di questo tipo, ad esempio, è stata fino a poco tempo fa la reazione di molti cosmologi davanti alla maggiore delle difficoltà attuali del modello Lcdm: la cosiddetta “tensione” sui valori della costante di Hubble, vale a dire una discrepanza tra i valori misurati con metodi diretti e indiretti. La legge di Hubble, croce e delizia di ogni cosmologo dal 1929 in poi, stabilisce una proporzionalità diretta tra la velocità di recessione delle galassie e la loro distanza, mediante, appunto, la costante di Hubble H0 che deve essere determinata sperimentalmente. La storia delle varie osservazioni della costante di Hubble è talmente travagliata e densa di avvenimenti che la sua narrazione potrebbe occupare un lungo romanzo. Basti pensare che il primo a concepirla non fu Hubble ma Georges Lemaître nel 1927 (e per questo, secondo un pronunciamento dell’International Astronomical Union nel 2018, sarebbe più opportuno chiamarla costante di Hubble-Lemaître) e che la prima determinazione da parte di Edwin Hubble era sbagliata per un fattore dieci, producendo il paradosso di un universo più giovane della nostra Luna e ispirando dunque la famosa frase di Lev Landau “I cosmologi sono sempre senza dubbi e sempre in errore”.
Edwin Hubble osserva il cielo con il telescopio dell’Osservatorio di Monte Palomar, sulle montagne sopra Pasadena, in California.
Dopo un susseguirsi di risultati sperimentali altalenanti, di cui ricordiamo la furiosa diatriba negli anni 70-90 tra gli astronomi Alan Sandage e Gèrard De Vaucoleurs, le cui misure differivano di quasi un fattore due, siamo giunti dopo circa cento anni dalla predizione di Hubble e Lemaître a essenzialmente due possibili valori per H0. Tali valori differiscono tra loro di solo il dieci per cento, ma sono comunque in disaccordo anche quando si considerino i rispettivi errori sperimentali. Questa differenza sembra essere legata al metodo di osservazione. La costante di Hubble può infatti essere determinata in più modi. Il più naturale e diretto consiste nell’utilizzare la relazione tra magnitudine e redshift di oggetti astrofisici come le supernovae di tipo Ia. Il meno diretto, ma più preciso, consiste invece nel determinare il valore del parametro confrontando le misure delle anisotropie della radiazione cosmica di fondo (Cmb) con le predizioni teoriche basate sul modello Lcdm. Già cinque anni fa le due misure, una derivata dalle misure dirette coordinate da Adam Riess, già premio Nobel nel 2011, e la seconda dai dati della radiazione cosmica di fondo del satellite Planck, risultavano essere in disaccordo appena al di sopra delle tre deviazioni standard. Le prime reazioni al problema sono quindi generalmente state di sufficienza, con le maggiori critiche rivolte alla possibile presenza di anomalie sistematiche nelle determinazioni dirette. Tuttavia, con il progredire delle misure, la tensione non solo è rimasta, ma è anche aumentata dal punto di vista statistico in modo significativo. In un recente articolo si è presentata una collezione delle misure attuali, che riportiamo nella fig. c. La differenza tra metodi diretti e metodi indiretti appare ormai piuttosto chiara, con un significato statistico che sfiora (e supera, in alcuni casi) le fatidiche cinque deviazioni standard (i famosi “5 sigma”). Superata quindi la soglia della semplice fluttuazione statistica, ci possono essere solo due spiegazioni: effetti sistematici sperimentali in uno dei due metodi o un problema nel modello Lcdm.
Compilazione di misure recenti della costante di Hubble H0, effettuate con diverse tecniche (indicate a sinistra, dove SN sta per “supernova”). Le misure riportate in alto (in blu) sono misure indirette (effettuate con satelliti come Planck e Wmap), mentre le misure in basso (in verde) sono dirette. Figura adattata da un articolo di Di Valentino (2020).
Molti cosmologi tendono ancora ad attribuire la discrepanza alla presenza di effetti sistematici. Tuttavia, mentre un simile atteggiamento conservativo potrebbe essere ben comprensibile nel caso del modello standard delle particelle elementari, lo è un po’ meno nel caso della cosmologia e del modello Lcdm. Il punto, infatti, è che il modello Lcdm si basa su tre ipotesi che al momento non sono verificate da nessun altro esperimento di laboratorio. Queste ipotesi sono l’esistenza della costante cosmologica (vd. ... che muove il Sole e l'altre stelle, ndr), della materia oscura (vd. Asimmetrie n. 4, ndr) e di un campo scalare che abbia guidato l’inflazione primordiale (vd. Un'intuizione spettacolare, ndr). Se per la materia oscura ci sono buone probabilità per la sua esistenza, data la presenza di validi candidati teorici e di diverse evidenze astrofisiche, come le curve di rotazione delle galassie a spirale, inflazione e costante cosmologica sono al momento delle pure ipotesi, che si direbbe quasi messe appositamente per far funzionare il modello. Rigirando il coltello nella piaga e seguendo una famosa frase di Edward Witten, potremmo aggiungere che la presenza della costante cosmologica è forse il problema maggiore che abbiamo in fisica fondamentale oggi. Non c’è comunque nessun motivo ragionevole per escludere che il problema sia nel modello Lcdm. Inoltre, le estensioni del modello che potrebbero risolvere il problema sono tutte molto interessanti e fisicamente plausibili, come possibili interazioni tra materia ed energia oscura o presenza di nuove particelle leggere. In una recente rassegna abbiamo contato almeno una novantina di diverse soluzioni teoriche proposte. La tensione sulla costante di Hubble, inoltre, non è il solo problema presente. Altre anomalie meno significative dal punto di vista statistico, ma che potrebbero fornire altri pezzi del puzzle, sono presenti sia nei dati di Planck che in altre osservazioni, come nel caso delle misure dell’effetto di lente gravitazionale debole. Facendo tesoro degli errori del passato, l’alternativa è una sola: abbandonare ogni atteggiamento fideistico nella trinità del Lcdm, mantenere una mente aperta a tutte le soluzioni e aspettarsi meraviglie e/o delusioni (a seconda di come la si pensi) da parte delle osservazioni future.
Biografia
Alessandro Melchiorri è professore presso il Dipartimento di Fisica dell’Università di Roma “Sapienza”. Si occupa di cosmologia con particolare attenzione verso le misure della radiazione di fondo cosmico. È stato membro delle collaborazioni sperimentali Boomerang e Planck.