Disegnare percorsi invisibili
I tracciatori di particelle
di Nicolò Cartiglia

 

i tracciatori ricostruiscono il percorso delle particelle cariche. a.
I tracciatori ricostruiscono il percorso delle particelle cariche. Le particelle possono essere create in molti processi, tra cui attività nucleari, collisioni tra fasci, e in esperimenti a bersaglio fisso. Illustrazione artistica ad opera di Marta Tornago.
Come si può studiare il comportamento di particelle piccolissime, che si muovono a velocità altissime, spesso prossime a quelle della luce? Un primo modo è quello di vederne le traiettorie sfruttando alcuni processi fisici della materia.
Tra i vari tipi di rivelatori di particelle esistenti, i “tracciatori” sono quelli che hanno il compito di ricostruire il percorso compiuto dalle particelle cariche. Un compito semplice solo in apparenza, poiché si richiede di farlo con ottima precisione e senza alterare le proprietà cinematiche delle particelle.
Il tracciatore ideale ricostruisce il percorso di migliaia di particelle con una precisione spaziale di alcuni micrometri e con una precisione temporale di alcune decine di picosecondi, è sostanzialmente immateriale e richiede poca potenza elettrica per evitare problemi di raffreddamento. Il livello di complessità, in alcune applicazioni, è ulteriormente aumentato dalla richiesta di fare tutto questo decine di milioni di volte ogni secondo. In realtà, queste condizioni così estreme sono presenti solo in alcuni esperimenti particolarmente complessi, come ad esempio in Hilumi-Lhc. A seconda delle applicazioni, si hanno strumenti all’avanguardia per quanto riguarda la sensoristica, l’elettronica, il software di ricostruzione e le tecniche di raffreddamento.
Il processo fisico alla base del funzionamento dei tracciatori è la ionizzazione. In questo processo, la particella incidente estrae degli elettroni dagli atomi del materiale, creando elettroni liberi e ioni positivi. I primi tracciatori, dalle camere a nebbia degli anni ’30 alla Big European Bubble Chamber (1973-1984) del Cern, sfruttavano l’energia depositata dalla particella per visualizzarne il percorso. Il materiale attivo, un gas o un liquido, era tenuto in uno stato termodinamico tale per cui il passaggio di una particella creava una serie di piccole bollicine che consentivano di ricostruirne la traiettoria. Due premi Nobel hanno onorato lo sviluppo di questi tracciatori: quello a Charles Thomson Rees Wilson, nel 1927, per le camere a nebbia, e quello a Donald Arthur Glaser, nel 1960, per le camere a bolle. Nel periodo 1920-1930 la fisica viennese Marietta Blau introdusse l’uso delle emulsioni nucleari, nel caso specifico per la rivelazione di raggi cosmici, e, per prima, nel 1937 visualizzò urti nucleari. Sebbene sia stata candidata più volte al premio Nobel, questo onore non le venne mai conferito. Le emulsioni nucleari detengono ancora il primato per la precisione che consentono di ottenere – inferiore al micron – e vengono utilizzate ancora oggi, ad esempio nell’esperimento Opera dei Laboratori Nazionali del Gran Sasso (vd. anche [as] traiettorie: Parola alle emulsioni nucleari., ndr).
Se i tracciatori sono posizionati in un campo magnetico, si possono misurare anche la carica e l’impulso (o quantità di moto) delle particelle, perché il moto diventa una traiettoria elicoidale con un raggio proporzionale alla loro velocità, mentre la direzione della deflessione dipende dal segno della carica. I tracciatori a gas riescono anche a distinguere particelle differenti, per esempio a identificare pioni, kaoni, elettroni e protoni, misurando la quantità di energia rilasciata per unità di lunghezza (vd. Particelle in cerca d'identità, ndr).
 
diverse sezioni dei rivelatori di particelle b.
I rivelatori di particelle sono costituiti da diverse sezioni, ognuna delle quali consente di distinguere uno o più tipi di particelle e di misurarne le proprietà. Le diverse particelle, infatti, interagiscono in modo diverso all’interno di ogni sezione del rivelatore e, guardando il loro comportamento, si può risalire al tipo di particella. Gli strati più interni del rivelatore, vicini a dove le particelle vengono generate, sono meno densi, mentre man mano che si va verso l’esterno si incontrano strati più densi che lasciano passare solo alcune particelle.
 
La fine degli anni ’60 vide una rivoluzione nel principio di funzionamento dei tracciatori: il passaggio delle particelle non veniva più visualizzato con bollicine o tracce in emulsioni nucleari, ma misurato elettricamente (vd. Flash and chips, ndr). Questa seconda generazione di rivelatori impiega, come mezzo di rivelazione, dei gas e forti campi elettrici per far muovere le coppie elettrone/ione prodotte dal passaggio della particella. Nel volume occupato dal gas sono posizionati una moltitudine di fili metallici, che, equipaggiati con circuiti elettrici, misurano il segnale in corrente generato dal moto di elettroni e ioni. La successione spaziale dei segnali nei fili indica la traiettoria. La fig. c mostra la camera a fili dell’esperimento Ua1, usata nella scoperta dei bosoni Z0, W+ e W- (che è valsa il premio Nobel a Carlo Rubbia nel 1984). Proposta nel 1968 da Georges Charpak (insignito nel 1992 del premio Nobel), la Multi-Wire Proportional Chamber (Mwpc) segna l’inizio di questa rivoluzione. Da allora, lo sviluppo di nuovi rivelatori a gas non si è mai fermato: la Time Projection Chamber nel 1974 (da parte di David Nygren), la Resistive Plate Chamber nel 1981 (Rinaldo Santonico, Roberto Cardarelli), la MicroStrip Gas Chamber nel 1988 (Anton Oed), i Gas Electron Multipliers nel 1997 (Fabio Sauli), le MicroMegas nel 1996 (Ioannis Yannis Giomataris e altri colleghi a Saclay) e l’evoluzione delle MicroMegas. L’introduzione delle Mwpc portò una serie di vantaggi che rivoluzionarono gli esperimenti di fisica: in particolare, la frequenza di acquisizione passò da alcuni hertz a parecchi kilohertz, si riuscì a selezionare quali eventi registrare, e gli eventi si registrarono direttamente in forma elettronica e non visiva, permettendo un’analisi dati fatta al calcolatore.
Contemporaneamente alla dismissione delle camere a bolle (l’ultima in operazione al Cern fu spenta nel 1985) e allo sviluppo dei rivelatori a gas, all’inizio degli anni ’80 avvenne una seconda rivoluzione nel campo dei tracciatori: l’introduzione dei rivelatori al silicio. Questi sensori sono costruiti usando strati sottili di silicio (chiamati wafer), di circa 300 micrometri (μm), sui quali sono impiantati diodi di varie geometrie. Applicando ai diodi una tensione inversa di polarizzazione, il sensore si svuota dalle cariche libere e diventa una camera a ionizzazione a stato solido. La precisione spaziale dei tracciatori al silicio può essere anche inferiore ai 10 μm, a seconda della geometria dei diodi. Il primo esperimento a usare un tracciatore con piani di strip di silicio fu nel 1981 Na11/Na32.
Nei rivelatori al silicio il segnale generato dalla particella incidente è piccolo, circa un femtocoulomb (10-15 coulomb) per ogni 100 μm di spessore, qualcosa come appena 6000 elettroni, e pertanto l’elettronica di lettura deve avere rumore elettronico molto basso affinché il segnale si distingua chiaramente dal fondo. Per questa ragione, lo sviluppo dei rivelatori al silicio va di pari passo con lo sviluppo della loro elettronica di lettura. Dato il grande numero di diodi da leggere, sin dall’inizio degli anni ’80 si capì che il modo naturale di leggere i sensori al silicio era mediante l’utilizzo di circuiti integrati in tecnologia Very Large Scale Integration (Vlsi) disegnati espressamente per questo scopo. La libertà nel disegno della forma dei diodi e la capacità di disegnare elettronica Vlsi portarono nel 1984 all’introduzione del concetto di sensore a pixel, dove una matrice di diodi è connessa a una equivalente matrice di canali elettronici di lettura attraverso delle palline conduttive (bump-bonds). Dagli anni ’80 a oggi, l’evoluzione dei tracciatori a semiconduttore non ha avuto pausa, passando dai 45 cm2 del rivelatore di Na11 ai 214 m2coulomb del tracciatore di Cms.
Sfruttando la somiglianza nel processo costruttivo dei sensori e dell’elettronica, negli ultimi anni si sono imposti rivelatori al silicio monolitici Maps (Monolithic Active Pixel Sensor), nei quali il sensore e l’elettronica condividono lo stesso substrato. Questa tecnica semplifica la costruzione del rivelatore e permette il disegno di pixel molto piccoli, raggiungendo precisioni spaziali eccezionali. Il rivelatore Maps di Alice, il più grande del suo genere, 10 m2, raggiunge una precisione spaziale di circa 5 μm.
Negli anni 2013-2014, un’importante innovazione venne introdotta nel campo dei rivelatori al silicio: la possibilità di misurare non solo la posizione ma anche il tempo di passaggio di una particella: è il cosiddetto “tracciamento a 4 dimensioni”. Grazie all’introduzione del concetto di diodo a basso guadagno e all’evoluzione del disegno dei rivelatori, i sensori al silicio sono passati da essere considerati rivelatori con una pessima risoluzione temporale a essere gli unici rivelatori ritenuti adatti al tracciamento a 4D. Praticamente tutti i tracciatori al silicio proposti per i prossimi esperimenti includono qualche forma di tracciamento a 4D, i più complessi auspicano una precisione combinata di 5 μm e 10 picosecondi.
Come molte volte in passato, le richieste dei futuri esperimenti di avere rivelatori sempre più precisi sembrano di difficile realizzazione. Tuttavia, il passato ci ha insegnato che nuove idee unite all’innovazione tecnologica permettono di raggiungere risultati insperati. I prossimi anni di ricerca nel campo dei rivelatori a 4D si preannunciano interessantissimi: il talento dei giovani ricercatori e la tradizione decennale nell’arte dei rivelatori si fonderanno per dare forma a nuove idee.
la camera a filic.
La camera a fili
 
In fig. c la luminosità in funzione dell’energia per i diversi collisori leptonici dimostra il vantaggio dell’opzione lineare rispetto alle macchine circolari oltre i 350 GeV. Il tunnel di Fcc sarebbe di 100 km, più costoso di quello per Ilc o Clic (15-30 km a seconda delle versioni), ma tunnel e infrastruttura criogenica potrebbero essere poi re-utilizzati per Fcc-hh riducendone il costo marginale e ripetendo lo schema virtuoso Lep/Lhc: un grande investimento ma graduale e sostenibile. Fcc diventerebbe così lo strumento completo: interazioni leptoniche, adroniche e adro-leptoniche.
Complementare alla frontiera dell’energia è quella dell’intensità: fasci sempre più intensi di protoni sono per esempio necessari per generare neutrini e raccogliere la promessa di nuova fisica che il loro studio potrebbe contenere. Si richiedono fasci con alte intensità a diverse energie, che possono sintetizzarsi in una potenza (prodotto tra energia e intensità) media di fascio di 1 MW od oltre. A differenza della frontiera in energia, in questo caso gli acceleratori lineari non sono sfavoriti rispetto ai circolari. Mentre il Kek con J-Parc ha puntato su un sincrotrone resistivo rapidamente pulsato per Superkamiokande, il Fermilab ha recentemente deciso di puntare su un lineare superconduttivo da 800 MeV, PipII, per aumentare l’intensità dei fasci per la long baseline degli esperimenti sui neutrini. Linac per protoni ad alta intensità, di circa 1 GeV, sono in uso anche per generazione di neutroni per spallazione, la Spallation Neutron Source (Sns) in Usa e la European Spallation Source (Ess) in Europa (a Lunde, Svezia), sempre in competizione con il sincrotrone da 50 GeV di J-Parc.
È possibile evitare il gigantismo dei futuri acceleratori circolari, come Fcc, o gli spaventosi consumi di energia di un Linac a elettroni-positroni? In realtà, nuove frontiere si stanno aprendo, seguendo due idee molto originali, ma estremamente difficili da realizzare. Una prima possibilità è quella di un collisore di muoni. Una macchina di questo tipo sembrerebbe essere la quadratura del cerchio: da una parte vengono accelerati leptoni – generando così collisioni molto pulite – e dall’altra si utilizzano particelle abbastanza pesanti da abbattere significativamente la perdita per radiazione, permettendo così di usare lo schema del collisore circolare, dove la luminosità e qualità di fascio sono più facili da ottenere.
L’idea di un muon collider, che circola da oltre vent’anni, ha recentemente ripreso quota come “Higgs factory a buon mercato” (proposta da Carlo Rubbia) per il settore di precisione o addirittura come alternativa a Fcc-hh per la frontiera in energia. In linea di principio si possono raggiungere circa 10 TeV con dimensioni delle decine di chilometri (10 TeV “leptonici” sono circa equivalenti a 100 TeV adronici). L’estrema difficoltà di questo schema risiede nel meccanismo di produzione dei muoni: questi vengono infatti generati “caldissimi” nelle collisioni di un fascio con un bersaglio, ovvero come una “nuvola” di particelle diffuse in tutte le direzioni. Occorre quindi raffreddarli, e molto rapidamente (nei pochi microsecondi della loro vita!). Questo è difficile ma possibile con tecniche molto sofisticate. Recentemente, un gruppo italiano ha proposto uno schema diverso (chiamato Lemma), in cui i muoni vengono generati già “freddi” nell’annichilazione di elettroni e positroni in coppie di muone-antimuone. Per ora le intensità sono sulla carta ancora troppo basse ma, se migliorato, il sistema potrebbe rappresentare un’autentica svolta. Uno schema alternativo, ancora più innovativo e sempre proposto in Italia, si basa invece su fasci di muoni eccezionalmente freddi generati in collisioni elettrone-fotone, tutto da sviluppare!
Un’ulteriore idea, anche questa prepotentemente emersa negli ultimi anni, si fonda sul fenomeno delle onde di plasma (ovvero oscillazioni di densità di carica in un gas completamente ionizzato), che possono generare campi elettrici di centinaia di GV/m, cioè tali da far impallidire qualsiasi cavità convenzionale a radiofrequenza. Negli ultimi dieci anni si è dimostrato che possono essere effettivamente utilizzate per accelerare fasci di particelle, anche ben oltre il GeV, polarizzando il plasma o con impulsi ultra-brevi di potentissimi laser o utilizzando fasci di particelle (tipicamente elettroni). Quest’ultima è in particolare la tecnologia scelta dai Laboratori Nazionali di Frascati dell’Infn dove, nell’ambito del progetto Eupraxia, si sta costruendo un’infrastruttura di classe mondiale, dedicata allo sviluppo di questa tecnologia. Si tratta di una grande sfida che coinvolge dinamica dei fasci, tecnologia degli acceleratori e progettazione di sistema.
Queste ricerche alla frontiera dell’energia, della precisione e dell’intensità inducono innovazione tecnologica che non serve solo per la fisica fondamentale, per le nuove scoperte che sperabilmente gli acceleratori ci porteranno. Se solo un centinaio di acceleratori oggi è operativo nei vari laboratori di fisica fondamentale, particellare o nucleare, sono invece oltre 30.000 gli acceleratori funzionanti per tanti altri scopi applicativi: dal medicale all’industria metallurgica, dall’energia ai beni culturali. Gli acceleratori sono infatti strumenti fondamentali non solo della conoscenza ma anche del nostro benessere.
 

Biografia
Nicolò Cartiglia è ricercatore all’Infn presso la sezione di Torino e visiting professor all’Università della California. Ha lavorato in esperimenti a Desy (Amburgo), Bnl (NY) e al Cern (Ginevra). Per i suoi studi nel campo dei tracciatori al silicio ha ricevuto finanziamenti nazionali e internazionali, tra cui un Prin e un Erc Advanced Grant.  


icon-pdf [scarica pdf]

 
DOI: 10.23801/asimmetrie.2021.31.4
 

 ©asimmetrie   Istituto Nazionale di Fisica Nucleare / via E. Fermi 40 / 00044 Frascati [Roma] Italia
Ufficio Comunicazione INFN / P.zza dei Caprettari 70 / 00186 Roma Italia
Registrazione del Tribunale di Roma n. 336/2012 del 7 dicembre 2012
powered by Multimedia Service e INFN-LNF servizio di calcolo
Informativa sulla Privacy e Cookie Policy