cern

Dalla Siberia al Cern

segnalato da Barbara G.

Non vorrei che a qualcuno fosse sfuggita la notizia… anzi, LA Notizia…

Mi scuso per il ritardo con cui posto, ma mi pare doveroso rendere omaggio al cervellone che, di tanto in tanto, sale su questo treno scalcagnato, e che, in numerose occasioni, ci ha pure fornito ottimo combustibile per le nostre meningi (tipo il pezzo sul Bosone di Higgs o quello sulla Leadership, che val la pena di rileggere, per poi guardare il desolante panorama politico con occhio “scientifico”). 

Congratulazioni, grande Rob!!! Sperando che i tuoi nuovi impegni ti consentano di affacciarti qui, di tanto in tanto…

CERN, Roberto Carlin eletto Coordinatore di CMS: tripletta di italiani alla guida dei grandi esperimenti di LHC

home.infn.it, 12/02/2018

L’italiano Roberto Carlin, ricercatore all’Istituto Nazionale di Fisica Nucleare (INFN) e professore all’Università di Padova, è stato eletto nuovo spokesperson di CMS, e guiderà quindi l’esperimento che, assieme ad ATLAS, ha consentito la scoperta del famoso bosone di Higgs per due anni, da settembre 2018 quando raccoglierà il testimone dall’americano Joel Butler, ad agosto del 2020.

“È un onore essere scelto a coordinare una collaborazione così grande e importante, con tremila scienziati provenienti da ogni parte del mondo, – commenta Roberto Carlin – e ritengo che la mia elezione sia una conferma dell’eccellenza della fisica italiana, che nella collaborazione ha un ruolo determinante”. “Il nostro esperimento si trova ora di fronte a notevoli sfide, – prosegue Carlin – dovendo contemporaneamente acquisire l’enorme mole di dati fornita dalle eccellenti prestazioni dell’acceleratore LHC del CERN, analizzarli a fondo, e iniziare un progetto molto ambizioso di upgrade che è nelle fasi conclusive di approvazione”. “Dopo più di dieci anni di lavoro a CMS, posso dire che conosco bene le straordinarie capacità della nostra collaborazione, e non ho dubbi che il coinvolgimento di tutte le persone da ogni istituto e paese ci consentirà di portare a termine con successo i nostri progetti”, conclude Roberto Carlin.

Con l’elezione di Carlin sale a tre su quattro il numero degli italiani a capo dei grandi esperimenti al Large Hadron Collider del CERN: oltre a Carlin a capo di CMS attualmente ci sono, infatti, Federico Antinori alla guida di ALICE e Giovanni Passaleva di LHCb, oltre a Simone Giani che coordina la collaborazione TOTEM, uno degli esperimenti più piccoli, rispetto ai quattro giganti, ma altrettanto determinanti per i risultati che il CERN sta ottenendo nella comprensione dell’universo dell’infinitamente piccolo. Ma non solo: oltre alla tripletta nazionale c’è anche particolare motivo di orgoglio per la sezione INFN di Padova, di cui sono ricercatori sia Roberto Carlin sia Federico Antinori.

Roberto Carlin è ricercatore INFN e professore ordinario di fisica presso il Dipartimento di Fisica e Astronomia dell’Università di Padova. Ha iniziato l’attività scientifica nei primi anni ’80 al CERN con l’esperimento PS170, e ai Laboratori INFN di Frascati con Fenice. A queste attività di ricerca, è quindi seguito un lungo periodo all’esperimento ZEUS, a DESY, ad Amburgo, dove ha lavorato alla progettazione, costruzione e messa in servizio del rilevatore di muoni, del suo trigger e dell’acquisizione dati. In seguito, Carlin ha ricoperto i ruoli di coordinatore del trigger dell’esperimento, project manager per la costruzione di un nuovo rivelatore di vertice e infine vice-spokesperson della collaborazione. Membro di CMS dal 2005, Roberto Carlin ha contribuito all’installazione e la messa in funzione del rivelatore di muoni, e alla gestione delle prime fasi di presa dati. Dal 2012 al 2015 è stato coordinatore del trigger di CMS, e da settembre 2016 è vice-spokesperson della collaborazione.

Leadership

di Roberto C.A.

La recente discussione sulla leadership mi ha fatto pensare a come questa funziona nei nostri grandi esperimenti. Val la pena parlarne anche perché la stampa, che ha sempre bisogno di personaggi, tende a distorcere completamente la realtà. Chi ha scoperto il bosone di Higgs? Fabiola Gianotti? No di certo, come lei stessa, e non per falsa modestia, afferma in questo bell’articoletto.

http://nautil.us/issue/18/genius/who-really-found-the-higgs-boson

Mettiamo giù un po’ di numeri tanto per definire il campo. I due grandi esperimenti che hanno rivelato il bosone di Higgs (Atlas e CMS) sono collaborazioni in cui lavorano due-tremila fisici per ciascuna, provenienti da centinaia di istituti di tutto il mondo. Per CMS, attualmente 2680 fisici (di cui 891 studenti) e 859 ingegneri di 182 istituti di 42 diverse nazioni. Il CERN è il laboratorio ospite, fornisce l’acceleratore (LHC) che produce le collisioni tra protoni ad altissima energia, e partecipa anche con i suoi ricercatori agli esperimenti, come uno tra i molti istituti.

Come funzionano e sono organizzati questi esperimenti? Sono “collaborazioni di istituti”. Nel senso che ciascun istituto partecipante (per esempio l’università di Padova, o l’Imperial College di Londra etc.) costruiscono e mantengono pezzi di rivelatore, forniscono fisici che fanno le analisi dati, tecnici che fanno le manutenzioni e gli upgrade, e anche un po’ di soldi, pro quota (numero di autori che firmano gli articoli) per il fondo comune che serve a pagare le spese generali (e.g. l’elettricità). Le cose sono complicate, perché poi in genere i finanziamenti da una nazione sono dati agli istituti da singole agenzie finanziatrici (l’INFN in Italia, il DoE e NSF per gli Stati Uniti etc). In più, i vari detectors (i pezzi che vanno a costruire l’intero esperimento) sono finanziati e costruiti da gruppi di istituti spesso transnazionali. Per esempio, il rivelatore costruito da noi (si chiama DT, Drift Tubes) è il risultato di una collaborazione tra Padova, Bologna, Torino, Madrid, Oviedo, Santander, Debrecen, Aachen e ora è entrata anche Kuala Lumpur. Quindi ci sono vari livelli di collaborazione e interazione. Un bel casino.

È chiaro che per gestire tutto ciò c’è bisogno di una bella organizzazione. Che è sostanzialmente elettiva. Il capo dell’esperimento (spokesperson) è nel caso di CMS eletto ogni due anni dal “collaboration board” (l’insieme dei rappresentanti di tutti gli istituti). Ogni due anni si chiede alla collaborazione (tutta) di fornire suggerimenti per il prossimo spokesperson, poi si chiede ai candidati proposti se intendono partecipare all’elezione, e alla fine il capo viene eletto. Atlas ha, credo, 3 anni di turnover, ma poco cambia. A volte lo spokesperson è rinnovato, ma difficilmente più di una volta. Da notare, tra l’altro, che ciascun istituto con più di un paio di autori vota con lo stesso peso.

I livelli appena sotto (L1 coordinators, coordinatori di aree come computing, trigger, analisi di fisica etc), che poi formano assieme allo spokesperson il cosiddetto “executive board”, sono anche essi rinnovati con le stesse cadenze. Anche qui i candidati sono proposti dalla collaborazione tutta, poi però un “comitato di saggi” fa una scrematura e insieme allo spokesperson li nomina.

Lo stesso per i livelli ancora successivi (L2 coordinators, per esempio per le analisi di fisica i coordinatori dei sottogruppi che si occupano delle analisi sugli Higgs, sulla supersimmetria etc.), naturalmente in questo caso nella scelta si tiene conto delle opinioni dei relativi L1.

Quindi, per dire, Fabiola è stata (ottima) spokesperson di Atlas per due mandati, ora lo è un inglese. All’inizio della presa dati per CMS c’era un italiano (il pisano Guido Tonelli), che è stato seguito da un americano e poi da un altro italiano (dipendente CERN, Tiziano Camporesi). Ma prima, nella lunghissima fase di costruzione, se n’erano alternati altri, e altri ne seguiranno. Si tratta perciò di una gestione sostanzialmente corale, in cui c’è, sì, leadership: in ciascun istante c’è bisogno di qualcuno che abbia un’overview e guidi la baracca (e che parli con voce univoca con il mondo esterno, siano le funding agencies o gli altri esperimenti, da cui il termine spokesperson, portavoce). Ma la rotazione evita che ci sia un “one person show”, e invece mette a profitto le migliori capacità che ci sono in giro.

Anche perché si tratta comunque di comandare una nave di cui non si è padroni, visto che i finanziamenti vengono dal basso, dagli istituti partecipanti: non è un’azienda, non è che un capo possa dire: “ti licenzio”, o cose del genere. Il potere viene dall’incarico e quindi dalla fiducia ricevuti, e si esercita soprattutto con la persuasione, a volte certo con decisioni che non accontentano tutti, ma di sicuro mai dicendo “il capo sono io e faccio quello che voglio”.

Funziona? Sì, funziona bene, certo con qualche inefficienza. Certo non tutti lavorano con la stessa intensità: ci sono post-doc che producono per 10 e altri meno, docenti che dedicano per necessità molto tempo alla didattica e meno alla ricerca, persone che vanno e che vengono: post-doc appunto, che diventano espertissimi e poi si trovano un altro mestiere, in accademia o nell’industria, per non parlare degli studenti di dottorato. Ma la struttura gerarchica flessibile (abbastanza rigida nei ruoli, ma molto flessibile in chi li ricopre) rende il sistema molto adattabile. Non ci sono, per esempio, proprietà private, nemmeno nazionali, nelle varie aree di coordinamento. Per dire, il trigger era americano, ora ci sono io, poi chissà. Si cerca di trovare la persona migliore per quel ruolo, in base a quanto ha dimostrato in passato e alla disponibilità (e anche con qualche bilanciamento geopolitico, ma molto lasco). Questo fa anche sì che tutti si sentano in qualche modo coinvolti, anche per le aree non di loro attuale pertinenza diretta, e ciò consente di mettere in gioco le energie opportune nei momenti di bisogno.

Ci sono dei problemi? Altroché, è una faticaccia. Il problema è che tutto si muove rapidamente, e con condizioni al contorno mutevoli. Dopo tutto è un esperimento e, per quanto si cerchi di programmare e simulare, cosa esattamente succederà domani non si sa. E la reazione rapida alle mutate condizioni è molto stressante, e pone anche problemi. Spesso, soprattutto durante la presa dati, o nei momenti in cui un’analisi importante sta convergendo, se appare un problema, questo viene affrontato e risolto nel giro di poche ore, anche di notte (che è giorno per i colleghi che sono in America), quindi si va a letto con una situazione e ci si sveglia con un’altra. Stressante per chi deve mantenere l’overview. Ma la cosa più problematica, per chi coordina, è far capire la ragione delle proprie scelte, e soprattutto delle inversioni improvvise di rotta, ai giovani cui si è chiesto di fare un lavoro. Capita di chiedere un lavoro con urgenza, e poi di non utilizzarlo, o di chiedere qualcosa di ortogonale. In generale con ottimi motivi (appunto, le condizioni al contorno che cambiano in maniera imprevedibile), ma capita di fare l’errore di non spiegarlo bene, e di generare insoddisfazioni. Cose che si imparano, ma la comunicazione: “tu stai facendo questo perché, e adesso cambiamo perché”, è faticosissima in condizioni che mutano rapidamente. E, come dicevo sopra, l’opzione “fai questo e taci” non funziona.

Ora, ci sarebbero molte altre cose da dire, ma ho già scritto troppo. Non è poi sempre così, ci sono stati in passato esperimenti con una leadership forte e unica (Carlo Rubbia, Sam Ting, per esempio). Ma è difficile che possa succedere ormai con le dimensioni attuali, che per questo sono, a tutti gli effetti, anche esperimenti di sociologia (pensate solo alle diverse culture di persone che vengono da Paesi di ogni continente e ogni latitudine). E mostrano che, sì, la leadership serve, ma può essere una leadership diffusa, e legata molto più all’obbiettivo che alla singola persona.

boSonate

Matteo Marini, Repubblica.it (01/10/2014)

Dalla più importante scoperta del secolo è nata una sinfonia, non ispirata ma proprio tradotta dai numeri dell’esperimento dell’Lhc di Ginevra. Cos’è, in fondo, la musica se non una sequenza di rapporti matematici? Il risultato però è sicuramente più romantico. Il fisico Domenico Vicinanza, che oltre a essere uno scienziato della materia è anche un compositore, ha scritto questa composizione di musica da camera basandosi sui dati dell’esperimento che ha portato alla conferma dell’esistenza del Bosone di Higgs, condotto tra il 2011 e il 2013. Vicinanza ha poi reclutato i colleghi per una performance proprio negli ambienti che ospitano il Large hadron collider, il gigantesco acceleratore di particelle del Cern. E con lo spartito sul leggio hanno fatto vibrare le note di una melodia che loro stessi avevano contribuito a comporre. Oltre a Vicinanza, sono numerosi gli italiani che lavorano al centro di ricerca svizzero. E assieme a lui hanno partecipato all’esecuzione del brano: Diego Casadei al clarinetto, Antonio Uras al piano, Chiara Mariotti al flauto e Fabiola Gianotti come guest star.

(dal canale youtube del CERN)

Otto pagine o ottocento?

di Roberto C.A.

L’esperimento del CERN in cui lavoro ricomincerà a prendere dati a primavera del 2015, con un’energia dei fasci di protoni raddoppiata dopo un lungo shut-down dedicato soprattutto a miglioramenti tecnici sull’acceleratore. Si prevede poi di continuare, con alcune soste intermedie per manutenzioni e piccoli upgrades, fino a circa il 2022. In questo modo si accumulerà una quantità di dati pari a 20-30 volte quella raccolta finora, permettendo lo studio di processi molto più rari. Ho già cercato di descrivervi in un post precedente perché servano moltissimi dati per gli studi che facciamo:

https://transiberiani.wordpress.com/2014/04/17/higgs/

Ma non è finita qui.  Anche con quella mole di dati, c’è una serie di processi così rari (o potenzialmente così rari, se esistono), che resterebbero invisibili. E quindi si sta pensando a un upgrade dell’acceleratore, che riprenderebbe a lavorare attorno al 2025 con un’intensità dieci volte più alta. Gli esperimenti non sono stati disegnati per intensità così alte, molti dei rivelatori soccomberebbero per l’intensità delle radiazioni, e il sistema di trigger, di cui mi occupo, non avrebbe la capacità di essere sufficientemente selettivo. Stiamo quindi preparando un documento di studi, che valuti le possibilità di un upgrade dell’esperimento tale da renderlo adatto alle nuove condizioni.

Si tratta prima di tutto di individuare gli obiettivi di fisica da raggiungere, i più ambiziosi possibile. E poi di disegnare un rivelatore, non usando tecnologie “off the shelf” ma cercando di individuare progetti di R&D, avanzati senza essere irrealistici. Naturalmente, bisogna valutare i tempi: di ricerca, costruzione, integrazione dell’apparato nello shut-down. E le funzionalità integrate dei vari pezzi: non sempre la soluzione localmente migliore lo è anche globalmente. E non ultimo, bisogna valutare i costi, cercando di mantenere quanto dell’esistente possa ancora funzionare. I costi potrebbero essere attorno ai 200 milioni, spalmati su molti anni, e divisi tra le agenzie finanziatrici dei 40 Paesi che contribuiscono al progetto.

Per fare ciò, il documento che stiamo scrivendo collettivamente sarà di qualche centinaio di pagine, dense di proposte ottenute con vari studi di simulazione (che hanno tenute occupate le decine di migliaia di computer che abbiamo a disposizione). Tutto per un progetto che non è ancora approvato, e che potrebbe non esserlo mai (è sempre possibile che quello che eventualmente scopriremo nei prossimi anni ci spinga in un’altra direzione), ma solo per essere pronti nel caso quella fosse la direzione da prendere. Se otterremo un’approvazione di massima (“buona idea, proseguite gli studi, eccovi un po’ di soldi per farli”), allora dovremo produrre, entro due/tre anni, dei documenti di proposta tecnica ancora più dettagliati, questa volta di qualche centinaio di pagine per ciascun sottosistema.

Ora, nei giorni scorsi si è scritto che in passato i partiti (o il Partito) producevano lunghe elaborazioni di 800 pagine, mentre ora ci si accontenta di qualche tweet. E si diceva che già un documento di 8 pagine è sufficientemente indicativo della direzione da prendere. Il bilancio italiano è di circa mille miliardi di euro all’anno, altro che 200 milioni in molti anni. E non si tratta solo di affrontare problemi di spesa, ma problemi molto complessi di gestione sociale, culturale, che necessitano (necessiterebbero) di una solida prospettiva. Certo, non si possono consegnare 800 pagine all’elettore, le 8 pagine servono (anche noi, in alcune presentazioni, riassumiamo tutto in una ventina di slides). E serve anche il singolo slogan accattivante. Ma io vorrei sapere che le 8 pagine sono un riassunto, che dietro c’è del lavoro, che se voglio approfondire trovo le 800 che mi dicono che quanto si propone ha un fondamento, non è semplice wishful thinking, nel caso migliore, nel peggiore semplice propaganda a basso costo.

PS. Posso dirlo? Antonio proprio mi manca.

Higgs

di roberto C.A.

 

Pensierini della sera. Della notte dovrei dire, non ho altro tempo, ho deciso che le altre cose che dovrei fare, le farò domani.

Ho potuto leggere poco qui recentemente, e ho captato la parola semplificazione (e superficialità, punta dell’iceberg etc). E allora magari gioco un po’ mettendo insieme la semplificazione, la superficialità e il bosone di Higgs. Per far contento Mario.

Il semplificare i problemi è spesso una operazione necessaria per risolverli. Anche tecnicamente: abbiamo tutti imparato a “semplificare” le frazioni, e la metafora un po’ caricaturale che usano i fisici teorici “nell’approssimazione di mucca sferica” significa proprio l’aver tolto tutti i dettagli non essenziali per rendere un problema affrontabile. Però qui la parola chiave è “non essenziali”.  Altrimenti si rischia di ottenere soluzioni ad un problema diverso, in quanto ipersemplificato. E, sembra un po’ una cosa zen, è spesso la conoscenza dei dettagli che permette di sapere quali siano rimovibili senza danno. Si arriva alla semplicità passando per la complessità.

Andiamo quindi all’Higgs, prendendo a spunto un esempio di un “crackpot” che ho letto recentemente. Che sostiene che gli esperimenti al CERN non hanno “trovato” il bosone di Higgs, ma semplicemente un po’ di atomi di Tellurio (che ha circa la stessa massa, 127 volte quella di un protone). Usando l’accezione colloquiale del verbo “trovare”. Allora vorrei esporre, se riesco, la complessità di questo “trovare” il bosone di Higgs. Così racconto anche quello che faccio.

Nei due grandi esperimenti al CERN (si chiamano Atlas e CMS) si scontrano fasci di protoni. L’immagine (sovra)semplificata che molti hanno è che uno faccia scontrare due protoni, venga fuori un bosone di Higgs, e noi lo si guardi, in qualche modo. Lo si “trovi”. Vediamo un po’.

Nella realtà, si fanno scontrare dei pacchettini molto densi di protoni. Questo avviene circa 20 milioni di volte al secondo. Per molte ore, poi si ricarica il fascio e si ricomincia. Giorno e notte, per molti mesi. In un anno, tenendo conto dei tempi morti, manutenzioni etc. la macchina è in funzione circa un terzo del tempo, il che porta a circa diecimila miliardi di collisioni. Bene, direte, uno salva i dati su computer, e poi se li guarda con calma. Magari: la quantità dei dati raccolti dal rivelatore in ciascuna collisione (“evento” lo chiamiamo) è dell’ordine di un megabyte. Se dovessimo scrivere tutto, ci servirebbero 20 dischi moderni (da 1000 gigabyte) al secondo . Duecento milioni di dischi all’anno, non lontano da tutta la produzione mondiale.

Invece ci limitiamo a scrivere in media 500 eventi al secondo, 500 su 20 milioni, cioè uno ogni 40 mila in media. Ma possiamo scegliere a caso quali scrivere, uno a caso ogni 40 mila? Certo che no, altrimenti, perché faremmo così tante collisioni? Il bosone di Higgs viene prodotto molto raramente, non certo in tutte le collisioni. Nelle condizioni del 2012, circa una volta ogni 10 secondi. Ma, è molto peggio di così. L’Higgs non è una particella stabile, decade immediatamente in altre, e gran parte dei decadimenti sono indistinguibili da altri eventi più comuni. Per rivelarlo, bisogna scegliere dei modi di decadimento un po’ speciali. Per esempio, quello che ha dato l’indicazione più chiara della scoperta è stato il decadimento in due bosoni Z (quelli per cui Rubbia ha preso il Nobel), che a loro volta decadono in due elettroni ciascuno. Nelle condizioni del 2012, eventi del genere vengono prodotti un centinaio di volte l’anno. L’anno. Un centinaio su diecimila miliardi di collisioni (e poi si parla di aghi e pagliai). E’ evidente che se decidessi di scrivere a caso i risultati di una collisione su 40mila, la probabilità di beccare quelle pochissime giuste che contengono l’Higgs sarebbe sostanzialmente nulla. Bisogna selezionare un campione che contenga quelle giuste senza perderne nessuna (molto rapidamente, ce ne sono 20 milioni al secondo!). E questo è il compito di un sistema piuttosto complesso, che si chiama “trigger. E’ costruito su due livelli di scelta (il primo ne seleziona centomila al secondo su 20 milioni, e il secondo 500 di questi centomila). Tutto questo, ogni secondo. Il primo livello è fatto di elettronica fatta apposta (un sacco di elettronica), il secondo da computer (qualche migliaio di server). Io attualmente sono coordinatore del trigger di CMS.

Ma, chi ha avuto la forze di seguire i numeri finora si chiederà: perché scriverne 500 al secondo, se ne vengono prodotti un centinaio all’anno dei decadimenti che mi interessano? Una risposta è che si fanno anche un sacco di altri studi. Ma la risposta vera è che, naturalmente, ho ancora sovra-semplificato. Il decadimento che mi interessa è fatto da due coppie di elettroni, che provengono da due Z che a loro volta provengono dall’Higgs. Ma io “vedo” solo le quattro particelle finali. E, per quanto sia un decadimento abbastanza particolare, ci sono altri processi che producono lo stesso stato finale. Allora cosa faccio? Se vedo un evento con 4 elettroni, la cui energia è compatibile con la massa dell’Higgs, posso dire di avere visto un Higgs? Assolutamente no, potrebbe essere un’altra cosa, un “evento di fondo”. Non c’è un’etichetta che dice “sono io, mi avete trovato”. L’unica cosa che si può fare è raccoglierli tutti e fare un’analisi statistica, vedere come si distribuiscono le energie ricostruite, e vedere se c’è un eccesso rispetto a quanto mi aspetterei dal fondo.

E’ un po’ come se io dicessi: ho messo una carta in più in un mazzo da poker. Voi non potete contarle, potete solo estrarne una, segnarvi quale è, rimetterla dentro e rimescolare. E così via. Qualunque cosa estraiate, non potete dire se è quella cercata. E anche se estraete due volte di seguito l’asso di picche non potete dire nulla, è una cosa che può capitare. Solo dopo che avete fatto moltissime estrazioni siete in grado di dire che c’è un’anomalia: la donna di cuori esce troppo spesso. C’è il bosone di Higgs.

Nella figura qui sotto, c’è la distribuzione di cui parlo. L’Higgs è la parte con la curva rossa, il resto è fondo.

Immagine

Ecco, tutto questo per chiacchierare, ma anche per dire che spesso l’immagine che abbiamo di un problema, magari a causa della narrazione che ce ne viene fatta, è veramente troppo semplificata. E per questo tendo a diffidare di chi mi vende soluzioni semplici, rapide. Ci posso credere se sono un esperto, e concordo nella semplificazione. O se so che il “venditore” è esperto, e che posso fidarmi, non ha secondi fini. Altrimenti, l’esperienza mi insegna che le cose che conosco bene tendono ad essere complesse, e il fatto che possa non vedere la complessità in quelle che non conosco abbastanza, non le rende semplici, al massimo rende superficiale la mia analisi. E plausibilmente quella di chi ne millanta la semplicità. Superficiale, o strumentale.

PS, naturalmente nella descrizione della ricerca dell’Higgs ho semplificato molto. Ma, ritengo, ho tenuto le cose essenziali per quello che volevo dire.

PPS, non dimentico quanto scritto in passato, qui c’è l’articolo originale con la prima evidenza http://arxiv.org/pdf/1207.7235.pdf