Corso di Laurea in Fisica

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Corso di Laurea in Fisica"

Transcript

1 Facoltà di Scienze Matematiche Fisiche e Naturali Dipartimento di Fisica Corso di Laurea in Fisica Laurea Specialistica Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone. Relatore: Prof. Luciano M. Barone Candidato: Giovanni Carta matricola Anno Accademico

2 Indice Introduzione 1 1 L acceleratore LHC, l esperimento CMS e il Tier Il Large Hadron Collider L esperimento CMS Il tracciatore interno Il calorimetro elettromagnetico La parte centrale del calorimetro elettromagnetico (Barrel) La sezione in avanti del calorimetro elettromagnetico (Endcap) Il calorimetro adronico Il magnete Il sistema per muoni Il sistema di trigger La Grid, un sistema di Tier Il Tier 2 di Roma Fisica esotica: il modello dell axigluone Il Modello Standard La Cromodinamica Quantistica Axigluoni Produzione associata di axigluone con fotone Motivazioni dello studio in produzione associata Processi di segnale Processi di fondo

3 3 Sistemi di memorizzazione dati e misure di prestazione Sistemi di memorizzazione di dati DCache File Name Space e locazione del dataset Manutenzione e tolleranza ai guasti Metodi di accesso ai dati Il File Replica Manager Network File System (NFS) Chiamata di procedura remota external Data Representation (XDR) Server senza stato (stateless server) Modello di File System Gluster Obiettivi di progetto di Gluster Differenze tecniche L algoritmo di Elastic Hashing Local Strumenti di analisi Proof e PoD L architettura del sistema Il Framework TSelector Proof on Demand (PoD) Misure di prestazione Analisi preliminare Analisi sui metodi di data storage Risultati Prestazioni di PROOF con dcache Prestazioni di PROOF con NFS Prestazioni di PROOF con Gluster Prestazioni di PROOF con Local Analisi complessiva Applicazione: produzione associata di axigluone e fotone Ricostruzione di fotoni e jet Ricostruzione dei fotoni

4 4.1.2 Ricostruzione di jet Selezione degli eventi e separazione del segnale dal fondo Identificazione dei fotoni Isolamento combinato relativo Isolamento relativo di traccia H/E σ iηiη Soglia minima su R Criteri di selezione per i jet Segnale e fondo, discriminazione in η Conclusioni e sviluppi futuri 73 3

5 Introduzione Dal 2010 è entrato in funzione il Large Hadron Collider (LHC), al CERN, per studiare le particelle elementari prodotte in collisioni di altissima energia. Per studiare questi fenomeni sono stati costruiti 4 esperimenti di proporzioni colossali che, come una macchina fotografica da milioni di pixel, acquisiscono le immagini relative alle collisioni ad ogni incrocio dei fasci di particelle, producendo ciascuno un flusso di dati dell ordine di 300MB/sec. Il volume di dati complessivo e la potenza di calcolo necessaria ad analizzare questi dati hanno richiesto la realizzazione di un apparato di calcolo distribuito chiamato la Grid. Le dimensioni tipiche di un dataset, ovvero un insieme di file definito tipicamente da una collocazione temporale e dai criteri di selezione dei suoi eventi, sono di circa 1-10 TeraByte. Sebbene vi siano delle infrastrutture enormi che gestiscono la collocazione e la distribuzione dei dataset all interno della Grid è necessario studiare dei metodi che permettano di accedere ai dati in modo più veloce e organizzato di quanto sia già possibile. Per procedere in tale senso, in questo lavoro di tesi, si è impostata un analisi su un canale di fisica esotica delle alte energie, la produzione associata di axigluone e fotone. L axigluone è una particella introdotta in modelli teorici in cui è presente un Colore Chirale e spiegherebbe l asimmetria avanti dietro del quark top. Per studiare questo processo è necessario analizzare una quantità di dati tale da emulare la dimensione tipica di un dataset; a questo scopo un canale di fisica esotica, raro, e con un elevata quantità di fondi, si rivela essere un ottimo candidato. Si sono studiati tutti i metodi di accesso ai file; in particolare l analisi è stata parallelizzata su un cluster variabile di processori allocati tramite Proof on Demand e si sono andate a misurare le prestazioni di tutti i metodi di data storage che il Tier2 di Roma fornisce all utente CMS: lo storage manager dcache/srm e i file system NFS, Gluster e quello locale (ext3). Nel capitolo 1 verrà fornita una descrizione dell acceleratore LHC, dell esperimento CMS e del Tier2 di Roma all interno della WorldWide LHC Computing Grid. Nel capitolo 2 introdurremo l axigluone motivandone lo studio in produzione associa- 4

6 ta con il fotone. Nel capitolo 3 tratteremo i metodi di memorizzazione dati, le misure di prestazione effettuate e gli strumenti di analisi utilizzati (PROOF e PoD). Il capitolo 4 è dedicato all analisi preliminare della produzione associata di axigluone e fotone. Seguono le conclusioni. 5

7 Capitolo 1 L acceleratore LHC, l esperimento CMS e il Tier2 1.1 Il Large Hadron Collider Il Large Hadron Collider (LHC) è il più grande acceleratore di particelle mai costruito. È situato a Ginevra, ai laboratori del CERN (Conseil Européen pour la Recherche Nucléaire). Il tunnel che lo ospita è un anello circolare lungo circa 27 km situato a 100 m sotto la superficie terrestre. È un collisore protone-protone, che da progetto può raggiungere un energia del centro di massa S = 14 TeV e una luminosità istantanea di cm 2 s 1. Dal gennaio 2012 l energia è aumentata dai precedenti 7 TeV (dal marzo 2010 al 2011) a 8 TeV.I parametri dell acceleratore sono riportati nella Tabella 1.1. La catena di pre-acceleratori che i protoni percorrono prima di essere iniettati nel collisore principale è schematizzata in figura 1.1. Il LINAC 2 accelera i protoni fino a 50 MeV, il PS (Proton Synchrotron) fino a 1.4 GeV, e infine il SPS (Super Proton Synchrotron) li porta a 450 GeV e li inietta nell anello principale che li accelera fino ad un energia del centro di massa di 8 TeV (4 TeV per fascio). L ultimo passaggio è compiuto tramite radiofrequenze a 400 MHz che aumentano l energia dei protoni di 0.5 MeV per giro. Poiché le collisioni avvengono tra particelle con la stessa carica elettrica, sono presenti due cavità e due campi magnetici separati per i fasci che procedono in direzioni opposte. LHC è equipaggiato con 1232 dipoli magnetici superconduttori in Niobio-Titanio di lunghezza 14.2 m, raffreddati a 1.9 K con elio liquido. Il sistema crea un campo magnetico di intensità di circa 8.3 T. I magneti sono posizionati nelle 8 giunture curve che uniscono le parti lineari dell anello. L alta luminosità è ottenuta grazie ad un alta frequenza 6

8 di bunch-crossing (BC, incrocio dei fasci, o meglio di pacchetti di protoni, ne circolano fino a 2808 per ognuna delle due cavità) e un grande numero di protoni per pacchetto (un valore nominale di ). I fasci di LHC si possono incrociare lungo l anello in quattro punti, in cui sono localizzati gli esperimenti, ognuno dei quali è stato progettato per uno scopo differente: ALICE [17] (A Large Ion Collider Experiment) è stato progettato per lo studio del plasma quark-gluone in collisioni di ioni pesanti (Pb), LHCb [16] (Large Hadron Collider beauty experiment) è stato costruito per studiare la violazione di CP nei b-quark, infine CMS [13] (Compact Muon Solenoid) e ATLAS [22] (A Toroidal Light Hadron Collider Apparatus) sono esperimenti a carattere generale ideati per esplorare la fisica alla scala del TeV. Il numero di eventi di fisica prodotti nelle collisioni pp (protone-protone) è dn dt = σ L, dove dn dt è il numero di collisioni nell unità di tempo, σ rappresenta la sezione d urto del particolare processo e L è la luminosità istantanea. La luminosità istantanea di LHC è definita come: L = N2 p f BX k A e f f (1.1) dove N p è il numero di protoni per pacchetto, f BX è la frequenza di bunch crossing, k il numero di pacchetti che circolano nell anello, e A e f f rappresenta l area effettiva di incrocio dei fasci, equivalente a un integrale di sovrapposizione tra le due funzioni di densità. Le dimensioni fisiche della luminosità istantanea sono [l] 2 [t] 1. Spesso si fa riferimento anche alla luminosità integrata nel tempo, questa ha le dimensioni fisiche dell inverso di una sezione d urto [l] 2. La sezione d urto totale protone-protone è stimata essere intorno a 100 mb, questo implica circa 20 interazioni tra protoni ad ogni incrocio dei pacchetti, ovvero 10 9 interazioni al secondo. Per questo motivo è necessaria una forte selezione per ridurre online (durante l acquisizione dati) la frequenza di eventi interessanti a O(100) Hz, valore che corrisponde alla massima velocità con cui si possono salvare dati con la tecnologia attuale di data storage. I rivelatori devono avere inoltre un buon tempo di risposta (intorno ai 25 ns) e una buona granularità per minimizzare il calo di prestazioni in caso di eventi simultanei. Oltre a questi fattori bisogna considerare che ogni componente dei rivelatori deve essere molto resistente alle radiazioni causate dall altissimo flusso di particelle proveniente dalle interazioni. I rivelatori a carattere generale, ovvero CMS e ATLAS devono inoltre 7

9 soddisfare, quanto più possibile, ulteriori requisiti per una comprensione completa degli eventi: un ermeticità totale, per misure accurate dell energia trasversa mancante; una ricostruzione eccellente di leptoni e fotoni di alta energia; una misura precisa dell impulso delle particelle cariche; una ricostruzione accurata del vertice di interazione, dell attività adronica dei processi QCD e dei decadimenti di particelle pesanti; Nella sezione che segue viene descritto come il rivelatore CMS soddisfa questi requisiti. Figura 1.1: Sistema di acceleratori di LHC 8

10 Tabella 1.1: Valori nominali di LHC Parametri Valori Circonferenza [km] 27 Numero di dipoli magnetici 1232 Campo magnetico dipoli [T] 8.33 Radiofrequenze [MHz] 400 Massimo numero di pacchetti 2808 Temperatura dei magneti [K] 1.9 Energia del fascio massima [TeV] 7 Luminosità massima [cm 2 s 1 ] Protoni per pacchetto Distanza tra pacchetti [m] 7.48 Separazione in tempo minima tra pacchetti [ns] 25 Lunghezza del pacchetto [cm] 7.5 Lunghezza trasversa del pacchetto [µm] L esperimento CMS L esperimento Compact Muon Solenoid (CMS) è un rivelatore attualmente in funzione al LHC del CERN. È situato in una caverna sottoterra a Cessy, in Francia non lontano dalla città di Ginevra in Svizzera. L esperimento CMS ha come scopo generale lo studio della fisica alla scala del TeV, la ricerca di segnali di nuova fisica, e lo studio delle proprietà del nuovo bosone osservato, in tutto finora compatibile con il bosone di Higgs. Il progetto del rivelatore può essere riassunto nel modo seguente: un sistema di tracciamento interno preciso ed affidabile; il miglior calorimetro elettromagnetico possibile compatibile con il magnete; un sistema calorimetrico adronico il più possibile ermetico, con la capacità di mantenere buone prestazioni nella ricostruzione di energia trasversa mancante; un unico magnete solenoidale superconduttore in grado di produrre un campo magnetico di 4T; uno spettrometro per muoni compatto, che fornisce ricostruzioni di tracce precise e non ambigue per muoni con impulso trasverso fino al TeV. 9

11 La struttura del rivelatore CMS è mostrata in figura 1.3. Ha una forma cilindrica, simmetrica intorno alla direzione dei fasci, il raggio misura 7.5 m, la lunghezza totale è di 22 m, pesa circa tonnellate. Si divide in una sezione centrale (il barrel), costituita da diversi strati coassiali all asse dei fasci, e nelle due sezioni ermetiche a disco, ortogonali all asse, che chiudono le sue estremità (gli endcap). Un immagine schematica della sezione trasversa di CMS è mostrata in figura 1.4. Procedendo dall interno verso l esterno sono localizzati il tracciatore a silicio, il calorimetro elettromagnetico, il calorimetro adronico, il magnete solenoidale e le camere a muoni. Il sistema di coordinate utilizzato a CMS è cartesiano, l origine è centrata sul punto di collisione nominale, al centro del rivelatore, e viene utilizzata la convenzione seguente: l asse x punta verso il centro dell anello di LHC; la direzione dell asse z coincide con l asse del cilindro di CMS; l asse y punta in alto, verso la superficie. La simmetria cilindrica dell apparato rende efficace l utilizzo di un sistema pseudo-angolare dato dalle tre variabili (r,φ,η), dove r è la distanza radiale dall asse dei fasci, φ è l angolo azimutale rispetto all asse delle x, e η, chiamata comunemente pseudorapidità, è definita come η = lntan θ 2 (1.2) dove θ è l angolo polare rispetto all asse z. La pseudorapidità è, per alte energie, una buona approssimazione della rapidità (y) di una particella, definita come: y = 1 ( ) E + 2 ln pl E p L (1.3) dove E è l energia della particella e p L è la proiezione dell impulso lungo la direzione dei fasci. L utilità nell usare la rapidità come variabile nei collisori adronici consiste nella sua invarianza per boost di Lorentz nella direzione dei fasci. Dalla definizione di pseudorapidità segue che η = 0 per θ = 0 e che il suo valore assoluto cresce avvicinandosi ai fasci, raggiungendo asintoticamente il valore infinito per θ = π/2 (sull asse z). 10

12 Figura 1.2: Sistema di riferimento CMS Si definisce, inoltre, p T la componente lungo il piano trasverso e con E T la sua energia trasversa, ottenuta dalla relazione E T = E sinθ. Nei paragrafi seguenti verranno descritti i rivelatori che costituiscono CMS. Figura 1.3: Schema del rivelatore CMS 11

13 Figura 1.4: Sezione trasversa di CMS 12

14 1.2.1 Il tracciatore interno Il tracciatore interno, figura 1.5, è stato progettato per ricostruire elettroni e muoni ad alto p T con un efficienza maggiore del 95%, e le tracce di particelle all interno dei jet con un efficienza maggiore del 90%, in un intervallo di η < 2.5. Esso circonda il vertice di interazione e ha una lunghezza di 5.8 m e un diametro di 2.5 m. Data la sua vicinanza alla regione di interazione è sottoposto a danneggiamenti da radiazione. La sfida più grande durante la fase di progettazione è stata quella di sviluppare le componenti del rivelatore in modo che potessero operare in questo ambiente per un lasso di tempo di 10 anni. Per soddisfare queste richieste il tracciatore è completamente fatto in silicio. Ciò costituisce il primo esempio, nella fisica di alte energie, di un sistema di tracciamento interno basato completamente su questa tecnologia. Considerando il flusso di particelle cariche e l alta luminosità di LHC possiamo distinguere tre regioni: la regione più vicina al punto di interazione con il flusso di particelle più elevato ( 10 7 /s per r 10cm), equipaggiata con rivelatori a pixel. La grandezza dei pixel è µm 2 ; la regione intermedia (20cm < r < 55 cm), dove il flusso di particelle è abbastanza ridotto da permettere l uso di rivelatori a microstrip di silicio con una grandezza minima di cella di 10 cm 80 µm; la regione più esterna (r > 55 cm), dove il flusso di particelle è tale da permettere l impiego di microstrip di dimensione massima 25cm 180µm. Il tracciatore a pixel è composto da tre strati cilindrici nella regione del barrel, localizzati rispettivamente a una distanza dall asse z pari a 4.7 cm, 7.3 cm e 10.2 cm, e due dischi che chiudono la struttura, situati a 6 cm e a 15 cm dall asse z, e posizionati su entrambe le facce a z = 34.5 cm e 46.5 cm. Il progetto garantisce che ogni particella carica prodotta all interno della regione definita da η < 2.2 rilasci almeno due segnali (hit) nel rivelatore. Gli strati a pixel sono circondati da un rivelatore in silicio a microstrip (vedi figura 1.6). Il rivelatore a microstrip del barrel è diviso in due regioni, una interna ed una esterna. La regione interna è composta da quattro strati (dei quali i due più interni hanno i rivelatori su entrambe le facce), e copre la regione 20cm < r < 55cm. Quella più esterna è costituita da sei strati (i due più interni anch essi a doppia faccia) e si estende fino a r = 110 cm. Per evitare che le particelle colpiscano l area sensibile ad angoli troppo piccoli, il barrel 13

15 più interno è più corto di quello esterno, e sono stati inseriti tre strati addizionali a forma di disco tra il barrel più interno e gli endcap. Il rivelatore di endcap è costituito da nove strati di dischi e copre la regione fino alla distanza massima di z = 270 cm. Il primo, il secondo e il quinto strato sono dotati di rivelatori su entrambe le facce. Il tracciatore di silicio possiede un totale di 66 milioni di pixel e 9.6 milioni di strip. La quantità di materiale in unità di lunghezze di radiazione è funzione di η ed è rappresentata in figura 1.7. Va da un minimo di circa 0.5 (al centro del barrel) a un massimo di 1.8 lunghezze di radiazione (nella transizione tra barrel e endcap). Per questa ragione è piuttosto frequente che un elettrone produca una coppia elettrone-positrone o che un elettrone emetta un fotone per bremsstrahlung all interno del tracciatore. Figura 1.5: Il tracciatore interno Figura 1.6: Rivelatore a micro strip nel tracciatore interno 14

16 Figura 1.7: Materiale nel tracciatore di silicio in unità di lunghezze di radiazione X 0 in funzione della η Il calorimetro elettromagnetico Il calorimetro elettromagnetico di CMS (ECAL) [8] è un calorimetro di cristalli a scintillazione. Offre delle ottime prestazioni per la risoluzione in energia poichè la maggior parte dell energia proveniente dagli elettroni e dai fotoni è depositata all interno del volume omogeneo dei cristalli. Cristalli molto densi con un raggio di Molière molto piccolo permettono di avere un sistema molto compatto. L ambiente dell LHC pone requisiti molto stringenti sulle specifiche del rivelatore: la resistenza alle radiazioni, la presenza del campo magnetico, l alta frequenza di collisione dei fasci. Dopo un programma intensivo di ricerca e sviluppo sono stati selezionati cristalli di tungstato di piombo (PbWO 4 ). Il PbWO 4 presenta infatti una piccola lunghezza di radiazione e un raggio di Molière piccolo, è uno scintillatore veloce, è piuttosto facile da produrre, e una buona esperienza in questo senso era già presente in Cina e in Russia. Il progetto di ECAL è stato ottimizzato per lavorare al meglio sul canale di decadimento H γγ. Poiché la larghezza del segnale dell Higgs è dominata completamente dalla risoluzione in massa dei due fotoni, questa impone requisiti stringenti sulle prestazioni. L abilità di mantenere una buona risoluzione in massa, anche in condizioni di lavoro difficile, è uno degli obiettivi di progetto chiave per il calorimetro elettromagnetico. Le principali caratteristiche del calorimetro, diviso in una parte più centrale e in una sezione più in avanti, (vedi figura 1.8) sono: 15

17 Geometria Accettanza in pseudorapidità. La copertura geometrica dei cristalli si estende fino ad η = 3. Misure di precisione dell energia, che coinvolgono fotoni ed elettroni, sono svolte per η < 2.5. Questo limite è determinato dalla quantità di radiazione e dall energia di pile-up ed è compatibile con l accettanza geometrica del sistema di tracciamento interno. Granularità. Nella parte centrale del calorimetro la granularità trasversa è di η φ = , corrispondente alla dimensione frontale di un cristallo di circa mm 2. Questo valore, in quanto piccolo, riduce l effetto dei contributi dovuti al pile-up sulle misure di energia poiché riduce l area sulla quale è sommata. Negli endcap (1.48 < η < 3.0) la granularità aumenta progressivamente fino ad un valore massimo di η φ = , lungo la sezione frontale dei cristalli il valore rimane invece invariato. Spessore. È necessario uno spessore totale pari a circa 26 lunghezze di radiazione a η = 0 per limitare ad un livello accettabile le perdite longitudinali degli sciami elettromagnetici ad alta energia. La presenza di un preshower nella regione degli endcap permette di usare cristalli leggermente più corti (22cm). Risoluzione Risoluzione in energia. Per l intervallo di energie dai 25 GeV ai 500 GeV la risoluzione è stata calcolata come: σ(e) E = a E σ n E c (1.4) dove a è il termine stocastico, σ n il rumore, e c il termine costante. Il termine stocastico include fluttuazioni del contenuto dello sciame e contributi dalla fotostatistica. Figura 1.9 riassume i contributi diversi aspettati per la risoluzione in energia. Non sono stati inclusi i termini che rappresentano il calo della risoluzione per energie estremamente elevate. 16

18 Figura 1.8: Sezione 3D di ECAL Figura 1.9: Contributi alla risoluzione in energia del calorimetro elettromagnetico a cristalli di PbWO La parte centrale del calorimetro elettromagnetico (Barrel) La parte di ECAL situata nel barrel copre la regione in pseudorapidità η < La faccia frontale dei cristalli è situata ad un raggio di 1.29m, ha una sezione quadrata di mm 2 e una lunghezza di 230mm corrispondente a 25.8X 0 (lunghezze di radiazione). I cristalli a forma di tronco di piramide sono montati in una geometria che non punta direttamente alla posizione del vertice primario di interazione, ma è ruotata di 3 sia in η che in φ. La sezione dei cristalli corrisponde a η φ = (1 ). Sono presenti 360 cristalli in φ e (2 85) in η, per un totale di Il volume dei cristalli nel barrel è di 8.14 m 3 (67.4t). I cristalli di ogni mezzo barrel sono raggruppati in 18 supermoduli, ognuno dei quali copre un angolo di 20 in φ. Ogni supermodulo comprende 17

19 quattro moduli di cui uno è composto da 500 cristalli, mentre i rimanenti da 400 l uno. Per semplicità, durante la fase di costruzione e assemblaggio, i cristalli sono stati raggruppati in matrici 2 5 sfruttando una struttura ad alveare con pareti molto sottili (200 µm). La temperatura è controllata da due sistemi attivi: un circuito di raffreddamento che mantiene la temperatura operativa (temperatura ambiente) della matrice di cristalli all interno di una finestra di larghezza ±0.05 C, assicurando una buona stabilità termica, e un circuito di raffreddamento più potente che disperde il calore generato dall elettronica La sezione in avanti del calorimetro elettromagnetico (Endcap) Il calorimetro situato nell endcap copre un intervallo di pseudorapidità da 1.48 a 3.0. Il progetto degli endcap prevede la possibilità di effettuare misure di precisione fino a η = 2.5. I cristalli sono tuttavia installati fino a η = 3 per misurare i jet adronici nella direzione più in avanti. Il progetto del calorimetro nell endcap è basato su una geometria a proiezione off-poiting (anche in questo caso i cristalli non puntano all asse). Vengono utilizzati cristalli affusolati della stessa forma e dimensioni ( mm 3 ) raggruppati insieme in blocchi da 25, i cosiddetti supercrystal. In totale negli endcap ci sono cristalli. Tutti i materiali usati in questa regione devono essere resistenti a grandi quantità di radiazioni. Il calorimetro degli endcap lavora a 18, temperatura che deve essere stabilizzata in un intervallo di ±0.1 C. Il rivelatore preshower, situato di fronte agli endcap, opera ad una temperatura di -5 C, per questa ragione, accorgimenti per evitare problemi di condensazione sono stati presi in considerazione. Il raffreddamento richiesto dai singoli cristalli è raggiunto tramite condotti termici inseriti nella parte posteriore dei cristalli attraverso inserti metallici tra i piani dell interfaccia e gli elementi di supporto. Le regolazioni termiche sono effettuate tramite un sistema di raffreddamento ad acqua installato su un piano di supporto Il calorimetro adronico Il ruolo del calorimetro adronico (HCAL) [9] è di contenere le cascate delle particelle adroniche e misurare i quadrimpulsi dei jet e l energia trasversa mancante degli eventi. I due fattori chiave per questi compiti sono un alta ermeticità e una buona granularità trasversa. Inoltre sono importanti una buona risoluzione in energia e un contenimento longitudinale sufficiente. 18

20 Una sezione longitudinale di un quarto del calorimetro adronico è mostrata in figura È formato da due rivelatori separati: un calorimetro centrale (HCAL) e uno più in avanti (HF Hadronic Forward). HCAL copre la regione di pseudorapidità η < 3, ed è a sua volta diviso in due sottorivelatori: un barrel ( η < 1.3) e due endcap (1.3 < η < 3). È un calorimetro a campionamento che usa come assorbitore l ottone e come materiale attivo uno scintillatore plastico. La granularità è η φ = Ha uno spessore totale di 7-10 lunghezze di interazione (Λ i ). Una profondità di 7Λ i non è sufficiente ad assicurare il contenimento completo di una cascata adronica molto energetica, quindi è stato inserito uno strato aggiuntivo di materiale attivo dietro il solenoide, risultando in un aumento della profondità totale di circa 3 Λ i e in un miglioramento del 10% nella risoluzione in energia per pioni di 300GeV. È stato posizionato un calorimetro addizionale (HF) all esterno della regione del magnete, per aumentare l ermeticità del rivelatore, a 11m di distanza dal punto di interazione, su entrambi i lati. Questi rivelatori coprono la regione in pseudorapidità molto vicina al fascio 3 < η < 5. Sono calorimetri a campionamento e sono composti da assorbitori in acciaio e fibre in quarzo, la diversa composizione è dettata dalla sua localizzazione, ovvero una regione con un altissimo livello di radiazioni e particelle ad alta molteplicità. La loro composizione garantisce buone prestazioni nell acquisire segnali di luce Cherenkov. Le fibre sono posizionate parallelamente all asse dei fasci e sono di due lunghezze diverse, le più lunghe (1.65m) raggiungono la faccia frontale del calorimetro, le più corte (1.43m) terminano 22 cm prima; sono posizionate, alternandosi, 5mm l una dall altra. In questo modo, la maggior parte delle componenti elettromagnetiche delle cascate adroniche sarà rilasciata nelle fibre lunghe e può essere quindi isolata tramite sottrazione. La sua granularità è η φ = Per testare le prestazioni di HCAL, si è soliti studiare la risoluzione in energia dei jet e la risoluzione in energia trasversa. La granularità del campione nelle tre parti di HCAL è stata scelta in modo che la risoluzione in energia dei jet, come funzione di E T, fosse simile in tutte e tre le regioni. La risoluzione in energia trasversa (E T ) in eventi QCD dijet con pile-up è data da: σ(e T ) E T 100% ET (1.5) 19

21 Figura 1.10: Sezione longitudinale di un quarto dei calorimetri adronici di CMS: HCAL è visibile sulla sinistra, HF è sulla destra lontano dal punto di interazione Il magnete Le prestazioni richieste dal sistema di muoni, ovvero la potenza di curvatura, è definita dalla necessità di identificare stati stretti che decadono in muoni, e il segno di questi anche per impulsi di 1 TeV /c. Questo problema richiede una risoluzione in impulso di p/p 10% per p = 1 TeV. La collaborazione CMS ha scelto di impiegare un superconduttore solenoidale, i parametri del quale sono dati in tabella 1.2. Tabella 1.2: Parametri del solenoide superconduttore di CMS Parametro Valore Intensità 3.8T Foro interno 5.9m Lunghezza 12.9 Numero di giri 2168 Corrente 19.5kA Energia accumulata 2.7GJ Il sistema per muoni Le tre funzioni del sistema per muoni [10] sono rispettivamente, l identificazione, la misura dell impulso e l innescamento del trigger. I muoni sono il solo tipo di particella in grado di passare attraverso i calorimetri senza essere assorbita. Per questa ragione, 20

22 il sistema è posizionato nella regione più esterna del rivelatore, oltre i calorimetri e il solenoide, dove il campo è di 1.5 T. Copre la regione di pseudorapidità η < 2.4. Un immagine del sistema a muoni è mostrata in figura È diviso in barrel ( η < 1.2.) e endcap(1.2 < η < 2.4.). In entrambe le regioni sono collocate quattro strati di stazioni di misura. Nella regione del barrel è posto un sistema di camere a deriva (Drift Tube, DT). Ogni camera DT, di dimensioni medie di 2m 2.5m, è costituita da 12 strati di alluminio disposti in 3 gruppi (superlayer) da quattro strati, in tutta la regione del barrel vi sono un totale di tubi. Gli endcap devono sopportare un campo magnetico più potente e un flusso di particelle elevato, per questa ragione vengono utilizzate camere del tipo CSC (Cathode Strip Chamber), queste camere sono organizzate in moduli a 6 strati. Le camere CSC sono camere a fili proporzionali nelle quali il piano di catodo è stato suddiviso in strisce (strip). Un secondo tipo di camera presente sia nella regione di barrel che negli endcap è la camera RPC (Resistive Plate Chamber). È una camera a gas a piani paralleli con un ottima risoluzione nel tempo (3ns). Le camere RPC forniscono un sistema di trigger molto veloce, in grado di identificare muoni con un alta efficienza; sono organizzate in 6 stazioni nel barrel e 4 negli endcap, per un totale di 612 camere. Figura 1.11: Schema di un quarto del sistema per muoni di CMS 21

23 1.2.6 Il sistema di trigger Alla luminosità nominale di progetto di LHC, ovvero cm 2 s 1, si hanno 17 eventi per incrocio di fasci, e un incrocio ogni 25ns. Tutto ciò produce una frequenza di input dell ordine di 10 9 interazioni ogni secondo, questa deve essere scalata almeno di un fattore10 7 a 100Hz, ovvero la velocità massima di acquisizione che può essere raggiunta online da una computer farm. La collaborazione CMS ha deciso di effettuare questa riduzione in due passi. Un primo livello (L1) in cui tutti i dati sono immagazzinati per 3.2µs, ma non più di 100KHz di eventi immagazzinati vengono mandati ai trigger di alto livello (High Level Triggers). Il trigger L1 deve prendere decisioni in un tempo troppo breve per analizzare i dati provenienti da tutto il rivelatore, per questa ragione usa solo le informazioni calorimetriche e del sistema di muoni, gli algoritmi traccianti sono, infatti, troppo lenti per questo scopo. Il trigger L1 è quindi organizzato in un Trigger Calorimetrico e in un Trigger Muonico, le informazioni sono poi trasferte a un Trigger Globale che prende la decisione finale sull accettare o meno l evento. Il Trigger Calorimetrico è basato su torri di trigger (raggruppate in quadrati 4 4), matrici 5 5 di cristalli di ECAL con la stessa granularità delle celle di HCAL. Questo trigger identifica i candidati fotoni, elettroni, jet centrali, jet in avanti e τ-jet. Il Trigger Muonico utilizza i rivelatori del sistema per i muoni e si attiva separatamente per ogni rivelatore di muoni. Le informazioni sono poi fuse insieme e i migliori candidati muoni sono trasferiti al Trigger Globale. Il Trigger di Alto Livello (HLT High-Level-Trigger) riduce la frequenza di output a circa 100Hz. È un sistema software personalizzabile, nel quale la flessibilità è massimizzata grazie alla totale libertà di accesso ai dati e dell algoritmo che si vuole utilizzare. Il software HLT è organizzato in un set di algoritmi progettati per selezionare specifiche topologie di eventi. Il meccanismo di base consiste nel ricostruire le parti dell evento vicine agli oggetti già ricostruiti dal trigger L1, evitando di costruire l intero evento si diminuisce il tempo di decisione. Poi un veto veloce sugli eventi permette di eliminare eventi non interessanti appena possibile, liberando potenza di calcolo per gli eventi successivi. Il Trigger di Alto Livello accede a tutte le informazioni che non erano utilizzabili per la scala di tempi del primo livello. Queste informazioni includono i dati provenienti dai tracciatori e la completa granularità dei calorimetri. In caso si abbia la necessità l HLT può usare i dati dell evento completo. 22

24 1.3 La Grid, un sistema di Tier La WorldWide LHC Computing Grid (WLCG) è composta da quattro livelli, o Tier, rispettivamente 0, 1, 2 e 3. Ogni Tier è costituito da diversi centri di calcolo e provvede a specifici servizi, tra i quali, memorizzare, processare e analizzare tutti i dati del Large Hadron Collider (LHC). Il Tier 0 è il CERN Data Center. Tutti i dati da LHC passano attraverso questo snodo centrale, ma la sua capacità di calcolo non supera il 20% della capacità totale di calcolo della Grid. Il CERN è responsabile per la sicurezza dei dati grezzi e si occupa della prima calibrazione e ricostruzione di questi dati. Il Tier 0 distribuisce i dati grezzi e l output ricostruito ai Tier 1, e riprocessa i dati quando LHC non è in esecuzione. Il Tier 1 consiste in 11 centri di calcolo nazionali grandi abbastanza per registrare i dati LHC. Sono attivi 24 ore su 24 e hanno il compito di immagazzinare una quantità proporzionale di dati grezzi e ricostruiti; riprocessare dati su grande scala ad un livello successivo e immagazzinare l output corrispondente; distribuire dati ai Tier 2 e memorizzare una parte dei dati simulati che i Tier 2 producono. Una fibra ottica da 10 gigabits al secondo connette il CERN a ognuno degli 11 centri Tier 1 intorno al mondo. Questa rete dedicata è chiamata l LHC Optical Private Network (LHCOPN). I Tier 2 sono tipicamente università e altri istituti scientifici che possono registrare dati sufficienti e fornire una potenza di calcolo adeguata per specifiche richieste di analisi. Gestiscono una parte proporzionale di produzione e ricostruzione di eventi simulati. Esisto circa 140 Tier 2. Individualmente ogni utente può accedere alla Grid attraverso risorse di computazione locale (o Tier 3) che consistono in cluster locali nel dipartimento dell università o semplicemente un singolo PC. Non esiste un collegamento formale tra le risorse Tier 3 e la WLCG. Il modello di calcolo degli esperimenti a LHC prevede trasferimenti di dati regolamentati tra i diversi Tier. Ciò ha implicazioni sulla specifica implementazione della GRID: si deve cioè avere un sistema di DataGRID, dove applicazioni (jobs) sono inviate ed eseguite dove si trovano i dati. Tuttavia, mentre i processi di simulazione Monte Carlo e di ricostruzione di dati sono strettamente organizzati, le attività di analisi sono caotiche, impredicibili e asincrone rispetto alla presa dati. Soltanto a posteriori si può valutare quali dataset siano più usati, quale canale di analisi richieda maggiore potenza di calcolo o banda passante verso lo storage, dove siano destinati dati prodotti dagli utenti. 23

25 In tale situazione, la preallocazione efficiente e precisa dei dati nei Tier2 è svolta a tentativi. Per esempio CMS ha previsto che ogni sito ospiti una frazione dei dati utili per l analisi, cosiddetti dati allocati centralmente, di circa 1 PetaByte. Nel caso dei Tier2 italiani questo ammonta in totale a 4 PB nei 4 Tier2, contro una stima approssimativa di 10 PetaByte di dati totali. Ciò implica che meno della metà dei dati utili per l analisi sia direttamente accessibile in ogni momento nei siti italiani. Un altro punto rilevante dell attuale quadro di riferimento per le attività di analisi è la definizione di ambiente di analisi dati per l utente finale. All inizio degli esperimenti di LHC vi era la convinzione diffusa che l utente finale potesse usare il proprio laptop per svolgere le tipiche analisi interattive su campioni altamente selezionati e in formato ridottissimo. Ma già dopo due anni di presa dati questa ipotesi si rivelava del tutto errata. Infatti le attività finali di analisi su campioni di dati reali o simulati sono molto costose dal punto di vista computazionale e dello storage. Per estrarre risultati finali occorre eseguire complessi fit statistici, accedere ai dati selezionati ripetutamente, e il volume complessivo dei dati richiede comunque uno storage con prestazioni a livello professionale. I dati inoltre continuano ad accumularsi e si entrerà presto in una fase in cui ricerche di processi rari sono sempre più frequenti. 1.4 Il Tier 2 di Roma Presso il Dipartimento di Fisica dell Università Sapienza di Roma è in funzione un Tier2 per gli esperimenti CMS e ATLAS. Il Tier2 di Roma consiste oggi in più di 2000 processori di calcolo e circa 1 PetaByte di storage, inseriti in una infrastruttura comune tecnologicamente avanzata (rack raffreddati ad acqua ad alta efficienza energetica, LAN a 10 Gbit/sec, sistemi comuni di code batch, installazione software e servizi GRID): le risorse di calcolo e storage sono ripartite equamente tra i due esperimenti. L utente CMS abilitato si collega ad un nodo di calcolo specifico, detto user interface, e viene abilitato all utilizzo di diverse tecnologie di sistemi per memorizzazione dati: lo storage manager dcache (vedi 3.1.1) e i file system Gluster (vedi 3.1.3), NFS (vedi 3.1.2) e ext3 su locale (vedi 3.1.4). 24

26 Capitolo 2 Fisica esotica: il modello dell axigluone 2.1 Il Modello Standard La teoria del Modello Standard descrive, attualmente con successo, la fisica delle particelle e tre delle quattro forze fondamentali. Ha la forma di una teoria quantistica dei campi, rinormalizzabile e coerente sia con la meccanica quantistica che con la relatività ristretta. I costituenti fondamentali della teoria sono le particelle elementari e i mediatori delle forze che interagiscono su di esse. Possiamo dividere tutte le particelle in due categorie: i fermioni, particelle di spin semi-intero, (tra le particelle fondamentali i leptoni e i quark ognuno con la propria antiparticella, organizzati in tre generazioni di massa crescente) e i bosoni, particelle di spin intero (tra le particelle fondamentali sono le particelle mediatrici delle forze). Riportiamo nella figura 2.1 le tre generazioni di leptoni e quark e i mediatori delle forze. Il gruppo di simmetria di gauge del Modello Standard è SU(3) C SU(2) L U(1) Y (2.1) nel quale si distinguono: SU(3) C, gruppo di simmetria delle interazioni forti descritto dalla Quantum Cholor Dinamic (QCD), i cui bosoni di Gauge sono i gluoni; 25

27 SU(2) L U(1) Y, gruppo di simmetria delle interazioni elettrodeboli descritto dalla teoria elettrodebole, i bosoni di Gauge della teoria sono i bosoni W e Z, mediatori dell interazione debole, e il γ, propagatore dell interazione elettromagnetica. Ultima particella predetta dal Modello Standard, e rivelata sperimentalmente per la prima volta solamente nel 2012, il bosone di Higgs, bosone scalare artefice, tramite il meccanismo descritto nella teoria come il meccanismo di Higgs Brout Englert, della massa delle particelle. Figura 2.1: Le tre famiglie di fermioni e i mediatori delle forze del Modello Standard 2.2 La Cromodinamica Quantistica La Cromodinamica Quantistica (QCD) è la teoria delle interazioni forti (o forza colore), che descrive le interazioni trai costituenti degli adroni: quark e gluoni. La QCD è una teoria di gauge non abeliana del gruppo di simmetria SU(3) C. I quark sono portatori della carica di colore e gli anti-quark di anti-colore, i gluoni hanno invece due componenti di carica di colore: un colore e un anti-colore. La conseguenza del fatto che i gluoni siano portatori di colore è che essi non interagiscono solo con i quark, ma anche tra loro, la cosiddetta autointerazione, caratteristica dell interazione forte. I fotoni e i bosoni vettori dell interazione debole non godono di questa proprietà, questo rende la teoria QCD molto diversa dalla teoria elettrodebole. 26

28 La Lagrangiana della QCD è: L = ψ q,a (iγ µ µ δ ab g s γ µ tab C GC µ m q δ ab )ψ q,b 1 q 4 FA µνf µν,a (2.2) dove γ µ sono le matrici γ di Dirac, ψ q,a sono gli spinori dei campi dei quark per un quark di sapore q e massa m q, con indice di colore a = 1,2,3 (N C = 3,colori dei quark). G C µ rappresenta il campo dei gluoni associato ai generatori tab C del gruppo di simmetria SU(3), sono 8 matrici 3 3. C è compreso tra 1 e N 2 1 = 8, ci sono 8 tipi di gluoni. La quantità g s è la costante d accoppiamento della QCD, e F A µν è il tensore del campo del gluone: F A µν = µ G A µ ν G A ν g s f ABC G B µg C µ (2.3) La costante di struttura f ABC del gruppo SU(3) soddisfa la relazione: [t A,t B ] = i f ABC t C (2.4) La natura non abeliana della QCD da luogo a due proprietà peculiari: il confinamento e la libertà asintotica. L interazione forte è un tipo di forza che aumenta all aumentare della distanza, impedendo quindi l emissione dei quark come particelle libere. È questo il motivo per cui non vediamo mai quark singoli, ma jet, gruppi di particelle con colore risultante zero. 2.3 Axigluoni L Axigluone [18, 19] viene introdotto in modelli teorici in cui è presente un Colore Chirale [11, 14, 15], ovvero laddove il gruppo di simmetria delle interazioni forti SU(3) C viene esteso ad un gruppo di gauge SU(3) L SU(3) R (2.5) che, ad una certa energia, si rompe spontaneamente e forma un sottogruppo diagonale interpretato appunto come il gruppo SU(3) C della QCD. Questa rottura di simmetria genera un ottetto di colore di axigluoni, ognuno di questi si accoppia ai quark con un accoppiamento di tipo assiale. Nel gruppo di simmetria i fermioni sinistrorsi e destrorsi (left-handed e right-handed) 27

29 ψ L,R = 1 2 (1 γ 5)ψ (2.6) trasformano differentemente e le trasformazioni sono generate dai generatori T a L,R. In egual modo, il gruppo può essere descritto da una trasformazione lineare dei generatori, una trasformazione vettoriale T a V = T a L + T a R ed una assiale T a A = T a L T a R. Il campo di gauge associato ai generatori vettoriali è identificato con il campo di colore usuale della QCD, mentre il campo di gauge associato ai generatori assiali è il campo dell axigluone. Sebbene l implementazione esatta del gruppo di colore chirale dipende dal singolo modello, vi sono due caratteristiche universali: l esistenza di un ottetto di colore massivo del campo dell axigluone corrispondente alla rottura della simmetria e l esistenza di nuove particelle introdotte per cancellare anomalie triangolari della teoria. Gli axigluoni potrebbero essere prodotti nelle collisioni di protoni dell LHC per poi decadere in coppie quark-antiquark, portando ad una segnatura sperimentale di tipo dijet (gli axigluoni non possono decadere, per conservazione della parità, in coppie gluonegluone, tutti i vertici gluone-axigluone devono avere un numero pari di axigluoni). Il decadimento dell axigluone in fermioni è descritto dalla Lagrangiana: L A = ig s ( q i γ 5 γ µ t a q j )A aµ (2.7) i j dove g s = 4πα s, A è il campo dell axigluone, e t a sono i generatori del gruppo di colore. Si dimostra che la larghezza di decadimento dell axigluone è: Γ A = Nα SM A 6 (2.8) dove N si riferisce al numero di canali di decadimento aperti e M A è la massa dell axigluone. Il secondo è un parametro libero della teoria, determinato dalla scala di rottura della simmetria del colore chirale e dai dettagli del particolare modello. A supporto della teoria chirale vi è la deviazione di 3.2 σ riportata da CDF nell asimmetria avanti-dietro del quark top (A t t FB )[21], asimmetria non spiegabile all interno del Modello Standard ma prevista da modelli con axigluone. 2.4 Produzione associata di axigluone con fotone In questa sezione studieremo le principali caratteristiche della produzione associata di axigluone con un fotone. Verrà motivato lo studio in produzione associata e verranno 28

30 analizzati i processi di segnale e di fondo studiati nel lavoro di tesi Motivazioni dello studio in produzione associata La motivazione per cui lo studio della produzione associata di axigluone e un bosone vettore, in questo caso un fotone, è particolarmente interessante è che questo canale permette di sondare efficacemente anche uno spettro di bassa massa della particella. In assenza di leptoni o fotoni nello stato finale, la ricerca di processi quali AG j j si basa su trigger che selezionano eventi con 2 jet nello stato finale (di-jets). Questo tipo di eventi ha un elevata sezione d urto, per questo motivo è necessario inserire una soglia minima sulla massa invariante dei due jet affinchè l evento venga registrato dal trigger di CMS. L aumento della luminosità di LHC nel 2011 ha costretto CMS a porre soglie sempre più alte sull impulso trasverso dei jet e sulla massa invariante del sistema di-jets. Di conseguenza, lo studio dello spettro di massa invariante di due jet può essere svolto efficacemente solo per masse Mjj > 1 TeV, valore per cui l efficienza di trigger è circa 100%. Sotto tale soglia i trigger di jet sono pesantemente prescalati risultando in un minore numero di eventi e quindi in una ridotta sensibilità. Per superare questo limite la scelta di studiare la produzione associata con un fotone nello stato finale risulta vantaggiosa, in questo modo infatti, è possibile utilizzare trigger basati unicamente sulla presenza di un fotone con momento trasverso superiore ad una data soglia, non vi è alcuna richiesta sui jet. 2.5 Processi di segnale Il processo di segnale utilizzato per studiare l axigluone in produzione associata con il fotone è : pp AG + γ j j + γ (2.9) 29

31 Figura 2.2: Diagramma di Feynman per la produzione associata di axigluone e fotone Dalla collisione protone-protone vengono creati un fotone ed un axigluone che decade successivamente in un coppia quark-antiquark e quindi in due jet. Sperimentalmente andremo a selezionare eventi con questa topologia: Un fotone isolato. Una coppia di jet. Poi, con i due jet a più alto impulso trasverso viene ricostruita la massa invariante di-jets: M j j = (E i + E j ) 2 P i + P j 2 (2.10) In questo studio si vanno ad investigare quattro diversi valori di massa dell axigluone (vedi tabella 2.1). Tabella 2.1: Valori di massa utilizzati per il segnale e relative sezioni d urto Massa axigluone Sezione d urto (pb) 150 GeV GeV GeV GeV Processi di fondo Molti altri tipi di processi possono dare luogo a degli eventi che hanno la stessa tipologia degli eventi da axigluone, in cui nello stato finale sono presenti due jet ed un fotone. Tali eventi sono chiamati eventi di fondo. I due fondi principali sono: 30

32 il processo di un fotone in associazione con N (N 2) jet, irriducibile in quanto con lo stesso stato finale del segnale (vedi Figura 2.3); il processo di produzione di due o più jet in cui viene per errore ricostruito un segnale simile ad un fotone (ad esempio quando si hanno adroni neutri che decadono in fotoni che si sovrappongono, oppure quando si ha una misidentificazione). In questa analisi, che non ha pretese di completezza ma che è uno strumento per verificare l efficienza di diversi metodi di accesso ai dati, si è studiato solamente il fondo originato da fotoni più jet. I campioni di fondo sono stati simulati per quattro diversi intervalli (nella tabella 2.2) di impulso trasverso, p T, del partone che origina il jet, intervalli che variano dai 30 GeV ai 170 GeV. La simulazione e le sezioni d urto sono calcolate considerando una energia del centro di massa S = 7 TeV, i processi sono considerati al leading order (LO). Come si può vedere dalla Tabella 2.2, la sezione d urto di uno dei principali processi di fondo per la ricerca degli axigluoni è molto alta, mentre la sezione d urto per la produzione di axigluoni associati a fotoni è molto piccola, e decresce rapidamente in funzione della massa della particella ricercata. Pertanto la ricerca dell axigluone costituisce un analisi di un canale raro che si deve mettere in evidenza su un fondo molto grande di eventi. Per fare questa ricerca occorre quindi accedere a grandi quantità di dati ed utilizzare al meglio le risorse di calcolo della GRID. Tabella 2.2: Sezioni d urto fondo Bin (GeV) Sez. d urto (pb) da 30 a da 50 a da 80 a da 120 a Sezioni d urto per S =7 TeV per i 4 intervalli di impulso trasverso p T, del partone che origina il jet, il processo è considerato al Leading Order. 31

33 Figura 2.3: Diagrammi di Feynman processo di fondo pp γ + j 32

34 Capitolo 3 Sistemi di memorizzazione dati e misure di prestazione Dal 2010, il Large Hadron Collider (LHC), al CERN, produce un flusso di dati dell ordine di 300MB/sec. Questi dati sono distribuiti e salvati in diverse dozzine di siti in tutto il mondo, i quali, oltre a immagazzinarli, li processano e li analizzano; questi siti costituiscono la cosiddetta LHC data Grid. I siti di destinazione forniscono il middleware 1 necessario, di cui fanno parte i cosiddetti elementi di storage e i loro protocolli, al fine di ricevere i dati e immagazzinarli negli specifici storage system. 3.1 Sistemi di memorizzazione di dati Il termine storage element caratterizza un elemento specifico della Grid e si usa per identificare un componente software che rende l elemento su cui opera visibile all interno della rete. Con storage system (in italiano potrebbe essere reso con sistema di immagazzinamento dati ) si intende invece un sistema hardware, ovvero un insieme di dischi gestito da un controller e manovrato da una o più CPU su cui può girare o meno uno storage manager e a cui, nel caso della Grid, si interfaccia uno storage element. Lo storage manager 1 con il termine inglese middleware si intende un insieme di programmi che fungono da intermediari tra diverse applicazioni e componenti software. Sono spesso utilizzati come supporto per sistemi distribuiti complessi. Un esempio tipico di utilizzo del middleware è il gestore delle transazioni, ovvero un componente che è interposto tra l utente e il gestore del database, o l applicazione in generale, o il sistema client/server; in queste situazioni, il middleware accelera il completamento delle richieste dell utilizzatore, raggruppandole, riducendo il numero delle richieste di collegamento al database, e rendendo ogni collegamento il più efficiente possibile. La definizione tecnica di middleware è testualmente: Per Middleware si intende il software che rende accessibile sul Web risorse hardware o software che prima erano disponibili solo localmente o su reti non Internet. 33

35 è infine un sistema software che gestisce l accesso ai dischi in locale (lo storage manager presente all interno del Tier 2 di Roma è dcache), inserendo quindi un livello di complessità in più rispetto ad una modalità di accesso ai dati che si interfaccia direttamente al file system (NFS, Gluster, il file system del sistema locale). È di estremo interesse eseguire misure di prestazione dei diversi sistemi citati nell accedere un campione di dati ben definito, al fine di stabilire una modalità ottimale di accesso ai dati stessi nello svolgere un analisi fisica DCache DCache/SRM [20] è uno storage manager ampiamente utilizzato nei settori di ricerca, dove si registrano cospicue quantità di dati dell ordine delle centinaia fino alle migliaia di TeraByte. Questo sistema ha dato prova di gestire efficacemente lo storage e lo scambio di dati, distribuiti tra dozzine di nodi di dischi di storage; è inoltre ottimizzato per gestire file di grandi dimensioni, dell ordine del GigaByte. Una delle particolarità chiave della progettazione di dcache è che la locazione e la molteplicità dei dati sono determinate, previa configurazione, autonomamente dal sistema, che tiene conto del carico sulla CPU e dello spazio su disco. Al contrario lo spazio dei nomi (name space) è rappresentato unicamente da un singolo albero di file di sistema (file system tree). Il sistema ha mostrato di migliorare significativamente l efficienza di sistemi connessi di archiviazione su nastro. DCache ottimizza il throughput 2 dei dati e chi li richiede inoltre alleggerisce il carico di particolari nodi, con elevato numero di accessi, replicando dinamicamente set di dati. Il sistema è tollerante ai guasti dei suoi server dati e ciò permette agli amministratori di investire in dischi di storage commerciali. L accesso ai dati è fornito da diversi protocolli standard. Il software è abbinato inoltre ad un implementazione del protocollo Storage Resource Manager (SRM), che si sta evolvendo verso uno standard aperto per il middleware della grid al fine di comunicare con i siti specifici per reti di storage. 2 Nell ambito delle telecomunicazioni, si intende per throughput di un canale di comunicazione, la sua capacita di trasmissione effettivamente utilizzata. 34

36 File Name Space e locazione del dataset DCache separa rigorosamente il namespace 3 dei file dei suoi archivi dati dall effettiva locazione fisica dei set di dati. Il namespace è maneggiato internamente da un Postgres 4 ed è interfacciato all utente e ai processi delle applicazioni dai vari protocolli (dcap, FTP, HTTP, NFS xrootd). DCache si occupa di tutti i trasferimenti dati necessari tra i nodi: trasferimenti all interno di dcache possono essere causati da una particolare configurazione o a causa di vincoli di bilanciamento di carico Manutenzione e tolleranza ai guasti Come risultato della separazione tra il namespace e i dati, i nodi di server dati dcache, nel seguito chiamati pool, possono essere aggiunti in qualsiasi momento, senza interferire con le operazioni di sistema. Nel caso ci sia anche un sistema terziario connesso, o nel caso il sistema sia configurato in modo da mantenere più copie per ogni dataset, i pool di dati possono essere spenti in ogni momento. In entrambe le configurazioni, il sistema dcache si dimostra estremamente tollerante a guasti e problemi (fault tolerant) Metodi di accesso ai dati Al fine di accedere ai contenuti del set di dati, dcache offre oltre ai protocolli FTP, HTTP, NFS e xrootd, un proprio protocollo (dcap), in grado di supportare le funzionalità standard (POSIX 5 ) di accesso ai dati: open, read, write, seek, stat, close. Questa protocollo può essere collegato alle applicazioni del client o può essere caricato precedentemente per sovrascrivere le operazioni di I/O del file system. Allo scopo di spiegare come avvengono le operazioni di I/O riportiamo come avviene una tipica operazione di scrittura su dcache: Il Client richiede la creazione di un file, si crea l entry nel namespace, viene selezionato il pool migliore, viene comandato al pool di mettersi in modalità di lettura; a questo 3 Un namespace, o in italiano spazio dei nomi, è - nella terminologia relativa all informatica - una collezione di nomi di entità, definite dal programmatore, omogeneamente usate in uno o più file sorgente. Lo scopo dei namespace è quello di evitare confusione ed equivoci nel caso siano necessarie molte entità con nomi simili, fornendo il modo di raggruppare i nomi per categorie 4 Con Postgres si indica un database relazionale ad oggetti 5 In informatica, POSIX (o Posix: Portable Operating System Interface for Unix) è il nome che indica la famiglia degli standard definiti dall IEEE denominati formalmente IEEE Il nome standard internazionale è ISO/IEC

37 punto il comando del client open() è dichiarato avvenuto con successo e il client manda i dati direttamente al pool. Similmente avviene per un operazione di lettura Il File Replica Manager Il modulo File Replica Manager si assicura che esista un numero prestabilito di copie di ogni file, distribuite su differenti pool. Questo metodo permette di spegnere server senza influenzare il funzionamento del sistema e di superare fallimenti di disco o dello stesso. L interfaccia dell amministratore consente di annunciare uno spegnimento programmato di un nodo al File Replica Manager così che quest ultimo possa gestire il numero di copie dei singoli file prima dello spegnimento Network File System (NFS) Il protocollo Sun Network Filesystem (NFS) [16] garantisce l accesso remoto a file condivisi all interno di una rete. Il protocollo NFS è progettato per essere esportabile su diverse macchine, sistemi operativi, architetture di rete e protocolli di trasporto. Questa portabilità è raggiunta attraverso l uso di chiamate di procedura remota (Remote Procedure Call RPC) costituite in base ad una external Data Representation (XDR). Esistono già implementazioni su una varietà di macchine, dai personal computer ai supercomputer Chiamata di procedura remota 6 Le specifiche della Remote Procedure Call [18] della Sun forniscono un interfaccia ai servizi remoti. Ogni server fornisce un programma come un insieme di procedure. NFS è uno di questi programmi. La combinazione dell indirizzo dell host, il numero del programma, e il numero della procedura, specificano una procedura remota. Un obiettivo di progetto di NFS è stato quello di non richiedere alcun livello specifico di affidabilità dai 6 In informatica, l espressione chiamata di procedura remota (RPC, o Remote Procedure Call) si riferisce all attivazione di una "procedura" o subroutine da parte di un programma, nel caso in cui tale subroutine venga attivata su un computer diverso da quello sul quale il programma stesso viene eseguito. In altre parole, l RPC consente a un programma di eseguire subroutine "a distanza" su computer "remoti" (accessibili però attraverso una rete). Essenziale al concetto di RPC è anche l idea di trasparenza: la chiamata di procedura remota deve essere infatti eseguita in modo il più possibile analogo a quello della tradizionale chiamata di procedura "locale"; i dettagli della comunicazione su rete devono essere quindi "nascosti" (resi trasparenti) all utilizzatore del meccanismo. 36

38 suoi livelli inferiori, cosicchè potesse potenzialmente essere usato su diversi protocolli di trasporto sottostanti external Data Representation (XDR) Lo standard external Data Representation (XDR) [17] rappresenta una modalità comune di rappresentare un set di tipi di dati su una rete. Le specifiche del protocollo NFS sono scritte usando il linguaggio RPC. Sebbene esistano già dei compilatori automatici RPC/XDR, NFS non richiede il loro utilizzo. Si può quindi usare qualsiasi software che fornisca una funzionalità equivalente, e, se la codifica è esattamente la medesima, può inter-operare con le altre implementazioni di NFS Server senza stato (stateless server) Gli sviluppatori hanno cercato di progettare il protocollo NFS nella modalità il più possibile stateless. Con stateless si intende la capacità di un server di funzionare correttamente senza avere la necessità di mantenere alcuna informazione protocollare di stato dei client. I server stateless hanno un vantaggio rispetto ai server statefull in caso di eventi di fallimento. Con i server stateless, il client necessita solamente di rimandare una determinata richiesta finchè il server non risponde; non ha bisogno di sapere se il server o la rete sono temporaneamente inattivi. Al contrario il client di un server statefull ha bisogno di rendersi conto del fallimento del server e quindi di ricostruirne lo stato quando ritorna operativo. Potrebbe non sembrare una questione importante, ma ciò influenza il protocollo in modi inaspettati. Gli sviluppatori hanno pensato che valesse la pena incrementare leggermente la complessità del protocollo per avere server molto semplici, che non richiedano cioè complicati ripristini causati da arresti anomali. Da notare che anche se viene usato un protocollo di trasporto affidabile, come per esempio il TCP, il client deve essere comunque in grado di maneggiare interruzioni del servizio, riaprendo le connessioni quando vanno in time out 7. Quindi un protocollo stateless può effettivamente semplificare l implementazione. D altra parte, NFS si interfaccia con oggetti come file e cartelle che hanno intrinsecamente stato. L obiettivo è stato quello di non introdurre un ulteriore stato nel protocollo 7 Un periodo di tempo predeterminato nel quale una data operazione deve essere terminata, in caso contrario sarà fermata. 37

39 stesso. Operazioni intrinsecamente con stato, come la chiusura di un file o di un record 8 e l esecuzione remota, sono state implementate come servizi separati. Il modo più semplice di semplificare le operazioni di ricovero è quello di rendere le operazioni il più possibile ripetibili. Alcune operazioni all interno di questo protocollo non hanno raggiunto questo obiettivo, fortunatamente, però, la maggior parte delle operazioni (come Read e Write) sono ripetibili. Inoltre, la maggior parte dei fallimenti del server hanno luogo durante lo svolgimento di operazioni, non durante la ricezione di un operazione o della risposta. Infine c è da tenere presente che, sebbene i fallimenti dei server attuali possano essere rari, i fallimenti di una rete particolare, di un router o di un ponte di rete possono essere indistinguibili da un fallimento di server nelle reti complesse Modello di File System NFS presenta una struttura gerarchica, le cartelle possono occupare infatti ogni posizione eccetto che un livello inferiore al file. Ogni elemento all interno della cartella ha un nome sotto forma di stringa. Sistemi operativi diversi (oggetti localizzati ad un livello inferiore rispetto ad un file system) possono avere restrizioni sulla profondità degli alberi dei percorsi (pathname, è la concatenazione di tutte le componenti, directory e file name, nel nome) dei file o sulla lunghezza dei nomi usati, e possono utilizzare sintassi differenti per rappresentare il path di un singolo file. Un file system è un albero su un singolo server (di solito un disco singolo o una partizione singola) con una radice (root) specifica. Alcuni sistemi operativi forniscono un operazione di mount cosicché tutti i file system possano apparire all interno di un unico albero, mente altri mantengono una foresta di file system. All interno di NFS i file sono rappresentati semplicemente come flussi di byte privi di una struttura e quindi non interpretabili. NFS cerca una singola componente alla volta del pathname. Questo perché in primo luogo i percorsi necessitano di separatori tra le diverse cartelle, e sistemi operativi diversi utilizzano diversi separatori (si potrebbe definire una rappresentazione standard delle rappresentazioni dei percorsi, ma poi ogni percorso dovrebbe essere convertito), in secondo, sebbene i file e le cartelle siano oggetti simili per molti versi, le procedure per accedervi sono differenti. La motivazione che quindi spinge ad impostare la procedura in modo che cerchi una componente del pathname alla volta è l efficienza: le cartelle possono conte- 8 In informatica il record (in italiano anche registrazione) è un oggetto di una banca dati strutturata in dati compositi, che contengono un insieme di campi o elementi, ciascuno dei quali possiede nome e tipo propri. 38

40 nere molte voci, e una chiamata remota che le restituisce tutte potrebbe risultare troppo lenta Gluster Negli ultimi anni, il passaggio da architetture composte da server di proprietà, monolitiche, ad architetture virtuali, open source, standardizzate e commerciali ha portato ad enormi miglioramenti. Sfortunatamente, il data storage non ha tenuto il passo con la potenza di computing. Le soluzioni private, monolitiche, che dominano il settore dello storage non sono lontanamente vicine alla flessibilità, economicità e le capacità di scaling di cui i moderni centri di calcolo hanno bisogno. Gluster [19] è stato creato per affrontare questa lacuna. Questo file system è una piattaforma NAS (Network Attached Storage) open source. Permette di combinare un gran numero di centri di storage e risorse di computing in un pool di alte prestazioni, virtualizzato e gestito centralmente. Sia la capacità, che le prestazioni, possono scalare indipendentemente a richiesta, da pochi TeraByte a diversi PetaByte, e si possono usare sia infrastrutture pubbliche di storage di tipo cloud, sia hardware commerciali on-premise. Gli utenti posso raggiungere (combinando risorse economiche con un approccio a scaling) le prestazioni desiderate a prezzi migliori, in una soluzione facile da gestire che può essere configurata anche per soddisfare carichi di lavoro esigenti Obiettivi di progetto di Gluster Gluster è stato progettato per raggiungere diversi obiettivi, in primis la flessibilità e lo scaling lineare. Per flessibilità si intende il fatto che le enterprise di data storage dovrebbero essere in grado di adattarsi flessibilmente alla crescita, o alla riduzione, della quantità di dati, e di aggiungere o rimuovere, quando necessario, risorse di un pool di storage senza interferire con il sistema. Gluster è stato disegnato per permettere di aggiungere o eliminare volumi e utenti, e di aggiungere o eliminare facilmente immagini di macchine virtuali, dati applicazioni, ecc.., senza interferire con alcuna delle funzionalità in corso. Scaling lineare è un termine piuttosto usato all interno dell industria del data storage. Il suo significato è che le prestazioni dovrebbero scalare linearmente, per esempio, due volte la quantità di storage system dovrebbe fornire prestazioni due volte superiori rispetto alla precedente configurazione, ovvero il doppio di throughput con in media lo stesso tempo di risposta per evento di I/O esterno (per esempio quanto a lungo un client 39

41 NFS aspetterà affichè il file server restituisca le informazioni associate con ognuna delle richieste del client NFS). Similmente, se un sistema ha un livello di prestazioni accettabile, ma si vuole aumentarne la capacità, si dovrebbe essere in grado di raggiungere tale obiettivo senza far decrescere le prestazioni o riscontrare un andamento non lineare della capacità. Sfortunatamente la maggior parte di sistemi di storage non mostrano uno scaling lineare. Questo sembra poco intuitivo, data la semplicità del comprare un secondo set di dischi per raddoppiare la capacità di storage. La motivazione di ciò è che la scalabilità di uno storage ha più dimensioni, la capacità è solo una di queste. Se si vuole perseguire tale obiettivo, infatti, il sistema che deve gestire questi nuovi dischi deve scalare anch esso. Si deve fornire una potenza di CPU sufficiente a far girare tutti i dischi alla loro capacità di picco, il file system deve scalare per supportare il nuovo massimale di dimensione, i metadati, cioè i file che forniscono al sistema le informazioni su dove i file sono allocati, devono scalare con la stessa proporzione in cui i dischi sono aggiunti, e la capacità della rete disponibile deve scalare per garantire le esigenze del numero maggiore di client che accedono a questi dati. In breve, non è lo storage che necessita di scalare ma è l intero storage system che necessita di scalare. I sistemi tradizionali hanno una scalabilità logaritmica, ovvero la capacità utile di uno storage cresce tanto più lentamente quanto più diventa grande. Nel caso di Gluster sia le prestazioni che la capacità possono scalare linearmente. Questo obiettivo è raggiunto tramite tre tecniche: 1. L eliminazione dei metadati 2. Una distribuzione efficace di dati 3. L uso del parallelismo per massimizzare le prestazioni tramite un architettura distribuita In generale il metodo migliore per migliorare le prestazioni è quello di aumentare i server di storage e distribuire i dischi uniformemente sui server Differenze tecniche Vi sono sette differenze tecniche fondamentali tra Gluster e i tradizionali sistemi di storage. 1. È un sistema esclusivamente software 40

42 2. È open source 3. Fornisce già delle funzioni quali: una gestione della memoria distribuita, pianificazioni per l I/O, software RAID 9, self-healing. 4. Opera nell user space (spazio utente), ciò fa si che installare e aggiornare Gluster sia significativamente più facile. 5. Possiede un architettura modulare e stackable. Configurare Gluster per un ambiente molto specializzato (come ad esempio un numero di file di grandi dimensioni o un numero enorme di file molto piccoli, o in modo che usi un particolare protocollo di trasporto ecc..) è un problema semplice che ha come soluzione quella di includere o escludere particolari moduli. 6. I dati sono immagazzinati nei loro formati originali 7. Non esistono metadati 9 In informatica un RAID, acronimo di Redundant Array of Inexpensive Disks, insieme ridondante di dischi economici (oppure Redundant Array of Independent Disks, in italiano insieme ridondante di dischi indipendenti), è un sistema informatico che usa un gruppo di dischi rigidi per condividere o replicare le informazioni. Nella sua implementazione originaria il fattore chiave era l abilità di combinare parecchi dischi a basso costo ed obsoleti per rendere il sistema complessivamente migliore di un disco di ultima generazione per capacità, affidabilità e velocità. I benefici del RAID sono dunque l aumento dell integrità dei dati, la tolleranza ai guasti e le prestazioni, rispetto all uso di un disco singolo. Nel suo livello più semplice, il sistema RAID permette di combinare un insieme di dischi in una sola unità logica. In questo modo il sistema operativo gestisce i differenti dischi come un unico volume. Il RAID è tipicamente usato nei server, e di solito è implementato con dischi di identica capacità. Con il calo del costo dei dischi rigidi e con il diffondersi della tecnologia RAID nei chipset delle schede madri, il RAID è spesso offerto come opzione sia sui computer di fascia alta sia su quelli usati da utenti domestici, specialmente se dedicati a compiti che richiedono un grande immagazzinamento di dati, come ad esempio il montaggio audio e video o la raccolta dati di un grande database. Le specifiche originali suggerivano un diverso numero di livelli di RAID, o combinazioni di dischi. Ogni combinazione aveva dei vantaggi e degli svantaggi. Con il passare degli anni, sono nate diverse implementazioni del concetto di RAID. La maggior parte differisce sostanzialmente nell implementazione dei livelli RAID ideati inizialmente. Questo può portare spesso a confusione, poiché un implementazione RAID-5 può essere molto diversa da un altra. RAID-3 e RAID-4 sono spesso confusi o scambiati tra loro. La corretta definizione di RAID è stata oggetto di dibattito nel corso degli anni. L uso del termine ridondante porta a molte discussioni se il RAID-0 sia un vero RAID. Analogamente, il cambio da economico ad indipendente confonde molti dei concetti alla base del RAID: infatti ci sono alcune implementazioni del RAID che usano un solo disco. In questa voce si considera RAID ogni sistema che sviluppa il concetto base di RAID di ricombinare lo spazio fisico di dischi diversi per lo scopo di aumentare l affidabilità o le prestazioni del sistema nel suo complesso. 41

43 L algoritmo di Elastic Hashing Nei sistemi con scaling, una delle sfide più impegnative è riuscire a tenere traccia delle locazioni fisiche e logiche dei dati (locazione dei metadati). La maggior parte dei sistemi distribuiti risolve questo problema creando un elenco separato con i nomi dei file e la locazione dei metadati. Sfortunatamente, questo meccanismo crea sia un punto centrale di fallimento che un collo di bottiglia per le prestazioni, il tutto peggiora ulteriormente se si ha a che fare con una grande quantità di file piccoli. Gluster non crea, salva, o usa alcun tipo di elenco di metadati e alloca invece i file usando un proprio algoritmo. Tutti gli storage element all interno del cluster hanno la capacità di allocare qualsiasi file, o anche una parte, senza avere la necessità di controllare un indice o richiedere questa operazione ad un server. Tutto ciò di cui un server del sistema necessita per la localizzazione di un file è di conoscerne il percorso, il nome, e applicare l algoritmo. Questo metodo parallelizza completamente l accesso ai dati e assicura uno scaling di prestazioni lineare Local Per local si intende il disco locale del singolo nodo di analisi del Tier2, il file system di questi nodi è ext3 (o third extended filesystem). Ext3 è un file system utilizzato su sistemi GNU/Linux e derivato da ext2, rispetto a quest ultimo migliora la scrittura su disco rendendo più facile e più veloce leggere i vari file e introduce il journaling del file system. Il journaling, già presente in altri file system come ReiserFS e nelle ultime versioni di NTFS, è una caratteristica che permette di evitare che errori e malfunzionamenti hardware (o anche semplici spegnimenti del PC senza chiudere il sistema operativo) possano danneggiare i dati scritti sull unità, creando un diario (journal) che elenca le modifiche da effettuare sul file system. Nonostante le sue performance in fatto di velocià siano inferiori a quelle di file system concorrenti quali ReiserFS, JFS, e XFS, presenta il vantaggio di consentire facilmente il passaggio immediato da un file system di tipo ext2, senza ricorrere a backup e ripristino dati e, soprattutto, impiega meno risorse CPU rispetto a questi file system. Infine, è considerato un sistema sicuro in virtù della sua semplicità e del maggior numero di test a cui è stato sottoposto. 42

44 3.2 Strumenti di analisi In questa sezione riportiamo in dettaglio il funzionamento e l architettura di PROOF e come è stato configurato un cluster dello stesso per le nostre misurazioni Proof e PoD La Parallel ROOT Facility (PROOF) [21] è un estensione del sistema ROOT; il suo obiettivo principale è quello di permettere di processare, in parallelo, la propria analisi su un cluster 10 di processori. I principali obiettivi di progetto del sistema PROOF sono trasparenza, scalabilità e adattibilità. Per trasparenza si intende che il codice di un analisi processata con PROOF debba essere necessariamente molto simile al medesimo eseguito con ROOT. Inoltre entrambe le analisi devono essere interattive e devono giungere agli stessi risultati. Con scalabilità si indica che l architettura non debba porre, di base, alcuna limitazione esplicita sul numero di computer che possono essere usati in parallelo. Infine con adattibilità si indica la caratteristica del sistema di adattarsi a variazioni dell ambiente remoto (cambiare il carico sui nodi, gestire interruzioni di rete, ecc). PROOF è progettato per lavorare sui tipici oggetti di ROOT. Questi ultimi possono essere sia oggetti singoli, identificati da una chiave, sia collezioni di oggetti sotto forma di alberi del formato ROOT (TTree). Se poi andiamo ad ordinare con una logica grandi quantità di dati in questi formati, creiamo ciò che definiamo un set di dati. In un cluster di computer locali questi file possono essere distribuiti su dischi appartenenti al cluster, e nel caso del Tier2 sono disponibili,oltre al sistema locale, i sistemi dcache, Gluster e NFS. Lo sviluppo di PROOF è a cura del CERN e del MIT L architettura del sistema PROOF ha un architettura a 3 livelli: la sessione del client 11 di ROOT, il server master di PROOF e i server lavoratori di PROOF. L utente si connette dalla sua sessione di ROOT a un server master localizzato su un cluster remoto e, da questo, crea server lavoratori 10 Nell ambito scientifico, con il termine cluster si intende un gruppo di unità simili o vicine tra loro, dal punto di vista della posizione o della composizione 11 Un client (in lingua italiana detto anche cliente), in informatica, indica una componente che accede ai servizi o alle risorse di un altra componente detta server. 43

45 su tutti i nodi del cluster. Il programma viene poi processato in parallelo da tutti i server lavoratori. Usando un protocollo di tipo pull i server lavoratori richiedono al master pacchetti di lavoro, e il master distribuisce pacchetti personalizzati per ogni server lavoratore. Dopo avere processato i primi pacchetti, il server master, infatti, calibra il sistema in modo da mandare pacchetti più piccoli a lavoratori più lenti e pacchetti più consistenti a lavoratori più veloci. In questo schema la prestazione della parallelizzazione è determinata dalla durata di ogni processo sul pacchetto di dati, dalla banda di rete e della sua latenza. Poiché sia la larghezza di banda che la latenza della rete sono grandezze fissate, l unico parametro che crea complicazioni è la dimensione del pacchetto. Se si sceglie come dimensione del pacchetto una quantità troppo piccola, il parallelismo risentirà del sovraffollamento di richieste, tra il master e i lavoratori, di invii di pacchetti sulla rete. Se, al contrario, la dimensione scelta è troppo grande, si perde la sensibilità immediata nel distinguere un nodo più veloce da un nodo più lento. Il sistema PROOF, comunque, si adatta alle prestazioni e al carico di ogni singolo cluster di nodi al fine di ottimizzare il tempo di esecuzione del programma Il Framework 12 TSelector Il TSelector gioca un ruolo centrale nel sistema PROOF. Consente all utente di usare lo stesso codice sia per processare piccoli campioni di dati localmente che per processare grandi quantità di dati in parallelo su un cluster o su una grid. Per usare il framework l utente deriva una classe dal TSelector e implementa le funzioni membro che fanno parte del protocollo. Il framework specifica inoltre come gli oggetti in input diventino accessibili al selector e come vengono restituiti oggetti in output al client. La funzione TTree::MakeSelector() genera una versione modello di una classe derivata dal TSelector che dovrebbe essere usata come base per il proprio codice di analisi. La tabella mostra le funzioni e i membri più importanti che verranno descritti in seguito. Il selector accede agli oggetti in input tramite la lista finput; gli oggetti nella lista appartengono al sistema. Ogni server lavoratore ha una copia completa della lista. 12 Un framework, in informatica e specificatamente nella produzione di software, è una struttura di supporto su cui un software può essere organizzato e progettato. Alla base di un framework c è sempre una serie di librerie di codice utilizzabili con uno o più linguaggi di programmazione, spesso corredate da una serie di strumenti di supporto allo sviluppo del software, come ad esempio un IDE, un debugger, o altri strumenti ideati per aumentare la velocità di sviluppo del prodotto finito. 44

46 La funzione Begin() è chiamata prima che venga processato qualsiasi evento o oggetto. È il posto dove creare oggetti come istogrammi e inizializzare i dati che devono essere processati evento per evento. La funzione Begin() è chiamata su ogni lavoratore. La funzione Init() è chiamata ogni volta che un nuovo file è aperto dal sistema. Nel caso di un analisi di oggetti di tipo albero il codice generato istanzia gli oggetti di tipo ramo (branch). La funzione Process() è chiamata per ogni oggetto o evento dell albero. Quando si processa un albero è compito dell utente di decidere quando, e quali, rami debbano essere letti. Di solito è più efficiente leggere i rami mentre vengono usati. Quando vengono processati oggetti con chiave il puntatore all oggetto è nel membro fobject. La funzione Terminate() è chiamata dopo che sono stati processati tutti gli oggetti o eventi. Permette all utente di fare pulizia, come cancellare oggetti temporanei e chiudere file ausiliari. È anche il posto adatto a fare i calcoli finali. La funzione Terminate() è chiamata una volta su ogni lavoratore. Tutti i contenuti della lista foutput vengono infine fusi dal master e vengono rimandati al client. La fusione usa l API 13 Merge(Tlist*). Gli oggetti vengono prima raggruppati per nome, poi viene stabilito tramite CINT, l interprete C++ usato da ROOT, se la funzione Merge() è implementata per questi oggetti. Ciò è disponibile di base per gli istogrammi. Se la funzione Merge() ha senso, l API può essere implementata anche per queste ulteriori classi dell utente. Se, invece, non è disponibile alcuna funzione Merge() gli oggetti vengano restituiti al client come singoli Proof on Demand (PoD) PoD è un set di strumenti sviluppato dal GSI (GSI Helmholtzzentrum für Schwerionenforschung GmbH) per configurare un cluster PROOF su un qualsiasi sistema di gestione delle risorse. PoD è un prodotto per l utente finale ed usa un interfaccia grafica semplice e linee di comando. È completamente automatizzato quindi non sono necessari privilegi da amministratore o conoscenze speciali per usarlo. Offre a chi non ha nelle proprie istituzioni un sistema di cluster di PROOF statico, la possibilità di sfruttare la piena potenza di un analisi interattiva con PROOF. Dopo aver installato PoD sul client, l utente è in grado di creare il proprio cluster PROOF sottomettendo una linea di comando in cui specifica dove, e quanti nodi di cal- 13 Application programming interface - interfaccia di programmazione di un applicazione, indica ogni insieme di procedure disponibili al programmatore 45

47 colo, nel nostro caso processori, andare ad occupare. Una volta eseguita questa operazione è sufficiente aprire da ROOT la sessione di PROOF così creata per poter girare parallelamente la propria analisi sul cluster di nodi così allocato. Figura 3.1: Esempio statistiche Proof Andamento della velocità di elaborazione nel tempo per un analisi parallelizzata su 10 lavoratori. Numero di lavoratori attivi nel tempo per un analisi parallelizzata su 10 lavoratori, si noti la conclusione del processo in buona approssimazione simultanea per tutti i lavoratori. 3.3 Misure di prestazione Durante la prima parte del lavoro di tesi, si sono effettuati dei test preliminari sui due sistemi dcache e Local e dei test sui nodi del Tier2. In seguito, al fine di ottimizzare i tempi di esecuzione di una tipica analisi, si è scelto come processo campione quello di produzione associata di axigluone e fotone e, dopo aver impostato l analisi, si è lanciata la stessa usando ogni singolo metodo di data storage fornito all utente dal Tier2 di Roma. Ogni processo è stato inoltre parallelizzato con Proof variando il numero di lavoratori. L obiettivo di tale studio è stato quello di identificare l iter migliore che l utente deve seguire al fine di completare la propria analisi nel minor tempo possibile. 46

48 3.3.1 Analisi preliminare Come primo passo si è misurato quale tra le due modalità di scrittura, da Local a dcache o da dcache a Local, fosse più performante. Quindi è stato creato un singolo file.root da 2 GigaByte e tramite uno script che controllava la presenza o meno dei file in input e output, avviava la copia, teneva il tempo e verificava il successo dell operazione. Tra le due differenti operazioni di scrittura, sebbene i risultati varino leggermente di nodo in nodo, è risultata più performante l operazione che leggeva da Local e scriveva su dcache. Quest operazione, infatti, raggiunge velocità dell ordine dei 115Mb/sec, mentre l operazione inversa ha picchi di circa 85 Mb/sec. Il secondo passo è stato quello di inserire all interno della catena anche del lavoro che venisse svolto sul file da ROOT.È stato quindi misurato il tempo di computazione (senza quindi considerare il tempo di scrittura del file) a seconda che ROOT leggesse da dcache e scrivesse su Local o che leggesse da Local e scrivesse sullo stesso. Figura 3.2: Tempi di computazione per la catena dcache-root-local Tempi di elaborazione in funzione del worker node che si è andato ad utilizzare, ogni punto del plot è dato dalla media su 10 misure, le barre verticali rappresentano la deviazione standard. 47

49 Figura 3.3: Tempi di computazione per la catena Local-ROOT-Local Tempi di computazione in funzione del nodo di analisi, da sottolineare la differenze rilevata tra la prima iterazione e la media sulle successive (esclusa la prima). I nodi presentano un comportamento uniforme sulla media a parte i nodi intorno al wn-75 che hanno delle prestazioni leggermente peggiori. Figura 3.4: Confronto tra i tempi migliori per le due catene Tempi medi (su 10 iterazioni) migliori di elaborazione per le due catene, è evidente che il processo in cui ROOT legge da Local è più performante rispetto a quello in cui legge da dcache. 48

50 3.3.2 Analisi sui metodi di data storage Durante questa analisi è stato studiato il comportamento dei metodi di data storage dcache, Gluster, NFS e Local, al variare del numero di lavoratori allocati tramite Proof. È stato preso in esame un insieme di 1350 file, quelli usati per l analisi della produzione associata di axigluone e fotone, dalla dimensione totale di 1 TeraByte. Su un singolo processore tale analisi impiega un tempo di (55.8 ± 1.6) 10 3 s, circa 15 ore, del quale l user time è di circa s, il system time è di circa s e il restante, l Input/Output time (I/O time) è di circa s. Si è scelto di usare come cluster di Proof, la coda cmsan (cms analysis nodes); in questa coda sono presenti 8 nodi da 16 core l uno. I test effettuati su dcache, Gluster ed NFS sono stati svolti tutti nelle medesime condizioni. Partendo dalla configurazione di 4 lavoratori iniziali, si è aumentato il numero di lavoratori cercando così di investigare la curva degli eventi medi processati al secondo, o i MB medi processati al secondo, al fine di trovare la configurazione ottimale, ovvero il numero di lavoratori su cui parallelizzare l analisi. Leggermente più complicato è stato il caso di Local. In questa configurazione, infatti, avevamo a disposizione solo 850Gb di spazio su disco e un nodo più potente ma con solamente 12 core. Per normalizzare i dati di local è stata svolta sui singoli nodi (in questo caso il worker node 103 e il nodo di analisi 01) l analisi con il TeraByte allocato su dcache. Una volta poi estrapolato il fattore di conversione, si è usato il medesimo per calcolare gli eventi al secondo sfruttando Local. 3.4 Risultati Riportiamo ora i risultati dell analisi delle diverse modalità di accesso ai dati Prestazioni di PROOF con dcache dcache (Figura 3.5) mostra un comportamento lineare fino al raggiungimento di circa 25 lavoratori, oltre questa soglia si ha una sostanziale saturazione della velocità di elaborazione degli eventi che si mantiene costante fino a 60 lavoratori. Il massimo corrisponde a circa10 4 eventi processati al secondo. Si ricorda che dcache, nel nostro sistema di Tier2, è supportato da 10 server che gestiscono l I/O dei file. 49

51 Figura 3.5: Prestazione dcache Prestazioni di dcache, eventi processati al secondo in funzione del numero di lavoratori. Prestazioni di dcache, eventi processati al secondo, normalizzati al numero di lavoratori, in funzione del numero di lavoratori Prestazioni di PROOF con NFS Le prestazioni di NFS (Figura 3.6) sono peggiori rispetto a quelle di dcache, in questo caso, infatti, la saturazione viene raggiunta prima, per 10 lavoratori, con una velocità massima di eventi al secondo. Dopo questo picco vi è una zona di sostanziale plateaux seguita da un decrescita delle prestazioni oltre i 16 lavoratori. Al contrario di dcache, NFS, come d altronde vale anche per gli altri metodi di data storage, si interfaccia con un solo server che gestisce l I/O dei file, si considera questa una delle motivazioni principali delle prestazioni peggiori. 50

52 Figura 3.6: Prestazioni NFS Prestazioni di NFS, eventi processati al secondo in funzione del numero di lavoratori. Prestazioni di NFS, eventi processati al secondo, normalizzati al numero di lavoratori, in funzione del numero di lavoratori Prestazioni di PROOF con Gluster Gluster (Figura 3.7) ha un andamento simile a quello di dcache, la regione di plateaux è raggiunta intorno ai 40 lavoratori e la massima velocità rilevata è di circa eventi al secondo. 51

53 Figura 3.7: Prestazioni Gluster Prestazioni di Gluster, eventi processati al secondo in funzione del numero di lavoratori. Prestazioni di Gluster, eventi processati al secondo, normalizzati al numero di lavoratori, in funzione del numero di lavoratori Prestazioni di PROOF con Local È stato studiato infine l andamento della velocità di elaborazione della nostra analisi sfruttando il disco locale del server su cui l analisi è stata eseguita (Figura 3.9). In particolare sono state salvate sul disco del Worker Node 103 (wn103) ntuple, per una quantità totale su disco di circa 850 GigaByte, dopodichè si è usato PROOF non sui generici nodi di una determinata coda di analisi del tier2, ma sul singolo processore dotato di 12 core. Essendo inoltre i processori leggermente più potenti di quelli dei nodi di analisi (2.4 GHz contro i 2 GHz degli a.n.) si è definito un metodo di confronto normalizzato. È stata eseguita, variando il numero dei lavoratori, su un singolo nodo della coda di 52

54 analisi e sul singolo Worker Node 103, l intera analisi da un TeraByte di dati usando come sistema di data storage dcache (Figura 3.8). Figura 3.8: nodo di analisi 01 versus nodo lavoratore 103 Velocità di computazione in eventi al secondo per il nodo di analisi 01 e per il Worker Node 103 su un set di dati da 1TeraByte allocato sul sistema dcache. È stato poi effettuato un fit lineare sulle due distribuzioni con i seguenti risultati: un coefficiente angolare di 29±2 e un termine noto 2078±16 nel caso di wn103; e un coefficiente angolare di 17 ± 2 e un termine noto di 2001 ± 20 nel caso di an 01. Sono stati quindi introdotte le differenze tra questi termini per rinormalizzare la distribuzione della velocità di elaborazione di Local a quelle che si sarebbero ricavate usando i nodi di analisi. 53

55 Figura 3.9: Prestazioni Local Prestazioni di Local prima della normalizzazione, eventi processati al secondo in funzione del numero dei lavoratori. Prestazioni di Local dopo la normalizzazione, eventi processati al secondo in funzione del numero di lavoratori. Velocità di Local in eventi al secondo, normalizzata al numero di lavoratori, in funzione del numero di lavoratori. 54

56 La situazione di Local è ulteriormente differente. Come si evince dalla figura 3.9 si raggiunge già il massimo per 4 lavoratori simultanei, e si ha subito una decrescita delle prestazioni già da 5 lavoratori Analisi complessiva Se andiamo adesso a considerare una visione di insieme (Figura 3.10) notiamo che il sistema di storage più performante è dcache. Nessuno presenta un effettivo scaling lineare, ma in combinazione con PROOF presentano tutti un aumento delle prestazioni totali fino ad un valore limite, eccetto il sistema locale. Figura 3.10: Velocità di elaborazione di tutti i sistemi di storage Velocità di elaborazione, misurata in eventi al secondo, per i quattro sistemi di storage: Gluster, dcache, NFS e Local, al variare del numero di lavoratori allocati per PROOF. 55

57 Capitolo 4 Applicazione: produzione associata di axigluone e fotone L axigluone è una particella ipotizzata da modelli teorici in cui è presente un colore chirale. La produzione di un axigluone, e in particolare la sua produzione associata con un bosone vettore, caratterizza questo canale come un processo di fisica esotica, un processo quindi raro, con delle grandi quantità di fondi. Queste caratteristiche rendono questo canale ideale per effettuare le misure di prestazioni dei diversi metodi di accesso ai dati del Tier2. In questo senso si è normalizzato il tutto, segnali e fondo, ad un TeraByte facendo un adeguato numero di repliche. Poi si sono andate ad effettuare le misure di prestazione mentre si studiava il processo Monte Carlo, per quattro masse differenti di axigluone (da 150 GeV a 1.5 TeV), e si analizzava il fondo principale ovvero la produzione di un fotone più jet (pp γ + j). 4.1 Ricostruzione di fotoni e jet Ricostruzione dei fotoni I candidati fotoni sono ricostruiti a partire dai depositi di energia disseminati su vari cristalli adiacenti (cluster) in ECAL e ricombinati in supercluster. L algoritmo di ricostruzione dei cluster di fotoni permette di correggere quasi completamente l energia dei fotoni che hanno convertito in una coppia elettrone-positrone a causa del materiale presente di fronte ad ECAL. 56

58 Nella regione del barrel i cluster vengono aggregati in supercluster formando una finestra larga 5 cristalli in η intorno al cristallo più energetico e una finestra variabile in φ (larga fino a 35 cristalli). Nella regione degli endcap vengono accorpate, se contigue, matrici 5 5 di cristalli con sufficiente energia attorno al più energetico. Un supercluster è promosso a candidato fotone se la sua energia trasversa ricostruita è maggiore di 10 GeV. Si introduce la variabile topologica R 9 = E 3x3 /E SC (somma delle energia della matrice 3 3 di cristalli centrata sul più energetico, diviso l energia del supercluster). Se R 9 > 0.94(0.95) nel barrel (endcap), il fotone probabilmente non è convertito e la risoluzione migliore è ottenuta usando la somma delle energie della matrice 5 5. Se R 9 < 0.94(0.95), viene usata l energia corretta del supercluster. La posizione del fotone è assegnata come la posizione media (pesata) delle energie dei cristalli usati per calcolare l energia del fotone. Nella preselezione applicheremo i seguenti tagli sulla cinematica. L evento è mantenuto solo se il fotone ha un energia trasversa E T > 20 GeV e si trova nell accettanza del detector: η SC < o < η SC < 2.5 (dove η SC è la posizione del supercluster del fotone). In una fase successiva dell analisi la soglia sull energia trasversa E T verrà aumentata a 75 GeV per conformarsi con il trigger sui fotoni Ricostruzione di jet Particelle con colore possono esistere in natura solo in configurazioni di colore-neutro, mesoni e barioni. Nei collider a protoni le reazioni sono causate principalmente dalle interazioni tra i costituenti dei protoni, o partoni, che, essendo portatori di colore, producono con buona probabilità uno stato finale di particelle colorate di alta energia. Una particella energetica con carica colore, è incentivata dal potenziale del campo forte a perdere la sua carica colore e a formare configurazioni di particelle stabili di colore neutro. Questo meccanismo si traduce in una produzione di coppie quark-antiquark che eventualmente si ricombinano formando mesoni e barioni. Questo processo è noto come adronizzazione. Le leggi di conservazione del quadri-impulso applicate al partone iniziale impongono che i prodotti dell adronizzazione abbiano una configurazione quasi collineare lungo la direzione del partone: questi aggregati di particelle sono visibili nei rivelatori moderni e sono comunemente chiamati jet. L adronizzazione favorisce energeticamente la produzione di particelle leggere, come i pioni e i kaoni. 57

59 Lo scopo della ricostruzione dei jet è di misurare l impulso del partone che ha dato inizio al processo di adronizzazione. Per fare ciò, le particelle dello stato finale, visibili nel rivelatore, devono essere raggruppate insieme, attraverso la scelta di un algoritmo appropriato. In questa analisi abbiamo usato l algoritmo anti-kt5 [22] che si basa sulla distanza reciproca tra i componenti del jet e costruisce il jet in un cono di apertura R = 0.5 [13]. Siccome i fotoni sono ricostruiti anche come jet, è stato impostato un taglio di R > 0.5 tra il fotone selezionato per l analisi e tutti i jet. 4.2 Selezione degli eventi e separazione del segnale dal fondo. Come primo passo si è studiato il processo di segnale simulato, circa eventi, per una massa di axigluone pari a 1.5 TeV Identificazione dei fotoni Per studiare le caratteristiche di un fotone di segnale si sono associati i fotoni ricostruiti a quelli generati provenienti dall interazione principale. A tale scopo si è definita la variabile R come segue: R = (η rec η gen ) 2 + (φ rec φ gen ) 2 (4.1) dove η rec e φ rec sono rispettivamente la pseudorapidità e l angolo azimutale (rispetto all asse delle x) di un fotone ricostruito dopo l intera catena di simulazione, e η gen e φ gen le stesse di un fotone generato. Si è selezionato, tra tutti i fotoni ricostruiti nell evento, quello con il R minore tra tutti quelli per cui vale la condizione di R < 0.4 e lo si è considerato come l effettivo fotone di segnale, mentre tutti gli altri fotoni dell evento sono stati considerati come fotoni di fondo. I fotoni sono stati preselezionati chiedendo che il fotone si trovasse nella regione di accettanza del rivelatore e che avesse un impulso trasverso, p T,maggiore di 20 GeV. L identificazione dei fotoni viene effettuata applicando tagli su un set di cinque variabili discriminanti. Le variabili successive sono usate per distinguere fotoni isolati che hanno origine dall interazione primaria dai fotoni ricostruiti in jet con alto contenuto elettromagnetico. 58

60 I tagli hanno valori diversi per ognuno delle quattro categorie definite in termini di pseudorapidità e R 9. Queste categorie mostrano differenze significative per quanto riguarda la risoluzione in massa e il fondo, l uso di queste permette quindi un miglioramento della sensitività Isolamento combinato relativo Viene calcolata una somma delle variabili di isolamento come segue: Iso = Iso track + Iso ECAL + Iso HCAL (4.2) dove: Iso track è la somma scalare degli impulsi trasversi delle tracce che hanno origine dallo stesso vertice e si trovano all interno di un cono forato definito da R o < 0.4, centrato intorno alla linea che unisce il vertice al supercluster di ECAL, e il cui foro di R i = 0.02 ha lo scopo di escludere gli impulsi delle tracce di fotoni che hanno convertito. Figura 4.1: Distribuzione variabile di isolamento traccia Distribuzione della variabile di isolamento Iso T RACK, normalizzata all unitaà, per il fotone di segnale (sgnl) e i fotoni di fondo (bkg) nelle regioni del barrel e degli endcaps. Iso ECAL è la somma delle energie trasverse dei depositi nei cristalli in ECAL collocati all interno del cono di R o < 0.4, centrato intorno alla posizione del supercluster, escludendo un cono interno di veto ( R i = 3.5 cristalli) e tagliato in eta 59

61 ( η = 2.5 cristalli) al fine di escludere la traccia energetica del fotone di segnale, che si può estendere nella direzione di φ in caso di fotoni convertiti. Iso HCAL è la somma delle energie delle torri di HCAL il cui centro si trova all interno di una regione angolare di raggio esterno R o = 0.4 e raggio interno R i = 0.15, centrato nella posizione del supercluster di ECAL. Per ognuno degli isolamenti definiti in precedenza, l energia depositata all interno del cono di isolamento è aumentata artificialmente dagli eventi di pile-up, pertanto l efficienza di un taglio costante di isolamento decresce con l aumentare del pileup. Al fine di mantenere un efficienza costante al crescere del pile-up, il contributo alla Iso dovuta al pile-up è stimata, evento per evento, come il prodotto tra la densità di energia misurata ρ, determinata usando l algoritmo FastJet[22], e una superficie effettiva A e f f che corrisponde al cono di isolamento (nel nostro caso, quindi, A e f f = π ). Ovvero: Iso PUcorr = Iso ρ FastJet A e f f (4.3) Figura 4.2: Distribuzione variabile Iso PUcorr Distribuzione della variabile di isolamento Iso PUcorr, normalizzata all unità, per il fotone di segnale (sgnl) e i fotoni di fondo (bkg) nelle regioni del barrel e degli endcap. Fatto ciò la somma è scalata di un fattore p pho /50, dove pphoè l energia trasversa del T T fotone. In questo modo il fattore è vicino ad 1 per energie trasverse di un tipico fotone di segnale. L isolamento combinato relativo è quindi dato da: 60

62 Iso rel = IsoPUcorr p pho T /50 (4.4) Figura 4.3: Efficienza taglio sull isolamento combinato prima e dopo la correzione Efficienza prima della correzione che tiene conto del pile-up al variare del numero di vertici primari dell evento. Efficienza dopo la correzione che tiene conto del pile-up al variare del numero dei vertici primari dell evento Isolamento relativo di traccia L isolamento della traccia è il più discriminante tra i tre isolamenti a livello di sotto rivelatori, per questa ragione si applica un ulteriore taglio sull isolamento relativo definito usando solamente quest ultimo: dove Iso track è definita in Iso rel,track = Isotrack p pho T /50 (4.5) 61

63 H/E Il rapporto tra l energia adronica e l energia elettromagnetica è calcolata come il rapporto tra la somma delle energie delle torri di HCAL all interno di un cono di R < 0.15 centrato sulla posizione del super-cluster di ECAL e l energia del super-cluster. I fotoni hanno un valore vicino o prossimo a zero grazie alla spessore dei cristalli di ECAL (25 lunghezze di radiazione) che consente di contenere longitudinalmente quasi interamente uno sciame elettromagnetico. Figura 4.4: Distribuzione variabile H/E Distribuzione della variabile H/E, normalizzata all unità, per il fotone di segnale (sgnl) e i fotoni di fondo (bkg) nelle regioni del barrel e degli endcap σ iηiη La forma trasversale del cluster elettromagnetico è descritta da: σ iηiη = 5 5 i w i (η i η 5 5 ) 2 5 5,w i = max( ln E i ) (4.6) i w i E 5 5 dove E i e η i sono rispettivamente l energia e la pseudorapidità dell i-esimo cristallo della matrice 5 5 di cristalli attorno al più energetico e E 5 5 e η 5 5 sono l energia e la pseudorapidità dell intera matrice. Il valore di σ iηiη tende ad essere più piccolo per fotoni isolati (anche per fotoni convertiti, dato che il cluster si allarga solo nella direzione delle φ) che per il fondo, che è dominato da π 0 contenuti in jet che decadono in coppie di fotoni. 62

64 Figura 4.5: Distribuzione variabile σ iηiη Distribuzione della variabile σ iηiη, normalizzata all unità, per il fotone di segnale (sgnl) e i fotoni di fondo (bkg) nelle regioni del barrel e degli endcap Soglia minima su R 9 Si applica un ulteriore taglio su un valor minimo di soglia della variabile R 9 (definita in 4.1.1) al fine di escludere fotoni non ben ricostruiti. Figura 4.6: Distribuzione variabile R 9 Distribuzione della variabile R 9, normalizzata all unità, per il fotone di segnale (sgnl) e i fotoni di fondo (bkg) nelle regioni del barrel e degli endcap. Al fine di separare i fotoni di segnale da quelli di fondo si applica una serie di tagli sulle variabili sopra definite. Per massimizzare la sensibilità, si definiscono quattro diverse 63

65 categorie, dipendenti dalla pseudorapidità e dal valore di R 9 del fotone, caratterizzate da valori diversi del rapporto segnale su fondo. Si fissano tagli diversi per ognuna delle categorie (definiti in Tabella 4.1). I valori dei tagli (Tabella 4.2) non sono stati qui ottimizzati e sono quelli di una selezione standard, per identificare fotoni, usata in CMS. Tabella 4.1: Categorie per il fotone usate per la selezione Categoria Richieste sul fotone Nome 1 η < 1.442, R 9 > 0.94 Barrel, alto R 9 2 η < 1.442, R 9 < 0.94 Barrel, basso R < η < 2.5, R 9 > 0.94 Endcap, alto R < η < 2.5, R 9 < 0.94 Endcap, basso R 9 Tabella 4.2: Valori dei tagli delle variabili dei fotoni Variabile Valori di taglio categoria 1 categoria 2 categoria 3 categoria 4 Isol. comb. relat Isol. relat. traccia σ iηiη H/E R 9 - > >0.32 Si sono quindi andate a studiare le efficienze integrate dei singoli tagli (Tabella 4.3) e dei tagli in cascata (Tabella 4.4) e poi le efficienze in funzione della cinematica del fotone (in p T e in η) nelle diverse regioni. Come ci si aspettava abbiamo delle efficienze più alte nelle regioni con R 9 maggiore (le 1 e 3). 64

66 Tabella 4.3: Efficienze dei singoli tagli di identificazione Taglio Regione 1 [%] Regione 2 [%] Regione 3 [%] Region 4 [%] Iso.Comb.Rel. sgl: bkg: Iso.Rel.Traccia sgl: bkg: σ iηiη sgl: bkg: H/E sgl: bkg: R 9 sgl: bkg: Efficienze dei singoli tagli di identificazione applicati a fotoni preselezionati. Le efficienze sono date separatamente per segnale e fondo per le 4 regioni considerate. Tabella 4.4: Efficienze tagli in cascata sul fotone Taglio Segnale [%] Fondo [%] reg.1 reg.2 reg.3 reg.4 reg.1 reg.2 reg.3 reg.4 Iso.Comb.Rel Iso.Rel.Traccia σ iηiη H/E R Efficienze dei tagli in cascata applicati ai fotoni che passano la preselezione. Le efficienze sono date separatamente per segnale e fondo per le 4 regioni considerate. 65

67 Figura 4.7: Efficienze in p T nelle quattro regioni Efficienze in p T per il segnale in seguito a tutta la selezione, nelle quattro regioni definite in Tabella 4.1, constatiamo delle efficienze migliori per le regioni con R 9 maggiore (in blu e in rosso). Figura 4.8: Efficienze in η per bassi ed alti valori di R 9 Efficienze in η per il segnale in seguito a tutta la selezione, nelle regioni con basso e con alto R 9. È stato quindi studiato il miglior criterio per selezionare, tra tutti i fotoni nello stesso evento che passano tutta la selezione, il fotone da usare per l analisi. Sono state investigate tre possibilità, prendere il fotone con il P T maggiore, prendere quello con R 9 più alto o con il valore della variabile di isolamento combinato relativo più basso. La bontà della scelta è stata valutata confrontando il fotone selezionato con quello associato a quello generato. Come possiamo vedere in Tabella 4.5 i risultati sono molto 66

68 simili, per questa ragione, tra le tre opzioni si è scelto di usare quella di utilizzare il fotone che avesse il valore maggiore di P T. Tabella 4.5: Metodi di identificazione per il fotone Metodo di selezione ID corretta p t maggiore 98.10% R 9 maggiore 98.12% Isolamento relat. comb. minore 98.09% Risultati sui tre metodi di identificazione del fotone, i tre metodi hanno pressochè la stessa capacità di discriminazione. Al fine di applicare nella selezione una soglia in momento trasverso compatibile con le richieste del trigger, nel seguito dell analisi, abbiamo richiesto per il fotone scelto una soglia sul p T minimo pari a 75 GeV. È stato incluso questo nuovo taglio come preselezione. Le efficienze totali (i fotoni in accettanza sono tutti quelli di segnale generati) della selezione completa sono riportate in tabella 4.6 per i campioni di segnale generati per le diverse masse dell axigluone. Al crescere della massa l efficienza di selezione aumenta. Tabella 4.6: Efficienze totali per le differenti masse di axigluone Massa axigluone Efficienza 150 GeV 5.08% 500 GeV 16.34% 1000 GeV 23.82% 1500 GeV 27.93% Criteri di selezione per i jet I jet vengono preselezionati richiedendo che abbiano un impulso trasverso p T > 30 GeV e che cadano nell accettanza del rivelatore η < 4.7. Siccome i fotoni sono ricostruiti anche come jet, si richiede che il R, come definito in 4.1, ma calcolato tra i jet e il fotone selezionato, sia maggiore di 0.5. Per l analisi si vanno a selezionare come jet provenienti dal decadimento dell axigluone i due jet con l impulso trasverso maggiore tra quelli selezionati. Questo procedimento porta, nel caso migliore per una massa di axigluone pari a 1.5 TeV a selezionare effettivamente i due jet provenienti dal decadimento il 70% delle volte (uno solo esatto 22%, il restante 8% entrambi sbagliati), mentre nel caso peggiore, per 67

69 una massa di axigluone pari a 150 GeV, a selezionare entrambi i jet esatti il 54% delle volte (uno solo esatto 33%, entrambi errati 13%) Segnale e fondo, discriminazione in η Il numero di eventi di segnale e fondo attesi dopo la selezione discussa nei paragrafi precedenti, insieme al rapporto segnale su fondo, è riportato in tabella 4.7, per una luminosità integrata di 5 f b 1. Tabella 4.7: Segnale e fondo aspettati per una luminosità integrata di 5 f b 1 M. axg. (GeV) Segn. aspet. Fond. aspet. Segn./Fondo Segn./ f ondo Numero di eventi di segnale e fondo aspettati e i loro rapporti dopo tutti i tagli sul fotone e la preselezione sui jet, per una luminosità integrata di 5 f b 1. Si è andato quindi a studiare, al fine di migliorare il rapporto segnale su fondo, l andamento del η, ovvero la distribuzione della differenza in pseudorapidità tra i due jet selezionati, dopo aver applicato un taglio sulla massa invariante (figura 4.9). La cinematica dei due tipi di evento è, infatti, differente: i due jet di segnale devono essere sostanzialmente opposti rispetto al fotone di segnale, e quindi avere un apertura in η piccola; per i jet di fondo invece questo non vale e se si inserisce un taglio sulla massa invariante M 2 (1 cosθ) si richiede sostanzialmente che θ, l angolo di apertura tra i due jet, aumenti, quindi anche il η, permettendo così di discriminare segnale e fondo. Andiamo quindi ad applicare per una massa di axigluone di 150 GeV un taglio minimo sulla massa invariante, sia per il segnale sia per il fondo, pari a 95 GeV, un taglio di 300 GeV per un massa di 500 GeV e, infine, uno di 500 GeV per le masse di 1 TeV e 1.5 TeV e calcoliamo le nuove efficienze (Tabella 4.8). Le distribuzioni per il segnale e il fondo sono mostrate in figura Gli eventi aspettati per il fondo sono in Tabella 4.9. Inseriamo solamente un taglio inferiore e non anche uno superiore perché l idea, una volta inclusi tutti i fondi, è quella di estrarre il segnale con un fit così da avere una maggiore sensibilità rispetto ad un semplice conteggio di eventi. 68

70 Figura 4.9: Distribuzione del fondo in η al variare del taglio sulla massa invariante 69

71 Figura 4.10: Distribuzioni segnale e fondo normalizzate per diverse masse di axigluone, con i corrispettivi tagli sulla massa invariante sia sul segnale che sul fondo, in funzione di η: per una massa di axigluone pari a 150 GeV è presente un taglio sulla massa invariante di 95 GeV, per una massa di 500 GeV il taglio vale 300 GeV, per le masse di 1 TeV e 1.5 TeV il taglio è di 500 GeV. Se ora andiamo ad applicare oltre a questi tagli un ulteriore taglio η < 3 per tutte e quattro le masse di axigluone riusciamo a migliorare notevolmente i rapporti di segnale/fondo aspettati (Tabella 4.10). Ci aspettiamo, sempre per una luminosità integrata di 5 f b 1, il numero di eventi per segnale e fondo riportati in figura

72 Tabella 4.8: Efficienze sul segnale dopo tutti i tagli M. axig. (GeV) Taglio mass. inv. Eff. rel. con 2 jet selez. Eff. totale 150 >95GeV 75% 3.8% 500 >300GeV 77% 13% 1000 >500GeV 83% 20% 1500 >500GeV 90% 25% Efficienze relative e totali dopo tutti i tagli, compresi taglio sulla massa invariante dei due jet selezionati e taglio in η. L efficienza relativa riportata è calcolata come il rapporto tra il numero di eventi che passano tutti i tagli e il numero di eventi che passa la selezione sui fotoni. Tabella 4.9: Eventi aspettati fondo Taglio mass. inv. Bin (GeV) da 30 a 50 da 50 a 80 da da 120 a 170 >95GeV >300GeV >500GeV Eventi aspettati di fondo gamma più jet dopo tutti i tagli, per una luminosità integrata di 5 f b 1, si riporta ogni singolo bin. Tabella 4.10: Eventi aspettati di segnale e fondo M. axg (GeV) S. aspet. F. aspet. S./F. (tagliγ) S./F. (tutti i tagli) Numero di eventi aspettati aspettati in 5 f b 1 di segnale (S.) e di fondo (F.), rapporti segnale/fondo (S./F.) dopo i soli tagli sul fotone e dopo tutti i tagli. 71

73 Figura 4.11: Segnale e fondo aspettato, con una luminosità integrata di 5 f b 1 Eventi aspettati per massa di axigluone pari a 150GeV. Eventi aspettati per massa di axigluone pari a 500GeV. Eventi aspettati per massa di axigluone pari a 1TeV e 1.5TeV. 72

Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone

Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone Relatore: Prof. Luciano M. Barone Candidato: Giovanni Carta 1 Il Large Hadron Collider collisore pp, anello lungo

Dettagli

Parte 11 Esempio di un rivelatore (CMS)

Parte 11 Esempio di un rivelatore (CMS) Introduzione ai rivelatori di particelle Parte 11 Esempio di un rivelatore (CMS) AA 2008/2009 Cesare Voci - Roberto Carlin 1 CMS Esempio di un rivelatore: CMS perchè CMS: Rivelatore moderno ma già costruito

Dettagli

Theory Italiano (Italy)

Theory Italiano (Italy) Q3-1 Large Hadron Collider (10 punti) Prima di iniziare questo problema, leggi le istruzioni generali nella busta a parte. In questo problema è discussa la fisica dell acceleratore di particelle del CERN

Dettagli

Out line LHC CMS Summer Studen t Project

Out line LHC CMS Summer Studen t Project Experiment Out line LHC Perchè un hadron collider? Acceleratore ed esperimenti Tracker ECAL &HCAL Muon System Summer Student Project Idea base del progetto Risultati raggiunti 2 LHC Ultimi COLLIDERS: Large

Dettagli

Programma del corso di Particelle Elementari

Programma del corso di Particelle Elementari Programma del corso di Particelle Elementari 1. Le interazioni fondamentali 1.1 Costituenti elementari 1.2 Quark e colore 1.3 Il colore come carica dell interazione nucleare 1.4 Unità naturali 1.5 Interazione

Dettagli

Bosone. Particella a spin intero, che obbedisce alla statistica di Bose-Einstein, che è opposta a quella di Fermi-Dirac.

Bosone. Particella a spin intero, che obbedisce alla statistica di Bose-Einstein, che è opposta a quella di Fermi-Dirac. Particelle ed Interazioni fondamentali Fermione. Particella a spin semintero, che obbedisce alla statistica di Fermi-Dirac, cioè due fermioni con gli stessi numeri quantici non possono coesistere in uno

Dettagli

Riceca di paticelle neute a lunga vita media co l'espeimento ATLAS. Daniela Salvatore (INFN Cosenza)

Riceca di paticelle neute a lunga vita media co l'espeimento ATLAS. Daniela Salvatore (INFN Cosenza) Riceca di paticelle neute a lunga vita media co l'espeimento ATLAS Daniela Salvatore (INFN Cosenza) Decadimenti di paticelle neute a lunga vita media M. Strassler, K. Zurek Phys. Lett. B651 (2007) 374-379

Dettagli

The Large Hadron Collider LHC

The Large Hadron Collider LHC The Large Hadron Collider LHC European Masterclasses 2008 dip. di Fisica G.Galilei 12/13/14 Marzo 2008 dott Stefano Lacaprara, INFN Laboratori Nazionali di Legnaro Large Hadron Collider Perche' lo facciamo

Dettagli

Accoppiamento con fermioni e bosoni di gauge Rapporti di decadimento Ricerca dell Higgs a LHC

Accoppiamento con fermioni e bosoni di gauge Rapporti di decadimento Ricerca dell Higgs a LHC Accoppiamento con fermioni e bosoni di gauge Rapporti di decadimento Ricerca dell Higgs al Lep Ricerca dell Higgs a LHC 0 Accoppiamento dell Higgs con W e Z Lagrangiana elettrodebole invariante per trasformazione

Dettagli

The Large Hadron Collider LHC

The Large Hadron Collider LHC The Large Hadron Collider LHC European Masterclasses 2007 dott Stefano Lacaprara, INFN Laboratori Nazionali di Legnaro stefano.lacaprara@pd.infn.it Large Hadron Collider Perche' lo facciamo Cos'e' Cosa

Dettagli

La fisica delle particelle

La fisica delle particelle .. La fisica delle particelle Luisa Alunni Solestizi Luisa Alunni Solestizi 20/03/2014 1 / 16 Particelle ad alta energia La Fisica delle Particelle studia i costituenti fondamentali della materia e le

Dettagli

A CACCIA DI EVENTI. Hypatia

A CACCIA DI EVENTI. Hypatia A CACCIA DI EVENTI Z e + e - Z μ + μ - H γ γ H ZZ e + e - μ + μ - H ZZ e + e - e + e - H ZZ μ + μ - μ + μ -..\VIDEO\video cern\z_ee_1080p_h264_lo.avi..\video\video cern\z MM.mp4..\VIDEO\video cern\cern-h-phph.mp4..\video\video

Dettagli

Problemi per il corso di teoria delle interazioni fondamentali giugno 2005

Problemi per il corso di teoria delle interazioni fondamentali giugno 2005 Problemi per il corso di teoria delle interazioni fondamentali giugno 2005 Primo Modulo 1. Urto Bhabha Determinare la sezione d urto differenziale per l urto e + e e + e, nel limite di alta energia in

Dettagli

Ricerca del bosone di Higgs del MS al Lep II

Ricerca del bosone di Higgs del MS al Lep II Ricerca del bosone di Higgs del MS al Lep II di Cristiana Reggente Prof. Carlo Dionisi Ricerca del bosone di Higgs Processi di produzione Canali di decadimento Topologie Processi di fondo Sopressione del

Dettagli

Osservazione di una nuova particella con massa di 125 GeV

Osservazione di una nuova particella con massa di 125 GeV Osservazione di una nuova particella con massa di 125 GeV Esperimento CMS, CERN 4 Luglio 2012 Sintesi: Oggi al CERN di Ginevra, in un seminario congiunto con la conferenza "ICHEP 2012" [1] a Melbourne,

Dettagli

Tracciamento di raggi cosmici con il telescopio EEE Esperienza 1

Tracciamento di raggi cosmici con il telescopio EEE Esperienza 1 Laboratorio di Fisica delle Interazioni Fondamentali Università di Pisa Tracciamento di raggi cosmici con il telescopio EEE Esperienza 1 Introduzione L esperienza consiste nella misura dell intensità e

Dettagli

I giganti a caccia Due enormi esperimenti sono pronti nel sottosuolo di Ginevra.

I giganti a caccia Due enormi esperimenti sono pronti nel sottosuolo di Ginevra. I giganti a caccia Due enormi esperimenti sono pronti nel sottosuolo di Ginevra. di Maria Curatolo 24 > 25 Scoprire il bosone di Higgs è uno degli scopi principali del Large Hadron Collider (Lhc) e, in

Dettagli

International Masterclasses 2017 Il Bosone Z. Prof. Camilla Di Donato Dott. Paolo Massarotti

International Masterclasses 2017 Il Bosone Z. Prof. Camilla Di Donato Dott. Paolo Massarotti International Masterclasses 2017 Il Bosone Z Prof. Camilla Di Donato Dott. Paolo Massarotti Non perdiamo tempo Ci aspetta un viaggio alla scoperta degli elementi più piccoli che costituiscono la materia!

Dettagli

Presentazione. 24/10/2013 1

Presentazione. 24/10/2013 1 Presentazione Io, Luigi Moroni: Dirigente di Ricerca dello Istituto Nazionale di Fisica Nucleare (INFN) e titolare del corso Metodi Sperimentali della Fisica delle Alte Energie all Universita di Milano

Dettagli

Le Interazioni Fondamentali delle Particelle Elementari

Le Interazioni Fondamentali delle Particelle Elementari Le Interazioni Fondamentali delle Particelle Elementari Roberto Passante Dipartimento di Scienze Fisiche ed Astronomiche, Università di Palermo ITI Mottura, Caltanissetta, 27 Marzo 2009 Struttura dell

Dettagli

I MRPC del TOF nell esperimento ALICE

I MRPC del TOF nell esperimento ALICE I MRPC del TOF nell esperimento ALICE L esperimento ALICE. Caretteristiche fondamentali del TOF. Sviluppo dei MRPC (Camere multigap a piani resistivi). Risultati su fascio e al GIF. Conclusioni. A.Margotti

Dettagli

Itinerario del viaggio

Itinerario del viaggio Itinerario del viaggio Massimo Passera Treviso - 01/02/2013 1 Massimo Passera Treviso - 01/02/2013 2 Le 4 interazioni fondamentali! Elettromagnetiche! Deboli! Forti! Gravitazionali Interazione elettromagnetica

Dettagli

TRACCIAMENTO DI RAGGI COSMICI

TRACCIAMENTO DI RAGGI COSMICI Laboratorio di Fisica delle Interazioni Fondamentali Università di Pisa TRACCIAMENTO DI RAGGI COSMICI Introduzione L esperienza consiste nella misura dell intensità e delle distribuzioni angolari dei raggi

Dettagli

Il bosone di Higgs: che cosa è? Come funziona? E a che cosa serve? Stefano Sandrelli INAF Osservatorio Astronomico di Brera

Il bosone di Higgs: che cosa è? Come funziona? E a che cosa serve? Stefano Sandrelli INAF Osservatorio Astronomico di Brera Il bosone di Higgs: che cosa è? Come funziona? E a che cosa serve? Stefano Sandrelli INAF Osservatorio Astronomico di Brera Riassunto: che cosa è la luce? Onda o par5cella? Il fotone. Natura ondulatoria

Dettagli

Alberto Filipuzzi. Modello standard e verifiche sperimentali di θ W da DIS di ν

Alberto Filipuzzi. Modello standard e verifiche sperimentali di θ W da DIS di ν Alberto Filipuzzi Modello standard e verifiche sperimentali di θ W da DIS di ν Anno accademico 2005-2006 Divergenze delle sezioni d urto Il calcolo delle sezioni d urto per lo scattering ν e -e pensate

Dettagli

Ricerca di nuova fisica in eventi con bosone di Higgs e top quark singolo con l esperimento CMS

Ricerca di nuova fisica in eventi con bosone di Higgs e top quark singolo con l esperimento CMS Ricerca di nuova fisica in eventi con bosone di Higgs e top quark singolo con l esperimento CMS Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Magistrale in Fisica Candidato Marco La

Dettagli

Evidenza delle diverse famiglie di neutrini

Evidenza delle diverse famiglie di neutrini Fenomenologia del Modello Standard Prof. A. Andreazza Lezione 2 Evidenza delle diverse famiglie di neutrini Diversi tipi di neutrini Agli inizi degli anni 60 si sapeva che il numero leptonico era conservato

Dettagli

Quattro Luglio Questa data

Quattro Luglio Questa data La scoperta del bosone di Higgs Aleandro Nisati Istituto Nazionale di Fisica Nucleare - sezione Roma 1 Quattro Luglio 2012. Questa data segna una tappa fondamentale nella comprensione della natura del

Dettagli

la forma esplicita delle correzioni

la forma esplicita delle correzioni la forma esplicita delle correzioni al leading order (ma nei programmi di fit le correzioni si spingono, a seconda dei casi, ad ordini superiori) e per m H >m W le correzioni dipendenti dal flavour sono

Dettagli

Summer Student al CERN

Summer Student al CERN Summer Student al CERN www.cern.ch Fabrizio Palla INFN Pisa Sommario Il CERN e la fisica delle particelle Il programma di summer students per il 2007 I campi di interesse Cos e il CERN Fondato nel 1954,

Dettagli

Acceleratori e Rivelatori di Particelle Elementari

Acceleratori e Rivelatori di Particelle Elementari Acceleratori e Rivelatori di Particelle Elementari Massimiliano Fiorini!! Dipartimento di Fisica e Scienze della Terra! Università degli Studi di Ferrara! e-mail: Massimiliano.Fiorini@cern.ch! International

Dettagli

LHCb. - Barbara Sciascia (INFN/LNF) - MasterClass (LNF) - 16 marzo

LHCb. - Barbara Sciascia (INFN/LNF) - MasterClass (LNF) - 16 marzo LHCb [Thanks to F. Alessio, A. Carbone, R. Forty, J. Rademacker for some material] - Barbara Sciascia (INFN/LNF) - MasterClass (LNF) - 16 marzo 2017-1 LHC @ CERN Alpes Lac Léman Genève ATLAS Jura +LHCf

Dettagli

Adroni e quarks. MeV e 135 MeV rispettivamente e I =1,-1,0

Adroni e quarks. MeV e 135 MeV rispettivamente e I =1,-1,0 Adroni e quarks L'interazione forte non distingue tra neutrone e protone, essi sono quasi degeneri in massa (938.3 939.6 MeV) Heisenberg ipotizzo' che neutrone e protone fossero due stati delle stessa

Dettagli

Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Specialistica in Fisica. Tesi di Laurea Specialistica

Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Specialistica in Fisica. Tesi di Laurea Specialistica Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Specialistica in Fisica Tesi di Laurea Specialistica Studio del calorimetro elettromagnetico dell esperimento CMS a LHC mediante misure

Dettagli

I rivelatori di particelle, ovvero come vedere senza vedere

I rivelatori di particelle, ovvero come vedere senza vedere I rivelatori di particelle, ovvero come vedere senza vedere Che cosa avviene in un urto fra particelle Cosa ci interessa osservare Come riusciamo a osservare le particelle Problematiche di un moderno esperimento

Dettagli

I Neutrini e l'asimmetria tra la materia e l'antimateria nell'universo

I Neutrini e l'asimmetria tra la materia e l'antimateria nell'universo I Neutrini e l'asimmetria tra la materia e l'antimateria nell'universo Journal Club 20 marzo 2015 Serena Palazzo Il Modello Standard Teoria fisica che descrive le componenti prime della materia e le loro

Dettagli

Modello Standard e oltre. D. Babusci MasterClass 2007

Modello Standard e oltre. D. Babusci MasterClass 2007 Modello Standard e oltre D. Babusci MasterClass 2007 Fisica delle Particelle Elementari (FdP) Si interessa del comportamento fisico dei costituenti fondamentali del mondo, i.e. di oggetti al contempo molto

Dettagli

Università degli Studi di Genova. Facoltà di Scienze Matematiche, Fisiche e Naturali Anno Accademico 1999/2000. Tesi di Laurea in Fisica

Università degli Studi di Genova. Facoltà di Scienze Matematiche, Fisiche e Naturali Anno Accademico 1999/2000. Tesi di Laurea in Fisica Università degli Studi di Genova Facoltà di Scienze Matematiche, Fisiche e Naturali Anno Accademico 1999/2000 Tesi di Laurea in Fisica Studio delle caratteristiche funzionali del rivelatore a pixel di

Dettagli

Seminari di Fisica Dipartimento di Fisica dell Universita di Torino 27 novembre Alessandro Bottino INFN/Università di Torino

Seminari di Fisica Dipartimento di Fisica dell Universita di Torino 27 novembre Alessandro Bottino INFN/Università di Torino Il bosone di Higgs Seminari di Fisica Dipartimento di Fisica dell Universita di Torino 27 novembre 2012 Alessandro Bottino INFN/Università di Torino Contenuto Il bosone di Higgs come previsione del Modello

Dettagli

Ultimi risultati dall esperimento ATLAS sulla ricerca del bosone di Higgs

Ultimi risultati dall esperimento ATLAS sulla ricerca del bosone di Higgs Ultimi risultati dall esperimento ATLAS sulla ricerca del bosone di Higgs Figura 1. Candidato di un decadimento del bosone di Higgs in quattro elettroni acquisito da ATLAS nel 2012 Il 4 Luglio 2012 l esperimento

Dettagli

L'origine della massa e il bosone di Higgs. Massimo Casarsa Istituto Nazionale di Fisica Nucleare Sezione di Trieste

L'origine della massa e il bosone di Higgs. Massimo Casarsa Istituto Nazionale di Fisica Nucleare Sezione di Trieste L'origine della massa e il bosone di Higgs Massimo Casarsa Istituto Nazionale di Fisica Nucleare Sezione di Trieste Trieste Next 28 29 30 settembre 2012 Scaletta ➊ Parte I: breve introduzione sul Modello

Dettagli

Effetto Cherenkov - 1

Effetto Cherenkov - 1 Effetto Cherenkov - 1 Particelle cariche, che attraversano un mezzo denso con velocità superiore a quella con cui si propaga la luce nello stesso mezzo, emettono radiazione elettromagnetica che si propaga

Dettagli

Rivelazione di particelle. Incontro con gli studenti di Ingegneria Energetica

Rivelazione di particelle. Incontro con gli studenti di Ingegneria Energetica Rivelazione di particelle Incontro con gli studenti di Ingegneria Energetica roberto spighi, Bologna 22 maggio 2012 1 Indice Stato attuale sulla conoscenza delle particelle Questioni aperte Rivelazione

Dettagli

Le particelle elementari e l acceleratore LHC al CERN di Ginevra

Le particelle elementari e l acceleratore LHC al CERN di Ginevra Le particelle elementari e l acceleratore LHC al CERN di Ginevra Andrea Bizzeti Università di Modena e Reggio Emilia e Istituto Nazionale di Fisica Nucleare, Sezione di Firenze andrea.bizzeti@fi.infn.it

Dettagli

STUDIO DI UN ALGORITMO DI TRIGGER PER MUONI A BASSO P T NEL RIVELATORE CMS A LHC

STUDIO DI UN ALGORITMO DI TRIGGER PER MUONI A BASSO P T NEL RIVELATORE CMS A LHC ALMA MATER STUDIORUM UNIVERSITÀ DIBOLOGNA Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Magistrale in Fisica STUDIO DI UN ALGORITMO DI TRIGGER PER MUONI A BASSO P T NEL RIVELATORE

Dettagli

"! HZ, mostrato in figura 43 a destra. e γ/ζ H

! HZ, mostrato in figura 43 a destra. e γ/ζ H La ricerca diretta dell Higgs a LEP 200 Nel 1995 LEP inizio ad aumentare l energia del centro di massa, come si e gia decritto nel paragrafo precedente. All aumentare dell energia lo spazio delle fasi

Dettagli

GLAST-LAT: risultati delle calibrazioni su fascio

GLAST-LAT: risultati delle calibrazioni su fascio GLAST-LAT: risultati delle calibrazioni su fascio Claudia Monte per la collaborazione GLAST claudia.monte@ba.infn.it Dipartimento Interateneo di Fisica M. Merlin dell Università e del Politecnico di Bari

Dettagli

Introduzione. Elementi di Fisica delle Particelle Elementari. Diego Bettoni Anno Accademico

Introduzione. Elementi di Fisica delle Particelle Elementari. Diego Bettoni Anno Accademico Introduzione Elementi di Fisica delle Particelle Elementari Diego Bettoni Anno Accademico 006-007 Programma del corso 1. Introduzione.. Simmetrie discrete: P, C, T. 3. Isospin, stranezza, G-parità. 4.

Dettagli

Parte 10 Calorimetria

Parte 10 Calorimetria Introduzione ai rivelatori di particelle Parte 10 Calorimetria AA 2008/2009 Cesare Voci - Roberto Carlin 1 Calorimetri: introduzione Calorimetri misura dell energia mediante l assorbimento totale in un

Dettagli

Misura della massa del quark top. Corso di Fisica Nucleare e Subnucleare II Viviana Cavaliere

Misura della massa del quark top. Corso di Fisica Nucleare e Subnucleare II Viviana Cavaliere Misura della massa del quark top Corso di Fisica Nucleare e Subnucleare II Viviana Cavaliere Introduzione Caratteristiche principali e modi di decadimento del top La misura della massa del Top a CDF: 1.

Dettagli

L Higgs. Giorgio Chiarelli Istituto Nazionale di Fisica Nucleare Sezione di Pisa

L Higgs. Giorgio Chiarelli Istituto Nazionale di Fisica Nucleare Sezione di Pisa L Higgs Giorgio Chiarelli Istituto Nazionale di Fisica Nucleare Sezione di Pisa 1 La semplicità... La semplicità è una delle basi del programma riduzionistico Quante forze («interazioni») fondamentali

Dettagli

FAM A+B C. Considera la disintegrazione di una particella A in due particelle B e C: A B +C.

FAM A+B C. Considera la disintegrazione di una particella A in due particelle B e C: A B +C. Serie 19: Relatività VIII FAM C. Ferrari Esercizio 1 Collisione completamente anelastica Considera la collisione frontale di due particelle A e B di massa M A = M B = M e v A = v B = 3/5c, tale che alla

Dettagli

Se la funzione è analiticamente invertibile, estratto q, si può ricavare x = x(q).

Se la funzione è analiticamente invertibile, estratto q, si può ricavare x = x(q). La tecnica Monte Carlo Il metodo Monte Carlo è basato sulla scelta di eventi fisici con una probabilità di accadimento nota a priori. sia p(x) la distribuzione di probabilità con la quale si manifesta

Dettagli

Il Modello Standard delle particelle

Il Modello Standard delle particelle Il Modello Standard delle particelle Vittorio Del Duca INFN LNF Stages Estivi 12 giugno 2012 Elementi La materia è fatta di elementi con definite proprietà chimiche Atomi Ciascun elemento ha come mattone

Dettagli

Lezione 15 Geometrie lineari di confinamento magnetico

Lezione 15 Geometrie lineari di confinamento magnetico Lezione 15 Geometrie lineari di confinamento magnetico G. Bosia Universita di Torino G. Bosia Introduzione alla fisica del plasma Lezione 15 1 Disuniformità con gradiente in direzione del campo ( ) Una

Dettagli

Analisi esclusiva del bosone di Higgs nel canale H γγ

Analisi esclusiva del bosone di Higgs nel canale H γγ Analisi esclusiva del bosone di Higgs nel canale H γγ Facoltà di Scienze Matematiche Fisiche e Naturali Corso di Laurea Magistrale in Fisica Nucleare e Subnucleare Candidato Giulia D Imperio Matricola

Dettagli

Introduzione ai rivelatori di particelle

Introduzione ai rivelatori di particelle Introduzione ai rivelatori di particelle Parte 8 Identificazione delle particelle (PID) AA 2008/2009 Cesare Voci - Roberto Carlin 1 Particle Identification Metodi basati sulla misure del momento p e di

Dettagli

ALLA RICERCA DEL BOSONE DI HIGGS. Festival della Scienza 2015 V 08

ALLA RICERCA DEL BOSONE DI HIGGS. Festival della Scienza 2015 V 08 ALLA RICERCA DEL BOSONE DI HIGGS V 08 Cosa facciamo e perchè? Cerchiamo: o i componenti fondamentali della materia ( mattoncini indivisibili che formano la materia o se preferite particelle elementari

Dettagli

Fisica adronica e funzioni di struttrura. Luciano Pappalardo

Fisica adronica e funzioni di struttrura. Luciano Pappalardo Fisica adronica e funzioni di struttrura Luciano Pappalardo Incontro studenti - Ferrara 14-16 Ottobre 009 Di cosa è fatta la materia? Il Modello Standard delle particelle e delle interazioni elementari

Dettagli

La tracciatura nel trigger di alto livello di CMS Valentina Gori

La tracciatura nel trigger di alto livello di CMS Valentina Gori La tracciatura nel trigger di alto livello di CMS Valentina Gori Dipartimento di Fisica e sezione INFN di Firenze, per la collaborazione CMS. 1 Il tracciatore di CMS Rivelatore a pixel: 66M canali di lettura

Dettagli

Particelle Elementari e Forze Fondamentali. Enrico Robutti

Particelle Elementari e Forze Fondamentali. Enrico Robutti Particelle Elementari e Forze Fondamentali Enrico Robutti Le interazioni fondamentali E. Robutti Particelle Elementari e Forze Fondamentali 2 Forze fondamentali e unificazione Le interazioni fondamentali

Dettagli

Studio di rivelatori di posizione Micromegas per lo spettrometro per muoni in avanti dell esperimento ATLAS a LHC

Studio di rivelatori di posizione Micromegas per lo spettrometro per muoni in avanti dell esperimento ATLAS a LHC Università degli Studi di Roma La Sapienza FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea Magistrale in Fisica Tesi di Laurea Magistrale Studio di rivelatori di posizione Micromegas

Dettagli

Particelle e interazioni

Particelle e interazioni Particelle e interazioni Fernow La fisica delle particelle si occupa dei costituenti elementari della materia e delle interazioni fra essi Gli strumenti fondamentali sono gli acceleratori ed i rivelatori

Dettagli

Ricerca del bosone di Higgs nel canale di decadimento in due fotoni all esperimento CMS

Ricerca del bosone di Higgs nel canale di decadimento in due fotoni all esperimento CMS Sapienza Università di Roma FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea Specialistica in Fisica Ricerca del bosone di Higgs nel canale di decadimento in due fotoni all esperimento

Dettagli

Scoperta delle interazioni da neutrino tau

Scoperta delle interazioni da neutrino tau Scoperta delle interazioni da neutrino tau Corso di fisica nucleare e subnucleare II Prof. Carlo Dionisi FALIVENE MARIA Nell architettura della materia così com è descritta dal cosiddetto modello standard

Dettagli

QUARK, BOSONI E ALTRE ESOTICHE CREATURE

QUARK, BOSONI E ALTRE ESOTICHE CREATURE QUARK, BOSONI E ALTRE ESOTICHE CREATURE Lorenzo Magnea Università di Torino - INFN Torino SeralMente, ITI Majorana, 11/12/14 Sommario Le dimensioni delle cose Il Modello Standard delle particelle elementari

Dettagli

Acquisizione Dati. Diffrazione di Elettrone Singolo

Acquisizione Dati. Diffrazione di Elettrone Singolo Acquisizione Dati Diffrazione di Elettrone Singolo Obiettivo Sviluppo del Sistema di Acquisizione Dati per un esperimento di diffrazione di singolo elettrone da doppia fenditura, sotto la direzione Prof.

Dettagli

LA PRODUZIONE DEI RAGGI X

LA PRODUZIONE DEI RAGGI X UNIVERSITA POLITECNICA DELLE MARCHE Facoltà di Medicina e Chirurgia Corso di Laurea in Tecniche di Radiologia Medica, per Immagini e Radioterapia LA PRODUZIONE DEI RAGGI X A.A. 2015-2016 Tecniche di Radiodiagnostica

Dettagli

dall idea teorica all osservazione in laboratorio

dall idea teorica all osservazione in laboratorio La particella di Higgs: quasi cinquant anni anni dall idea teorica all osservazione in laboratorio Accademia delle Scienze di Torino 15 maggio 2013 Alessandro Bottino e Nadia Pastrone Università di Torino

Dettagli

Emissione α. La sua carica elettrica è pari a +2e La sua massa a riposo è circa 7x10-27 kg.

Emissione α. La sua carica elettrica è pari a +2e La sua massa a riposo è circa 7x10-27 kg. Reazioni nucleari Un nucleo instabile può raggiungere una nuova condizione di stabilità attraverso una serie di decadimenti con emissione di particelle α, β, γ o di frammenti nucleari (fissione). Emissione

Dettagli

surriscaldato e compresso bollicine

surriscaldato e compresso bollicine Camera a Bolle Eʼ costituita da un recipiente metallico contenente un liquido surriscaldato e compresso. Una particella carica ionizza il liquido e lungo il percorso si formano bollicine che possono essere

Dettagli

Scintillatori. Stage Residenziale 2012

Scintillatori. Stage Residenziale 2012 Scintillatori Stage Residenziale 2012 Rivelatori a Scintillazione Passaggio di radiazione attraverso materiale scintillante eccitazione di atomi e molecole del materiale emissione di luce raccolta e trasmessa

Dettagli

Misura della massa del quark top in eventi con top singolo nell esperimento CMS ad LHC

Misura della massa del quark top in eventi con top singolo nell esperimento CMS ad LHC Università degli Studi di Napoli Federico II Scuola politecnica e delle scienze di base Area didattica di Scienze Matematiche, Fisiche e Naturali Corso di Laurea in Fisica Anno Accademico 2012/2013 Tesi

Dettagli

Il rivelatore Compact Muon Solenoid di LHC. Amedeo Staiano Istituto Nazionale di Fisica Nucleare

Il rivelatore Compact Muon Solenoid di LHC. Amedeo Staiano Istituto Nazionale di Fisica Nucleare Il rivelatore Compact Muon Solenoid di LHC Amedeo Staiano Istituto Nazionale di Fisica Nucleare Obbiettivi e Sfide Obbiettivi scientifici: CMS e un General Purpose Experiment, disegnato per trovare risposte

Dettagli

UNIVERSITÀ DEGLI STUDI DI PADOVA. Allegato D) al Verbale n. 3 GIUDIZI ANALITICI

UNIVERSITÀ DEGLI STUDI DI PADOVA. Allegato D) al Verbale n. 3 GIUDIZI ANALITICI UNIVERSITÀ DEGLI STUDI DI PADOVA Procedura selettiva 2017RUA04 Allegato 1 per l assunzione di n. 1 posto di ricercatore a tempo determinato presso il Dipartimento di Fisica e astronomìa Galileo Galilei"

Dettagli

Fisica Generale II (prima parte)

Fisica Generale II (prima parte) Corso di Laurea in Ing. Medica Fisica Generale II (prima parte) Cognome Nome n. matricola Voto 4.2.2011 Esercizio n.1 Determinare il campo elettrico in modulo direzione e verso generato nel punto O dalle

Dettagli

Abbiamo scoperto il bosone di Higgs. Scienza Estate giugno 2013

Abbiamo scoperto il bosone di Higgs. Scienza Estate giugno 2013 Abbiamo scoperto il bosone di Higgs Scienza Estate 10-11 giugno 2013 La materia è fatta di atomi Elettroni, in orbite ben definite N. Bohr, Premio Nobel 1922 Un nucleo, formato da protoni e neutroni Dall

Dettagli

Bosone di Higgs. Alessandro Bottino. Biblioteca Civica Multimediale Archimede. Settimo Torinese, 28 gennaio 2014

Bosone di Higgs. Alessandro Bottino. Biblioteca Civica Multimediale Archimede. Settimo Torinese, 28 gennaio 2014 Bosone di Higgs e Modello Standard d della Fisicai delle Particelle Biblioteca Civica Multimediale Archimede Settimo Torinese, 28 gennaio 2014 Alessandro Bottino Contenuto Particelle ed interazionii i

Dettagli

Università degli Studi di Napoli Federico II

Università degli Studi di Napoli Federico II Università degli Studi di Napoli Federico II Facoltà di Scienze MM.FF.NN Corso di laurea in Fisica Progettazione e sviluppo di un sistema d acquisizione dati per il controllo e il monitoring dell apparato

Dettagli

MISURA DELLA MASSA DELL ELETTRONE

MISURA DELLA MASSA DELL ELETTRONE MISURA DELLA MASSA DELL ELETTRONE di Arianna Carbone, Giorgia Fortuna, Nicolò Spagnolo Liceo Scientifico Farnesina Roma Interazioni tra elettroni e fotoni Per misurare la massa dell elettrone abbiamo sfruttato

Dettagli

Università degli Studi di Milano. Percorsi della laurea Magistrale in Fisica

Università degli Studi di Milano. Percorsi della laurea Magistrale in Fisica Università degli Studi di Milano Percorsi della laurea Magistrale in Fisica Docente Tutor: prof. Emanuela Meroni Corsi Obbligatori AMBITO DISCIPLINARE "Sperimentale Applicativo Elettrodinamica Classica

Dettagli

Violazione della Parità

Violazione della Parità Violazione della Parità Raffaele Pontrandolfi Corso di Astrosica e Particelle Elementari Motivazione Per spiegare l asimmetria nell universo tra particelle e antiparticelle bisogna trovare dei processi

Dettagli

Introduzione alle particelle elementari

Introduzione alle particelle elementari Introduzione alle particelle elementari Andrea Bizzeti Università di Modena e Reggio Emilia e Istituto Nazionale di Fisica Nucleare, Sezione di Firenze andrea.bizzeti@fi.infn.it Physics Masterclass, Modena

Dettagli

Dipartimento di Fisica anno accademico 2015/16 Registro lezioni del docente GABRIELLI EMIDIO

Dipartimento di Fisica anno accademico 2015/16 Registro lezioni del docente GABRIELLI EMIDIO Dipartimento di Fisica anno accademico 2015/16 Registro lezioni del docente GABRIELLI EMIDIO Attività didattica DINAMICHE DELLE PARTICELLE ELEMENTARI [991SM] Periodo di svolgimento: Secondo Semestre Docente

Dettagli

Facciamo un esperimento di Fisica delle Particelle

Facciamo un esperimento di Fisica delle Particelle Facciamo un esperimento di Fisica delle Particelle Salvatore Mele Perché studiamo la fisica delle particelle Particelle, forze, mediatori Il bosone Z 0 L acceleratore LEP al CERN Come si riconoscono i

Dettagli

Sviluppi recenti della fisica sub-nucleare

Sviluppi recenti della fisica sub-nucleare Sviluppi recenti della fisica sub-nucleare Si intende fornire una breve quadro storico, ma aggiornato agli ultimi eventi, della ricerca dei costituenti subnucleari della materia. Carlo Maria Becchi, INFN

Dettagli

Programma del corso di FNSN II AA 2012-2013 ( 9 Crediti)

Programma del corso di FNSN II AA 2012-2013 ( 9 Crediti) Programma del corso di FNSN II AA 2012-2013 ( 9 Crediti) - Modello a Quark Statico (tutto il capitolo I App. Dionisi ) - Scattering Elastico e anelastico e-nucleoni 1) fattori di forma dei nuclei; 2) fattori

Dettagli

Misura del momento magnetico dell elettrone

Misura del momento magnetico dell elettrone FACOLTÀ Università degli Studi di Roma Tre DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea in Fisica Misura del momento magnetico dell elettrone Candidato: Andrea Sciandra Matricola 4480 Relatore:

Dettagli

MISURA DI SEN 2 (θ ) W DALL INTERAZIONE. Valentina Zambrano

MISURA DI SEN 2 (θ ) W DALL INTERAZIONE. Valentina Zambrano MISURA DI SEN DA INTERAZIONE N. Valentina Zambrano Correnti Cariche e Correnti Neutre CC: cambia lo stato di carica del vertice d interazione. e u e NC: non cambia lo stato di carica del vertice d interazione.

Dettagli

Il sistema di selezione dei muoni per il trigger del rivelatore CMS

Il sistema di selezione dei muoni per il trigger del rivelatore CMS Università degli Studi di Bologna FACOLTÀ DI SCIENZE MATEMATICHE FISICHE E NATURALI Dipartimento di fisica Corso di laurea in fisica Il sistema di selezione dei muoni per il trigger del rivelatore CMS

Dettagli

Fisica delle particelle oggi Il Modello Standard and Beyond

Fisica delle particelle oggi Il Modello Standard and Beyond NewDark Fisica delle particelle oggi Il Modello Standard and Beyond - Bosone di Higgs - SuperSimmetria - Astroparticle & Materia Oscura Marco CIRELLI [CNRS LPTHE Jussieu] Mini-intro: - livello variabile

Dettagli

Introduzione all esperimento LHCb e all analisi dei dati. Lucio Anderlini Istituto Nazionale di Fisica Nucleare - Firenze

Introduzione all esperimento LHCb e all analisi dei dati. Lucio Anderlini Istituto Nazionale di Fisica Nucleare - Firenze Introduzione all esperimento LHCb e all analisi dei dati. Lucio Anderlini Istituto Nazionale di Fisica Nucleare Firenze 8 febbraio 2017 Modena 1 Predizione dell antimateria Meccanica Relativistica Erwin

Dettagli

misure di guadagno in una camera MWPC m. avalle - i. bernava - f. brazzi - a. iannone - m. piersanti

misure di guadagno in una camera MWPC m. avalle - i. bernava - f. brazzi - a. iannone - m. piersanti misure di guadagno in una camera MWPC m. avalle - i. bernava - f. brazzi - a. iannone - m. piersanti sommario descrizione apparato sperimentale misure di calibrazione e simulazione con Garfield analisi

Dettagli

Lezione 22 Trigger. Trigger: seleziona gli eventi interessanti fra tutte le collisioni. Decide se l evento deve essere letto ed immagazzinato.

Lezione 22 Trigger. Trigger: seleziona gli eventi interessanti fra tutte le collisioni. Decide se l evento deve essere letto ed immagazzinato. : seleziona gli eventi interessanti fra tutte le collisioni. Decide se l evento deve essere letto ed immagazzinato. Sistema di acquisizione dati (DAQ): raccoglie i dati prodotti dall apparato e li immagazzina

Dettagli

3. Fisica a LHC, un brevissimo riassunto.

3. Fisica a LHC, un brevissimo riassunto. 3. Fisica a LHC, un brevissimo riassunto. Nel 1973 Gargamelle scopre le correnti neutre. Nel 1983 Ua1 scope il bosone e il bosone Z. Dal 1989 al 2000 LEP misura con altissima precisione le masse dei bosoni

Dettagli

La radioattività. La radioattività è il fenomeno per cui alcuni nuclei si trasformano in altri emettendo particelle e/ radiazioneni elettromagnetiche.

La radioattività. La radioattività è il fenomeno per cui alcuni nuclei si trasformano in altri emettendo particelle e/ radiazioneni elettromagnetiche. La radioattività La radioattività è il fenomeno per cui alcuni nuclei si trasformano in altri emettendo particelle e/ radiazioneni elettromagnetiche. La radioattività: isotopi. Il numero totale di protoni

Dettagli

Misura della massa del quark top al Tevatron

Misura della massa del quark top al Tevatron FACOLTA DI SCIENZE MATEMATICHE, FISICHE E NATURALI Misura della massa del quark top al Tevatron Anno Accademico 2008/2009 Corso di Fisica Nucleare e Subnucleare II Prof.C.Dionisi Studente Vieri Candelise

Dettagli

L'Insostenibile Velocità del Neutrino

L'Insostenibile Velocità del Neutrino L'Insostenibile Velocità del Neutrino Roberto Ferrari Istituto Nazionale di Fisica Nucleare Liceo Scientifico Marconi - Sommario 1: i neutrini 2: la produzione 3: la rivelazione 2 2 1. i neutrini 3 3 i

Dettagli

FISICA NUCLEARE E SUBNUCLEARE II

FISICA NUCLEARE E SUBNUCLEARE II Programma del del corso di di FISICA NUCLEARE E SUBNUCLEARE II A.A. A.A. 2005-2006 2005-2006 III III Trimestre Trimestre Carlo Carlo Dionisi Dionisi Testi Consigliati [ APP-CD] Appunti del corso di Carlo

Dettagli