Laboratorio di metodi di acquisizione dati. Giorgio Maggi
|
|
- Ornella Pagano
- 6 anni fa
- Visualizzazioni
Transcript
1 Laboratorio di metodi di acquisizione dati Giorgio Maggi
2 Argomenti Sistemi complessi di acquisizione dati Apparato CMS Concetto di trigger L event building Sistemi complessi di elaborazione dati GRID
3 L apparato CMS
4 L esperimento CMS
5 Il concetto di trigger Ad LHC, i fasci di protoni si scontrano, al centro dell apparato sperimentale, 40,000,000 di volte al secondo. Alla più alta intensità, ci saranno circa 25 collisioni protone- protone per ogni incrocio dei fasci Memorizzare tutta l informazione associata a tutte queste collisioni, corrisponde a 100TB/s, l equivalente di Enciclopedie Britanniche al secondo. Compito del Trigger e del Sistema di Acquisizione Dati (DAQ) è quello di selezionare, tra i molti milioni di eventi al secondo, i 100 più interessanti, in modo da immagazzinare le informazioni solo di questi eventi più interessanti per le successive analisi ed elaborazioni. Un evento deve superare due insiemi indipendenti di test per essere selezionato I test vanno da test semplici e di corta durata (Livello 1) a test più sofisticati che richiedono un tempo maggiore per essere eseguiti (Livello 2,3,.)
6
7 Il trigger di Primo Livello Level 1 tregger. 40 MHz input, basato su: Processori specializzati in grado di prendere decisioni ogni 25 ns Sistema a pipeline (l informazione viene fatta sopravvivere fino a quando non viene presa la decisione) Le decisioni prese in base a un pattern recognition locale Informazione veloce da macroaree dei calorimetri e dei rivelatori di mu Indentificazioni di particele: elettrroni di altro pt (momento trasverso, fotoni, muoni, jets, energia mancante, etc
8
9 Trigger di livello 1 sui Muoni con gli RPC Al sistema di trigger basato sugli RPC è richiesto l identificazione e la localizzazione di muoni ad alto p T sia nel barrel che negli end-caps. La principale richiesta è che il sistema di trigger di primo livello, nel suo insieme, rilasci al Global Muon Trigger fino a quattro tracce candidate di muoni con il più alto valore di momento traverso e questo sia nel barrel che negli end-caps, ad ogni bunchcrossing. La massima latenza consentita è di 81 periodi di bunch crossing.
10
11 Pattern di strip accese vengono confrontate con pattern predefinite corrispondenti a vari valori di Pt application-specific integrated circuit (ASIC)
12 RPC muon Trigger Il cuore del sistema hardware di riconoscimento e convalida di un evento a muoni, nel caso degli RPC, è il PACT (Pattern Comparator Trigger). Alla base di tale sistema vi è un processore il PAC appunto, il cui compito è di riconoscere il muone, all interno di una regione angolare di 2,5 in ϕ e in un intervallo di pseudorapidità, pari a 0,1 (torre). Un set di pattern di hit predefiniti, sono precaricati nel PACT, che li confronta con i pattern osservati, assegnando un codice ad ogni valore di p t misurato. Successivamente questi rilascia il codice di momento traverso più elevato, all interno della torre di trigger (regione ϕ, η), a lui assegnato. In totale nel rivelatore si avranno 144x33 muoni identificati con il valore di p t più elevato. Ad ogni evento, vengono assegnati anche alcuni bit di qualità, per identificarne la purezza, sulla base del numero di piani scattati, che hanno contribuito alla sua identificazione.
13 RPC muon Trigger Questa informazione, è ulteriormente processata dal secondo componente di questa catena di identificazione, indicato con il nome di Sorter. [2] Il compito del sistema di sorting degli RPC è quello di ridurre drasticamente la quantità di dati da inviare al sistema di Global Muon Trigger. Questa funzione, originariamente sviluppata con un prototipo denominato appunto SORTER, costituisce il blocco di base funzionale del sistema. Questo si sviluppa con una struttura ad albero, con il compito di ridurre le 144 x 33 parole con i rispettivi indirizzi, rilasciate dai vari PAC, a sole 8 (4+4) parole, corrispondenti agli eventi con mu a più alto momento traverso, per ogni bunch crossing.
14
15 I livelli di trigger superiore e l event building Al livello-1 (Lv1) la selezione de dati viene fatta da hardware speciale (Abbiamo visto i PAC per il trigger fornito dagli RPC) che vanno a guardare semplici segnali tipici di eventi interessanti Un grande deposito di energia in un piccolo gruppo di celle del calorimetro Le strip accese delle camere a muoni disposte secondo un preciso pattern Il trigger di livello 1 deve esser molto veloce, impiegare meno di un microsecondo per prendere la decisione Circa eventi al secondo sono selezionati dal trigger di 1 livello L informazione relativa a questi eventi accettati dal trigger di livello 1 viene immagazzinata in 500 memorie indipendenti, ciascuna connessa ad una parte differente del rivelatore. Il trigger di livello2 (Lv2) richiede l informazione di più di un pezzo del rivelatore. Prima di applicare il trigger di LV2 è necessario assemblare mettere in una singolo posto tutte le informazioni che vengono fuori dalle varie parti dell apparato.
16
17 L event building Prima di applicare il trigger di LV2 è necessario assemblare mettere in una singolo posto tutte le informazioni che vengono fuori dalle varie parti dell apparato. Questa operazione viene detta event building. In CMS c è un grande Switch che connette le 500 memorie locali ad una farm di computers in attesa di ricevere le informazione dell evento per applicare i test dei livelli successivi (LV2, LV3, etc). I test di livello successivo (2-3) vengono fatti girare su computer commerciali che fanno un analisi più accurata dell intero evento correlando tra loro le informazioni presenti nelle varie parti dell apparato Hanno bisogno di più tempo per poter girare e hanno bisogno di informazioni più dettagliate dell evento Nel trigger di livello 3, quando l intero evento è stato assemblato, uno può far girare sofisticati algoritmi di fisica Le tracce del tracciatore centrale vengono connesse con quelle rivelate dalle camere a muoni, i fotoni sono identificate come celle del calorimetro elettromagnetico con molta energia e in assenza di particelle cariche che puntano in quella regione L intero processo viene anche usato oltre che per selezionare i 100 eventi al secondo da memorizzare per l analisi successiva off-line anche per monitorare l apparato CMS per rivelare e correggere ogni segno di cattivo funzionamento.
18
19 Dopo la selezione del trigger Tier 1 There is a bunch crossing every 25 nsecs. There are 100 triggers per second Each triggered event is ~1 MByte in size France Regional Centre ~PBytes/sec Online System ~622 Mbits/sec or Air Freight (deprecated) Germany Regional Centre ~100 MBytes/sec Tier 0 Offline Processor Farm Italy Regional Centre ~20 TIPS ~100 MBytes/sec CERN Computer Centre 1 TIPS is approximately 25,000 SpecInt95 equivalents FermiLab ~4 TIPS ~622 Mbits/sec ~622 Mbits/sec Tier 2 Caltech ~1 TIPS Tier2 Centre Tier2 Centre Tier2 Centre Tier2 Centre ~1 TIPS ~1 TIPS ~1 TIPS ~1 TIPS Institute Institute ~0.25TIPS Institute Institute Physicists work on analysis channels. Physics data cache Physicist workstations ~1 MBytes/sec Tier 4 Each institute will have ~10 physicists working on one or more channels; data for these channels should be cached by the institute server
20 Il computing distribuito di CMS In CMS le CPU e lo spazio disco necessario viene fornito solo attraverso un sistema distribuito che si basa sulle risorse computazionali, i servizi e gli strumenti forniti dalla Grid Il Worldwide LHC Computing Grid (WLCG) fornisce tutto il computing richiesto dagli eesperimenti LHC CMS costruisce il suo strato di applicazioni in grado di interfacciarsi con differenti implementazioni della Grid (EGEE in Europa e OSG negli USA) Una struttura gerarchica di Tier fornisce: Data storage Re-reconstruzione L analisi degli utenti La produzione MC Le risorse saranno ripartite all incirca: 20% al Tier0, 40% ai Tier1 and 40% ai Tier2
21 The role of the Tiers in the CMS Computing Model
22
23
24 The data types in CMS
25 The roles of Tier0,1,2 for CMS Tier0 (CERN): safe keeping of RAW data (first copy); first pass reconstruction; distribution of RAW and RECO to Tier1; reprocessing of data during LHC down-times. Tier1 (ASCC,CCIN2P3,FNAL,GridKA,INFN-CNAF,PIC,RAL): safe keeping of a proportional share of RAW and RECO (2 nd copy); large scale reprocessing and safe keeping of the output; distribution of data products to Tier2s and safe keeping of a share of simulated data produced at these Tier2s. Tier2 (~40 centres): handling analysis requirements; proportional share of simulated event production and reconstruction.
26 Computing Software Analysis Challenge 2006 Italian contribution A 50 million event exercise to test the workflow and dataflow as defined in the CMS computing model A test at 25% of the capacity needed in 2008 Main components: Preparation of large MC simulated datasets (some with HLT-tags) Prompt reconstruction at Tier-0: Reconstruction at 40 Hz (over 150 Hz) using CMSSW Application of calibration constants from offline DB Generation of Reco, AOD, and AlCaReco datasets Splitting of an HLT-tagged sample into 10 streams Distribution of all AOD & some FEVT to all participating Tier-1s Calibration jobs on AlCaReco datasets at some Tier-1s and CAF Re-reconstruction performed at Tier-1s Skim jobs at some Tier-1s with data propagated to Tier-2s Physics jobs at Tier-2s and Tier-1s on AOD and Reco
27 Success metrics Item Goal Threshold Result # Tier # Tier Weeks of sustained rate Tier0 efficiency 80 % 30 % 100 % Running jobs per day (2h) Tier1+Tier2 50k 30k 50k Grid job efficiency 90 % 75 % 95 % Data serving (storage to CPU) 1 MB/s/slot 300 MB/s (T1) 100 MB/s (T2) OK Data transfer Tier0-all Tier1 (tape) 150 MB/s 75 MB/s 550 MB/s Data transfer Tier1 - Tier2 20 MB/s 5 MB/s OK
28 MC pre-production 1 for OSG -- Ajit Mohapatra Wisconsin (taking care of 7 OSG CMS Tier2) 3 for LCG: -- Jose Hernandez Madrid (Spain, France, Belgium, CERN) -- Carsten Hof Aachen (Germany, Estonia, Taiwan, Russia, Switzerland, FNAL) -- Nicola De Filippis Bari (Italy, UK, Hungary) 4 production teams active: Large partecipation of CMS T1s and T2s involved
29 Monitoring of production via web interface (from Bari) First prototype of monitoring was developed by Bari team:
30 Preliminary plots: CMSSW Using single muons events with PT=100 GeV/c
31 GRID (termine inglese per indicare la rete di distribuzione dell elettricità) Obiettivo di GRID: connettere il computer ad una presa nel muro ed avere immediatamente accesso ad enormi risorse di calcolo esattamente come si fa quando si inserisce la spina della lampada da tavolo alla presa elettrica per ottenere istantaneamente l illuminazione L utente non si preoccupa di chi sta producendo l energia elettrica chi la sta trasportando fino a lui Deve solo essere abilitato ad effettuare la connessione disporre dell opportuno hardware e pagare la bolletta
32 Perché GRID La prossima generazione dell esplorazione scientifica richiede potenze di calcolo e di immagazzinamento dati che nessuna istituzione è capace di affrontare da sola E richiesto un accesso semplice ai dati distribuiti per migliorare la condivisione dei risultati da parte di comunità scientifiche sparse per il mondo intero La soluzione proposta è di abilitare differenti istituzioni, che lavorano nello stesso campo, a mettere insieme i loro dati e le loro risorse di calcolo e di immagazzinamento dati per raggiungere la scala e le prestazioni richiesti
33 I possibili utenti di GRID Utenti con applicazioni che fanno un uso intenso di dati ( Data Intensive ) Accesso semplice a dati distribuiti (sorgenti, localizzazione, formato e descrizione differenti) Accesso semplice a dati duplicati o replicati Utenti con applicazioni che hanno bisogno di grandi risorse di calcolo Computer Intensive sopratutto quando I problemi possono essere parallelizzati (in una serie di tasks con limitate interconnessioni tra le differenti tasks) E che, quindi possono trarre benefici dal grande numero di CPU Utenti disponibili a collaborare e a condividere Risorse Personale Conoscenze Bonus: la soluzione è buona non solo per la scienza ma anche per l industria
34 I principali elementi di GRID 1. User Interface (UI) 4.Computing Element (CE) Gatekeeper (Front-end Node) Worker Nodes (WN) 2.Resource Broker (RB) 5.Storage Element (SE) 3.Information Service (IS) 6.LCG File Catalog (LFC)
35 VOMS server Com è fatta GRID UI LFC Servizi Centrali RB CE WN WN WN SE Sito 1 Utente CE WN WN WN Sito 2 SE
36 I principali servizi di GRID Autenticazione & autorizzazione (VOMS) Servizio di sottomissione dei job Workload Management System Data management Immagazzinamento di File : SRM, catalogo (LFC) Movimentazione di file (grdiftp, Phedex (tool di alto livello di CMS) Logging & Bookkeeping Conserva l informazione di tutto quello che è successo Monitoring
37 TESTBED SITE 2 Certificate Server Front End Certification Authority TESTBED SITE 3 File Catalog User Interface Internet Resource Broker+Information Index TESTBED SITE 1 Computing Element Worker Node Storage Element User Interface Esempio di sottomissione di un job e flusso dei dati Autenticazione Autorizzazione Sottomis. job al resource broker Sottomis. job al computing element Risultati al resource broker Risultati all utente
38 Status No. Sites Apr-04 Jun-04 Aug-04 Oct-04 Dec-04 Feb-05 Apr-05 Jun-05 Aug-05 Oct-05 Dec-05 Feb-06 Apr-06 Jun-06 Aug-06 Oct-06 Dec-06 ~17.5 ~17.5 million million jobs jobs run run (6450 (6450 cpu-years) in in 2006; 2006; Workloads of of the the not not HEP HEP VOs VOs start start to to be be significant approaching 8-10K 8-10K jobs jobs per per day; day; and and cpu-months/month one one year year ago ago this this was was the the overall overall scale scale of of work work for for all all VOs VOs No. CPU Apr-04 Jun-04 Aug-04 Oct-04 Dec-04 Feb-05 Apr-05 Jun-05 Aug-05 Oct-05 Dec-05 Feb-06 Apr-06 Jun-06 Aug-06 Oct-06 Dec-06
39 Region #countries EGEE Resources #sites #cpu #cpu DoW disk (TB) CERN * UK/I Italy France * De/CH * Northern Europe SW Europe * SE Europe Central Europe Russia Asia-Pacific North America Totals PPS * Estimates taken from reporting as IS publishes total MSS space
Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017
Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,
DettagliParte 11 Esempio di un rivelatore (CMS)
Introduzione ai rivelatori di particelle Parte 11 Esempio di un rivelatore (CMS) AA 2008/2009 Cesare Voci - Roberto Carlin 1 CMS Esempio di un rivelatore: CMS perchè CMS: Rivelatore moderno ma già costruito
DettagliComputing Model ATLAS & CMS
Computing Model ATLAS & CMS Federica Fanzago (CMS) & Monica Verducci (ATLAS) III Workshop Italiano della Fisica di ATLAS e CMS Bari, 20-22 Ottobre 2005 Sommario Introduzione ad LHC Descrizione del Computing
DettagliINFN-BOLOGNA-T3. L. Rinaldi
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light
DettagliStudio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone
Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone Relatore: Prof. Luciano M. Barone Candidato: Giovanni Carta 1 Il Large Hadron Collider collisore pp, anello lungo
DettagliData driven HLT rate estimation for Mu+Jet+BTag HLT trigger paths
Data driven HLT rate estimation for Mu+Jet+BTag HLT trigger paths Stefano Lacaprara, Ugo Gasparini, Massimo Nespolo, Antonio Branca, Andrea Gozzelino, Tommaso Dorigo, Alberto Zucchetta, Mia Tosi INFN &
DettagliAlgoritmi di trigger ad alto livello per l'identificazione di jet con b con il rivelatore CMS a LHC
Algoritmi di trigger ad alto livello per l'identificazione di jet con b con il rivelatore CMS a LHC Riccardo Ranieri Collaborazione CMS INFN and Università di Firenze LXXXVIII Congresso Nazionale Società
DettagliRelazione Sull Attività Svolta Durante il Primo Anno di Dottorato di Ricerca in Fisica (XIX Ciclo)
Relazione Sull Attività Svolta Durante il Primo Anno di Dottorato di Ricerca in Fisica (XIX Ciclo) Dottorando Gianluca Cerminara Supervisore Dott. Ernesto Migliore 1 Piano di studi Corsi inseriti nel piano
DettagliIl calcolo distribuito in ATLAS
Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti
DettagliCalcolo CMS. M. Paganoni CSN1, 18/9/07. M. Paganoni, CSN1, 18/09/07 1
Calcolo CMS M. Paganoni CSN1, 18/9/07 M. Paganoni, CSN1, 18/09/07 1 Goals of Computing in 2007 Support of global data taking during detector commissioning verso il Global Run commissioning of the end-to-end
DettagliL esperienza di calcolo nell esperimento ATLAS
Il primo anno di presa dati di LHC L esperienza di calcolo nell esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF) Workshop CCR - Stato e Prospettive del Calcolo
DettagliFisica sperimentale delle collisioni di protoni. Davide Valsecchi PhD Milano-Bicocca
Fisica sperimentale delle collisioni di protoni Davide Valsecchi PhD student @ Milano-Bicocca LHC Physics in a nutshell Teoria Misura Falsificazione 2 Large Hadron Collider (LHC) Per esplorare la fisica
DettagliLa tracciatura nel trigger di alto livello di CMS Valentina Gori
La tracciatura nel trigger di alto livello di CMS Valentina Gori Dipartimento di Fisica e sezione INFN di Firenze, per la collaborazione CMS. 1 Il tracciatore di CMS Rivelatore a pixel: 66M canali di lettura
DettagliPiano di calcolo dell esperimento HERA-B
Piano di calcolo dell esperimento HERA-B Domenico Galli Dipartimento di Fisica e INFN, Bologna Roma, 2-3 maggio 2000 Modello di calcolo di HERA-B La farm on-line del DESY è il centro di produzione dei
DettagliStato del cluster di Padova
Stato del cluster di Padova Disk server lxcmsedge01: 2.6.9-42.0.3.ELsmp (SL release 4.4 (Beryllium)) 64 (Disk Server) RAM: 4Gb CPU: 4X Intel(R) Xeon(R) CPU 5130 @ 2.00GHz 2 X raid 5 da 898.3 Gb lxcmsedge02:
DettagliNuove Tecnologie: Trigger, Computing & Software
Nuove Tecnologie: Trigger, Computing & Software Luca Lista INFN, Napoli Agenda del 12 Aprile Tecniche di trigger di primo livello ad LHC Trigger di alto livello ad LHC Esperienza sul calcolo di CDF Il
DettagliIl calcolo distribuito mediante griglie computazionali
ossia Il calcolo distribuito mediante griglie computazionali Massimo Masera Dipartimento di Fisica Sperimentale dell Universita` e I.N.F.N. Torino (ringrazio Federico Carminati, Fabrizio Gagliardi e Claudio
DettagliCalcolo LHC: Tier-1 e Tier-2
Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:
DettagliI Centri Regionali di LHC ed il TIER 1 unico. F. Ruggieri IV Incontro di GARR-B Bologna Giugno 2002
I Centri Regionali di LHC ed il TIER 1 unico F. Ruggieri IV Incontro di GARR-B Bologna 24-26 Giugno 2002 Esperimenti a LHC 3.5 PetaBytes / year ~4x109 events/year IT Division We have a very big job ahead
DettagliARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari
ARGO-YBJ: il modello di calcolo CSNII 29 Novembre 2012 Stefano Mari L esperimento Argo-YBJ } L apparato dell esperimento Argo YBJ è situato in Tibet (YangBajing), a 4300 s.l.m. } Apparato di sciami con
DettagliL High Level Trigger di CMS
L High Level Trigger di CMS Universita di Milano-Bicocca e INFN Milano-Bicocca IFAE 2006 schema del talk HLT: necessita e strategia la struttura generale del trigger gli algoritmi e l identificazione di
DettagliLa farm di LNL-Padova: stato e piani per il futuro
La farm di LNL-Padova: stato e piani per il futuro Stefano Lacaprara INFN Padova meeting T3-INFN per CMS Milano Bicocca, 23-Apr-2010 Stefano Lacaprara (INFN Padova) LNL-PD T2-3 T3 23-Apr-2010 1 / 13 Situazione
DettagliGriglie computazionali
Griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno LEZIONE N. 6 Richiami sulla caratterizzazione dei sistemi GRID Il Concetto di Virtual
DettagliStato del progetto LVL1Muon Barrel 23 settembre 2004
Stato del progetto LVL1Muon Barrel 23 settembre 24 S. Veneziano INFN Roma Overview Stato delle produzioni H8 Milestones ATLAS LVL1 ~72 calorimeter trigger towers O(1M) RPC/TGC channels Calorimeter trigger
DettagliEsperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione
DettagliLaboratorio II, modulo Conversione Analogico/Digitale (cfr.
Laboratorio II, modulo 2 2015-2016 Conversione Analogico/Digitale (cfr. http://wpage.unina.it/verdoliv/tds/appunti/appunti_06.pdf e http://ens.di.unimi.it/dispensa/cap4.pdf) Conversione Analogico/Digitale
DettagliStudio dei decadimenti dell Higgs nel canale tth con il rivelatore CMS ad LHC. D. Benedetti, L. Fanò, M.Biasini
Studio dei decadimenti dell Higgs nel canale tth con il rivelatore CMS ad LHC D. Benedetti, L. Fanò, M.Biasini Il Canale tth Stato finale completamente adronico Stato finale semi-leptonico 8 jets (W qq)
DettagliStudio della velocità di deriva nelle camere a muoni dell esperimento CMS al CERN con i primi dati di collisioni protone-protone
Università degli Studi di Torino Facoltà di Scienze Matematiche Fisiche e Naturali Corso di Laurea in Fisica Studio della velocità di deriva nelle camere a muoni dell esperimento CMS al CERN con i primi
DettagliGriglie Computazionali: GRID
Griglie Computazionali: GRID Mettere a disposizione risorse di calcolo a livello globale Chi puo usare che cosa e come Stessi problemi per accedere a IBM360 negli anni 70 Come funziona? Soluzioni molto
DettagliIl calcolo LHC in Italia: commenti. Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli Outline Contesto del calcolo LHC in Italia Computing models TDR,
DettagliUniversità degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno
Introduzione alle griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno LEZIONE N. 7 WMS (Workload Management Service) Matchmaking JDL (Job Description
DettagliAmbienti di calcolo a griglia Parte 2. Docente: Marcello CASTELLANO
Ambienti di calcolo a griglia Parte 2 Docente: Marcello CASTELLANO GRID: risorse (e loro gestione) Classificazione delle risorse Calcolo, Storage, Comunicazione Software e licenze Altre risorse Strategie
DettagliData transfer. Paolo Veronesi INFN-CNAF. www.eu-egee.org. http://grid.infn.it. VII Workshop GARR network in progress: la rete evolve con I suoi utenti
Data transfer www.eu-egee.org Paolo Veronesi INFN-CNAF http://grid.infn.it VII Workshop GARR network in progress: la rete evolve con I suoi utenti Sommario La sfida di WLCG Modello di calcolo degli esperimenti
DettagliComputing System Commissioning Analysis Model
ATLAS Computing System Commissioning Analysis Model Dario Barberis (CERN & Genova Univ./INFN) Dario Barberis: ATLAS Computing 1 ATLAS Data Challenges ATLAS ha iniziato a testare l infrastruttura di calcolo
DettagliRelatori: Prof. Vincenzo Canale Dott. Francesco Conventi. Candidato: Nicola de Biase Matricola N
Relatori: Prof. Vincenzo Canale Dott. Francesco Conventi Candidato: Nicola de Biase Matricola N85000845 Tesi di laurea triennale in Fisica A.A. 2017/2018 1 LHC ATLAS Ricerca del Bosone di Higgs Introduzione
DettagliMonitoring online. - dove monitoriamo, - su quali e quanti eventi (Callot ) - con quali strumenti
Monitoring online - dove monitoriamo, - su quali e quanti eventi (Callot ) - con quali strumenti -cosavogliamo monitorare (timing, efficienza, allineamenti ) - su quali oggetti monitoriamo (tutti gli hit,
DettagliFAZIA Fasi 2 e 3. Luigi Bardelli Roma
FAZIA Fasi 2 e 3 Fasi 2 e 3 Alla luce dei risultati ottenuti durante la fase 1 (R&D), è iniziata la progettazione (e i primi test) per le fasi 2 e 3: Fase 2: realizzazione di un modulo composto da 16 telescopi
DettagliCalcolo per il progetto SuperB
Calcolo per il progetto SuperB Luca Tomassetti University of Ferrara & INFN!"#$%& SuperB Distributed Computing Group 1 Sommario Il progetto SuperB Descrizione generale Requisiti di Calcolo A regime Attualmente
DettagliIl middleware INFNGRID Certification Authority Virtual Organization Servizi core Servizi collective Servizi di supporto al deployment e per la
Architettura del middleware INFNGRID e piano di deployment sull'infrastruttura SCoPE Gennaro Tortone INFN Napoli 21 febbraio 2007 Indice Il middleware INFNGRID Certification Authority Virtual Organization
DettagliGLAST-LAT: risultati delle calibrazioni su fascio
GLAST-LAT: risultati delle calibrazioni su fascio Claudia Monte per la collaborazione GLAST claudia.monte@ba.infn.it Dipartimento Interateneo di Fisica M. Merlin dell Università e del Politecnico di Bari
DettagliEsperimento ATLAS INFN ed Università di Bologna PROPOSTA PER SVOLGERE IL TIROCINIO-MONDO LAVORO PRESSO L ESPERIMENTO ATLAS
i Esperimento ATLAS INFN ed Università di Bologna PROPOSTA PER SVOLGERE IL TIROCINIO-MONDO LAVORO PRESSO L ESPERIMENTO ATLAS Il guppo di Bologna dell esperimento ATLAS propone un tirocinio di lavoro nel
DettagliStato risorse di calcolo CDF in Italia
Stato risorse di calcolo CDF in Italia - August 31, 2011 S. Amerio (INFN Padova) Stato risorse a Fermilab Portale CDFGRID per accedere alle risorse di calcolo locali a Fermilab. Job in corso 5k CDFGRID
DettagliSoftware. Computing. Fisica
Software Computing Fisica Motivazioni 1) DAQ TDR: sta per essere publica to (dead-line: next week). Grande lavoro di sviluppo di software (simulazione, ricostruzione ) per ottimizzare il trigger-rate massimo
DettagliSommario. Esempio di Modellazione mediante DASM: Grid OGSA. Grid secondo OGSA. Definizione Grid per OGSA. Stati di un Job e Requisiti DASM
Sommario Esempio di Modellazione mediante DASM: Grid Definizione Grid per OGSA Funzionalità JEMS Stati di un Job e Requisiti DASM DASM per Grid 1 DASM per Grid 2 OGSA Grid secondo OGSA OGSA = Open Grid
DettagliIntroduzione a CMS. Visita al CERN 10 Aprile Federico De Guio Università degli Studi di Milano Bicocca ed INFN. 10/04/2010 F.
Introduzione a CMS Visita al CERN 10 Aprile 2010 Federico De Guio Università degli Studi di Milano Bicocca ed INFN 1 Outline CMS: generalità e caratteristiche sottorivelatori e campo magnetico selezionare
DettagliSpett.le Infarma. Riportiamo ora i grafici comportamentali di ciascun server nella fascia orario di maggior carico
Fermo, lì lunedì 16 maggio 2011 Spett.le Infarma Rif. Documento: FT/2011/05/01 Ns. Rif.: Sig. Fabio Terzini Vs. Rif.: Sig. Alessandro Bottaioli Sig. Maurizio Sandri Oggetto: Analisi prestazionale della
DettagliSoftware. Computing. Fisica
Software Computing Fisica Attivita software: Algoritmi di ricostruzione (L2) e studi di High Level Trigger (HLT) nel gruppo PRS/mu (co-scrittura codice ricostr., calcolo di tavole di trigger rate ed efficienze,
DettagliRicerca di nuove risonanze che decadono in coppie di jet
Ricerca di nuove risonanze che decadono in coppie di jet Federico Preiato Università di Roma La Sapienza INFN, Sezione di Roma 101 Congresso Nazionale SIF 21 Settembre 2015 - Roma Ricerca di risonanze
DettagliCMS Computing M. Paganoni CSN1, Trieste, 21/9/ /9/06 M. Paganoni, Trieste, CSN1 1
CMS Computing 2007 M. Paganoni CSN1, Trieste, 21/9/2006 21/9/06 M. Paganoni, Trieste, CSN1 1 Modello di calcolo a Tier di CMS Tier-0: Accepts data from DAQ Prompt reconstruction Data archive and distribution
DettagliEsempi di misure temporali
Fisica delle particelle Esempi di misure temporali Matteo Borghesi Ma cosa si intende per evento? Il pile-up Quando in un evento la quantità di informazioni è così elevata da impedire di estrarre correttamente
DettagliL Esperimento NA62 al CERN Misura del decadimento
L Esperimento NA62 al CERN Misura del decadimento K + π + νν Roberto Piandani Università e INFN Perugia XCIII Congresso Nazionale Società Italiana di Fisica Pisa 28 Settembre 2007 Motivazioni Fisiche _
DettagliTIER2: Update. Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli. F. Bossi, CSN1 Trieste 7/7/05
TIER2: Update Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli F. Bossi, CSN1 Trieste 7/7/05 Cosa e avvenuto dal 17/5: Incontro referees-esperimenti a Roma
DettagliPiano di calcolo dell esperimento HERA-B
Bologna, 27 aprile 2000 Piano di calcolo dell esperimento HERA-B Introduzione Questo piano di calcolo si propone di individuare le risorse di cui il gruppo italiano si deve dotare per l elaborazione dei
Dettaglizpcr in practice Fabio Massimo Ottaviani (fabio.ottaviani@epvtech.com) EPV
zpcr in practice Fabio Massimo Ottaviani (fabio.ottaviani@epvtech.com) EPV CMG-Italia Associazione senza fini di lucro, attiva dal 1986 (XXI Convegno Annuale a Milano l 8 maggio) focalizzata su: scambio
DettagliSistema di Trigger e di Acquisizione dati di CMS c 2008 by Antonio Pierro November 3, 2008
Sistema di Trigger e di Acquisizione dati di CMS c 2008 by Antonio Pierro November 3, 2008 1 Introduzione Dal punto di vista del computing, il DAQ di CMS consiste in un grande ambiente di calcolo distribuito,
DettagliRivelatori di Particelle. Danilo Domenici
Rivelatori di Particelle Danilo Domenici mappa concettuale cadimento nucleare rivelare adiazione cosmica particella radiazione rivelatore di particelle tracciare terazioni in n collisore identifica m
DettagliE dove non è vino non è amore; né alcun altro diletto hanno i mortali. Euripide ( 480 a.c ca. a.c.).
E dove non è vino non è amore; né alcun altro diletto hanno i mortali. Euripide ( 480 a.c.- 406 ca. a.c.). C&C s.r.l. C&C Srl started by a business idea of its founder Gianni Coassin who, at the beginning
DettagliCentri Regionali per il calcolo di ATLAS in Italia
1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale 2 Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte
DettagliIngegneria del Software
Università di Bergamo Facoltà di Ingegneria INGEGNERIA DEL SOFTWARE Paolo Salvaneschi A1_3 V2.4 Ingegneria del Software Il corpus di conoscenze Il contenuto del documento è liberamente utilizzabile dagli
DettagliRedbearLabs Nano Una delle più piccola board di sviluppo esistenti esistente Caratteristiche Piccolissimo: solo 18.5mm x 21.0mm supporta Bluetooth low energy: 2.4GHz ultra low-power wireless applications
DettagliCos'é una (Computing) GRID?
Incontro Borsisti Progetto Lauree Scientifiche Perugia, 26 agosto 1 settembre 2007 Cos'é una (Computing) GRID? Istituto Nazionale Fisica Nucleare Sezione di Perugia Università Studi di Perugia Perché il
DettagliStudio della X(3872) all'esperimento CMS
Studio della X(3872) all'esperimento CMS Speaker: Alberto Vesentini Università di Pisa, INFN sezione Pisa, CMS (X3872 group) 28 settembre 2011 Conferenza SIF- L Aquila La particella X(3872): motivazioni
DettagliSuperB e un progetto che prevede la costruzione in Italia di un acceleratore di particelle (elettrone - positrone) asimmetrico ottimizzato per la
W.Baldini a nome del Ferrara SuperB group Lavori in corso a Fisica, Feb 2010 SuperB e un progetto che prevede la costruzione in Italia di un acceleratore di particelle (elettrone - positrone) asimmetrico
DettagliLHCb: transizione RPC MWPC
LHCb: transizione RPC MWPC INFN Firenze Stato dei test di aging delle RPC 1. Due prototipi studiati dal 1999 2. RPC A irraggiata durante il 2001 Q int 0.4 C/cm 2 RPC B utilizzata come riferimento, non
DettagliTier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1
Tier1, Tier2 e Tier3 CMS Italia Modello di Calcolo per CMS Italia Modello di Calcolo per CMS Italia Il Modello di CMS e basato su una Gerarchia di Funzioni e Risorse (Tier-n). Tale Gerarchia e integrata
DettagliRisultati test su GRID-IT
Risultati test su GRID-IT G. Donvito (BARI) Outline: Report produzione di CMS su LCG1 Modalità di produzione su Grid Proposte di modalità di analisi su Grid (LCG2 e DC04) Interfaccia per McRunjob per la
DettagliATLAS TileCal. ATLAS TileCal
Sommario : ATLAS TileCal ATLAS TileCal Verso un Tile calorimeter intero: preassemblaggio e commissioning; Test Beam per TileCal e verso il Test beam combinato; Attivita` varie di analisi e svolte a Pisa
DettagliIngegneria del Software 15. Stili e QoS. Dipartimento di Informatica Università di Pisa A.A. 2014/15
Ingegneria del Software 15. Stili e QoS Dipartimento di Informatica Università di Pisa A.A. 2014/15 scale up, scale out Application scalability can be defined as the ability to increase the application
DettagliCORSO MOC10748: Planning and Deploying System Center 2012 Configuration Manager. CEGEKA Education corsi di formazione professionale
CORSO MOC10748: Planning and Deploying System Center 2012 Configuration Manager CEGEKA Education corsi di formazione professionale Planning and Deploying System Center 2012 Configuration Manager Get detailed
DettagliThe CMS TIB/TID Opto-hybrid Status Report
The CMS TIB/TID Opto-hybrid Status Report Team: B.Checcucci (Proj.Manager) MT.Brunetti (Phys. P.Doc.) V.Postolache (Engineer) D.Ricci (Engineer) Dim: 30x22 mm 2 TIB: 3000 hybrids TID: 1000 hybrids The
DettagliUniversità degli Studi di Cassino e del Lazio Meridionale
di Cassino e del Lazio Meridionale Corso di Gerarchia di Anno Accademico Francesco Tortorella 1977: DRAM più veloce del processore ( prof. Patterson) Il Performance Gap processore/memoria Performance 1000
DettagliUniversità degli Studi di Torino Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Triennale in Fisica
Università degli Studi di Torino Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Triennale in Fisica STUDIO E OTTIMIZZAZIONE DELLE PRESTAZIONI DELLE CAMERE A DERIVA DELL ESPERIMENTO
DettagliA Solar Energy Storage Pilot Power Plant
UNIONE DELLA A Solar Energy Storage Pilot Power Plant DELLA Project Main Goal Implement an open pilot plant devoted to make Concentrated Solar Energy both a programmable energy source and a distribution
DettagliCORSO MOC10231: Designing a Microsoft SharePoint 2010 Infrastructure. CEGEKA Education corsi di formazione professionale
CORSO MOC10231: Designing a Microsoft SharePoint 2010 Infrastructure CEGEKA Education corsi di formazione professionale Designing a Microsoft SharePoint 2010 Infrastructure This 5 day ILT course teaches
DettagliStato del progetto RPC
Stato del progetto RPC Presentazione alla Commissione I INFN Assisi 23 Settembre 2004 R. Santonico Lay Out Stato della produzione Camere speciali Nuovi die di front end Sistema di potenza Stato dell integrazione
Dettagli( WNoDeS in OpenStack ) Davide Salomoni INFN CNAF 28/5/2013
( WNoDeS in OpenStack ) INFN CNAF 28/5/2013 Wack: definitions Wack - WS CCR, 27-31/5/2013 2 Le componenti OpenStack Cloud computing IaaS framework WNoDeS Framework per l integrazione di workload di tipo
DettagliIntroduzione ai. Sistemi Distribuiti
Introduzione ai Sistemi Distribuiti Definizione di Sistema Distribuito (1) Un sistema distribuito è: Una collezione di computer indipendenti che appaiono agli utenti come un sistema singolo coerente. Definizione
Dettaglitecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013
tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core
DettagliEuropean Archive at ECMWF. Tiziana Paccagnella ARPA-SIMC, Italy
TIGGE LAM European Archive at ECMWF Tiziana Paccagnella ARPA-SIMC, Italy TIGGE THORPEX Interactive Grand Global Ensemble A major component of THORPEX: a World Weather Research Programme to accelerate the
DettagliCollaudo di camere RPC destinate all upgrade del trigger muonico dell esperimento ALICE al LHC
Università degli studi di Torino Scuola di Scienze della Natura Dipartimento di Fisica a.a. 2016/2017 Collaudo di camere RPC destinate all upgrade del trigger muonico dell esperimento ALICE al LHC Relatore:
DettagliMisura della sezione d urto di produzione di Z 0 Z 0 nel canale di decadimento quadrileptonico all esperimento CDF
Misura della sezione d urto di produzione di Z 0 Z 0 nel canale di decadimento quadrileptonico all esperimento CDF UNIVERSITÀ DEGLI STUDI DI PADOVA LAUREA SPECIALISTICA IN FISICA Relatrice: D. Lucchesi
DettagliIl Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003
Il Progetto TIER1 Status Update Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti
DettagliA CACCIA DI EVENTI. Hypatia
A CACCIA DI EVENTI Z e + e - Z μ + μ - H γ γ H ZZ e + e - μ + μ - H ZZ e + e - e + e - H ZZ μ + μ - μ + μ -..\VIDEO\video cern\z_ee_1080p_h264_lo.avi..\video\video cern\z MM.mp4..\VIDEO\video cern\cern-h-phph.mp4..\video\video
DettagliGli esperimenti LHC verso HiLumi. Nadia Pastrone
Gli esperimenti LHC verso HiLumi Nadia Pastrone Bologna 13 Ottobre 2018 LHC: indispensabile! Since then: huge progress Modello Standard funziona ma domande fondamentali ancora oggi senza risposta Piano
DettagliTheory Italiano (Italy)
Q3-1 Large Hadron Collider (10 punti) Prima di iniziare questo problema, leggi le istruzioni generali nella busta a parte. In questo problema è discussa la fisica dell acceleratore di particelle del CERN
DettagliLa grid di produzione italiana: stato, gestione e possibilità di utilizzo
La grid di produzione italiana: stato, gestione e possibilità di utilizzo Luciano Gaido (INFN-Torino) VII Workshop GARR - Roma, 16-17 novembre 2006 Qualche premessa Computing intensive science Science
DettagliIL DAB+ NELL UNIONE EUROPEA MARCELLO LOMBARDO 07 FEB 2017
IL DAB+ NELL UNIONE EUROPEA MARCELLO LOMBARDO (LOMBARDO@EBU.CH) 07 FEB 2017 EUROPEAN BROADCASTING UNION THE WORLD'S LEADING ALLIANCE OF PUBLIC SERVICE MEDIA Informare Educare Intrattenere ASCOLTO DELLA
DettagliIntroduzione ai. Sistemi Distribuiti
Introduzione ai Sistemi Distribuiti Definizione di Sistema Distribuito (1) Un sistema distribuito è: Una collezione di computer indipendenti che appaiono agli utente come un sistema singolo coerente. 1
DettagliTest di storage ad alte prestazioni con interconnessione 10 GE
Test di storage ad alte prestazioni con interconnessione 10 GE Incipit Saggezza popolare Labronica: Inutile votarsi i co...ni con gli aquiloni quando non c'è vento Bene ieri vi hanno parlato degli aquiloni
DettagliOFFERTA DI LAVORO (1)
OFFERTA DI LAVORO (1) JUNIOR VISUALIZATION AND DIAGNOSTIC SW ENGINEER You will have the opportunity to be involved in the entire project scope from the creation of concept documentation and requirements
DettagliTriggers ai collisionatori adronici
Triggers ai collisionatori adronici 1 Che cos e un trigger? Trigger = grilletto 2 Che cos e un trigger? Ovvero: decisione al volo, metti in tasca o butta via/ammazza Trigger = grilletto 3 In fisica delle
DettagliTriggers ai collisionatori adronici
Triggers ai collisionatori adronici 1 Che cos e un trigger? Trigger = grilletto 2 Che cos e un trigger? Ovvero: decisione al volo, metti in tasca o butta via/ammazza Trigger = grilletto 3 In fisica delle
DettagliTier-2 Legnaro-Padova. Massimo Biasotto
Tier-2 Legnaro- Massimo Biasotto 1 1 Tier-2 Legnaro Prototipo sito Grid e farm CMS dal 2001 Tier-2 ufficiale CMS dal 2007 Tier-2 ufficiale ALICE dal 2011 Nato fin dall'inizio come collaborazione LNL-PD,
DettagliINTERNET & MARKETING INNOVATIVE COMMUNICATION.
INTERNET & MARKETING INNOVATIVE COMMUNICATION www.sunet.it Passion Our passion to what we do every day allows us to have a special creativity and constantly improve the process of realization and execution.
DettagliAgenda BlackBerry Enterprise Update Diego Ghidini L evoluzione dei modelli di lavoro: Scenari e Opportunità per le Aziende
12 MARZO - ROMA Agenda 10.15 BlackBerry Enterprise Update Diego Ghidini 10.30 L evoluzione dei modelli di lavoro: Scenari e Opportunità per le Aziende Alessandro Piva 11.15 Dall Enterprise Mobility al
DettagliNote su H2020 Call 3 e-infrastructure e WP2 INFN. Davide Salomoni 5/9/2013
Note su H2020 Call 3 e-infrastructure e WP2 INFN Davide Salomoni 5/9/2013 Punti generali Implementazione delle (più di una) e-infrastructures europee nell'hpc per: Tier-0 services (questo è il CINECA)
DettagliArchitettura di un calcolatore
Architettura di un calcolatore Processore: CPU Componente elettronico costituito da minuscole componenti di silicio, chiamate CHIP. Esegue le istruzioni implementate nel SW, tramite una serie di operazioni
DettagliIl rivelatore a PIXEL di ATLAS
ATLAS Il rivelatore a PIXEL di ATLAS Rivelatori traccianti Pixel detector Costruzione/installazione del detector E adesso? Claudia Gemme INFN-Genova 11/15/2007 M.Nessi Un rivelatore per LHC I rivelatori
DettagliSommario CSN1, Roma 19-23/09/2016
Sommario CSN1, Roma 19-23/09/2016 Consiglio di Sezione, Milano 12/10/2016 Attilio Andreazza Bilancio generale Missioni Consumi Inventariabile Apparati Totale Preventivi 2015 12960 9038 2814 (*) 4605 (*)
DettagliEsempi di sistemi di trigger
Esempi di sistemi di trigger TRASMA TINA MUSE FPGA-simple CMS-I level CMS-II level Esempi di sistemi di trigger: TRASMA Esempi di sistemi di trigger: TRASMA Il trigger di TRASMA trigger basato su moduli
Dettagli