L esperienza di calcolo nell esperimento ATLAS
|
|
- Mariangela Piccinini
- 5 anni fa
- Visualizzazioni
Transcript
1 Il primo anno di presa dati di LHC L esperienza di calcolo nell esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF) Workshop CCR - Stato e Prospettive del Calcolo Scientifico Legnaro
2 Introduzione L esperienza Atlas nel primo anno di presa dati: il punto di vista di un addetto ai lavori di computing Descrizione del Computing Model Le attività condotte nel 2010, nel mondo e in Italia La distribuzione dei dati su grid Le attività di calcolo centrali Le attività di analisi degli utenti L evoluzione del Computing Model di ATLAS: come il modello si è adattato alle problematiche reali 2
3 Il Computing Model di Atlas Tier-0 Tier-1 Tier-1 Tier-1 Tier-1 Tier-2 Tier-2 Tier-2 Tier-2 Tier-3 Tier-3 Tier-3 Tier-3 Modello a cloud: gerarchico, multi-tier Cloud Italiana Link Tier-0 Tier-1s T1-CNAF T2 Napoli Milano Roma1 LNF T3 Genova Trieste Roma3 (Bologna) 3
4 Attività nei siti previste dal CM Tier-0 (CERN) Archivio dei RAW data ricevuti dal detector e distribuzione ai Tier1 Prompt Reconstruction delle calibration e express streams e dei physics streams Distribuzione output ricostruzione (ESD, AOD,TAG) ai Tier-1 Tier-1 Accesso a lungo termine e archivio su tape di un subset di RAW data Copia dei RAW data di un altro Tier-1 Reprocessing della ricostruzione dei propri RAW data con parametri di calibrazioni e allineamenti finali e distribuzione AOD ai Tier-2 Archivio su disco di tutti gli AOD e TAG data e di una frazione di ESD data Archivio dati simulati prodotti nei Tier-2 Simulazione Monte Carlo Analisi di gruppo Tier-2 Simulazione Monte Carlo Archivio di una frazione di AOD e TAG data Archivio dati utenti Analisi utente e di gruppo e sviluppo di codice Calibrazione e allineamento per sub-detectors di interesse locale Tier-3 Analisi locale e sviluppo di codice Archivio dati utenti 4
5 Attività del Tier-0 Express streams ricostruiti con le calibrazioni best-estimate disponibili RAW data esportati subito dopo il merging Entro 36h i RAW data processati con le calibrazioni aggiornate Export dati derivati RAW Data: dati in output dal sistema di trigger e acquisizione in formato byte-stream ESD (Event Summary Data): output della ricostruzione, contiene calibrazione, allineamento, refitting Rappresentazione object-oriented POOL/ROOT AOD (Analysis Object Data): rappresentazione ridotta degli eventi per l analisi. Back Navigation agli ESD Rappresentazione object-oriented POOL/ROOT TAG: informazioni sintetiche per selezione veloce degli eventi negli AOD e/o ESD. Formato DB relazionale per ricerche veloci e formato ROOT per istogrammazione veloce desd e daod: versione skimmate di ESD e AOD 5
6 Computing Model: data workflow Tier-1s Tier-2s Tier-3s Tier-0 Tier-1 Tier-1 Tier-1 Tier-1 AOD Tier-2 Tier-2 Tier-2 Tier-2 N-tuples RAW, ESD, AOD Tier-3 Tier-3 Tier-3 Tier-3 Trasferimenti tra le cloud Tier1 Tier1: Dati riprocessati (ESD, AOD, desd per l analisi) Tier 1/2 Tier2/3: Output analisi utente su storage area locale Trasferimenti nella cloud Tier1 Tier2: distribuzione nei Tier2 dei dati per l analisi e cancellazione dal Tier1 Tier1 Tier2: simulazioni Monte Carlo Tier1/2 Tier2/3: Output analisi utente su storage area locale 6
7 Computing Model: cosa è cambiato subito Replica dei dati secondo il Computing Model RAW: 1 copia distribuita sull insieme dei Tier1 (su tape) ESD: 2 copie sull insieme dei Tier1. Replica nei Tier2 on demand AOD: 2 copie sull insieme dei Tier1. 10 copie sull insieme dei Tier2 (~ 1 per cloud) desd: non replicati ai Tier1. 10 copie sull insieme dei Tier2 (~ 1 per cloud) Distribuzione nei Tier1 in base al Tier1 ratio Replica dei dati all inizio della presa dati I siti o le cloud grandi copiano più dati dei formati più popolari, rispetto a quanto previsto dal Computing Model, per massimizzare l analisi ESD: 7 copie 3.5 copie in US. Una copia completa a BNL e 2.5 copie nell insieme dei Tier2 1 copia completa in FR cloud con piccole percentuali di dati fanno poca analisi e cloud grandi diventano attrattori per i job anche degli stranieri 7
8 Summary presa dati 2010 TeV Int Lumi = pb -1 Peak Lumi = 2.07x10 32 cm -2 s -1 8
9 Volume dati 7 TeV TB Logical Logical Data Volume dei dati regiatrati su catalogo (singola copia) TOTAL RAW ESD AOD DESD NTUP 7216 TB 1751 TB 3920 TB 384 TB 498 TB 543 TB TB Physical Physical Data Comprende tutte le repliche distribuite in GRID Solo dati replicati su disco TOTAL RAW ESD AOD DESD NTUP TB 279 TB TB 3433 TB 1835 TB 264 TB 9
10 Summary presa dati 2010 HI Int Lumi = 9.17 mb -1 Peak Lumi = 3.04x10 25 cm -2 s -1 10
11 Volume dati Pb-Pb TB Logical Logical Data Volume dei dati regiatrati su catalogo (singola copia) TOTAL RAW ESD DESD NTUP OTHER 1274 TB 342 TB 539 TB 70 TB 313 TB 10 TB TB Physical Physical Data Comprende tutte le repliche distribuite in GRID Solo dati replicati su disco TOTAL RAW ESD DESD NTUP OTHER 1439 TB 6 TB 879 TB 39 TB 505 TB 10 TB 11
12 Distribuzione totale dei dati 2010 MB/s per day Reprocessing MC Reprocessing dati 2009 inizio presa 7 TeV Reprocessing dati e MC AVERAGE:2.3 GB/s MAX 7.5 GB/s EFFICIENCY: 100% (including retries) MB/s per day Gennaio Febbraio Presa dati e produzione Marzo Aprile Maggio Giugno 2010 pp reprocessing Dati disponibili nei siti dopo poche ore PbPb Luglio Agosto Settembre Ottobre Novembre Dicembre 12
13 Distribuzione totale dei dati 2010 MB/s per day Attività Gennaio Febbraio Marzo Aprile Maggio Giugno Luglio Agosto Settembre Ottobre Novembre Dicembre Produzione transf. dati da produzione interni alle cloud Data consolidation Transf. dati da produzione extra-cloud Tier-0 export flusso dati da tier0 include calibration streams Data brokering trasf. dati analisi Sottoscrizioni utenti Functional test 13
14 Distribuzione dei dati in Italia MB/s per day 800 AVERAGE:195 MB/s MAX 900 MB/s Novembre: Installazione disco 2010 al CNAF 2010 pp reprocessing 400 Marzo Aprile Maggio Giugno Luglio Agosto Settembre Ottobre Novembre Dicembre TB 7 TeV TB Pb-Pb TOTAL ESD AOD DESD NTUP 1128 TB 879 TB 148 TB 87 TB 9 TB TOTAL ESD DESD NTUP 50 TB 24 TB 3 TB 22 TB 14
15 Distribuzione dei dati in Italia 600 MB/s per day AVERAGE:107 MB/s MAX 700 MB/s Throughput Tier Marzo Aprile Maggio Giugno Luglio Agosto Settembre Ottobre Novembre Dicembre 400 MB/s per day AVERAGE:88 MB/s MAX 400 MB/s Throughput Tier-2s 200 Marzo Aprile Maggio Giugno Luglio Agosto Settembre Ottobre Novembre Dicembre 15
16 Produzione in ATLAS Jobs produzione Attività di elaborazione dei dati gestite centralmente in Atlas: simulazione ricostruzione reprocessing Numero medio di jobs running per sito Production Share per Cloud Production Share per Tier-1 16
17 Produzione in Italia Da Luglio 2010: Share dei siti italiani cresciuto dopo l istallazione delle cpu al CNAF variazione dovuta all aumento delle risorse destinate all analisi Ultimo mese: Share CNAF 8% (=pledge) Share IT 5% (pledge non ancora installate nei Tier2) 17
18 Produzione in Italia Production efficiecy Production share Cloud IT Dati periodo 05/ /2011 Il CNAF include anche le statistiche di reprocessing (60k jobs) Efficienza= succ. jobs / totale Inefficienze dovute principalmente a problemi nei siti Non sempre i siti hanno pieno controllo (power cut) Ottime efficienze negli ultimi mesi 18
19 Reprocessing N jobs reprocessing world-wide 4 campagne di reprocessing nel 2010: Febbraio: dati 2009 e cosmici Aprile: dati 2009 e 2010 Maggio: dati 2009 e 2010 e MC Novembre: dati e MC full 2010 (da tape) Reprocessing Ioni previsto a Marzo 2010 Reprocessamento del 100 % dei dati RAW ESD ESD merge ESD AOD, desd Distribuzione nuovi dati nella Grid 19
20 Reprocessing FALL 2010 al CNAF Jobs di reprocessing (24h) ATLAS MONITOR Al CNAF riprocessato 5% Dei dati p-p TB (con recall da tape) Più di 30k jobs Metrica: 100% in due settimane Ottime prestazioni del CNAF: uso estensivo CPU (jobs terminati in anticipo) Storage performante Rete al limite della saturazione (concorrenza jobs analisi) Job workflow: Recall da tape (TSM-GPFS) CNAF MONITOR activated (pilot) defined (tape recall) running finished 20
21 Utiizzo risorse atlas al CNAF 2010 ATLAS pledge= 16kHS Installazioni in due fasi: Luglio e Settembre 2010 MAX AVERAGE WCT (hepspec day) CPT (hepspec day) Nov MAX AVERAGE WCT (hepspec day) CPT (hepspec day)
22 Utiizzo risorse atlas al CNAF 2010 Assegnati: 3.8M HEPSPEC Utilizzati: 4.0M HEPSPEC ATLAS 34% Atlas ha beneficiato bassa attività di altre VO in alcuni periodi 22
23 Utiizzo risorse atlas al CNAF 2011 ATLAS_SIMUL: Abilitata nuova coda per job di simulazione: ATLAS job solo su VWN limitato utilizzo di MEM fisica e basso IO Share 4% ATLAS_SIMUL 23
24 Workflow analisi utenti N-tuple DP*D Central processing T0-T1-T2 low-level analysis high-level analysis Formati originali: RAW (d)esd (d)aod Processati e distribuiti su grid (Tier0-Tier1-Tier2) Analisi low-level (Grid/Local): SKIMMING: selezione eventi (es. QCD: solo eventi con jets) SLIMMING: selezioni data container nell evento (es. rimozione algoritmi jets) THINNING: selezione di parti dei data container (es. rimozione parametri tracce) USER INFO: aggiunta di variabili utente La struttura del dato ridotto resta invariata: stesso codice di analisi su dati originali/ridotti Analisi high level (istogrammi, fit, ) Analisi eseguita localmente (possibilià di running su grid, disponibili tool per analisi ROOT-on-GRID) 24
25 Analisi distribuita: il ruolo dei Tier-3 ATLAS ha sviluppato un modello di Tier3 definendo le funzionalità e i tool specifici Analisi interattiva (Root, Proof) e sviluppo di codice Storage locale (ntuple) Molti siti già attivi in tutto il mondo e soprattutto in America, molto importanti per l attività locale Tipologia Tier3: sito pienamente grigliato (tipologia più diffusa in ATLAS) piccola farm locale non grigliata per l interattivo I Tier3 grigliati hanno duplice funzionalità: GRID e LOCALE gli utenti beneficiano di entrambi gli ambienti utile per ottimizzare le attività di analisi degli utenti in Italia Tier3 attivi a Genova, Roma3, Trieste/Udine. Bologna in fase di realizzazione task force ha portato avanti lo sviluppo del modello in base alle tipologie dei nostri centri Tutti i gruppi Atlas-IT hanno delle farm che svolgono funzioni di Tier3 25
26 Analisi distribuita su grid Sistema a 3 griglie: OSG Panda EGEE WMS Nordugrid ARC Dati distribuzione organizza centralmente in base al Computing Model il formato dati utilizzato per l analisi dipende dalle necessità dei gruppi (fisica o locali) User jobs: Modello: i job vanno dove sono i dati. I siti devono garantire stabilità e affidabilità La banda passante disponibile ha permesso di modificare il modello spostando i dati dove sono disponibili le CPU riducendo il numero di repliche sulla griglia Scelta del Frontend e del Backend Il sistema più usato è pathena-panda: user friendly, più facile reperire informazioni 26
27 Analisi distribuita e accesso ai dati I job vanno dove ci sono i dati MA ci sono molti dati mai acceduti dai jobs! Popolarità: definita in base al numero di accessi Formato più popolare ESD: necessario per molti tipi di analisi di performance e detector in alcuni casi è un approccio conservativo degli utenti (formato dati più completo) non può scalare con la luminosità e il numero di utenti Analisi sulla popolarità ha evidenziato punti deboli del CM richiesta eccessiva di spazio disco proliferazione del formato dei dati eccesso di repliche dei dati 27
28 Cancellazione dei dati ATLAS ha sviluppato un sistema automatico di cancellazione basato sulla classificazione dei dati e la misura del numero di accessi custodial data: cancellabili solo se obsoleti (RAW, ESD o AOD prodotti nella cloud) primary data: cancellabili solo se diventano secondary (dati previsti dal CM) secondary data: solo questi possono essere cancellati se non popolari in base alla loro anzianità 28
29 Crisi del disco Maggio 2010: ~ 30% dei siti era overfull, con ridotto spazio disco a disposizione Cancellare i dati meno popolari dopo essere stati replicati nei siti bisogna assicurare la custodialità prevista dal Computing Model permette di replicare sempre tutti i dati nuovi per l analisi senza penalizzare le cloud più piccole ottimizzazione significativa dello spazio disco? E tuttavia necessario modificare anche il modello di distribuzione dei dati 29
30 Evoluzione del CM PUSH MODEL T0 PULL MODEL T0 T1 T1 T1 T1 T2 T2 T2 T2 T2 T2 T2 T2 T2 T2 T2 T2 Maggior parte analisi ai T2 Inviare velocemente i dati ai T2 Difficoltà dovuta ai molti formati e molti siti Numero delle copie modificato frequentemente T2 si riempiono velocemente Molti dati replicati nei T2 risultano mai usati Dati pre-placed solo ai Tier1 il dato è analizzato per la prima volta al tier 1 il dato acceduto al tier1 è replicato in un tier2 (che diventa una cache) gli utenti possono richiedere repliche personalizzate Processo adiabatico e trasparente agli utenti nessun delay sui jobs running nessun cambio user workflow 30
31 PD2P: Panda Dynamic Data Placement Modello di distribuzione dei dati basato sull idea di considerare gli storage dei Tier2 come cache Nel modello originario i job vanno verso i dati pre-placed nuovo modello è dinamico: immutata la distribuzione dei dati nei Tier1 nessun dato (o solo alcuni formati) pre-placed nei Tier2, stop alla replica automatica Panda esegue la replica on demand verso i Tier2 (se i dati non sono presenti in altri Tier2) il job gira comunque solo dove sono i dati, per cui la prima volta al Tier1 (non c è inefficienza) e successivamente al Tier2 dove è stata eseguita e completata la replica necessità di abilitare l analisi ai Tier1 clean up dei Tier2 quando lo storage è pieno basato sul sistema di popolarità il modello, nella sua fase finale, funzionerà collegando i Tier2 con i Tier1 di ogni cloud anche solo l applicazione all interno della singola cloud permette comunque di ottimizzare l uso dello storage e delle CPU Questo modello utilizzato in tutte le cloud l Italia ha partecipato alla fase di test a fine luglio appena è stata installata la prima parte del disco 2010 ed è stata abilitata l analisi utente 31
32 PD2P: Panda Dynamic Data Placement Con il sistema di replicazione dinamica si riduce l occupazione dello spazio disco nei T2 (caching) Limitazioni alla replicazione dinamica: bassa disponibilità di spazio disco molte sottoscrizioni attive Più repliche se ci sono molti jobs in coda Possibilità di job Re-brokering: un job in coda al Tier-1 può essere inviato al Tier-2 se la replica nel Tier-2 è completata prima che il job vada in esecuzione 32
33 Distribuzione totale dei dati 2010 MB/s per day Attività Gennaio Febbraio Marzo Aprile Maggio Giugno Luglio Agosto Settembre Ottobre Novembre Dicembre Sottoscrizioni utenti grande richiesta nel primo periodo di presa dati PANDA PD2P brokering Fase di test a luglio incremento dei trasferimenti diminuzione sottoscrizioni utenti 33
34 Analisi distribuita su grid world-wide Incremento dell analisi con l inizio della presa dati Poi attività stabile (previsti incrementi in prossimità di conferenze) Numero medio job analisi Analysis share per cloud Statistiche relative solo al sistema pathena-panda per sottomissione jobs In Italia anche utenti che usano il sistema ganga-wms (in diminuzione ) 34
35 Utiizzo risorse cloud Italiana Share analisi Gennaio-giugno Share analisi Luglio-Dicembre 35
36 Utiizzo risorse: confronto produzione analisi Job sharing al Cnaf Rapporto WCT 78.5% produzione 21.5% analisi Job running su un Tier2 nell ultimo mese codice colori: Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano (Gli italiani vengono mappati sia su panda che su panda/it) 36
37 Sviluppi futuri La replicazione dinamica dei dati ha permesso di ottimizzare l uso dello storage Nel 2011/2012 previsto incremento del volume dei dati E necessario raffinare l algoritmo di replica Al momento replicati dinamicamente solo i dati popolari I dati replicati dinamicamente sono secondari (caching) il 50% dei dati replicati da DP2P non è più riutilizzato le repliche più vecchie sono meno richieste Si sta studiando il modo migliore di replicare i dati combinando il numero di accessi e l anzianità dei dati 37
38 Sviluppi futuri Distribuzione dinamica dei dati nei Tier-1s limitare numero di copie ESD primarie inviare ulteriori copie ESD on-demand con DP2P Analisi nei Tier-1 Ottimizzare le infrastrutture di rete/storage/farming Task force al CNAF per studiare la soluzione migliore 38
39 Conclusioni Il Computing Model di Atlas si è rivelato stabile e affidabile Distribuzione dei dati solida ed efficiente Produzione e analisi sfruttano appieno le risorse Principale punto debole: eccessiva quantità di dati replicati Sono state necessarie alcune modifiche per ottimizzare l uso delle risorse distribuzione dei dati e successiva cancellazione effettuate in base alla popolarità dei dati la popolarità è determinata dagli utenti modifiche sono state adiabatiche e trasparenti Stretto legame tra attività degli utenti e computing model: Il modello si adatta alle esigenze degli utenti 39
40 Un ultima considerazione Opinione personale sull uso della grid da parte dei fisici iniziale diffidenza e difficoltà nell uso della grid con l aumento della quantità di dati, gli utenti si sono accorti della necessità di usare la grid adesso sempre più utenti utilizzano i tool software e middleware, aiutando nel debug e facendo selezione naturale degli strumenti migliori (vedi Panda vs WMS) il computing deve offrire stabilità dei siti e disponibilità delle risorse necessità di rafforzare il supporto e la collaborazione tra le comunità di computing e di fisica I tier3 possono essere degli ambienti ideali per coniugare le attività di fisica e di computing 40
INFN-BOLOGNA-T3. L. Rinaldi
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light
Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017
Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,
Tier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1
Tier1, Tier2 e Tier3 CMS Italia Modello di Calcolo per CMS Italia Modello di Calcolo per CMS Italia Il Modello di CMS e basato su una Gerarchia di Funzioni e Risorse (Tier-n). Tale Gerarchia e integrata
Centri Regionali per il calcolo di ATLAS in Italia
1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale 2 Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione
ARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari
ARGO-YBJ: il modello di calcolo CSNII 29 Novembre 2012 Stefano Mari L esperimento Argo-YBJ } L apparato dell esperimento Argo YBJ è situato in Tibet (YangBajing), a 4300 s.l.m. } Apparato di sciami con
Stato ed evoluzione dell'infrastruttura di calcolo INFN. Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018
Stato ed evoluzione dell'infrastruttura di calcolo INFN Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018 Premessa (1) Evoluzione delle necessità di calcolo dominata
Servizio di backup e ripristino dati su sistema disco/tape al CNAF
Servizio di backup e ripristino dati su sistema disco/tape al CNAF ENRICO FAT TIBENE INFN CNAF WORKSHOP DELLA CCR L.N.G.S. 26 MAGGIO 2017 Problematiche In caso di problemi sui servizi i dati devono essere
Il calcolo distribuito in ATLAS
Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti
La farm di LNL-Padova: stato e piani per il futuro
La farm di LNL-Padova: stato e piani per il futuro Stefano Lacaprara INFN Padova meeting T3-INFN per CMS Milano Bicocca, 23-Apr-2010 Stefano Lacaprara (INFN Padova) LNL-PD T2-3 T3 23-Apr-2010 1 / 13 Situazione
Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone
Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone Relatore: Prof. Luciano M. Barone Candidato: Giovanni Carta 1 Il Large Hadron Collider collisore pp, anello lungo
Piano di calcolo dell esperimento HERA-B
Piano di calcolo dell esperimento HERA-B Domenico Galli Dipartimento di Fisica e INFN, Bologna Roma, 2-3 maggio 2000 Modello di calcolo di HERA-B La farm on-line del DESY è il centro di produzione dei
Architettura e caratteristiche dello storage in INFN-CC. Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC
Architettura e caratteristiche dello storage in INFN-CC Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC Storage affidabile ed a basso costo in INFN-CC Workshop CCR La Biodola
di Higgs a LHC b-tagging per la ricerca Scuola Normale Superiore e INFN, Pisa Incontri sulla Fisica delle Alte Energie Andrea Bocci
b-tagging per la ricerca di Higgs a LHC Incontri sulla Fisica delle Alte Energie Pavia Scuola Normale Superiore e INFN, Pisa Sommario - b-tagging per la ricerca del bosone di Higgs - Caratteristiche degli
Il nuovo cluster INFN per la fisica teorica
Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1 Necessità di calcolo del Gr.
Ricerca di nuove risonanze che decadono in coppie di jet
Ricerca di nuove risonanze che decadono in coppie di jet Federico Preiato Università di Roma La Sapienza INFN, Sezione di Roma 101 Congresso Nazionale SIF 21 Settembre 2015 - Roma Ricerca di risonanze
Computing System Commissioning Analysis Model
ATLAS Computing System Commissioning Analysis Model Dario Barberis (CERN & Genova Univ./INFN) Dario Barberis: ATLAS Computing 1 ATLAS Data Challenges ATLAS ha iniziato a testare l infrastruttura di calcolo
Servizio Calcolo. Alessandro Brunengo
Servizio Calcolo Alessandro Brunengo Personale (2017) Alessandro Brunengo (tecnologo, responsabile) 10% Mailing, 90% Calcolo Mirko Corosu (tecnologo) 30% Atlas, 70% Calcolo Francesco Saffioti (CTER) Enrico
GRID Data Center INFN Pisa
GRID Data Center INFN Pisa Alberto CIAMPA Responsabile Calcolo Scientifico e progetto GRID INFN Pisa GRID Data Center INFN Pisa L INFN ha strutture di calcolo autonome e proprietarie Nella sezione di Pisa
Futuro TierA INFN ed estensione MOU
Futuro TierA INFN ed estensione MOU M. Morandin INFN Padova 1 Il finanziamento del calcolo in BaBar L'idea di distribuire le risorse di calcolo di BaBar in grossi centri di calcolo in Europa nacque subito
BaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1
BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano 20-9-2004 CSN1-Assisi L.Perini 1 Note generali e MoU I referees si congratulano con BaBar per l impegno e i risultati ottenuti nel computing Ancora
Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack
Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack Tutor: Dott. Domenico Elia Tutor: Dott. Giacinto Donvito Indice Descrizione del progetto Confronto con l attività
Introduzione alla riunione
Introduzione alla riunione INFN Bologna Oggi è una riunione speciale Incontro con il nuovo Direttore Generale Ricordo di Giulietta e assegnazione del Premio Nazionale Giulia Vita Finzi Approfitto dell
BaBar: stato ed utilizzo delle farms
BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del gruppo di Computing BaBar Italia BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 Sommario Il gruppo
Relazione Sull Attività Svolta Durante il Primo Anno di Dottorato di Ricerca in Fisica (XIX Ciclo)
Relazione Sull Attività Svolta Durante il Primo Anno di Dottorato di Ricerca in Fisica (XIX Ciclo) Dottorando Gianluca Cerminara Supervisore Dott. Ernesto Migliore 1 Piano di studi Corsi inseriti nel piano
Piattaforme software distribuite I
Piattaforme software distribuite I Introduzione a Java 2 Platform Enterprise Edition (J2EE) Davide Lamanna lamanna@dis.uniroma1.it Programma Architetture per le applicazioni web Carrellata di ripasso Valutazione
6 Borsisti Day 24/03/2015 Roma Consortium GARR
Studio delle problematiche design e implementazione per la federazione dei sistemi Cloud Computing per mezzo di protocolli standard OCCI e CDMI Vanessa Rosaria Privitera Borsista GARR Bando N 01/2012 presso
Piattaforme software distribuite I
Piattaforme software distribuite I Architetture Web: verifica delle prestazioni e Web caching Davide Lamanna lamanna@dis.uniroma1.it REPLICAZIONE DEL WEB SERVER: valutazione Prestazioni: più elevate grazie
A. De Salvo 5 settembre ATLAS: il calcolo. Alessandro De Salvo
A. De Salvo 5 settembre 2013 ATLAS: il calcolo Alessandro De Salvo 5-9-2013 ATLAS: Utilizzo risorse Tier 2 in Italia Site reliability/availability Valori medi 2011/2013 Pledge 2013 Pledge 2012 Frascati
Il sistema di monitoring con Nagios
Il sistema di monitoring con Nagios stato e prospettive Giuseppe Misurelli INFN-CNAF 21 Maggio 2010 Argomenti 1 Devoluzione Gli strumenti operativi da EGEE a EGI/IGI 2 Allestimento del sistema in IGI 3
Introduzione ai. Sistemi Distribuiti
Introduzione ai Sistemi Distribuiti Definizione di Sistema Distribuito (1) Un sistema distribuito è: Una collezione di computer indipendenti che appaiono agli utente come un sistema singolo coerente. 1
ATLAS-Italia-Computing 9 June EventIndex. Dario Barberis. Genoa University/INFN. Dario Barberis: ATLAS EventIndex
EventIndex Dario Barberis Genoa University/INFN 1 Scopo del Progetto Creare un catalogo completo di tutti i dati di ATLAS Reali e simulati In tutti gli stadi di produzione e formati di files Tecnologia
CURRICULUM VITÆ E DELLA ATTIVITA
CURRICULUM VITÆ E DELLA ATTIVITA Nome: Alessandro Brunengo Luogo e data di nascita: Imperia, 13/07/1965 Residenza: Via dei Botto 7/5 16043 Chiavari (GE) Telefono: 0185-324594 Stato Civile: coniugato, due
Setup di una cloud privata a Torino Un prototipo in produzione. S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso
Setup di una cloud privata a Torino Un prototipo in produzione S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso 1 Motivazione! Negli ultimi anni la quantita di risorse hardware eterogenee di fascia consumer
Software Computing & Challenges nei Tier 2 - ATLAS -
Software Computing & Challenges nei Tier 2 - ATLAS - Gianpaolo Carlino INFN Napoli IV Workshop ATLAS & CMS Bologna, 23-25 Novembre 2006 L ATLAS Computing Model ~Pb/sec Event Builder 10 GB/sec Some data
Roberto Stroili 16 settembre 2002 Commissione I. Roberto Stroili 16 settembre 2002 Commissione I
Stato del calcolo di BaBar Roberto Stroili Università di Padova & INFN Commissione I 16 settembre 2002 1 Outline Calcolo di BaBar Computing Review 2 nuovo Computing Model Calcolo di BaBar in Italia CASPUR
CSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari
CSN4! GGI marzo 2008 Calcolo teorico E. Onofri, R. Tripiccione, E. Vicari Piano della presentazione Piano della presentazione La manovra di ottobre 2007 Piano della presentazione La manovra di ottobre
Piano di calcolo dell esperimento HERA-B
Bologna, 27 aprile 2000 Piano di calcolo dell esperimento HERA-B Introduzione Questo piano di calcolo si propone di individuare le risorse di cui il gruppo italiano si deve dotare per l elaborazione dei
Luca Della Mora. Scalabilità della generazione e dell'analisi di dati su infrastrutture multicore all'interno del framework ROOT
Luca Della Mora Scalabilità della generazione e dell'analisi di dati su infrastrutture multicore all'interno del framework ROOT Obiettivi (I) Conoscenza del linguaggio C++ Conoscenza del framework ROOT
Calcolo per il progetto SuperB
Calcolo per il progetto SuperB Luca Tomassetti University of Ferrara & INFN!"#$%& SuperB Distributed Computing Group 1 Sommario Il progetto SuperB Descrizione generale Requisiti di Calcolo A regime Attualmente
Introduzione. A Tecnologie 1
Indice Prefazione Introduzione XIII XIX A Tecnologie 1 1 Tecnologie per applicazioni Web 3 1.1 Introduzione 3 1.2 HTTP e HTML: i fondamenti delle tecnologie Web 4 1.2.1 Accesso a risorse remote: il protocollo
Tier-2 Legnaro-Padova. Massimo Biasotto
Tier-2 Legnaro- Massimo Biasotto 1 1 Tier-2 Legnaro Prototipo sito Grid e farm CMS dal 2001 Tier-2 ufficiale CMS dal 2007 Tier-2 ufficiale ALICE dal 2011 Nato fin dall'inizio come collaborazione LNL-PD,
Test e risultati sull uso di un file system GPFS condiviso su rete WAN
Test e risultati sull uso di un file system GPFS condiviso su rete WAN Antonio Budano (INFN Sezione di Roma 3) In collaborazione con: Vladimir Sapunenko (INFN - CNAF) Elisabetta Vilucchi (INFN LNF) Sommario
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Michele Di Benedetto, Alessandro Cavalli, Luca dell Agnello, Matteo Favaro, Daniele Gregori, Michele Pezzi, Andrea Prosperini,
Stato Calcolo BaBar in Italia e contributo INFN Fondi Comuni
Stato Calcolo BaBar in Italia e contributo INFN Fondi Comuni CSN1 19 settembre 2005 Napoli 1 Sommario Attivita' calcolo BaBar in Italia centro di Padova BaBar@CNAF farm per produzione M.C. Fondo comune
LHCONE: LA RETE DEI TIER2 IL PUNTO DI VISTA DEL GARR
1 : LA RETE DEI TIER2 IL PUNTO DI VISTA DEL GARR 16-20 maggio 2011 Massimo Carboni Workshop congiunto :: INFN CCR e GRID Hotel Hermitage -- La Biodola - Isola d Elba Le mo&vazioni 2 Cambiamento del Data
Obiettivo della multiprogrammazione: massimizzazione dell utilizzo della CPU. Scheduling della CPU: commuta l uso della CPU tra i vari processi.
Scheduling della CPU Scheduling della CPU Obiettivo della multiprogrammazione: massimizzazione dell utilizzo della CPU. Scheduling della CPU: commuta l uso della CPU tra i vari processi. Scheduler (a breve
Presentazione di Docet
Presentazione di Docet Alberto Crescente, INFN Sez. Padova Docet Perchè? Nelle varie sezioni e laboratori il numero di computers e apparati di rete da amministrare è diventato sempre più grande. Di conseguenza
GeoServer nel Cloud. Un caso di studio sulle modifiche architetturali nel passaggio a piattaforme Cloud. Federico Cacco
GeoServer nel Cloud Un caso di studio sulle modifiche architetturali nel passaggio a piattaforme Cloud Federico Cacco Laurea Magistrale in Informatica Università degli Studi di Padova Dipartimento di Matematica
Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013
Servizio di Calcolo e Reti F. Semeria 10 Luglio 2013 Personale Antonio Bassi (tempo parziale: 1/3) Daniela Bortolotti Franco Brasolin (CERN, ATLAS Tdaq SysAdmins ) Patrizia Calligola Francesca Del Corso
Scheduling della CPU
Scheduling della CPU 1 Scheduling della CPU Obiettivo della multiprogrammazione: massimizzazione dell utilizzo della CPU. Scheduling della CPU: commuta l uso della CPU tra i vari processi. Scheduler della
Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing
Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing GARR - II Borsisti Day Infrastruttura ENEA-GRID & rete GARR -12 Centri di ricerca in Italia
Flash talk: Wide Area Swift
Flash talk: Wide Area Swift Matteo Panella - matteopanella@lngsinfnit INFN - Laboratori Nazionali del Gran Sasso Miniworkshop CCR 2013 Sommario 1 Introduzione 2 Stato dell arte: Swift 3 Stato dell arte:
RISORSE E MODELLI DI CALCOLO
RISORSE E MODELLI DI CALCOLO Roberto Alfieri - CSN4 del 13.04.2007 13/04/2007 Risorse e modelli di calcolo- CSN4 page 1 Sommario ATTIVITA' DELLA CCR Bilancio della CCR Contratti Centralizzati (NAG e Mathematica)
Studio dei decadimenti dell Higgs nel canale tth con il rivelatore CMS ad LHC. D. Benedetti, L. Fanò, M.Biasini
Studio dei decadimenti dell Higgs nel canale tth con il rivelatore CMS ad LHC D. Benedetti, L. Fanò, M.Biasini Il Canale tth Stato finale completamente adronico Stato finale semi-leptonico 8 jets (W qq)
tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013
tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core
Nuove Tecnologie: Trigger, Computing & Software
Nuove Tecnologie: Trigger, Computing & Software Luca Lista INFN, Napoli Agenda del 12 Aprile Tecniche di trigger di primo livello ad LHC Trigger di alto livello ad LHC Esperienza sul calcolo di CDF Il
Estensione del mercato flow based a livello Europeo tramite l'utilizzo diretto di un modello completo della rete elettrica
Daniele Canever Padova, 18/10/2018 Estensione del mercato flow based a livello Europeo tramite l'utilizzo diretto di un modello completo della rete elettrica : un ponte tra Università e Aziende Un unico
Nice Grid Project. AI Award, Milano 15/12/2015
Nice Grid Project AI Award, Milano 15/12/2015 Gruppo SOCOMEC - La forza di uno specialista Un produttore indipendente che fornisce soluzioni specializzate per la performance energetica delle reti elettriche
Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012
Sperimentazione del file-system distribuito HDFS in ambiente GRID Tutor: Domenico Diacono Outline Use cases Hadoop Distributed File System Test di funzionalità Sviluppo di politiche di replica dei dati
Curriculum Vitae di Marco Paganoni
Curriculum Vitae di Marco Paganoni Informazioni personali Nato a, il.,. Professore Ordinario di Fisica Sperimentale (SSD FIS/01), in regime di tempo pieno presso il Dipartimento di Fisica G. Occhialini,
Università degli Studi di Torino Dipartimento di Fisica. Tesi di Laurea
Università degli Studi di orino Dipartimento di Fisica esi di Laurea Analisi di spettri di deutoni: studio della contaminazione dovuta a deutoni prodotti in processi secondari in collisioni Pb- Pb a 5eV
Calcolo CMS. M. Paganoni CSN1, 18/9/07. M. Paganoni, CSN1, 18/09/07 1
Calcolo CMS M. Paganoni CSN1, 18/9/07 M. Paganoni, CSN1, 18/09/07 1 Goals of Computing in 2007 Support of global data taking during detector commissioning verso il Global Run commissioning of the end-to-end
Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno
Introduzione alle griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno LEZIONE N. 7 WMS (Workload Management Service) Matchmaking JDL (Job Description
Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS
Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS INFN-Napoli 16/05/2012 1 Il progetto bandiera SuperB Proposto dall Istituto Nazionale di Fisica Nucleare (INFN), il progetto SuperB ha
Il calcolo LHC in Italia: commenti. Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli Outline Contesto del calcolo LHC in Italia Computing models TDR,
Esperimento ATLAS INFN ed Università di Bologna PROPOSTA PER SVOLGERE IL TIROCINIO-MONDO LAVORO PRESSO L ESPERIMENTO ATLAS
i Esperimento ATLAS INFN ed Università di Bologna PROPOSTA PER SVOLGERE IL TIROCINIO-MONDO LAVORO PRESSO L ESPERIMENTO ATLAS Il guppo di Bologna dell esperimento ATLAS propone un tirocinio di lavoro nel
ColorWorkDesk. Soluzione software completa per la Formulazione e la gestione del colore
Soluzione software completa per la Formulazione e la gestione del colore Struttura del software Componenti utilizzati DataBase User Interface Librerie calcolo Librerie strumenti Protezione Database Basato
GESTIONE DELLA MEMORIA CENTRALE 6.1 D. - UNICAL
GESTIONE DELLA MEMORIA CENTRALE 6.1 Gestione della Memoria Background Spazio di indirizzi Swapping Allocazione Contigua Paginazione 6.2 Background Per essere eseguito un programma deve trovarsi (almeno
TIER2: Update. Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli. F. Bossi, CSN1 Trieste 7/7/05
TIER2: Update Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli F. Bossi, CSN1 Trieste 7/7/05 Cosa e avvenuto dal 17/5: Incontro referees-esperimenti a Roma
Stato del progetto Gigafitter. Silvia Amerio (per il gruppo GF)
Stato del progetto Gigafitter Silvia Amerio (per il gruppo GF) 11 Settembre 2009 Il GigaFitter (1) Sviluppato come possibile upgrade del Track Fitter del processore di traccia di L2 SVT per aumentare l'efficienza
Un occhio vigile sulle grandi opere
Gestiamo i dati per la manutenzione di più di 1000 grandi opere ANNO SETTORE STRUMENTI 2016 GDO, Logistica Web application, Database, CAD LA SFIDA Le grandi opere non sono tali solo nel momento in cui
1. Che cos è un sistema multiprogrammato? Si può realizzare la multiprogrammazione
1. Che cos è un sistema multiprogrammato? Si può realizzare la multiprogrammazione su un sistema con una sola CPU? 2. Qual è la differenza tra un interruzione e una trap? Si faccia qualche esempio. 1.
Migliori cambi di marcia, Minori consumi
Migliori cambi di marcia, Minori consumi MASSIME PRESTAZIONI MASSIMA ECONOMIA Migliorate i vostri consumi E ancora di più le vostre prestazioni Gran parte del successo di Allison viene dalla creazione
Micronprod: la soluzione per la Raccolta Dati di Produzione
Micronprod: la soluzione per la Raccolta Dati di Produzione Micronprod è lo strumento ottimale che assicura, con tempestività ed affidabilità, il controllo e la gestione delle informazioni provenienti
XWEB EVO Nuova versione software 5.0
XWEB EVO Nuova versione software 5.0 PN 02/18 MARZO Gentile Cliente, La famiglia XWEB EVO per la gestione ottimizzata del Retail e di applicazioni HVAC/R, è da oggi ancora più performante grazie alla nuova
D Menasce INFN Milano-Bicocca
D Menasce INFN Milano-Bicocca 9/18/2014 Dario Menasce - La CCR dell'infn: struttura e funzioni (Workshop INAF, Settembre 2014) 3 9/18/2014 Dario Menasce - La CCR dell'infn: struttura e funzioni (Workshop
Grid Tutorial Day Palermo, 13 Aprile 2011
Grid Tutorial Day Palermo, 13 Aprile 2011 01 - Introduzione Pier Paolo Corso Sommario Introduzione generale Introduzione al Grid Computing Introduzione alla Grid COMETA Anteprima delle lezioni successive
Guida per l esecuzione del trasferimento del programma DINAMIC su un nuovo computer
Guida per l esecuzione del trasferimento del programma DINAMIC su un nuovo computer La procedura si applica quando è necessario trasferire su un nuovo computer, per una sostituzione programmata oppure
Criteri di caratterizzazione di una memoria
La memoria Supporto alla CPU: deve fornire alla CPU dati e istruzioni il più rapidamente possibile; Archivio: deve consentire di archiviare dati e programmi garantendone la conservazione e la reperibilità
Grid Scheduling e WS-Agreement. Griglie e Sistemi di Elaborazione Ubiqui
Grid Scheduling e WS-Agreement D. Talia - UNICAL Griglie e Sistemi di Elaborazione Ubiqui Sommario Il Problema del esource Management Applicazioni in più domini Obiettivi del proprietario vs. obiettivi
Tecnologie software per
Tecnologie software per l analisi offline Tecnologie software per l analisi offline Carminati Leonardo Universita e sezione INFN di Milano Leonardo Carminati IFAE 2007 1 CM, EDM, AM e altro ancora... Tecnologie
Introduzione ai. Sistemi Distribuiti
Introduzione ai Sistemi Distribuiti Definizione di Sistema Distribuito (1) Un sistema distribuito è: Una collezione di computer indipendenti che appaiono agli utenti come un sistema singolo coerente. Definizione
ISTITUTO NAZIONALE DI FISICA NUCLEARE
INFN/CCR-10/04 7 Settembre 2010 CCR-37/2010/P PROPOSTA INFN PER LA RETE DEI TIER2 DI LHC IN GARR-X A. Brunengo 1, A. De Salvo 2, D. Di Bari 3, G. Donvito 3, R. Gomezel 4, P. Lo Re 5, G. Maron 6, E. Mazzoni
File: definizione. Il file è la più piccola unità logica manipolabie Un file è caratterizzato principalmente da:
File System File: definizione Il file è la più piccola unità logica manipolabie Un file è caratterizzato principalmente da: Dimensione Posizione Accessibilità (solo lettura, lettura e scrittura) Tipo (estensione)
Sistemi Operativi. Lezione 5 Lo scheduling
Lezione 5 Lo scheduling Introduzione In ogni processo i burst di CPU si alternano con i tempi di I/O 2 Introduzione Processi CPU-bound Alternano lunghe computazioni ad attività di I/O relativamente poco
Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing
Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing Rapporto attività di studio marzo/12 - dicembre/12 Andrea Petricca Due anni fa.. La rete
Algoritmi di trigger ad alto livello per l'identificazione di jet con b con il rivelatore CMS a LHC
Algoritmi di trigger ad alto livello per l'identificazione di jet con b con il rivelatore CMS a LHC Riccardo Ranieri Collaborazione CMS INFN and Università di Firenze LXXXVIII Congresso Nazionale Società
Isaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di
Isaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di un intero ambiente NoSQL. 1 Sfrutta al massimo la potenza
Facoltà di DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI" Anno Accademico 2017/18 Registro lezioni del docente PERRONE LORENZO
Attività didattica Facoltà di DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI" Anno Accademico 2017/18 Registro lezioni del docente PERRONE LORENZO LABORATORIO DI ANALISI DATI [A004117], LABORATORIO
INFORMAZIONI PERSONALI
INFORMAZIONI PERSONALI Nome DONVITO GIACINTO Indirizzo VIA F. PETRERA, 39 GIOIA DEL COLLE 70023 (BARI) Telefono 3935403592 Fax E-mail giacinto.donvito@ba.infn.it Nazionalità Italiana Data di nascita 22/09/1978
Cloud Infrastructure - studio di fattibilità
Cloud Infrastructure - studio di fattibilità Business Intelligence Group: Lorenzo Baldacci Matteo Gofarelli Matteo Francia Simone Graziani Enrico Gallinucci Stefano Rizzi Obiettivi dello studio di fattibilità
Modello di Progetto di massima Centro Tier 2
Referees del calcolo LHC e Commissione Calcolo e Reti INFN Modello di Progetto di massima Centro Tier 2 (v. 1.6 del 29 luglio 2005) Questo modello e' stato preparato per fornire ai gruppi promotori dei
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Moreno Marzolla INFN Padova BaBar Collaboration & Dip. Informatica, Università di Venezia Workshop su Management
CLASSIFICAZIONE DEI SISTEMI OPERATIVI (in ordine cronologico)
CLASSIFICAZIONE DEI SISTEMI OPERATIVI (in ordine cronologico) - Dedicati Quelli dei primi sistemi operativi. La macchina viene utilizzata da un utente per volta che può eseguire un solo programma per volta.
Attività di analisi e calcolo dei gruppi italiani
Attività di analisi e calcolo dei gruppi italiani Attività Gruppo di Coordinamento Analisi Survey attivita italiane PAG/POG/DPG Riunioni mensili tematiche Coordinamento attivita italiane Similfellow Calcolo
La tracciatura nel trigger di alto livello di CMS Valentina Gori
La tracciatura nel trigger di alto livello di CMS Valentina Gori Dipartimento di Fisica e sezione INFN di Firenze, per la collaborazione CMS. 1 Il tracciatore di CMS Rivelatore a pixel: 66M canali di lettura
Calcolo LHC: Tier-1 e Tier-2
Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:
14. Verifica e Validazione
14. Verifica e Validazione Come assicurarsi che il software corrisponda alle necessità dell utente? Introdurremo i concetti di verifica e validazione Descriveremo le fasi del processo di testing Parleremo
Università degli Studi di Torino Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Triennale in Fisica
Università degli Studi di Torino Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Triennale in Fisica STUDIO E OTTIMIZZAZIONE DELLE PRESTAZIONI DELLE CAMERE A DERIVA DELL ESPERIMENTO