A. De Salvo 5 settembre ATLAS: il calcolo. Alessandro De Salvo

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "A. De Salvo 5 settembre ATLAS: il calcolo. Alessandro De Salvo"

Transcript

1 A. De Salvo 5 settembre 2013 ATLAS: il calcolo Alessandro De Salvo

2 ATLAS: Utilizzo risorse Tier 2 in Italia Site reliability/availability Valori medi 2011/2013 Pledge 2013 Pledge 2012 Frascati Milano rel ava rel ava 97% 90% 89% 90% Napoli Roma rel ava rel ava 94% 95% 97% 97% 4 siti T2 Frascati Milano Napoli Roma 1 Sistema di replica dinamico dei dati PD2P, basato sulla popolarità del dati, già dal Ottimizzazione dell uso del disco dei Tier2 permettendo la copia di dati interessanti. Il calcolo è un investimento importante ma con le performance ottenute, ai massimi livelli internazionali, è di fondamentale importanza per il raggiungimento dei risultati di fisica in tempi rapidi 2

3 Review dei Tier2 La giunta ha richiesto una review dei Tier2 italiani Il 3 settembre è stata inviata la richiesta di redigere un documento di max 10 pagine per ogni sito, da completare entro il 15 novembre 2013 Storia dei Tier2 e particolarità dei centri Infrastrutture, funzionamento e performance Sostenibilità per il 2015 e oltre Risorse umane Possibili criticità dei centri Termine della review: febbraio

4 Utilizzo delle risorse per il Possibile riprocessamento dei dati e MC per studi ulteriori Produzione di ulteriore nuovo MC per l analisi Attività molto intensa di analisi utente e di gruppo 2014 Produzione di sample più grandi di MC per il run ad alta energia Reprocessing completo finale dei dati e MC del , utilizzando l evoluzione del modello dei dati preparato per la presa dati del 2015 Attività di preparazione del Run 2 (full dress reharsal) 2015 Processamento e riprocessamento dei nuovi dati ad alta energia Produzione associata di MC per I nuovi dati Incremento di attività utente e di gruppo 4

5 Preparazione al run del 2015 ATLAS ha piani ambiziosi per l upgrade delle attività di Software e Computing Software: ricostruzione, simulazione, analisi Ottimizzazione delle performance degli algoritmi, utilizzando in modo più adeguato le CPU moderne Riduzione dell utilizzo di memoria Parallelismo a livello di evento e di algoritmo Riduzione della dimensione degli eventi Computing distribuito Nuovo sistema di Data Management (Rucio) File based data management, subscriptions and rules,.. Upgrade del Production System (PanDA + JEDI + DEfT) New TRF, log file merging, Merging at T2s, dynamic job definition based on scouts, Procedure operative e workflow Ottimizzazione delle analisi di gruppo e utenti finali 5

6 Cambi nel workflow di analisi Il formato AOD sembra non essere l Analysis Object Data per la maggior parte delle analisi La produzione dei formati di dati di gruppo (D3PD/NTUP) è effettuata centralmente La situazione corrente rallenta l analisi, crea problemi nella Grid, riempiendo I dischi, e non scala al 2015 con il Run 2 E necessario cambiare il modello di analisi e il suo workflow per aumentare il thoughput Aggiornamento del workflow Aggiornamento del formato degli AOD per farlo diventare direttamente leggibile da ROOT Introduzione di un reprocessing AOD2AOD per ottimizzare l utilizzo delle risorse Introduzione di un Derivation framework per la produzione di formati di gruppo specifici, tramite skimming/slimming/thinning degli AOD secondo un modello a treno, rimpiazzando il modello corrente per la produzione di DPD Introduzione di un common analysis framework, che metta a disposizione dei tool di analisi più semplici e una integrazione migliore con la Grid 6

7 Nuovi protocolli di accesso ai dati Sperimentazione dei nuovi protocolli di accesso xrootd e HTTP supportano lo streaming su WAN Sperimentazione dei protocolli di accesso remoti e comparazione con i protocolli di storage nativi a disposizione I protocolli verranno adottati sulla base delle performance, dell affidabilità e della semplificazione che manifesteranno Valutazione successiva di un modello per la rottura del modello di località dei dati per i job Impatto sull infrastruttura (storage e network) Migrazione finale all infrastruttura di Storage Federato Attualmente basato su sulla tecnologia xrootd (FAX) L utilizzo dello storage federato comporterà un cambio di paradigma, sia a livello centrale che a livello utente Possibilità di accesso diretto ai file anche su siti che non hanno un file system Posix (es. GPFS al CNAF, ), quindi ad esempio tutti I siti DPM (LNF, NA, RM, ) Utilizzo più massiccio della rete Maggiore affidabilità di analisi e ottimizzazione dello spazio disco 7

8 Uso di risorse opportunistiche Cloud commerciali a basso costo o gratuite Utilizzo di VM allocate staticamente in una cloud è stato ampiamente dimostrato in produzione (includendo anche la farm HLT) ATLAS si concentrerà ad ottimizzare la gestione dinamica delle risorse di calcolo attraverso delle interfacce di provisioning di VM (ad esempio OpenStack) Il piano consiste nell integrare la AutoPilot Factory 2 con OpenStack/EC2 Si lavorerà sull ottimizzazione del workflow per l utilizzo di risorse opportunistiche Il nuovo event server, ossia il dispatcher di eventi per la parallelizzazione dei task, sarà molto utile in questo ambito Possibilità di utilizzo di risorse di tipo HPC, ma alcuni problemi Whole-node scheduling Assenza di disco nei nodi Nessuna connessione outbound 8

9 Partecipazione italiana alle attività di ATLAS ATLAS Italia partecipa alle attività di computing di ATLAS in diverse aree di lavoro Cloud support [all] Database [D. Barberis] Installazione del software (CVMFS e distribuzione) [A. De Salvo] Monitoring [S. Tupputi] Network infrastructure (LHCONE) [E. Capone, A. De Salvo] Scrutiny Group [G. Carlino] Storage [A. De Salvo, A. Doria, E. Vilucchi] Federazioni di xrootd e HTTPD DPM VO management [A. De Salvo] Altre attività (PRIN) Cloud Computing Hadoop (EventIndex) Network Infrastructure (LHCONE) Proof on Demand La partecipazione alle rimanenti attività è largamente limitata dalla disponibilità di persone Attività sulle GPU, inserite in un FIRB Interesse della comunità per GPU e multiprocessing/ottimizzazione del codice, ma NON c è manpower 2 FTE al CERN, pagati dall INFN in-kind e riconosciuti come M&O-A 9

10 Responsabilità italiane nel calcolo di ATLAS ATLAS database Dario Barberis [coord] Coordinamento calcolo ATLAS IT Alessandro De Salvo [coord] Grid software release / CVMFS Alessandro De Salvo [coord] SAM monitoring Salvatore Tupputi [deputy coord] Scrutiny Group Gianpaolo Carlino VO management Alessandro De Salvo [coord] 10

11 Risorse Disponibili CPU CPU disponibili 2013 pledged CPU Frascati Milano Napoli Roma Totale HP To be pledged Le CPU totali a disposizione dei Tier2 comprendono anche risorse che non pledged: CPU per uso locale (cluster proof) o in griglia ma dedicate principalmente alle attività italiane (Tier3) finanziate con fondi vari Proof on Demand, share per analisi e simulazione MC per il ruolo atlas/it le CPU obsolete (fino al 2013 e già rifinanziate) ancora in produzione ma in corso di spegnimento CPU non a completa disposizione dei siti (es. scope a NA, SuperB a LNF) Queste CPU concorrono alla definizione della linea blu dell accounting che in alcuni casi è significativamente maggiore della linea rossa Nel conto delle CPU pledged sono comprese le CPU gara CNAF 2013 ancora da installare 11

12 Risorse Disponibili 2013 Disco Storage disponibile 2013 pledged Disco Frascati Milano Napoli Roma Totale Totale disponibile to be pledged Lo storage totale disponibile nei Tier2 comprende anche l area locale in cui sono conservati i dati di tutti gli utenti italiani (LOCALGROUP), non solo gli utenti locali La dimensione di queste aree è di circa 100 TB per Tier2 In gran parte già occupata, gli utenti dovranno cancellare i dati vecchi non più necessari per fare spazio ai dati del 2013 l utilizzo di queste aree è irrinunciabile per cui il loro volume va sottratto allo storage da dichiarare pledged 12

13 Risorse obsolete 2014/2015 ATLAS: Risorse Obsolete nel 2014/2015 CPU 2014 (HS06) CPU 2015 (HS06) Disco 2014 (TBn) Disco 2015 (TBn) Frascati Milano Napoli Roma Tot Le CPU obsolete sono le macchine con più di 3 anni di vita Lo storage obsoleto comprende le SAN con più di 5 anni di vita La sostituzione del materiale obsoleto, specie per i dischi, è fondamentale per il buon funzionamento dei centri e quindi dell intero sistema di computing italiano di ATLAS 13

14 Risorse Attività ATLAS 2014 Lo Scrutiny Group ha approvato ad aprile 2013 le seguenti risorse per ATLAS 14

15 Richiesta Risorse I Le risorse necessarie per il 2014 sono determinate dalla volontà di conservare il ruolo significativo nel computing di ATLAS acquisito negli ultimi anni conservando gli share di risorse pledged per le attività centrali: Tier1: 10% Tier2: 9% CPU e 7% Disco e di garantire la competitività agli utenti italiani mediante l uso di risorse dedicate nei Tier2 e Tier3 ATLAS Share IT ATLAS IT 2014 ATLAS IT disponibile Attività 2014 CPU T1 (khs06) Disco T1 (PB) CPU T2 (khs06) Disco T2 (PB) % * % * % % * Pledge 2013

16 + Recas - Napoli Totale Richiesta Risorse II Le risorse per le attività italiane sono già disponibili e non inclusi nel disponibile pledged 2013 e non sono necessarie ulteriori richieste CPU T2 (khs06) Disco T2 (TB) Attività 2013 Attività Italiane Obs Richieste K CPU T2 (khs06) Disco T2 (TB) Attività 2013 Prezzi stimati: CPU = 12 k /khs Disco = 350 k /PB Attività Italiane Obs Richieste K Richieste effettive 16

17 Richiesta Risorse III Overhead per rete e server aggiuntivi Algoritmo Bozzi (cfr. presentazione CSN1 Bari Settembre 2011): Rete: 6% (cpu) + 5% (disco) = 12.8 k Server: 7% (cpu + disco) = 16.1 k A cosa servono: Rete: switch di rack Server: servizi di grid A cosa corrispondo questi finanziamenti: Rete: 4.3 k per Tier2, uno switch (escluso NA) Per collegare le nuove risorse e/o sostituire i primi switch ormai fuori manutenzione Server: 5.4 k per Tier2, un server per sezione (escluso NA) 17

18 Richieste Totali 2014 Risorse T2 Le richieste di Napoli, come d accordo con i referee, vengono inserite solo per tracciare le risorse, ma verranno azzerate in quanto saranno fornite da Recas 18

19 Conclusioni Il Computing di ATLAS ha dimostrato di essere robusto ed affidabile per il processamento dei dati, sia MC che analisi finale, tuttavia sono stai individuati dei punti dove è necessario migliorare Durante il LS1 il Computing Model di ATLAS subirà un sostanziale cambiamento, apportando modifiche sia al codice di ricostruzione/analisi sia ai servizi infrastrutturali L Italia contribuisce in modo sostanziale alle attività centrali di calcolo e tramite i centri nazionali (T1 e T2) Le richieste sono diminuite in conseguenza delle nuove risorse provenienti dal progetto RECAS nelle sedi di BA, NA, CS e CT E comunque fondamentale fornire supporto ai Tier2 esistenti per quel che riguarda le dismissioni I Tier2 italiani verranno sottoposti a review, il cui termine è previsto per febbraio

20 Backup slides 20

21 Risorse obsolete 2014 Risorse Obsolete nel 2014 CPU (HS06) Disco (TBn) Frascati Milano Napoli Roma Tot Tot NA Le CPU obsolete sono le macchine comprate nel 2010 e installate fine 2010 inizi 2011 (non sono comprese le macchine installate successivamente). Le CPU hanno garanzia triennale Lo storage obsoleto comprende le SAN comprate nel 2008 e installate giugno Garanzia quinquennale Le dismissioni di Napoli sono finanziate da RECAS La sostituzione del materiale obsoleto, secie per i dischi, è fondamentale per il buon funzionamento dei centri e quindi dell intero sistema di computing italiano di ATLAS 21

22 Utilizzo risorse in Italia: Federazione T2 Pledge 2012 Pledge

23 Terabytes Utilizzo del disco nei Tier 2 ATLAS Italia NTUP AOD Il sistema di replica dinamico dei dati PD2P, basato sulla popolarità del dati, già dal 2010 ha ottimizzato l uso del disco dei Tier2 permettendo la copia di dati interessanti ESD DAOD Circa +90 TB al mese Nessun rischio saturazione, si possono cancellare i dati secondari 23

24 Availability / Reliability Valori medi 2011/2013 Frascati Milano rel ava rel ava 97% 90% 89% 90% Napoli Roma rel ava rel ava 94% 95% 97% 97% Availability = time_site_is_available/total_time Reliability = time_site_is_available/ (total_time-time_site_is_sched_down) 24

25 Multiprocessing e concurrent framework Le risorse Grid in WLCG sono limitate come agreement a 2GB/core Il software di ricostruzione di ATLAS fatica a mantenere questo limite Non è ancora possibile girare la ricostruzione a 64 bit tranne che in nodi speciali dove è disponibile più memoria Tale situazione certamente peggiora con l aumento dell energia e del pileup Le nuove tecnologie vanno in direzione di CPU many-core, perciò l approccio corrente non è più sostenibile, nonché l ultilizzo di eventuali risorse HPC praticamente impossibile ATLAS prevede di rendere operativo AthenaMP durante LS1 e iniziare lo sviluppo di un nuovo framework concorrente con Full threading e parallelismo a livello di eventi e algoritmi Collaborazione con IT/OpenLab, PH-SFT, LHCb e CMS Questo nuovo approccio richiederà anche la migrazione del sistema di Computing distribuito, a partire dalle configurazioni delle code fino alle convenzioni di nomenclatura dei file Necessaria una chiara strategia per i siti, in fase di sviluppo Nonostante l approccio di AthenaMP, per job di ricostruzione ad alto pile up si avrà comunque, secondo le proiezioni correnti, una RSS/core di circa 3GB, mentre per altri tipi di job sarà minore Ogni sito che girerà la ricostruzione dovrà fornire delle code multicore 2

26 Utilizzo della farm HLT durante LS1 La farm HLT di ATLAS verrà usata come un sito Grid opportunistico durante LS1 ~14k core, corrispondenti ad un grande T2 (se non un T1) Infrastruttura overlay di tipo Cloud basata su OpenStack CERN IT (Agile), CMS (HLT Farm) e BNL già utilizzano OpenStack 26

27 ATLAS: as study case for GPU sw trigger The ATLAS trigger system has to cope with the very demanding conditions of the LHC experiments in terms of rate, latency, and event size. The increase in LHC luminosity and in the number of overlapping events poses new challenges to the trigger system, and new solutions have to be developed for the fore coming upgrades ( ) GPUs are an appealing solution to be explored for such experiments, especially for the high level trigger where the time budget is not marginal and one can profit from the highly parallel GPU architecture We intend to study the performance of some of the ATLAS high level trigger algorithms as implements on GPUs, in particular those concerning muon identification and reconstruction. Slide from G. Lamanna / A. Messina 27

28 Altre evoluzioni Completa migrazione ed utilizzo dell ATLAS Grid Information System in produzione Definitivo abbandono dei servizi di IS di Grid in favore di AGIS Abbandono anche del WMS, finora utilizzato ancora solo per le installazioni del software Installation System migrato completamente ad AGIS + Panda Sorgente primaria di informazioni per Panda e DDM Migrazione ad SL6 Inizio ufficiale delle migrazioni ad SL6 a giugno 2013 Alcune delle release necessitano di una patch per funzionare con l analisi a causa delle opzioni diverse di compilazione Possibile soluzione generica trovata di recente, in fase di test In ogni caso le release più utilizzate sono state già sistemate o comunque funzionanti nativamente Migrazione ad IPv6 Test dei servizi con IPv6 necessario SHA-2 Migrazione imminente, necessario un controllo dei servizi Finalizzazione dell integrazione di glexec in Panda 28

29 PRIN: Cloud Computing Utilizzo del Cloud Computing per servizi o elaborazione dati Servizi di grid Workload Management Servizi interattivi on-demand Virtualized WN con Panda Cluster di analisi su Cloud Data Preservation Altri tipi di servizi in alta affidabilità OpenStack + glusterfs + cloud-init In collaborazione con il gruppo cloud INFN Stessa infrastruttura di base di CERN Agile Infrastructure Possibilità di unire più siti grid in una unica infrastruttura Sperimentazione su Tier2 distribuito, tramite LHCONE Stato Facility iniziale, esportabile anche ad altri siti entro fine anno Roma 29

30 PRIN: EventIndex Studiare la possibilità di semplificare il TagDB di ATLAS trasformandolo in un indice degli eventi (EventIndex) con puntatori allo storage che contiene gli eventi in vari formati (da RAW a NTUP) EventIndex è l'equivalente del catalogo di una biblioteca Genov a Sostituzione del database in Oracle con storage strutturato (Hadoop) Divisione delle tre categorie di dati nei Tag odierni: Identificazione dell'evento e quantità immutabili (lumi block, trigger pattern) Quantità dipendenti dalla ricostruzione (topologia, particelle, ecc.) Puntatori ai files con gli eventi (GUID e offset interni) Utilizzo della tecnologia più appropriata per ogni categoria di dati Sviluppo (o adattamento) dei servizi esterni Event counting, picking, skimming, consistency checks Connessione a ProdSys e DDM per l'upload dei dati e la loro utilizzazione Stato Testbed attivo al CERN 30

31 PRIN: PoD per PBS, glite-wms, Panda Dedicare alcune risorse di calcolo ad una farm da utilizzare per l'analisi con PROOF. Sviluppare e perfezionare PoD, Proof on Demand, un insieme di tool pensati per interagire con un RMS locale o globale ed avviare i demoni di PROOF. Test per provare i plugin di PoD per PBS e PanDA (glite- WMS non più supportato da ATLAS), con i dati acceduti con protocollo XrootD e in futuro anche HTTP: Test di performance di accesso al disco Job che legge circa 40% dell evento Test di latenza di startup Stato Infrastruttura funzionante tramite PanDA Test di performance e scalabilità in corso Talk a CHEP 2013 LNF Milano Napoli 31

32 PRIN: LHCONE Sviluppo di una nuova generazione di reti geografiche di comunicazione dati (overlay L2 network) denominata LHCONE (LHC Open Network Environment) Configurazione dinamica degli apparati attivi (router o switch multilayer) che costituiscono la rete stessa Realizzazione di servizi di Bandwidth on Demand (BOD) Integrazione con il software di esperimento Napoli Stato Infrastruttura stabile già in produzione al T1 e nei T2 Ottimizzazione e studi su configurazioni dinamiche in corso Sperimentazione su T2 distribuito in fase di allestimento Inter-site VLAN (NA-RM) Failover di servizi core in WAN, con collegamento a 10 Gbps (GARR-X) a bassa latenza 32

33 GPU: GAP Realtime (FIRB) Realization of an innovative system for complex calculations and pattern recognition in real time by using commercial graphics processors (GPU). Application in High Energy Physics experiments to select rare events and in medical imaging for CT, PET and NMR. FIRB partito ad inizio del 2013 Per ciò che riguarda la comunità HEP, verrà studiato l utilizzo di trigger hardware di basso livello con latenza ridotta e trigger software di alto livello Si studieranno I casi di NA62 L0 e l High Level Muon Trigger di ATLAS come casi fisici Roma coinvolta nello studio del trigger di ATLAS 33

34 Trigger rate 2015 Luminosity expected to increase from to corresponding to about a factor 3 in rates Pile up will increase affecting the effective trigger rates Moving to s=14 TeV cross sections will increase on average by a factor 2.5 Rates would increase by about one order of magnitude. To keep the increase within a factor ~2 (50kHz 100kHz L1 and 450Hz 1kHz EF) selections have to be improved/tightened minimizing the impact on physics. PS: The physics (Higgs, top...) remains the same. Slide from C. Gatti / D. Orestano 34

35 Trigger menu 2012 vs 2015 Current menu scaled to Slide from C. Gatti / D. Orestano 35

36 Trigger menu 2012 vs 2015 Menu at and 14 TeV Increase single e/gamma threshold Increase single and di muon thresholds Increase single and di tau thresholds Increase Jet and MET thresholds Slide from C. Gatti / D. Orestano 36

37 Risorse CPU Attività ATLAS Richieste di ATLAS per il , aggiornate al 28/08/2013, non ancora referate I valori in [] sono relativi alle richieste presentate in precedenza 37

38 Risorse Disco Attività ATLAS Richieste di disco ATLAS per il , aggiornate al 28/08/2013, non ancora referate 38

39 Totale PRELIMINARE ATLAS: Richiesta Risorse 2015 [preliminare] Le risorse per le attività italiane 2014/2015 sono già disponibili e non inclusi nel disponibile pledged e non sono necessarie ulteriori richieste ATLAS Share IT ATLAS IT 2015 ATLAS IT disponibile Attività 2015 CPU T1 (khs06) Disco T1 (PB) CPU T2 (khs06) Disco T2 (PB) % * % * % % Attività Italiane 2015 Obs 2015 Richieste 2015 k 2015 CPU T2 [khs06] Disco T2 [TB] Valori preliminari non referati, aggiornati al 28/08/2013. I valori finali saranno disponibili a ottobre (+ networking e server) Prezzi stimati: CPU = 12 k /khs Disco = 350 k /PB 39

40 Missioni Responsabilita' Calcolo nome dettaglio responsabiilita' Livello mu TOT MU CNAF Tupputi SAM monitoring deputy coord L3 1 GE Barberis ATLAS database coordinator L2 4 NA Carlino Scrutiny Group L2 2 RM1 De Salvo GRID softw release coord L2 1 De Salvo V0 manager L2 2 De Salvo Coord nazionale L

Tier-2 Legnaro-Padova. Massimo Biasotto

Tier-2 Legnaro-Padova. Massimo Biasotto Tier-2 Legnaro- Massimo Biasotto 1 1 Tier-2 Legnaro Prototipo sito Grid e farm CMS dal 2001 Tier-2 ufficiale CMS dal 2007 Tier-2 ufficiale ALICE dal 2011 Nato fin dall'inizio come collaborazione LNL-PD,

Dettagli

Il nuovo cluster INFN per la fisica teorica

Il nuovo cluster INFN per la fisica teorica Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1 Necessità di calcolo del Gr.

Dettagli

Calcolo LHC: Tier-1 e Tier-2

Calcolo LHC: Tier-1 e Tier-2 Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:

Dettagli

L esperienza di calcolo nell esperimento ATLAS

L esperienza di calcolo nell esperimento ATLAS Il primo anno di presa dati di LHC L esperienza di calcolo nell esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF) Workshop CCR - Stato e Prospettive del Calcolo

Dettagli

Tier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1

Tier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1 Tier1, Tier2 e Tier3 CMS Italia Modello di Calcolo per CMS Italia Modello di Calcolo per CMS Italia Il Modello di CMS e basato su una Gerarchia di Funzioni e Risorse (Tier-n). Tale Gerarchia e integrata

Dettagli

Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017

Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017 Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,

Dettagli

Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone

Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone Relatore: Prof. Luciano M. Barone Candidato: Giovanni Carta 1 Il Large Hadron Collider collisore pp, anello lungo

Dettagli

La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014

La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014 La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS Guido Russo WS GARR, Napoli 19 Giugno 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre

Dettagli

Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali

Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione

Dettagli

Test e risultati sull uso di un file system GPFS condiviso su rete WAN

Test e risultati sull uso di un file system GPFS condiviso su rete WAN Test e risultati sull uso di un file system GPFS condiviso su rete WAN Antonio Budano (INFN Sezione di Roma 3) In collaborazione con: Vladimir Sapunenko (INFN - CNAF) Elisabetta Vilucchi (INFN LNF) Sommario

Dettagli

Servizio Calcolo. Alessandro Brunengo

Servizio Calcolo. Alessandro Brunengo Servizio Calcolo Alessandro Brunengo Personale (2017) Alessandro Brunengo (tecnologo, responsabile) 10% Mailing, 90% Calcolo Mirko Corosu (tecnologo) 30% Atlas, 70% Calcolo Francesco Saffioti (CTER) Enrico

Dettagli

Corporate Cloud: stato e sviluppi. Giacinto Donvito INFN Sez. di Bari On behalf of the INFN-CC Group

Corporate Cloud: stato e sviluppi. Giacinto Donvito INFN Sez. di Bari On behalf of the INFN-CC Group Corporate Cloud: stato e sviluppi Giacinto Donvito INFN Sez. di Bari On behalf of the INFN-CC Group Agenda Stato dei siti Stato delle attività Roadmap (??) Problemi previsti Considerazioni e Conclusioni

Dettagli

Data driven HLT rate estimation for Mu+Jet+BTag HLT trigger paths

Data driven HLT rate estimation for Mu+Jet+BTag HLT trigger paths Data driven HLT rate estimation for Mu+Jet+BTag HLT trigger paths Stefano Lacaprara, Ugo Gasparini, Massimo Nespolo, Antonio Branca, Andrea Gozzelino, Tommaso Dorigo, Alberto Zucchetta, Mia Tosi INFN &

Dettagli

Il calcolo LHC in Italia: commenti. Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli

Il calcolo LHC in Italia: commenti. Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli Outline Contesto del calcolo LHC in Italia Computing models TDR,

Dettagli

Centri Regionali per il calcolo di ATLAS in Italia

Centri Regionali per il calcolo di ATLAS in Italia 1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale 2 Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte

Dettagli

Stato ed evoluzione dell'infrastruttura di calcolo INFN. Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018

Stato ed evoluzione dell'infrastruttura di calcolo INFN. Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018 Stato ed evoluzione dell'infrastruttura di calcolo INFN Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018 Premessa (1) Evoluzione delle necessità di calcolo dominata

Dettagli

Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012

Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012 Sperimentazione del file-system distribuito HDFS in ambiente GRID Tutor: Domenico Diacono Outline Use cases Hadoop Distributed File System Test di funzionalità Sviluppo di politiche di replica dei dati

Dettagli

ATLAS-Italia-Computing 9 June EventIndex. Dario Barberis. Genoa University/INFN. Dario Barberis: ATLAS EventIndex

ATLAS-Italia-Computing 9 June EventIndex. Dario Barberis. Genoa University/INFN. Dario Barberis: ATLAS EventIndex EventIndex Dario Barberis Genoa University/INFN 1 Scopo del Progetto Creare un catalogo completo di tutti i dati di ATLAS Reali e simulati In tutti gli stadi di produzione e formati di files Tecnologia

Dettagli

INFN-BOLOGNA-T3. L. Rinaldi

INFN-BOLOGNA-T3. L. Rinaldi INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light

Dettagli

Normalizzazione puntuale dei dati di accounting

Normalizzazione puntuale dei dati di accounting Normalizzazione puntuale dei dati di accounting Proposta per uno strumento automatizzato Felice Rosso, CNAF Guido Guizzunti, CNAF Andrea Guarise, INFN Torino Sommario Sistema corrente Limiti, problemi

Dettagli

Architettura e caratteristiche dello storage in INFN-CC. Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC

Architettura e caratteristiche dello storage in INFN-CC. Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC Architettura e caratteristiche dello storage in INFN-CC Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC Storage affidabile ed a basso costo in INFN-CC Workshop CCR La Biodola

Dettagli

RISORSE E MODELLI DI CALCOLO

RISORSE E MODELLI DI CALCOLO RISORSE E MODELLI DI CALCOLO Roberto Alfieri - CSN4 del 13.04.2007 13/04/2007 Risorse e modelli di calcolo- CSN4 page 1 Sommario ATTIVITA' DELLA CCR Bilancio della CCR Contratti Centralizzati (NAG e Mathematica)

Dettagli

ARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari

ARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari ARGO-YBJ: il modello di calcolo CSNII 29 Novembre 2012 Stefano Mari L esperimento Argo-YBJ } L apparato dell esperimento Argo YBJ è situato in Tibet (YangBajing), a 4300 s.l.m. } Apparato di sciami con

Dettagli

Esperienze di gestione di OpenNebula, Openstack, VMWare

Esperienze di gestione di OpenNebula, Openstack, VMWare Workshop GARR Terabit Generation. Una comunità ad alte prestazioni Roma CNR 18-21 aprile 2016 Esperienze di gestione di Cloud @ENEA OpenNebula, Openstack, VMWare Tavolo tecnico Cloud e Storage Giovanni

Dettagli

Flash talk: Wide Area Swift

Flash talk: Wide Area Swift Flash talk: Wide Area Swift Matteo Panella - matteopanella@lngsinfnit INFN - Laboratori Nazionali del Gran Sasso Miniworkshop CCR 2013 Sommario 1 Introduzione 2 Stato dell arte: Swift 3 Stato dell arte:

Dettagli

La farm di LNL-Padova: stato e piani per il futuro

La farm di LNL-Padova: stato e piani per il futuro La farm di LNL-Padova: stato e piani per il futuro Stefano Lacaprara INFN Padova meeting T3-INFN per CMS Milano Bicocca, 23-Apr-2010 Stefano Lacaprara (INFN Padova) LNL-PD T2-3 T3 23-Apr-2010 1 / 13 Situazione

Dettagli

CSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari

CSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari CSN4! GGI marzo 2008 Calcolo teorico E. Onofri, R. Tripiccione, E. Vicari Piano della presentazione Piano della presentazione La manovra di ottobre 2007 Piano della presentazione La manovra di ottobre

Dettagli

LHC-f Referee. Risultati 2009 Strategia run / Resistenza radiazione Proposte finanziarie 2010 Milestone 2009/2010

LHC-f Referee. Risultati 2009 Strategia run / Resistenza radiazione Proposte finanziarie 2010 Milestone 2009/2010 LHC-f Referee Risultati 2009 Strategia run / Resistenza radiazione Proposte finanziarie 2010 Milestone 2009/2010 M.Biasini, P. Checchia Riunione CSN1 Attività 2009 LHCf M. Biasini - LHCf Referee - INFN

Dettagli

Tier-1. Luca dell Agnello 25 Maggio 2016

Tier-1. Luca dell Agnello 25 Maggio 2016 Tier-1 Luca dell Agnello 25 Maggio 2016 Tier-1 users It is the main INFN computing centre providing computing and storage services to ~30 scientific collaborations Tier-1 for LHC experiments (ATLAS, CMS,

Dettagli

LHCONE: LA RETE DEI TIER2 IL PUNTO DI VISTA DEL GARR

LHCONE: LA RETE DEI TIER2 IL PUNTO DI VISTA DEL GARR 1 : LA RETE DEI TIER2 IL PUNTO DI VISTA DEL GARR 16-20 maggio 2011 Massimo Carboni Workshop congiunto :: INFN CCR e GRID Hotel Hermitage -- La Biodola - Isola d Elba Le mo&vazioni 2 Cambiamento del Data

Dettagli

Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack

Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack Tutor: Dott. Domenico Elia Tutor: Dott. Giacinto Donvito Indice Descrizione del progetto Confronto con l attività

Dettagli

tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013

tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013 tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core

Dettagli

Report sull attività di monitoraggio del Testbed di INFN Grid

Report sull attività di monitoraggio del Testbed di INFN Grid Catania, 21 Ottobre 2001 Report sull attività di monitoraggio del Testbed di INFN Grid Roberto Barbera (roberto.barbera@ct.infn.it) 1. Attività passata e presente Un ingrediente importante del successo

Dettagli

Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013

Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013 Servizio di Calcolo e Reti F. Semeria 10 Luglio 2013 Personale Antonio Bassi (tempo parziale: 1/3) Daniela Bortolotti Franco Brasolin (CERN, ATLAS Tdaq SysAdmins ) Patrizia Calligola Francesca Del Corso

Dettagli

INFORMAZIONI PERSONALI

INFORMAZIONI PERSONALI INFORMAZIONI PERSONALI Nome DONVITO GIACINTO Indirizzo VIA F. PETRERA, 39 GIOIA DEL COLLE 70023 (BARI) Telefono 3935403592 Fax E-mail giacinto.donvito@ba.infn.it Nazionalità Italiana Data di nascita 22/09/1978

Dettagli

( WNoDeS in OpenStack ) Davide Salomoni INFN CNAF 28/5/2013

( WNoDeS in OpenStack ) Davide Salomoni INFN CNAF 28/5/2013 ( WNoDeS in OpenStack ) INFN CNAF 28/5/2013 Wack: definitions Wack - WS CCR, 27-31/5/2013 2 Le componenti OpenStack Cloud computing IaaS framework WNoDeS Framework per l integrazione di workload di tipo

Dettagli

Piattaforme software distribuite I

Piattaforme software distribuite I Piattaforme software distribuite I Introduzione a Java 2 Platform Enterprise Edition (J2EE) Davide Lamanna lamanna@dis.uniroma1.it Programma Architetture per le applicazioni web Carrellata di ripasso Valutazione

Dettagli

Modello di Progetto di massima Centro Tier 2

Modello di Progetto di massima Centro Tier 2 Referees del calcolo LHC e Commissione Calcolo e Reti INFN Modello di Progetto di massima Centro Tier 2 (v. 1.6 del 29 luglio 2005) Questo modello e' stato preparato per fornire ai gruppi promotori dei

Dettagli

Il calcolo distribuito in ATLAS

Il calcolo distribuito in ATLAS Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti

Dettagli

Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing

Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing Rapporto attività di studio marzo/12 - dicembre/12 Andrea Petricca Due anni fa.. La rete

Dettagli

CURRICULUM VITÆ E DELLA ATTIVITA

CURRICULUM VITÆ E DELLA ATTIVITA CURRICULUM VITÆ E DELLA ATTIVITA Nome: Alessandro Brunengo Luogo e data di nascita: Imperia, 13/07/1965 Residenza: Via dei Botto 7/5 16043 Chiavari (GE) Telefono: 0185-324594 Stato Civile: coniugato, due

Dettagli

Introduzione alla riunione

Introduzione alla riunione Introduzione alla riunione INFN Bologna Oggi è una riunione speciale Incontro con il nuovo Direttore Generale Ricordo di Giulietta e assegnazione del Premio Nazionale Giulia Vita Finzi Approfitto dell

Dettagli

GRID Data Center INFN Pisa

GRID Data Center INFN Pisa GRID Data Center INFN Pisa Alberto CIAMPA Responsabile Calcolo Scientifico e progetto GRID INFN Pisa GRID Data Center INFN Pisa L INFN ha strutture di calcolo autonome e proprietarie Nella sezione di Pisa

Dettagli

Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management

Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Moreno Marzolla INFN Padova BaBar Collaboration & Dip. Informatica, Università di Venezia Workshop su Management

Dettagli

Ufficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE

Ufficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE N. MI-123-U-A-4-3-2018-174 Roma, 18 aprile 2018 SDAPA 1761287 Infrastruttura Tecnologica per la piattaforma SIDAF QUESITI E RELATIVE RISPOSTE 1) Capitolato Tecnico - Pag. 7 Viene richiesta la migrazione

Dettagli

Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS

Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS INFN-Napoli 16/05/2012 1 Il progetto bandiera SuperB Proposto dall Istituto Nazionale di Fisica Nucleare (INFN), il progetto SuperB ha

Dettagli

Futuro TierA INFN ed estensione MOU

Futuro TierA INFN ed estensione MOU Futuro TierA INFN ed estensione MOU M. Morandin INFN Padova 1 Il finanziamento del calcolo in BaBar L'idea di distribuire le risorse di calcolo di BaBar in grossi centri di calcolo in Europa nacque subito

Dettagli

Veronafiere! ottobre 2014! Gli atti dei convegni e più di contenuti su

Veronafiere! ottobre 2014! Gli atti dei convegni e più di contenuti su Veronafiere! 28-29 ottobre 2014! Gli atti dei convegni e più di 4.000 contenuti su www.verticale.net Interfaccia uomo-macchina, l evoluzione web based Mauro Galano Presidente Gruppo HMI IPC SCADA di ANIE

Dettagli

RMLab: Gestione Agile di un data center distribuito

RMLab: Gestione Agile di un data center distribuito DOI: 10.26314/GARR-Conf16-proceedings-15 RMLab: Gestione Agile di un data center distribuito Antonio Budano 1, Federico Zani 2 1 INFN Sezione di Roma Tre, 2 INFN Sezione di Tor Vergata Abstract. Il progetto

Dettagli

Digital Transformation e Cloud. Stefano Inelli 22 Novembre 2017

Digital Transformation e Cloud. Stefano Inelli 22 Novembre 2017 Digital Transformation e Cloud Stefano Inelli 22 Novembre 2017 1 1 2 3 4 Digital Transformation Implementazione servizi IT Contributo del Cloud Quali competenze 2 Digital Transformation Le «tecnologie

Dettagli

Trend e requisi+ emergen+: la visione dell'infn

Trend e requisi+ emergen+: la visione dell'infn Trend e requisi+ emergen+: la visione dell'infn e Stefano Zani INFN Outline La presentazione raccoglie informazioni rela+ve ad alcuni use case par+colarmente significa+vi per le operazioni dell INFN Cerchiamo

Dettagli

LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA

LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA Macchine virtuali Virtualizzazione: Perché Virtualizzazione: Cos è Forme di virtualizzazione Il Polo scientifico-didattico di Cesena Esigenze Scelte Architettura

Dettagli

CSN4! UP 22/23 settembre Calcolo teorico. E. Onofri, E. Vicari

CSN4! UP 22/23 settembre Calcolo teorico. E. Onofri, E. Vicari CSN4! UP 22/23 settembre 2009 Calcolo teorico E. Onofri, E. Vicari 1 Inventariabile Totale CSN4 share manovra ott.2007 4000K 3050K 3100K 3000K 3550K 3650K 3900K 3800K 3400K 3120K 3000K 2000K 1000K 440K

Dettagli

Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003

Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti

Dettagli

Grid Tutorial Day Palermo, 13 Aprile 2011

Grid Tutorial Day Palermo, 13 Aprile 2011 Grid Tutorial Day Palermo, 13 Aprile 2011 01 - Introduzione Pier Paolo Corso Sommario Introduzione generale Introduzione al Grid Computing Introduzione alla Grid COMETA Anteprima delle lezioni successive

Dettagli

ID Ambito Metrica Peso C S N G Computing Storage Networking Cross Caratteristiche dei sistemi di computing 20 Caratteristiche dei sistemi Storage 25 Caratteristiche degli apparati di Networking 6 Caratteristiche

Dettagli

Allegato Tecnico Housing

Allegato Tecnico Housing Allegato Tecnico Housing Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 HOUSING 1.3 Procedura di accettazione 1.4 Attivazione del servizio Gestione Installazione Gestione Network

Dettagli

Stato Calcolo BaBar in Italia e contributo INFN Fondi Comuni

Stato Calcolo BaBar in Italia e contributo INFN Fondi Comuni Stato Calcolo BaBar in Italia e contributo INFN Fondi Comuni CSN1 19 settembre 2005 Napoli 1 Sommario Attivita' calcolo BaBar in Italia centro di Padova BaBar@CNAF farm per produzione M.C. Fondo comune

Dettagli

CORSO Installation, Storage, and Compute with Windows Server 2016

CORSO Installation, Storage, and Compute with Windows Server 2016 2 CORSO 20740 Installation, Storage, and Compute with Windows Server 2016 Questo corso è pensato per gli IT professionals che hanno già qualche tipo di esperienza con Windows Server. Il corso intende aiutare

Dettagli

Una visione del Cloud per l Università e la Pubblica Amministrazione. Leonardo Valcamonici /CASPUR

Una visione del Cloud per l Università e la Pubblica Amministrazione. Leonardo Valcamonici /CASPUR Una visione del Cloud per l Università e la Pubblica Amministrazione Leonardo Valcamonici /CASPUR Cosa è il CASPUR Consorzio interuniversitario (sedi a Roma e Bari) Costituito il 5 giugno del 1992 Senza

Dettagli

Stato e prospettive del calcolo dell INFN

Stato e prospettive del calcolo dell INFN Stato e prospettive del calcolo dell INFN Commissione Calcolo e Reti dell INFN Grazie! 2 Courtesy of Mauro Nanni Calcolo scientifico nell INFN Gestione delle risorse funzionali al calcolo scientifico gestione

Dettagli

PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005

PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005 PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005 VOCI DI SPESA DESCRIZIONE DELLA SPESA Parziali IMPORTI In KEuro Totale Compet. n. 2 missioni settimanali per Workshop n. 10 missioni di un giorno per gruppi di

Dettagli

Should Oracle Standard Edition be back on the menu?

Should Oracle Standard Edition be back on the menu? Should Oracle Standard Edition be back on the menu? Webinar Giovedì 19 novembre Ore 10.30 11.00 Relatore: MARCO DANIELE PELLIZZARI DBA MIRIADE Play the change Crediamo nella tecnologia come strumento per

Dettagli

Referaggio SST. Carbone, Gianoli, Mezzadri

Referaggio SST. Carbone, Gianoli, Mezzadri Referaggio SST Carbone, Gianoli, Mezzadri Linee guida Nulla di nuovo sulle linee guida che abbiamo seguito richieste di finanziamento che riguardano lavori (muratura, elettrici, condizionamento, ) dovrebbero

Dettagli

Setup di una cloud privata a Torino Un prototipo in produzione. S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso

Setup di una cloud privata a Torino Un prototipo in produzione. S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso Setup di una cloud privata a Torino Un prototipo in produzione S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso 1 Motivazione! Negli ultimi anni la quantita di risorse hardware eterogenee di fascia consumer

Dettagli

Progetti referati. C3S INDIGO_DC_CCR Referee: Brunengo, Fasanelli, Prelz, Tirel

Progetti referati. C3S INDIGO_DC_CCR Referee: Brunengo, Fasanelli, Prelz, Tirel Progetti CCR Referaggio progetti della Commissione Calcolo e Reti Referees: Tommaso Boccali, Alessandro Brunengo, Enrico M. V. Fasanelli, Francesco Prelz e Alessandro Tirel Riunione di bilancio della CCR

Dettagli

BaBar: stato ed utilizzo delle farms

BaBar: stato ed utilizzo delle farms BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del gruppo di Computing BaBar Italia BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 Sommario Il gruppo

Dettagli

HPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale

HPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale HPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale ARGOMENTI Struttura hw e sw della piattaforma HPC Cloud STRUTTURA HW 1 headnode 6 nodi di calcolo 1 nodo gpu storage di

Dettagli

Le reti rete La telematica telematica tele matica Aspetti evolutivi delle reti Modello con mainframe terminali Definizione di rete di computer rete

Le reti rete La telematica telematica tele matica Aspetti evolutivi delle reti Modello con mainframe terminali Definizione di rete di computer rete Reti e comunicazione Le reti Con il termine rete si fa riferimento, in generale ai servizi che si ottengono dall integrazione tra tecnologie delle telecomunicazioni e le tecnologie dell informatica. La

Dettagli

Progetto SCOReS. Davide Michelino

Progetto SCOReS. Davide Michelino Progetto SCOReS Studio di sistemi di Caching per l utilizzo Ottimizzato di Risorse opportunistiche e siti senza pledged storage per applicazioni di e-science Introduzione generale del progetto Studiare,

Dettagli

CHIARIMENTI IN SEDE DI OFFERTA

CHIARIMENTI IN SEDE DI OFFERTA 18 settembre 2012 CHIARIMENTI IN SEDE DI OFFERTA INFRASTRUTTURA STORAGE (HARDWARE E SOFTWARE) IN ALTA AFFIDABILITÀ E CON DISASTER RECOVERY Lotto CIG 4493628322 Con la presente si forniscono le risposte

Dettagli

Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud

Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Michele Di Benedetto, Alessandro Cavalli, Luca dell Agnello, Matteo Favaro, Daniele Gregori, Michele Pezzi, Andrea Prosperini,

Dettagli

Isaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di

Isaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di Isaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di un intero ambiente NoSQL. 1 Sfrutta al massimo la potenza

Dettagli

CSN1 Perugia Preven/vi

CSN1 Perugia Preven/vi CSN1 Perugia Preven/vi Resoconto 2009 CSN1 Richieste Perugia M. Biasini CDS Luglio 2010 Produ@vità Scien/fica 2009 CSN1 Numero di Ricercatori (FTE) 2007 2008 2009 770 804 804 813 791 Pubblicazioni

Dettagli

Comune di Cesena. MAN e Videosorveglianza Progetto lotto 1 Anello

Comune di Cesena. MAN e Videosorveglianza Progetto lotto 1 Anello Comune di Cesena MAN e Videosorveglianza Progetto lotto 1 Anello Progetto Anello Il progetto comprende i seguenti ambiti di intervento: Predisposizioni «Smart city» Telecamere e apparati di rete attivi

Dettagli

6MOTIVI PER SOSTITUIRE IL NAS STORAGE LEGACY PASSA ALLO SCALE-OUT STORAGE MODERNO

6MOTIVI PER SOSTITUIRE IL NAS STORAGE LEGACY PASSA ALLO SCALE-OUT STORAGE MODERNO 6MOTIVI PER SOSTITUIRE IL NAS STORAGE LEGACY PASSA ALLO SCALE-OUT STORAGE MODERNO SEMPLICITÀ I sistemi di scale-up storage legacy impongono lunghi tempi di gestione e sono difficili da ampliare. Questo

Dettagli

Sommario CSN1, Roma 19-23/09/2016

Sommario CSN1, Roma 19-23/09/2016 Sommario CSN1, Roma 19-23/09/2016 Consiglio di Sezione, Milano 12/10/2016 Attilio Andreazza Bilancio generale Missioni Consumi Inventariabile Apparati Totale Preventivi 2015 12960 9038 2814 (*) 4605 (*)

Dettagli

Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015

Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015 Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015 Testbed di correlazione @ IRA Flusso e dimensione dei dati Antenna Istituti/Centri /Cloud Personale / PC Acquis. Acquis. Acquis.

Dettagli

Virtualizzazione Infrastrutture ICT. A chi è rivolto. Vantaggi per il Cliente. Perchè Luganet. Partner Commerciale

Virtualizzazione Infrastrutture ICT. A chi è rivolto. Vantaggi per il Cliente. Perchè Luganet. Partner Commerciale Virtualizzazione Infrastrutture ICT - Consulenza specialistica sulla virtualizzazione di infrastrutture - Virtualizzazione dei server e/o dello storage - Implementazione e configurazione infrastrutture

Dettagli

A1 Titolo dell attività di ricerca. ReCaS: (già PONa3_00052, Avv. 254/Ric.)

A1 Titolo dell attività di ricerca. ReCaS: (già PONa3_00052, Avv. 254/Ric.) A1 Titolo dell attività di ricerca ReCaS: (già PONa3_00052, Avv. 254/Ric.) A2 Responsabile (aggiungere eventuale referente del Dipartimento se il Responsabile non è un afferente ad esso) Responsabile Prof.

Dettagli

RTCP SYSTEM ACTIVE PRESSURE MANAGEMENT FOR A SMART WATER NETWORK

RTCP SYSTEM ACTIVE PRESSURE MANAGEMENT FOR A SMART WATER NETWORK ACTIVE PRESSURE MANAGEMENT FOR A SMART WATER NETWORK ACTIVE PRESSURE MANAGEMENT FOR A SMART WATER NETWORK CONTROLLO IN TEMPO REALE DI PRESSIONI, PORTATE, PERDITE E TRANSIENTI DI PRESSIONE RIDUZIONE PERDITE

Dettagli

OpenStack Self Data Center: il cloud computing secondo TIM

OpenStack Self Data Center: il cloud computing secondo TIM OpenStack Self Data Center: il cloud computing secondo TIM Michelangelo Uberti Marketing Analyst/Par-Tec S.p.A. #redhatosd PAR-TEC IN A NUTSHELL Par-Tec è un software & infrastructure system integrator

Dettagli

LHCb: transizione RPC MWPC

LHCb: transizione RPC MWPC LHCb: transizione RPC MWPC INFN Firenze Stato dei test di aging delle RPC 1. Due prototipi studiati dal 1999 2. RPC A irraggiata durante il 2001 Q int 0.4 C/cm 2 RPC B utilizzata come riferimento, non

Dettagli

Gli esperimenti LHC verso HiLumi. Nadia Pastrone

Gli esperimenti LHC verso HiLumi. Nadia Pastrone Gli esperimenti LHC verso HiLumi Nadia Pastrone Bologna 13 Ottobre 2018 LHC: indispensabile! Since then: huge progress Modello Standard funziona ma domande fondamentali ancora oggi senza risposta Piano

Dettagli

Virtual Desktop Infrastructure

Virtual Desktop Infrastructure La ISA nasce nel 1994 Si pone sul mercato come network indipendente di servizi di consulenza ICT alle organizzazioni nell'ottica di migliorare la qualità e il valore dei servizi IT attraverso l'impiego

Dettagli

BaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1

BaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano 20-9-2004 CSN1-Assisi L.Perini 1 Note generali e MoU I referees si congratulano con BaBar per l impegno e i risultati ottenuti nel computing Ancora

Dettagli

IT SERVICES & CLOUD VIRTUAL SERVER

IT SERVICES & CLOUD VIRTUAL SERVER IT SERVICES & CLOUD VIRTUAL SERVER SERVICE DESCRIPTION VIRTUAL SERVER COS È VIRTUAL SERVER è la soluzione ideale per le aziende che desiderano disporre di un server interamente in CLOUD. Attraverso rapidi

Dettagli

REFRESH HARDWARE SAP HANA ON IBM POWER SYSTEMS YOCTOIT CASE STUDY

REFRESH HARDWARE SAP HANA ON IBM POWER SYSTEMS YOCTOIT CASE STUDY REFRESH HARDWARE HANA ON IBM POWER SYSTEMS YOCTOIT CASE STUDY Chi è IL CLIENTE Problema DA RISOLVERE Azienda Leader in Italia nel settore della produzione e commercializzazione dei gas tecnici, industriali,

Dettagli

Fondi Comuni LHC e attivita RRB-SG. M. Morandin CSN1 10 ottobre 2005

Fondi Comuni LHC e attivita RRB-SG. M. Morandin CSN1 10 ottobre 2005 Fondi Comuni LHC e attivita RRB-SG M. Morandin CSN1 10 ottobre 2005 Attivita SG Due riunioni a giugno e settembre incontri durante l estate per esame piu dettagliato delle richieste degli esprimenti alcuni

Dettagli

Organizzazione LAN dei Tier2 di CMS Italia

Organizzazione LAN dei Tier2 di CMS Italia Organizzazione LAN dei Tier2 di CMS Italia Premesse... Non sono un fisico di CMS ma solo un tecnologo di servizio calcolo Raccolte le informazioni dai singoli T2 cercando di coinvolgere le tre entità coinvolte:

Dettagli

Software. Computing. Fisica

Software. Computing. Fisica Software Computing Fisica Attivita software: Algoritmi di ricostruzione (L2) e studi di High Level Trigger (HLT) nel gruppo PRS/mu (co-scrittura codice ricostr., calcolo di tavole di trigger rate ed efficienze,

Dettagli

enimonitor proactive IT monitoring

enimonitor proactive IT monitoring enimonitor proactive IT monitoring enimonitor EniMonitor è il modulo che consente il monitoraggio proattivo delle reti informatiche. EniMonitor è il progetto Open Source Nagios, corredato da numerosi add-on

Dettagli

ELASTIC CLOUD STORAGE (ECS) APPLIANCE

ELASTIC CLOUD STORAGE (ECS) APPLIANCE Specifiche tecniche ELASTIC CLOUD STORAGE (ECS) APPLIANCE Dell EMC Elastic Cloud Storage (ECS ) Appliance è una piattaforma di storage cloud software-defined multifunzionale. Questa soluzione Dell EMC

Dettagli

5. quesito [ CSDP Servizi prodotti in Ambiente Intel X86 - Core ]

5. quesito [ CSDP Servizi prodotti in Ambiente Intel X86 - Core ] 1. quesito [ CSDP 3.7.4 Lista prodotti SW Oracle ] Nelle tabelle riportate nei punti 3.8.1 e 3.8.2 si fa riferimento alle varie aree applicative con i relativi DBMS e DB. Per poter correttamente valutare

Dettagli

Cosa facciamo. Outsourcing services since 1995: Database Assessment & Professionals. Network Assessment & Professionals

Cosa facciamo. Outsourcing services since 1995: Database Assessment & Professionals. Network Assessment & Professionals Careers Cosa facciamo Database Assessment & Professionals Outsourcing services since 1995: Network Assessment & Professionals Remote Backup as a Service SERVIZI Cloud Applicativo: SAP Dynamics AX Dynamics

Dettagli

Attività di analisi e calcolo dei gruppi italiani

Attività di analisi e calcolo dei gruppi italiani Attività di analisi e calcolo dei gruppi italiani Attività Gruppo di Coordinamento Analisi Survey attivita italiane PAG/POG/DPG Riunioni mensili tematiche Coordinamento attivita italiane Similfellow Calcolo

Dettagli

Progetto ReCaS status update. Giuseppe Andronico WS CCR, Catania 28 Maggio 2014

Progetto ReCaS status update. Giuseppe Andronico WS CCR, Catania 28 Maggio 2014 Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre applicazioni Finanziamento totale ReCaS: 13.7 M (90%

Dettagli

IBM Spectrum Computing Famiglia IBM Spectrum Computing

IBM Spectrum Computing Famiglia IBM Spectrum Computing Famiglia Velocizzare i risultati delle applicazioni computing e data-intensive 2 Famiglia Caratteristiche principali Aumentare la competitività con risultati più rapidi e l aumento del throughput Ridurre

Dettagli

A.P.System s.r.l. Terminal Services. sempre. ovunque. comunque

A.P.System s.r.l. Terminal Services. sempre. ovunque. comunque A.P.System s.r.l. Terminal Services sempre ovunque comunque Caratteristiche del Mercato L evoluzione tecnologica e del mercato pongono sempre più frequentemente le Aziende nella situazione di dover affrontare

Dettagli

CatAq. offsite backup e storage remoto su un'infrastruttura object storage multi sito

CatAq. offsite backup e storage remoto su un'infrastruttura object storage multi sito CatAq offsite backup e storage remoto su un'infrastruttura object storage multi sito Francesco Ferrera francesco.ferrera@lns.infn.it Emidio Giorgio emidio.giorgio@lns.infn.it Concettina Maiolino cettina.maiolino@lns.infn.it

Dettagli