A. De Salvo 5 settembre ATLAS: il calcolo. Alessandro De Salvo
|
|
- Vittoria Leoni
- 7 anni fa
- Visualizzazioni
Transcript
1 A. De Salvo 5 settembre 2013 ATLAS: il calcolo Alessandro De Salvo
2 ATLAS: Utilizzo risorse Tier 2 in Italia Site reliability/availability Valori medi 2011/2013 Pledge 2013 Pledge 2012 Frascati Milano rel ava rel ava 97% 90% 89% 90% Napoli Roma rel ava rel ava 94% 95% 97% 97% 4 siti T2 Frascati Milano Napoli Roma 1 Sistema di replica dinamico dei dati PD2P, basato sulla popolarità del dati, già dal Ottimizzazione dell uso del disco dei Tier2 permettendo la copia di dati interessanti. Il calcolo è un investimento importante ma con le performance ottenute, ai massimi livelli internazionali, è di fondamentale importanza per il raggiungimento dei risultati di fisica in tempi rapidi 2
3 Review dei Tier2 La giunta ha richiesto una review dei Tier2 italiani Il 3 settembre è stata inviata la richiesta di redigere un documento di max 10 pagine per ogni sito, da completare entro il 15 novembre 2013 Storia dei Tier2 e particolarità dei centri Infrastrutture, funzionamento e performance Sostenibilità per il 2015 e oltre Risorse umane Possibili criticità dei centri Termine della review: febbraio
4 Utilizzo delle risorse per il Possibile riprocessamento dei dati e MC per studi ulteriori Produzione di ulteriore nuovo MC per l analisi Attività molto intensa di analisi utente e di gruppo 2014 Produzione di sample più grandi di MC per il run ad alta energia Reprocessing completo finale dei dati e MC del , utilizzando l evoluzione del modello dei dati preparato per la presa dati del 2015 Attività di preparazione del Run 2 (full dress reharsal) 2015 Processamento e riprocessamento dei nuovi dati ad alta energia Produzione associata di MC per I nuovi dati Incremento di attività utente e di gruppo 4
5 Preparazione al run del 2015 ATLAS ha piani ambiziosi per l upgrade delle attività di Software e Computing Software: ricostruzione, simulazione, analisi Ottimizzazione delle performance degli algoritmi, utilizzando in modo più adeguato le CPU moderne Riduzione dell utilizzo di memoria Parallelismo a livello di evento e di algoritmo Riduzione della dimensione degli eventi Computing distribuito Nuovo sistema di Data Management (Rucio) File based data management, subscriptions and rules,.. Upgrade del Production System (PanDA + JEDI + DEfT) New TRF, log file merging, Merging at T2s, dynamic job definition based on scouts, Procedure operative e workflow Ottimizzazione delle analisi di gruppo e utenti finali 5
6 Cambi nel workflow di analisi Il formato AOD sembra non essere l Analysis Object Data per la maggior parte delle analisi La produzione dei formati di dati di gruppo (D3PD/NTUP) è effettuata centralmente La situazione corrente rallenta l analisi, crea problemi nella Grid, riempiendo I dischi, e non scala al 2015 con il Run 2 E necessario cambiare il modello di analisi e il suo workflow per aumentare il thoughput Aggiornamento del workflow Aggiornamento del formato degli AOD per farlo diventare direttamente leggibile da ROOT Introduzione di un reprocessing AOD2AOD per ottimizzare l utilizzo delle risorse Introduzione di un Derivation framework per la produzione di formati di gruppo specifici, tramite skimming/slimming/thinning degli AOD secondo un modello a treno, rimpiazzando il modello corrente per la produzione di DPD Introduzione di un common analysis framework, che metta a disposizione dei tool di analisi più semplici e una integrazione migliore con la Grid 6
7 Nuovi protocolli di accesso ai dati Sperimentazione dei nuovi protocolli di accesso xrootd e HTTP supportano lo streaming su WAN Sperimentazione dei protocolli di accesso remoti e comparazione con i protocolli di storage nativi a disposizione I protocolli verranno adottati sulla base delle performance, dell affidabilità e della semplificazione che manifesteranno Valutazione successiva di un modello per la rottura del modello di località dei dati per i job Impatto sull infrastruttura (storage e network) Migrazione finale all infrastruttura di Storage Federato Attualmente basato su sulla tecnologia xrootd (FAX) L utilizzo dello storage federato comporterà un cambio di paradigma, sia a livello centrale che a livello utente Possibilità di accesso diretto ai file anche su siti che non hanno un file system Posix (es. GPFS al CNAF, ), quindi ad esempio tutti I siti DPM (LNF, NA, RM, ) Utilizzo più massiccio della rete Maggiore affidabilità di analisi e ottimizzazione dello spazio disco 7
8 Uso di risorse opportunistiche Cloud commerciali a basso costo o gratuite Utilizzo di VM allocate staticamente in una cloud è stato ampiamente dimostrato in produzione (includendo anche la farm HLT) ATLAS si concentrerà ad ottimizzare la gestione dinamica delle risorse di calcolo attraverso delle interfacce di provisioning di VM (ad esempio OpenStack) Il piano consiste nell integrare la AutoPilot Factory 2 con OpenStack/EC2 Si lavorerà sull ottimizzazione del workflow per l utilizzo di risorse opportunistiche Il nuovo event server, ossia il dispatcher di eventi per la parallelizzazione dei task, sarà molto utile in questo ambito Possibilità di utilizzo di risorse di tipo HPC, ma alcuni problemi Whole-node scheduling Assenza di disco nei nodi Nessuna connessione outbound 8
9 Partecipazione italiana alle attività di ATLAS ATLAS Italia partecipa alle attività di computing di ATLAS in diverse aree di lavoro Cloud support [all] Database [D. Barberis] Installazione del software (CVMFS e distribuzione) [A. De Salvo] Monitoring [S. Tupputi] Network infrastructure (LHCONE) [E. Capone, A. De Salvo] Scrutiny Group [G. Carlino] Storage [A. De Salvo, A. Doria, E. Vilucchi] Federazioni di xrootd e HTTPD DPM VO management [A. De Salvo] Altre attività (PRIN) Cloud Computing Hadoop (EventIndex) Network Infrastructure (LHCONE) Proof on Demand La partecipazione alle rimanenti attività è largamente limitata dalla disponibilità di persone Attività sulle GPU, inserite in un FIRB Interesse della comunità per GPU e multiprocessing/ottimizzazione del codice, ma NON c è manpower 2 FTE al CERN, pagati dall INFN in-kind e riconosciuti come M&O-A 9
10 Responsabilità italiane nel calcolo di ATLAS ATLAS database Dario Barberis [coord] Coordinamento calcolo ATLAS IT Alessandro De Salvo [coord] Grid software release / CVMFS Alessandro De Salvo [coord] SAM monitoring Salvatore Tupputi [deputy coord] Scrutiny Group Gianpaolo Carlino VO management Alessandro De Salvo [coord] 10
11 Risorse Disponibili CPU CPU disponibili 2013 pledged CPU Frascati Milano Napoli Roma Totale HP To be pledged Le CPU totali a disposizione dei Tier2 comprendono anche risorse che non pledged: CPU per uso locale (cluster proof) o in griglia ma dedicate principalmente alle attività italiane (Tier3) finanziate con fondi vari Proof on Demand, share per analisi e simulazione MC per il ruolo atlas/it le CPU obsolete (fino al 2013 e già rifinanziate) ancora in produzione ma in corso di spegnimento CPU non a completa disposizione dei siti (es. scope a NA, SuperB a LNF) Queste CPU concorrono alla definizione della linea blu dell accounting che in alcuni casi è significativamente maggiore della linea rossa Nel conto delle CPU pledged sono comprese le CPU gara CNAF 2013 ancora da installare 11
12 Risorse Disponibili 2013 Disco Storage disponibile 2013 pledged Disco Frascati Milano Napoli Roma Totale Totale disponibile to be pledged Lo storage totale disponibile nei Tier2 comprende anche l area locale in cui sono conservati i dati di tutti gli utenti italiani (LOCALGROUP), non solo gli utenti locali La dimensione di queste aree è di circa 100 TB per Tier2 In gran parte già occupata, gli utenti dovranno cancellare i dati vecchi non più necessari per fare spazio ai dati del 2013 l utilizzo di queste aree è irrinunciabile per cui il loro volume va sottratto allo storage da dichiarare pledged 12
13 Risorse obsolete 2014/2015 ATLAS: Risorse Obsolete nel 2014/2015 CPU 2014 (HS06) CPU 2015 (HS06) Disco 2014 (TBn) Disco 2015 (TBn) Frascati Milano Napoli Roma Tot Le CPU obsolete sono le macchine con più di 3 anni di vita Lo storage obsoleto comprende le SAN con più di 5 anni di vita La sostituzione del materiale obsoleto, specie per i dischi, è fondamentale per il buon funzionamento dei centri e quindi dell intero sistema di computing italiano di ATLAS 13
14 Risorse Attività ATLAS 2014 Lo Scrutiny Group ha approvato ad aprile 2013 le seguenti risorse per ATLAS 14
15 Richiesta Risorse I Le risorse necessarie per il 2014 sono determinate dalla volontà di conservare il ruolo significativo nel computing di ATLAS acquisito negli ultimi anni conservando gli share di risorse pledged per le attività centrali: Tier1: 10% Tier2: 9% CPU e 7% Disco e di garantire la competitività agli utenti italiani mediante l uso di risorse dedicate nei Tier2 e Tier3 ATLAS Share IT ATLAS IT 2014 ATLAS IT disponibile Attività 2014 CPU T1 (khs06) Disco T1 (PB) CPU T2 (khs06) Disco T2 (PB) % * % * % % * Pledge 2013
16 + Recas - Napoli Totale Richiesta Risorse II Le risorse per le attività italiane sono già disponibili e non inclusi nel disponibile pledged 2013 e non sono necessarie ulteriori richieste CPU T2 (khs06) Disco T2 (TB) Attività 2013 Attività Italiane Obs Richieste K CPU T2 (khs06) Disco T2 (TB) Attività 2013 Prezzi stimati: CPU = 12 k /khs Disco = 350 k /PB Attività Italiane Obs Richieste K Richieste effettive 16
17 Richiesta Risorse III Overhead per rete e server aggiuntivi Algoritmo Bozzi (cfr. presentazione CSN1 Bari Settembre 2011): Rete: 6% (cpu) + 5% (disco) = 12.8 k Server: 7% (cpu + disco) = 16.1 k A cosa servono: Rete: switch di rack Server: servizi di grid A cosa corrispondo questi finanziamenti: Rete: 4.3 k per Tier2, uno switch (escluso NA) Per collegare le nuove risorse e/o sostituire i primi switch ormai fuori manutenzione Server: 5.4 k per Tier2, un server per sezione (escluso NA) 17
18 Richieste Totali 2014 Risorse T2 Le richieste di Napoli, come d accordo con i referee, vengono inserite solo per tracciare le risorse, ma verranno azzerate in quanto saranno fornite da Recas 18
19 Conclusioni Il Computing di ATLAS ha dimostrato di essere robusto ed affidabile per il processamento dei dati, sia MC che analisi finale, tuttavia sono stai individuati dei punti dove è necessario migliorare Durante il LS1 il Computing Model di ATLAS subirà un sostanziale cambiamento, apportando modifiche sia al codice di ricostruzione/analisi sia ai servizi infrastrutturali L Italia contribuisce in modo sostanziale alle attività centrali di calcolo e tramite i centri nazionali (T1 e T2) Le richieste sono diminuite in conseguenza delle nuove risorse provenienti dal progetto RECAS nelle sedi di BA, NA, CS e CT E comunque fondamentale fornire supporto ai Tier2 esistenti per quel che riguarda le dismissioni I Tier2 italiani verranno sottoposti a review, il cui termine è previsto per febbraio
20 Backup slides 20
21 Risorse obsolete 2014 Risorse Obsolete nel 2014 CPU (HS06) Disco (TBn) Frascati Milano Napoli Roma Tot Tot NA Le CPU obsolete sono le macchine comprate nel 2010 e installate fine 2010 inizi 2011 (non sono comprese le macchine installate successivamente). Le CPU hanno garanzia triennale Lo storage obsoleto comprende le SAN comprate nel 2008 e installate giugno Garanzia quinquennale Le dismissioni di Napoli sono finanziate da RECAS La sostituzione del materiale obsoleto, secie per i dischi, è fondamentale per il buon funzionamento dei centri e quindi dell intero sistema di computing italiano di ATLAS 21
22 Utilizzo risorse in Italia: Federazione T2 Pledge 2012 Pledge
23 Terabytes Utilizzo del disco nei Tier 2 ATLAS Italia NTUP AOD Il sistema di replica dinamico dei dati PD2P, basato sulla popolarità del dati, già dal 2010 ha ottimizzato l uso del disco dei Tier2 permettendo la copia di dati interessanti ESD DAOD Circa +90 TB al mese Nessun rischio saturazione, si possono cancellare i dati secondari 23
24 Availability / Reliability Valori medi 2011/2013 Frascati Milano rel ava rel ava 97% 90% 89% 90% Napoli Roma rel ava rel ava 94% 95% 97% 97% Availability = time_site_is_available/total_time Reliability = time_site_is_available/ (total_time-time_site_is_sched_down) 24
25 Multiprocessing e concurrent framework Le risorse Grid in WLCG sono limitate come agreement a 2GB/core Il software di ricostruzione di ATLAS fatica a mantenere questo limite Non è ancora possibile girare la ricostruzione a 64 bit tranne che in nodi speciali dove è disponibile più memoria Tale situazione certamente peggiora con l aumento dell energia e del pileup Le nuove tecnologie vanno in direzione di CPU many-core, perciò l approccio corrente non è più sostenibile, nonché l ultilizzo di eventuali risorse HPC praticamente impossibile ATLAS prevede di rendere operativo AthenaMP durante LS1 e iniziare lo sviluppo di un nuovo framework concorrente con Full threading e parallelismo a livello di eventi e algoritmi Collaborazione con IT/OpenLab, PH-SFT, LHCb e CMS Questo nuovo approccio richiederà anche la migrazione del sistema di Computing distribuito, a partire dalle configurazioni delle code fino alle convenzioni di nomenclatura dei file Necessaria una chiara strategia per i siti, in fase di sviluppo Nonostante l approccio di AthenaMP, per job di ricostruzione ad alto pile up si avrà comunque, secondo le proiezioni correnti, una RSS/core di circa 3GB, mentre per altri tipi di job sarà minore Ogni sito che girerà la ricostruzione dovrà fornire delle code multicore 2
26 Utilizzo della farm HLT durante LS1 La farm HLT di ATLAS verrà usata come un sito Grid opportunistico durante LS1 ~14k core, corrispondenti ad un grande T2 (se non un T1) Infrastruttura overlay di tipo Cloud basata su OpenStack CERN IT (Agile), CMS (HLT Farm) e BNL già utilizzano OpenStack 26
27 ATLAS: as study case for GPU sw trigger The ATLAS trigger system has to cope with the very demanding conditions of the LHC experiments in terms of rate, latency, and event size. The increase in LHC luminosity and in the number of overlapping events poses new challenges to the trigger system, and new solutions have to be developed for the fore coming upgrades ( ) GPUs are an appealing solution to be explored for such experiments, especially for the high level trigger where the time budget is not marginal and one can profit from the highly parallel GPU architecture We intend to study the performance of some of the ATLAS high level trigger algorithms as implements on GPUs, in particular those concerning muon identification and reconstruction. Slide from G. Lamanna / A. Messina 27
28 Altre evoluzioni Completa migrazione ed utilizzo dell ATLAS Grid Information System in produzione Definitivo abbandono dei servizi di IS di Grid in favore di AGIS Abbandono anche del WMS, finora utilizzato ancora solo per le installazioni del software Installation System migrato completamente ad AGIS + Panda Sorgente primaria di informazioni per Panda e DDM Migrazione ad SL6 Inizio ufficiale delle migrazioni ad SL6 a giugno 2013 Alcune delle release necessitano di una patch per funzionare con l analisi a causa delle opzioni diverse di compilazione Possibile soluzione generica trovata di recente, in fase di test In ogni caso le release più utilizzate sono state già sistemate o comunque funzionanti nativamente Migrazione ad IPv6 Test dei servizi con IPv6 necessario SHA-2 Migrazione imminente, necessario un controllo dei servizi Finalizzazione dell integrazione di glexec in Panda 28
29 PRIN: Cloud Computing Utilizzo del Cloud Computing per servizi o elaborazione dati Servizi di grid Workload Management Servizi interattivi on-demand Virtualized WN con Panda Cluster di analisi su Cloud Data Preservation Altri tipi di servizi in alta affidabilità OpenStack + glusterfs + cloud-init In collaborazione con il gruppo cloud INFN Stessa infrastruttura di base di CERN Agile Infrastructure Possibilità di unire più siti grid in una unica infrastruttura Sperimentazione su Tier2 distribuito, tramite LHCONE Stato Facility iniziale, esportabile anche ad altri siti entro fine anno Roma 29
30 PRIN: EventIndex Studiare la possibilità di semplificare il TagDB di ATLAS trasformandolo in un indice degli eventi (EventIndex) con puntatori allo storage che contiene gli eventi in vari formati (da RAW a NTUP) EventIndex è l'equivalente del catalogo di una biblioteca Genov a Sostituzione del database in Oracle con storage strutturato (Hadoop) Divisione delle tre categorie di dati nei Tag odierni: Identificazione dell'evento e quantità immutabili (lumi block, trigger pattern) Quantità dipendenti dalla ricostruzione (topologia, particelle, ecc.) Puntatori ai files con gli eventi (GUID e offset interni) Utilizzo della tecnologia più appropriata per ogni categoria di dati Sviluppo (o adattamento) dei servizi esterni Event counting, picking, skimming, consistency checks Connessione a ProdSys e DDM per l'upload dei dati e la loro utilizzazione Stato Testbed attivo al CERN 30
31 PRIN: PoD per PBS, glite-wms, Panda Dedicare alcune risorse di calcolo ad una farm da utilizzare per l'analisi con PROOF. Sviluppare e perfezionare PoD, Proof on Demand, un insieme di tool pensati per interagire con un RMS locale o globale ed avviare i demoni di PROOF. Test per provare i plugin di PoD per PBS e PanDA (glite- WMS non più supportato da ATLAS), con i dati acceduti con protocollo XrootD e in futuro anche HTTP: Test di performance di accesso al disco Job che legge circa 40% dell evento Test di latenza di startup Stato Infrastruttura funzionante tramite PanDA Test di performance e scalabilità in corso Talk a CHEP 2013 LNF Milano Napoli 31
32 PRIN: LHCONE Sviluppo di una nuova generazione di reti geografiche di comunicazione dati (overlay L2 network) denominata LHCONE (LHC Open Network Environment) Configurazione dinamica degli apparati attivi (router o switch multilayer) che costituiscono la rete stessa Realizzazione di servizi di Bandwidth on Demand (BOD) Integrazione con il software di esperimento Napoli Stato Infrastruttura stabile già in produzione al T1 e nei T2 Ottimizzazione e studi su configurazioni dinamiche in corso Sperimentazione su T2 distribuito in fase di allestimento Inter-site VLAN (NA-RM) Failover di servizi core in WAN, con collegamento a 10 Gbps (GARR-X) a bassa latenza 32
33 GPU: GAP Realtime (FIRB) Realization of an innovative system for complex calculations and pattern recognition in real time by using commercial graphics processors (GPU). Application in High Energy Physics experiments to select rare events and in medical imaging for CT, PET and NMR. FIRB partito ad inizio del 2013 Per ciò che riguarda la comunità HEP, verrà studiato l utilizzo di trigger hardware di basso livello con latenza ridotta e trigger software di alto livello Si studieranno I casi di NA62 L0 e l High Level Muon Trigger di ATLAS come casi fisici Roma coinvolta nello studio del trigger di ATLAS 33
34 Trigger rate 2015 Luminosity expected to increase from to corresponding to about a factor 3 in rates Pile up will increase affecting the effective trigger rates Moving to s=14 TeV cross sections will increase on average by a factor 2.5 Rates would increase by about one order of magnitude. To keep the increase within a factor ~2 (50kHz 100kHz L1 and 450Hz 1kHz EF) selections have to be improved/tightened minimizing the impact on physics. PS: The physics (Higgs, top...) remains the same. Slide from C. Gatti / D. Orestano 34
35 Trigger menu 2012 vs 2015 Current menu scaled to Slide from C. Gatti / D. Orestano 35
36 Trigger menu 2012 vs 2015 Menu at and 14 TeV Increase single e/gamma threshold Increase single and di muon thresholds Increase single and di tau thresholds Increase Jet and MET thresholds Slide from C. Gatti / D. Orestano 36
37 Risorse CPU Attività ATLAS Richieste di ATLAS per il , aggiornate al 28/08/2013, non ancora referate I valori in [] sono relativi alle richieste presentate in precedenza 37
38 Risorse Disco Attività ATLAS Richieste di disco ATLAS per il , aggiornate al 28/08/2013, non ancora referate 38
39 Totale PRELIMINARE ATLAS: Richiesta Risorse 2015 [preliminare] Le risorse per le attività italiane 2014/2015 sono già disponibili e non inclusi nel disponibile pledged e non sono necessarie ulteriori richieste ATLAS Share IT ATLAS IT 2015 ATLAS IT disponibile Attività 2015 CPU T1 (khs06) Disco T1 (PB) CPU T2 (khs06) Disco T2 (PB) % * % * % % Attività Italiane 2015 Obs 2015 Richieste 2015 k 2015 CPU T2 [khs06] Disco T2 [TB] Valori preliminari non referati, aggiornati al 28/08/2013. I valori finali saranno disponibili a ottobre (+ networking e server) Prezzi stimati: CPU = 12 k /khs Disco = 350 k /PB 39
40 Missioni Responsabilita' Calcolo nome dettaglio responsabiilita' Livello mu TOT MU CNAF Tupputi SAM monitoring deputy coord L3 1 GE Barberis ATLAS database coordinator L2 4 NA Carlino Scrutiny Group L2 2 RM1 De Salvo GRID softw release coord L2 1 De Salvo V0 manager L2 2 De Salvo Coord nazionale L
Tier-2 Legnaro-Padova. Massimo Biasotto
Tier-2 Legnaro- Massimo Biasotto 1 1 Tier-2 Legnaro Prototipo sito Grid e farm CMS dal 2001 Tier-2 ufficiale CMS dal 2007 Tier-2 ufficiale ALICE dal 2011 Nato fin dall'inizio come collaborazione LNL-PD,
DettagliIl nuovo cluster INFN per la fisica teorica
Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1 Necessità di calcolo del Gr.
DettagliCalcolo LHC: Tier-1 e Tier-2
Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:
DettagliL esperienza di calcolo nell esperimento ATLAS
Il primo anno di presa dati di LHC L esperienza di calcolo nell esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF) Workshop CCR - Stato e Prospettive del Calcolo
DettagliTier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1
Tier1, Tier2 e Tier3 CMS Italia Modello di Calcolo per CMS Italia Modello di Calcolo per CMS Italia Il Modello di CMS e basato su una Gerarchia di Funzioni e Risorse (Tier-n). Tale Gerarchia e integrata
DettagliOff-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017
Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,
DettagliStudio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone
Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone Relatore: Prof. Luciano M. Barone Candidato: Giovanni Carta 1 Il Large Hadron Collider collisore pp, anello lungo
DettagliLa e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014
La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS Guido Russo WS GARR, Napoli 19 Giugno 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre
DettagliEsperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione
DettagliTest e risultati sull uso di un file system GPFS condiviso su rete WAN
Test e risultati sull uso di un file system GPFS condiviso su rete WAN Antonio Budano (INFN Sezione di Roma 3) In collaborazione con: Vladimir Sapunenko (INFN - CNAF) Elisabetta Vilucchi (INFN LNF) Sommario
DettagliServizio Calcolo. Alessandro Brunengo
Servizio Calcolo Alessandro Brunengo Personale (2017) Alessandro Brunengo (tecnologo, responsabile) 10% Mailing, 90% Calcolo Mirko Corosu (tecnologo) 30% Atlas, 70% Calcolo Francesco Saffioti (CTER) Enrico
DettagliCorporate Cloud: stato e sviluppi. Giacinto Donvito INFN Sez. di Bari On behalf of the INFN-CC Group
Corporate Cloud: stato e sviluppi Giacinto Donvito INFN Sez. di Bari On behalf of the INFN-CC Group Agenda Stato dei siti Stato delle attività Roadmap (??) Problemi previsti Considerazioni e Conclusioni
DettagliData driven HLT rate estimation for Mu+Jet+BTag HLT trigger paths
Data driven HLT rate estimation for Mu+Jet+BTag HLT trigger paths Stefano Lacaprara, Ugo Gasparini, Massimo Nespolo, Antonio Branca, Andrea Gozzelino, Tommaso Dorigo, Alberto Zucchetta, Mia Tosi INFN &
DettagliIl calcolo LHC in Italia: commenti. Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli Outline Contesto del calcolo LHC in Italia Computing models TDR,
DettagliCentri Regionali per il calcolo di ATLAS in Italia
1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale 2 Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte
DettagliStato ed evoluzione dell'infrastruttura di calcolo INFN. Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018
Stato ed evoluzione dell'infrastruttura di calcolo INFN Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018 Premessa (1) Evoluzione delle necessità di calcolo dominata
DettagliSperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012
Sperimentazione del file-system distribuito HDFS in ambiente GRID Tutor: Domenico Diacono Outline Use cases Hadoop Distributed File System Test di funzionalità Sviluppo di politiche di replica dei dati
DettagliATLAS-Italia-Computing 9 June EventIndex. Dario Barberis. Genoa University/INFN. Dario Barberis: ATLAS EventIndex
EventIndex Dario Barberis Genoa University/INFN 1 Scopo del Progetto Creare un catalogo completo di tutti i dati di ATLAS Reali e simulati In tutti gli stadi di produzione e formati di files Tecnologia
DettagliINFN-BOLOGNA-T3. L. Rinaldi
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light
DettagliNormalizzazione puntuale dei dati di accounting
Normalizzazione puntuale dei dati di accounting Proposta per uno strumento automatizzato Felice Rosso, CNAF Guido Guizzunti, CNAF Andrea Guarise, INFN Torino Sommario Sistema corrente Limiti, problemi
DettagliArchitettura e caratteristiche dello storage in INFN-CC. Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC
Architettura e caratteristiche dello storage in INFN-CC Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC Storage affidabile ed a basso costo in INFN-CC Workshop CCR La Biodola
DettagliRISORSE E MODELLI DI CALCOLO
RISORSE E MODELLI DI CALCOLO Roberto Alfieri - CSN4 del 13.04.2007 13/04/2007 Risorse e modelli di calcolo- CSN4 page 1 Sommario ATTIVITA' DELLA CCR Bilancio della CCR Contratti Centralizzati (NAG e Mathematica)
DettagliARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari
ARGO-YBJ: il modello di calcolo CSNII 29 Novembre 2012 Stefano Mari L esperimento Argo-YBJ } L apparato dell esperimento Argo YBJ è situato in Tibet (YangBajing), a 4300 s.l.m. } Apparato di sciami con
DettagliEsperienze di gestione di OpenNebula, Openstack, VMWare
Workshop GARR Terabit Generation. Una comunità ad alte prestazioni Roma CNR 18-21 aprile 2016 Esperienze di gestione di Cloud @ENEA OpenNebula, Openstack, VMWare Tavolo tecnico Cloud e Storage Giovanni
DettagliFlash talk: Wide Area Swift
Flash talk: Wide Area Swift Matteo Panella - matteopanella@lngsinfnit INFN - Laboratori Nazionali del Gran Sasso Miniworkshop CCR 2013 Sommario 1 Introduzione 2 Stato dell arte: Swift 3 Stato dell arte:
DettagliLa farm di LNL-Padova: stato e piani per il futuro
La farm di LNL-Padova: stato e piani per il futuro Stefano Lacaprara INFN Padova meeting T3-INFN per CMS Milano Bicocca, 23-Apr-2010 Stefano Lacaprara (INFN Padova) LNL-PD T2-3 T3 23-Apr-2010 1 / 13 Situazione
DettagliCSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari
CSN4! GGI marzo 2008 Calcolo teorico E. Onofri, R. Tripiccione, E. Vicari Piano della presentazione Piano della presentazione La manovra di ottobre 2007 Piano della presentazione La manovra di ottobre
DettagliLHC-f Referee. Risultati 2009 Strategia run / Resistenza radiazione Proposte finanziarie 2010 Milestone 2009/2010
LHC-f Referee Risultati 2009 Strategia run / Resistenza radiazione Proposte finanziarie 2010 Milestone 2009/2010 M.Biasini, P. Checchia Riunione CSN1 Attività 2009 LHCf M. Biasini - LHCf Referee - INFN
DettagliTier-1. Luca dell Agnello 25 Maggio 2016
Tier-1 Luca dell Agnello 25 Maggio 2016 Tier-1 users It is the main INFN computing centre providing computing and storage services to ~30 scientific collaborations Tier-1 for LHC experiments (ATLAS, CMS,
DettagliLHCONE: LA RETE DEI TIER2 IL PUNTO DI VISTA DEL GARR
1 : LA RETE DEI TIER2 IL PUNTO DI VISTA DEL GARR 16-20 maggio 2011 Massimo Carboni Workshop congiunto :: INFN CCR e GRID Hotel Hermitage -- La Biodola - Isola d Elba Le mo&vazioni 2 Cambiamento del Data
DettagliSistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack
Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack Tutor: Dott. Domenico Elia Tutor: Dott. Giacinto Donvito Indice Descrizione del progetto Confronto con l attività
Dettaglitecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013
tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core
DettagliReport sull attività di monitoraggio del Testbed di INFN Grid
Catania, 21 Ottobre 2001 Report sull attività di monitoraggio del Testbed di INFN Grid Roberto Barbera (roberto.barbera@ct.infn.it) 1. Attività passata e presente Un ingrediente importante del successo
DettagliServizio di Calcolo e Reti. F. Semeria 10 Luglio 2013
Servizio di Calcolo e Reti F. Semeria 10 Luglio 2013 Personale Antonio Bassi (tempo parziale: 1/3) Daniela Bortolotti Franco Brasolin (CERN, ATLAS Tdaq SysAdmins ) Patrizia Calligola Francesca Del Corso
DettagliINFORMAZIONI PERSONALI
INFORMAZIONI PERSONALI Nome DONVITO GIACINTO Indirizzo VIA F. PETRERA, 39 GIOIA DEL COLLE 70023 (BARI) Telefono 3935403592 Fax E-mail giacinto.donvito@ba.infn.it Nazionalità Italiana Data di nascita 22/09/1978
Dettagli( WNoDeS in OpenStack ) Davide Salomoni INFN CNAF 28/5/2013
( WNoDeS in OpenStack ) INFN CNAF 28/5/2013 Wack: definitions Wack - WS CCR, 27-31/5/2013 2 Le componenti OpenStack Cloud computing IaaS framework WNoDeS Framework per l integrazione di workload di tipo
DettagliPiattaforme software distribuite I
Piattaforme software distribuite I Introduzione a Java 2 Platform Enterprise Edition (J2EE) Davide Lamanna lamanna@dis.uniroma1.it Programma Architetture per le applicazioni web Carrellata di ripasso Valutazione
DettagliModello di Progetto di massima Centro Tier 2
Referees del calcolo LHC e Commissione Calcolo e Reti INFN Modello di Progetto di massima Centro Tier 2 (v. 1.6 del 29 luglio 2005) Questo modello e' stato preparato per fornire ai gruppi promotori dei
DettagliIl calcolo distribuito in ATLAS
Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti
DettagliProblematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing
Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID- Computing Rapporto attività di studio marzo/12 - dicembre/12 Andrea Petricca Due anni fa.. La rete
DettagliCURRICULUM VITÆ E DELLA ATTIVITA
CURRICULUM VITÆ E DELLA ATTIVITA Nome: Alessandro Brunengo Luogo e data di nascita: Imperia, 13/07/1965 Residenza: Via dei Botto 7/5 16043 Chiavari (GE) Telefono: 0185-324594 Stato Civile: coniugato, due
DettagliIntroduzione alla riunione
Introduzione alla riunione INFN Bologna Oggi è una riunione speciale Incontro con il nuovo Direttore Generale Ricordo di Giulietta e assegnazione del Premio Nazionale Giulia Vita Finzi Approfitto dell
DettagliGRID Data Center INFN Pisa
GRID Data Center INFN Pisa Alberto CIAMPA Responsabile Calcolo Scientifico e progetto GRID INFN Pisa GRID Data Center INFN Pisa L INFN ha strutture di calcolo autonome e proprietarie Nella sezione di Pisa
DettagliIl Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Moreno Marzolla INFN Padova BaBar Collaboration & Dip. Informatica, Università di Venezia Workshop su Management
DettagliUfficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE
N. MI-123-U-A-4-3-2018-174 Roma, 18 aprile 2018 SDAPA 1761287 Infrastruttura Tecnologica per la piattaforma SIDAF QUESITI E RELATIVE RISPOSTE 1) Capitolato Tecnico - Pag. 7 Viene richiesta la migrazione
DettagliStrumenti di Federazione per la gestione dell AAI in SuperB e ReCaS
Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS INFN-Napoli 16/05/2012 1 Il progetto bandiera SuperB Proposto dall Istituto Nazionale di Fisica Nucleare (INFN), il progetto SuperB ha
DettagliFuturo TierA INFN ed estensione MOU
Futuro TierA INFN ed estensione MOU M. Morandin INFN Padova 1 Il finanziamento del calcolo in BaBar L'idea di distribuire le risorse di calcolo di BaBar in grossi centri di calcolo in Europa nacque subito
DettagliVeronafiere! ottobre 2014! Gli atti dei convegni e più di contenuti su
Veronafiere! 28-29 ottobre 2014! Gli atti dei convegni e più di 4.000 contenuti su www.verticale.net Interfaccia uomo-macchina, l evoluzione web based Mauro Galano Presidente Gruppo HMI IPC SCADA di ANIE
DettagliRMLab: Gestione Agile di un data center distribuito
DOI: 10.26314/GARR-Conf16-proceedings-15 RMLab: Gestione Agile di un data center distribuito Antonio Budano 1, Federico Zani 2 1 INFN Sezione di Roma Tre, 2 INFN Sezione di Tor Vergata Abstract. Il progetto
DettagliDigital Transformation e Cloud. Stefano Inelli 22 Novembre 2017
Digital Transformation e Cloud Stefano Inelli 22 Novembre 2017 1 1 2 3 4 Digital Transformation Implementazione servizi IT Contributo del Cloud Quali competenze 2 Digital Transformation Le «tecnologie
DettagliTrend e requisi+ emergen+: la visione dell'infn
Trend e requisi+ emergen+: la visione dell'infn e Stefano Zani INFN Outline La presentazione raccoglie informazioni rela+ve ad alcuni use case par+colarmente significa+vi per le operazioni dell INFN Cerchiamo
DettagliLA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA
LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA Macchine virtuali Virtualizzazione: Perché Virtualizzazione: Cos è Forme di virtualizzazione Il Polo scientifico-didattico di Cesena Esigenze Scelte Architettura
DettagliCSN4! UP 22/23 settembre Calcolo teorico. E. Onofri, E. Vicari
CSN4! UP 22/23 settembre 2009 Calcolo teorico E. Onofri, E. Vicari 1 Inventariabile Totale CSN4 share manovra ott.2007 4000K 3050K 3100K 3000K 3550K 3650K 3900K 3800K 3400K 3120K 3000K 2000K 1000K 440K
DettagliIl Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003
Il Progetto TIER1 Status Update Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti
DettagliGrid Tutorial Day Palermo, 13 Aprile 2011
Grid Tutorial Day Palermo, 13 Aprile 2011 01 - Introduzione Pier Paolo Corso Sommario Introduzione generale Introduzione al Grid Computing Introduzione alla Grid COMETA Anteprima delle lezioni successive
DettagliID Ambito Metrica Peso C S N G Computing Storage Networking Cross Caratteristiche dei sistemi di computing 20 Caratteristiche dei sistemi Storage 25 Caratteristiche degli apparati di Networking 6 Caratteristiche
DettagliAllegato Tecnico Housing
Allegato Tecnico Housing Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 HOUSING 1.3 Procedura di accettazione 1.4 Attivazione del servizio Gestione Installazione Gestione Network
DettagliStato Calcolo BaBar in Italia e contributo INFN Fondi Comuni
Stato Calcolo BaBar in Italia e contributo INFN Fondi Comuni CSN1 19 settembre 2005 Napoli 1 Sommario Attivita' calcolo BaBar in Italia centro di Padova BaBar@CNAF farm per produzione M.C. Fondo comune
DettagliCORSO Installation, Storage, and Compute with Windows Server 2016
2 CORSO 20740 Installation, Storage, and Compute with Windows Server 2016 Questo corso è pensato per gli IT professionals che hanno già qualche tipo di esperienza con Windows Server. Il corso intende aiutare
DettagliUna visione del Cloud per l Università e la Pubblica Amministrazione. Leonardo Valcamonici /CASPUR
Una visione del Cloud per l Università e la Pubblica Amministrazione Leonardo Valcamonici /CASPUR Cosa è il CASPUR Consorzio interuniversitario (sedi a Roma e Bari) Costituito il 5 giugno del 1992 Senza
DettagliStato e prospettive del calcolo dell INFN
Stato e prospettive del calcolo dell INFN Commissione Calcolo e Reti dell INFN Grazie! 2 Courtesy of Mauro Nanni Calcolo scientifico nell INFN Gestione delle risorse funzionali al calcolo scientifico gestione
DettagliPREVENTIVO LOCALE DI SPESA PER L'ANNO 2005
PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005 VOCI DI SPESA DESCRIZIONE DELLA SPESA Parziali IMPORTI In KEuro Totale Compet. n. 2 missioni settimanali per Workshop n. 10 missioni di un giorno per gruppi di
DettagliShould Oracle Standard Edition be back on the menu?
Should Oracle Standard Edition be back on the menu? Webinar Giovedì 19 novembre Ore 10.30 11.00 Relatore: MARCO DANIELE PELLIZZARI DBA MIRIADE Play the change Crediamo nella tecnologia come strumento per
DettagliReferaggio SST. Carbone, Gianoli, Mezzadri
Referaggio SST Carbone, Gianoli, Mezzadri Linee guida Nulla di nuovo sulle linee guida che abbiamo seguito richieste di finanziamento che riguardano lavori (muratura, elettrici, condizionamento, ) dovrebbero
DettagliSetup di una cloud privata a Torino Un prototipo in produzione. S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso
Setup di una cloud privata a Torino Un prototipo in produzione S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso 1 Motivazione! Negli ultimi anni la quantita di risorse hardware eterogenee di fascia consumer
DettagliProgetti referati. C3S INDIGO_DC_CCR Referee: Brunengo, Fasanelli, Prelz, Tirel
Progetti CCR Referaggio progetti della Commissione Calcolo e Reti Referees: Tommaso Boccali, Alessandro Brunengo, Enrico M. V. Fasanelli, Francesco Prelz e Alessandro Tirel Riunione di bilancio della CCR
DettagliBaBar: stato ed utilizzo delle farms
BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del gruppo di Computing BaBar Italia BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 Sommario Il gruppo
DettagliHPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale
HPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale ARGOMENTI Struttura hw e sw della piattaforma HPC Cloud STRUTTURA HW 1 headnode 6 nodi di calcolo 1 nodo gpu storage di
DettagliLe reti rete La telematica telematica tele matica Aspetti evolutivi delle reti Modello con mainframe terminali Definizione di rete di computer rete
Reti e comunicazione Le reti Con il termine rete si fa riferimento, in generale ai servizi che si ottengono dall integrazione tra tecnologie delle telecomunicazioni e le tecnologie dell informatica. La
DettagliProgetto SCOReS. Davide Michelino
Progetto SCOReS Studio di sistemi di Caching per l utilizzo Ottimizzato di Risorse opportunistiche e siti senza pledged storage per applicazioni di e-science Introduzione generale del progetto Studiare,
DettagliCHIARIMENTI IN SEDE DI OFFERTA
18 settembre 2012 CHIARIMENTI IN SEDE DI OFFERTA INFRASTRUTTURA STORAGE (HARDWARE E SOFTWARE) IN ALTA AFFIDABILITÀ E CON DISASTER RECOVERY Lotto CIG 4493628322 Con la presente si forniscono le risposte
DettagliGrandi infrastrutture di storage per calcolo ad elevato throughput e Cloud
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Michele Di Benedetto, Alessandro Cavalli, Luca dell Agnello, Matteo Favaro, Daniele Gregori, Michele Pezzi, Andrea Prosperini,
DettagliIsaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di
Isaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di un intero ambiente NoSQL. 1 Sfrutta al massimo la potenza
DettagliCSN1 Perugia Preven/vi
CSN1 Perugia Preven/vi Resoconto 2009 CSN1 Richieste Perugia M. Biasini CDS Luglio 2010 Produ@vità Scien/fica 2009 CSN1 Numero di Ricercatori (FTE) 2007 2008 2009 770 804 804 813 791 Pubblicazioni
DettagliComune di Cesena. MAN e Videosorveglianza Progetto lotto 1 Anello
Comune di Cesena MAN e Videosorveglianza Progetto lotto 1 Anello Progetto Anello Il progetto comprende i seguenti ambiti di intervento: Predisposizioni «Smart city» Telecamere e apparati di rete attivi
Dettagli6MOTIVI PER SOSTITUIRE IL NAS STORAGE LEGACY PASSA ALLO SCALE-OUT STORAGE MODERNO
6MOTIVI PER SOSTITUIRE IL NAS STORAGE LEGACY PASSA ALLO SCALE-OUT STORAGE MODERNO SEMPLICITÀ I sistemi di scale-up storage legacy impongono lunghi tempi di gestione e sono difficili da ampliare. Questo
DettagliSommario CSN1, Roma 19-23/09/2016
Sommario CSN1, Roma 19-23/09/2016 Consiglio di Sezione, Milano 12/10/2016 Attilio Andreazza Bilancio generale Missioni Consumi Inventariabile Apparati Totale Preventivi 2015 12960 9038 2814 (*) 4605 (*)
DettagliQuale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015
Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015 Testbed di correlazione @ IRA Flusso e dimensione dei dati Antenna Istituti/Centri /Cloud Personale / PC Acquis. Acquis. Acquis.
DettagliVirtualizzazione Infrastrutture ICT. A chi è rivolto. Vantaggi per il Cliente. Perchè Luganet. Partner Commerciale
Virtualizzazione Infrastrutture ICT - Consulenza specialistica sulla virtualizzazione di infrastrutture - Virtualizzazione dei server e/o dello storage - Implementazione e configurazione infrastrutture
DettagliA1 Titolo dell attività di ricerca. ReCaS: (già PONa3_00052, Avv. 254/Ric.)
A1 Titolo dell attività di ricerca ReCaS: (già PONa3_00052, Avv. 254/Ric.) A2 Responsabile (aggiungere eventuale referente del Dipartimento se il Responsabile non è un afferente ad esso) Responsabile Prof.
DettagliRTCP SYSTEM ACTIVE PRESSURE MANAGEMENT FOR A SMART WATER NETWORK
ACTIVE PRESSURE MANAGEMENT FOR A SMART WATER NETWORK ACTIVE PRESSURE MANAGEMENT FOR A SMART WATER NETWORK CONTROLLO IN TEMPO REALE DI PRESSIONI, PORTATE, PERDITE E TRANSIENTI DI PRESSIONE RIDUZIONE PERDITE
DettagliOpenStack Self Data Center: il cloud computing secondo TIM
OpenStack Self Data Center: il cloud computing secondo TIM Michelangelo Uberti Marketing Analyst/Par-Tec S.p.A. #redhatosd PAR-TEC IN A NUTSHELL Par-Tec è un software & infrastructure system integrator
DettagliLHCb: transizione RPC MWPC
LHCb: transizione RPC MWPC INFN Firenze Stato dei test di aging delle RPC 1. Due prototipi studiati dal 1999 2. RPC A irraggiata durante il 2001 Q int 0.4 C/cm 2 RPC B utilizzata come riferimento, non
DettagliGli esperimenti LHC verso HiLumi. Nadia Pastrone
Gli esperimenti LHC verso HiLumi Nadia Pastrone Bologna 13 Ottobre 2018 LHC: indispensabile! Since then: huge progress Modello Standard funziona ma domande fondamentali ancora oggi senza risposta Piano
DettagliVirtual Desktop Infrastructure
La ISA nasce nel 1994 Si pone sul mercato come network indipendente di servizi di consulenza ICT alle organizzazioni nell'ottica di migliorare la qualità e il valore dei servizi IT attraverso l'impiego
DettagliBaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1
BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano 20-9-2004 CSN1-Assisi L.Perini 1 Note generali e MoU I referees si congratulano con BaBar per l impegno e i risultati ottenuti nel computing Ancora
DettagliIT SERVICES & CLOUD VIRTUAL SERVER
IT SERVICES & CLOUD VIRTUAL SERVER SERVICE DESCRIPTION VIRTUAL SERVER COS È VIRTUAL SERVER è la soluzione ideale per le aziende che desiderano disporre di un server interamente in CLOUD. Attraverso rapidi
DettagliREFRESH HARDWARE SAP HANA ON IBM POWER SYSTEMS YOCTOIT CASE STUDY
REFRESH HARDWARE HANA ON IBM POWER SYSTEMS YOCTOIT CASE STUDY Chi è IL CLIENTE Problema DA RISOLVERE Azienda Leader in Italia nel settore della produzione e commercializzazione dei gas tecnici, industriali,
DettagliFondi Comuni LHC e attivita RRB-SG. M. Morandin CSN1 10 ottobre 2005
Fondi Comuni LHC e attivita RRB-SG M. Morandin CSN1 10 ottobre 2005 Attivita SG Due riunioni a giugno e settembre incontri durante l estate per esame piu dettagliato delle richieste degli esprimenti alcuni
DettagliOrganizzazione LAN dei Tier2 di CMS Italia
Organizzazione LAN dei Tier2 di CMS Italia Premesse... Non sono un fisico di CMS ma solo un tecnologo di servizio calcolo Raccolte le informazioni dai singoli T2 cercando di coinvolgere le tre entità coinvolte:
DettagliSoftware. Computing. Fisica
Software Computing Fisica Attivita software: Algoritmi di ricostruzione (L2) e studi di High Level Trigger (HLT) nel gruppo PRS/mu (co-scrittura codice ricostr., calcolo di tavole di trigger rate ed efficienze,
Dettaglienimonitor proactive IT monitoring
enimonitor proactive IT monitoring enimonitor EniMonitor è il modulo che consente il monitoraggio proattivo delle reti informatiche. EniMonitor è il progetto Open Source Nagios, corredato da numerosi add-on
DettagliELASTIC CLOUD STORAGE (ECS) APPLIANCE
Specifiche tecniche ELASTIC CLOUD STORAGE (ECS) APPLIANCE Dell EMC Elastic Cloud Storage (ECS ) Appliance è una piattaforma di storage cloud software-defined multifunzionale. Questa soluzione Dell EMC
Dettagli5. quesito [ CSDP Servizi prodotti in Ambiente Intel X86 - Core ]
1. quesito [ CSDP 3.7.4 Lista prodotti SW Oracle ] Nelle tabelle riportate nei punti 3.8.1 e 3.8.2 si fa riferimento alle varie aree applicative con i relativi DBMS e DB. Per poter correttamente valutare
DettagliCosa facciamo. Outsourcing services since 1995: Database Assessment & Professionals. Network Assessment & Professionals
Careers Cosa facciamo Database Assessment & Professionals Outsourcing services since 1995: Network Assessment & Professionals Remote Backup as a Service SERVIZI Cloud Applicativo: SAP Dynamics AX Dynamics
DettagliAttività di analisi e calcolo dei gruppi italiani
Attività di analisi e calcolo dei gruppi italiani Attività Gruppo di Coordinamento Analisi Survey attivita italiane PAG/POG/DPG Riunioni mensili tematiche Coordinamento attivita italiane Similfellow Calcolo
DettagliProgetto ReCaS status update. Giuseppe Andronico WS CCR, Catania 28 Maggio 2014
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre applicazioni Finanziamento totale ReCaS: 13.7 M (90%
DettagliIBM Spectrum Computing Famiglia IBM Spectrum Computing
Famiglia Velocizzare i risultati delle applicazioni computing e data-intensive 2 Famiglia Caratteristiche principali Aumentare la competitività con risultati più rapidi e l aumento del throughput Ridurre
DettagliA.P.System s.r.l. Terminal Services. sempre. ovunque. comunque
A.P.System s.r.l. Terminal Services sempre ovunque comunque Caratteristiche del Mercato L evoluzione tecnologica e del mercato pongono sempre più frequentemente le Aziende nella situazione di dover affrontare
DettagliCatAq. offsite backup e storage remoto su un'infrastruttura object storage multi sito
CatAq offsite backup e storage remoto su un'infrastruttura object storage multi sito Francesco Ferrera francesco.ferrera@lns.infn.it Emidio Giorgio emidio.giorgio@lns.infn.it Concettina Maiolino cettina.maiolino@lns.infn.it
Dettagli