Progetto di massima. Centro Tier 2 di Torino



Documenti analoghi
Aspetti critici rete LAN e WAN per i Tier-2. R.Gomezel

Povo2. Nuovo Datacenter d Ateneo. Trasloco sala macchine domenica 14 dicembre 2014

Identificazione documento. Approvazioni. Variazioni DEGLI STUDI DI NAPOLI FEDERICO II. Centro di Ateneo per i Servizi Informativi

Infrastruttura di produzione INFN-GRID

REGOLAMENTO PER L ISTITUZIONE E L APPLICAZIONE DEL SISTEMA DI MISURAZIONE E VALUTAZIONE DELLA PERFORMANCE

May Informatica S.r.l.

Titolo progetto: ConsoliData. Ambito di intervento: ICT e dispositivi sensoriali. Struttura di riferimento : Coordinatore di progetto: INFN

Calcolatori Elettronici A a.a. 2008/2009

MANUALE DELLA QUALITÀ Pag. 1 di 6

COMUNE DI RENATE Provincia di Monza e Brianza

03. Il Modello Gestionale per Processi

Allegato 2 Modello offerta tecnica

Modello di Progetto di massima Centro Tier 2

A.O. MELLINO MELLINI CHIARI (BS) GESTIONE DELLE RISORSE 1. MESSA A DISPOSIZIONE DELLE RISORSE RISORSE UMANE INFRASTRUTTURE...

REGIONE DEL VENETO. Impianto di messa in riserva e recupero di rifiuti speciali non pericolosi presso il Comune di San Pietro di Morubio

(Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari

Il modello di ottimizzazione SAM

IL RISPARMIO ENERGETICO E GLI AZIONAMENTI A VELOCITA VARIABILE L utilizzo dell inverter negli impianti frigoriferi.

della manutenzione, includa i requisiti relativi ai sottosistemi strutturali all interno del loro contesto operativo.

Elementi per la stesura del Documento Programmatico sulla Sicurezza 2009 RILEVAZIONE DEGLI ELEMENTI UTILI AI FINI DELL AGGIORNAMENTO DEL DPS 2009

Verifica scritta di Sistemi e Reti Classe 5Di

Comune di San Martino Buon Albergo

Le fattispecie di riuso

Export Development Export Development

Rapporto ambientale Anno 2012

WNoD: Virtualizzazione, Grid e Cloud nel Calcolo Scientifico per l INFN

REGOLAMENTO PER L ORGANIZZAZIONE E LA GESTIONE DELLE EMERGENZE ALL INTERNO DEGLI EDIFICI DELL UNIVERSITA

REGOLAMENTO OPERATIVO PER L UTILIZZO DELL IMPIANTO ESTERNO DI VIDEOSORVEGLIANZA

Avvio della programmazione

Progetto Atipico. Partners

Configuration Management

Identificazione documento. Approvazioni. Variazioni DEGLI STUDI DI NAPOLI FEDERICO II. Centro di Ateneo per i Servizi Informativi

Anno Rapporto ambientale

Monitoraggio dell attuazione della legge 440/97 Analisi di contesto e Gantt delle operazioni

D 3) PUNTEGGIO TECNICO DELL APPALTO SPECIFICO

UTILIZZATORI A VALLE: COME RENDERE NOTI GLI USI AI FORNITORI

REGIONE BASILICATA DIPARTIMENTO PRESIDENZA DELLA GIUNTA UFFICIO SOCIETÀ DELL INFORMAZIONE

Regolamento per l introduzione del bilancio unico e dei sistemi di contabilità economico-patrimoniale e analitica.

DIPARTIMENTO INFORMATIVO e TECNOLOGICO

RIDURRE I COSTI ENERGETICI!

LA MIGRAZIONE IN SEMPLICI STEP. Il moving di una macchina Linux sul Cloud Server Seeweb

Concorso Premiamo i risultati DOCUMENTO DI PARTECIPAZIONE

MANDATO DI AUDIT DI GRUPPO

IL SERVIZIO DI POSTA ELETTRONICA

Project Cycle Management La programmazione della fase di progettazione esecutiva. La condivisione dell idea progettuale.

PRINCIPI FONDAMENTALI...

IL SISTEMA DI MISURAZIONE E VALUTAZIONE DELLA PERFORMANCE

Network Monitoring. Introduzione all attività di Network Monitoring introduzione a Nagios come motore ideale

Progetto di massima Centro Tier 2 Sezione di Milano

Questionario di valutazione: la preparazione di un istituzione

Il Progetto di Centro di Reprocessing di BaBar: Monitoring e Simulazione

La tecnologia cloud computing a supporto della gestione delle risorse umane

COMUNE DI RAVENNA GUIDA ALLA VALUTAZIONE DELLE POSIZIONI (FAMIGLIE, FATTORI, LIVELLI)

TELEFLUX 2000 PLUS SISTEMA DI SUPERVISIONE CONTROLLO ED AQUISIZIONE DATI PER LA PUBBLICA ILLUMINAZIONE

/DERUDWRU\IRU$GYDQFHG3ODQQLQJ DQG6LPXODWLRQ3URMHFW

I Sistemi di Gestione Integrata Qualità, Ambiente e Sicurezza alla luce delle novità delle nuove edizioni delle norme ISO 9001 e 14001

PO 01 Rev. 0. Azienda S.p.A.

POLITICA DI COESIONE

Programma triennale per la trasparenza e l integrità ANVUR

S i s t e m a d i v a l u t a z i o n e d e l l e p r e s t a z i o n i d e i d i p e n d e n t i

Allegato 3 Sistema per l interscambio dei dati (SID)

Sistemi avanzati di gestione dei Sistemi Informativi

Modulo Piattaforma Concorsi Interattivi

n. prog. QUESITO RISPOSTA In riferimento al Capitolato Tecnico, si richiedono le seguenti specifiche:

IL FITOFOR: UNO STRUMENTO PER LA GESTIONE DELLE INFORMAZIONI FITOSANITARIE. Marino Vignoli, Elisa Moneti, M. Miozzo DREAM - Italia

PIANIFICAZIONE DELLA FORMAZIONE: processi, attori e strumenti

Guida Compilazione Piani di Studio on-line

Introduzione al Cloud Computing

Regolamento 27 maggio 2008, n.14. Regolamento relativo alla presentazione e valutazione di progetti

A cura di Giorgio Mezzasalma

Gestione in qualità degli strumenti di misura

Capitolato per la selezione di una cooperativa sociale di tipo b per la realizzazione di attività relative all ambito disabilità e protezione civile

GUIDA PER IL DOCENTE ALL UTILIZZO DELL APPLICATIVO ONLINE E PORTFOLIO

LA POSIZIONE ASSOCIATIVA IN TEMA DI VITA UTILE DELLE APPARECCHIATURE DI LABORATORIO E FORNITURE IN SERVICE

ENERGY EFFICIENCY ENERGY SERVICE COMPANY ENERGY EFFICIENCY ENERGY SERVICE COMPANY ENERGY + EFFICIENCY

MService La soluzione per ottimizzare le prestazioni dell impianto

SVILUPPO, CERTIFICAZIONE E MIGLIORAMENTO DEL SISTEMA DI GESTIONE PER LA SICUREZZA SECONDO LA NORMA BS OHSAS 18001:2007

1- Corso di IT Strategy

PARTNER DI PROGETTO. Università degli Studi di Palermo Dipartimento di Ingegneria Industriale

Servizi ASP. ASP su Centro Servizi TeamSystem Contratto e SLA

4.5 CONTROLLO DEI DOCUMENTI E DEI DATI

INVENTION AND TECHNOLOGY DISCLOSURE FORM SCHEDA DI RICHIESTA PER L APERTURA DI UNA PRATICA DI BREVETTO

Comune di Forlì Unità sviluppo organizzativo

Progetto Vserver- HighAvailability

AZIENDA ULSS 20 DI VERONA

11. Evoluzione del Software

Ciclo di vita dimensionale

Politica per la Sicurezza

Allegato A al CCNL 2006/2009 comparto Ministeri

Piano delle Performance

SISTEMA INFORMATIVO AGRICOLO REGIONALE AGGIORNAMENTO PROGETTO OPERATIVO PER LA REALIZZAZIONE DELLA RETE DI COMUNICAZIONE

PEC per i professionisti. Roma, 1 dicembre 2009

COMUNE DI CASTELLAR (Provincia di Cuneo) PROGRAMMA TRIENNALE PER LA TRASPARENZA E L INTEGRITA TRIENNIO 2014/2016.

Project Management. Modulo: Introduzione. prof. ing. Guido Guizzi

Università degli Studi di Ferrara

Corso di Formazione per Gestori Impianti Sportivi

Ministero dell economia e delle finanze Dipartimento per le politiche fiscali Ufficio coordinamento tecnologie informatiche Mariano Lupo

Il presente documento è conforme all'originale contenuto negli archivi della Banca d'italia

SymCAD/C.A.T.S. modulo Canali Schema

PROGRESS: UN CODICE PER IL CALCOLO DELLE EMISSIONI DA VEICOLI STRADALI IN AMBITO URBANO

Transcript:

Referees del calcolo LHC e Commissione Calcolo e Reti INFN Sezione di Torino Progetto di massima Centro Tier 2 di Torino (v. 1.3)

1Caratteristiche generali.1.1 Funzioni che il centro deve svolgere Descrizione delle varie funzioni che il centro dovrà svolgere negli anni dal 2006 al 2010, sia a favore dei gruppi italiani che dell'intera collaborazione, con riferimento esplicito alle prestazioni di servizio e di continuità operativa che si debbono garantire, servizi Grid inlcusi (espressa p.es., come frazione minima di tempo in cui il centro dovrà essere in funzione complessivamente e come tempo massimo per il ripristino dell'attività in circostanze normali). Il centro di Torino si propone come centro di calcolo di livello 2 (tier 2 secondo la terminologia del progetto MONARC) per la collaborazione ALICE. Le funzioni che i centri Tier-2 di ALI- CE dovranno assolvere sono descritte nel Computing Technical Design Report dell esperimento e prevedono essenzialmente: Simulazione e ricostruzione di eventi Monte Carlo. Nei Tier-2 saranno quindi prodotti Event Summary Data (ESD) di simulazione in tutto simili a quelli derivanti dalla ricostruzione dei dati raw. Analisi finale dei dati a partire da ESD o da AOD (Analysis Object Dataset) prodotti rispettivamente nelle fasi di ricostruzione dei dati e di pre-analisi sistematica ( scheduled ) effettuate prevalentemente nei centri Tier-1. Fornitura di storage a breve termine su disco per un accesso efficiente e veloce ai dati oggetto di analisi (e di ricostruzione per i dati simulati). Le attività di analisi finale sono mirate a particolari canali di fisica e sono effettuate da piccoli working group di fisici (o utenti singoli) e verranno condotte su dati residenti, eventualmente per intero, nel Tier-2 in cui l analisi viene svolta. Quindi lo storage sarà principalmente destinato ad ospitare AOD, ESD e solo in piccola parte dati grezzi. Lo storage a lungo termine avrà luogo nel Tier-1 del CNAF. Uno schema dei compiti assegnati ai centri di livello diverso è presentato in figura. Occorre tuttavia tenere presente che, in un sistema di grid efficiente, questa schematizzazione di ruoli rappresenta una semplificazione di massima: la distribuzione delle task ai vari centri di calcolo verrà stabilita dinamicamente, con una certa flessibilità, sulla base della disponibilità

effettiva delle risorse. Questo approccio è stato effettivamente testato con successo su scala ridotta (10%) nel corso dei data challenge condotti sinora dalla Collaborazione. Nel modello di calcolo di ALICE, fortemente basato sulla disponibilità di strumenti efficienti di grid, la localizzazione dei dati non è essenziale ed i centri sono al servizio dell intera Collaborazione. Tuttavia, le task di analisi finale e di simulazione sono in generale condotte da gruppi di lavoro che, per ragioni di efficienza, concentreranno la propria attività su un mumero limitato di Tier-2. In questo senso, la scelta della sede di Torino, come del resto delle altre tre sedi italiane, è motivata dal fatto che esiste una comunità locale di fisici impegnati nell esperimento che fornirà il naturale bacino di utenza del centro. Le attività e le competenze della comunità di Torino sono descritte nel paragrafo successivo. Visto che nel modello di calcolo di ALICE, i tier-2 non devono fornire un servizio di storage a lungo termine di dati altrimenti non reperibili altrove, i requisiti sul livello di servizio che questi devono offrire sono considerevolmente inferiori a quelli richiesti ad un Tier-1. Il centro sarà presidiato 5 giorni su 7 nel normale orario lavorativo. Al di fuori di questi orari e nei giorni festivi, il controllo sarà per quanto possibile svolto remotamente e gli interventi saranno effettuati in uno spirito di best effort, con un ruolo attivo da parte dei ricercatori della sede. Maggiori dettagli verranno dati nel paragrafo 2.3..1.2 Comunità di riferimento e competenze esistenti Gruppi di ricercatori della collaborazione che propongono la costituzione del Centro e si assumono la responsabilità di farlo crescere e funzionare. Competenze ed esperienze esistenti fra coloro che parteciperanno all'impresa. La comunità di riferimento è rappresentata dagli oltre 30 tra ricercatori e borsisti dei gruppi di Alessandria e Torino che partecipano aa ALICE. I due gruppi hanno importanti responsabilità nell esperimento. Sono di Torino/Alessandria i: Deputy Spokesman di ALICE: P. Giubellino Responsabile del progetto dell Inner Tracking System: L. Riccati; Responsabile del Silicon Drift Detector nell ambito dell ITS: F. Tosello; Responsabile dell offline dell ITS: M. Masera; Responsabile del progetto ZDC: M. Gallio; Responsabile dell offline dello ZDC: E. Scomparin; Vice-responsabile del progetto del Muon Arm: E. Vercellin; Convenor del Soft Physics working group di ALICE (uno dei 4 working group di Fisica): L. Ramello Responsabile delle attività su GRID di ALICE e dell interfacciamento del framework di produzione con LCG: P. Cerello Nella tabella seguente sono elencati soltanto coloro che hanno al momento un attività nell offline. Cognome Nome Posizione attività Cortese Pietro RU Analisi e simulazione - MUON arm Ramello Luciano PO ITS Convenor del Physics Working Group 2 Sitta Mario RU ITS Esperto di farming responsabile del prototipo T2 esistente

Alessandro Bruno Pr. Ric. INFN ITS construction DB SDD Arnaldi Roberta Ric. INFN Analisi dati e simulazione ZDC Batigne Guillaume borsista INFN ITS construction DB e calibrazione SDD Bruna Elena dottoranda Analisi dati e simulazione ITS Cerello Piergiorgio Ric INFN ITS responsabile GRID activities di ALICE (Europa) Crescio Elisabetta Assegnista ITS tracking e vertexing De Marco Nora Pr. Ric. INFN Analisi dati e simulazione - ZDC Gaudichet Ludovic borsista ITS geometria analisi Gemme Roberto dottorando ZDC simulazione Masera Massimo PA responsabile offline ITS e referente italiano per il calcolo di Alice Monteno Marco ric. INFN ITS fisica p-p in ALICE Oppedisano Chiara Assegnista Analisi dati e simulazione ZDC Prino Francesco Ric. INFN Analisi dati e simulazione ITS Scomparin Enrico Pr. Ric. INFN Analisi dati e simulazione ZDC e MUON arm È dalla fine dell anno 2000 che il gruppo di Torino gestisce un prototipo di Tier-2 che ha partecipato con successo alle attività di calcolo dell esperimento degli ultimi anni. Il centro di Torino è uno dei tre siti pilota (con Legnaro e Milano) ad essere stato registrato in LCG all inizio dell attività della GRID di produzione nel 2003. Nel corso dell ultimo anno, l attività dei gruppi di Torino e di Alessandria si è articolata su tre linee: Sviluppo e consolidamento del prototipo di Tier-2 con l installazione di nuovi server disco e di nodi di calcolo. Su una parte delle risorse si è installato il middleware di LCG e più recentemente sono stati testati un Resource Broker e una User Interface di glite. Inoltre, nelle fasi I e II del Physics Data Challenge 2004 (P.D.C.), si è configurato su di una User Interface di LCG un servizio di CE e SE di AliEn per interfacciare l ambiente di produzione dell esperimento con LCG. Il proto Tier-2 torinese ha partecipato al Physics Data Challenge del 2004, contribuendo a poco meno del 10% della statistica totale. A Torino era installata e gestita l interfaccia per l accesso alle risorse LCG. Sviluppo e test di software legato all uso della Grid. Nella seconda metà del 2004 si è utilizzato il sistema di interfaccia AliEn-LCG, sviluppato a Torino, per l accesso alle risorse di InfnGrid. Inoltre è stato testato il Resource Broker di glite ed il File Catalogue (LFC) di LCG, con una simulazione di alcune migliaia di eventi che sono utilizzati nell ambito del Physics Working Group sugli Heavy Flavour. Infine, a partire dal febbraio 2005, si è iniziata l attività di interfacciamento tra AliEn e le nuove componenti middleware della GRID di produzione (LCG e glite). L attività è tuttora in corso e l interfaccia sarà utilizzata nelle Service Challenge del 2005. Queste attività sono coordinate, a livello della Collaborazione, da Piergiorgio Cerello, nell ambito

delle Service Challenge di LCG. Stefano Bagnasco rappresenta la persona di collegamento tra la Collaborazione ed il progetto speciale InfnGrid per quanto riguarda lo sviluppo del middleware e la sua rispondenza alle necessità specifiche di Alice ed è impegnato nello sviluppo e nella implementazione delle componenti necessarie. Sviluppo di software legato ai rivelatori e a studi di fisica. L attività in questo senso riflette le responsabilità che i gruppi di Torino e Alessandria hanno nell ambito della costruzione dell apparato. Per quanto riguarda lo ZDC, per determinare la centralità in collisioni p-a, è stato realizzato un generatore per simulare l emissione di nucleoni lenti (tracce grigie) che risultano essere proporzionali al numero di collisioni nucleonenucleone. I risultati delle simulazioni sono stati inclusi nel PPR. È tuttora in corso lo sviluppo della fast simulation dello ZDC per la determinazione accurata della centralità degli urti Pb-Pb. Per quanto riguarda il muon arm, è stata studiata la produzione di coppie di muoni da decadimento del quark b, identificando la relativa componente nello spettro di massa invariante dei dimuoni. È stato inoltre portato a termine lo studio della determinazione del comportamento a basso x (<10-5 ) delle funzioni di struttura dei gluoni. Questo risultato è stato ottenuto attraverso lo studio della distribuzione in rapidità delle J/ψ prodotte in collisioni p-p. Per quanto riguarda l ITS si è lavorato parecchio per il core-offline del progetto: riorganizzazione del codice in librerie distinte per simulazione e ricostruzione, razionalizzazione dei diversi cluster finder esistenti in un quadro unitario (l attività è ancora in corso), migrazione del codice di simulazione e analisi dei beam test delle SDD in AliRoot. Per quanto riguarda l attività più direttamente legata alla fisica, si sono fatti progressi nello studio dell open charm (D + Kππ ), in particolare nell ottimizzazione degli algoritmi di ricerca di vertici secondari a 3 corpi vicini al vertice primario. L ottimizzazione dei tagli per la selezione dei candidati D + è in corso. A questo scopo, nell ambito del Physics Working Group sugli Heavy Flavour, si è iniziata nel maggio 2005 una simulazione massiccia su LCG di eventi Pb-Pb di fondo e di eventi contenenti solo segnale. Il gruppo è inoltre impegnato nell identificazione di particelle di basso momento mediante ionizzazione specifica nell ITS e nell identificazione di tagli efficienti per lo studio di iperoni strani. Nel quadro delle attività del working group sulla fisica protone-protone, durante la preparazione del Data Challenge 2004 (100 mila eventi p-p minimum-bias generati e ricostruiti al CERN a dicembre 2004) è stato effettuato uno studio preliminare di eventi generati con PYTHIA 6.214. Gli eventi prodotti con il DC04 sono stati poi analizzati localmente, sulla farm di Torino, per determinare gli spettri in Pt e molteplicita' delle tracce cariche ricostruite con la TPC e l'its. Inoltre, sono state determinate le efficienze di alcune configurazioni del trigger minimum-bias basato sui rivelatori VZERO. I risultati di tali studi sono riportati nella sezione 6.1.7 del Physics Performance Report (vol.2), dedicata alla caratterizzazione degli eventi p-p. L'attività di raggi cosmici in Alice a Torino nel corso dell'ultimo anno è stata concentrata nella scrittura della sezione 6.11 del PPR ("Cosmic rays in Alice") e nella messa a punto di un sistema di acquisizione per fare dei test su scintillatori per il trigger di cosmici. Per la scrittura del PPR sono stati simulati eventi di sciami atmosferici ed analizzati con programmi scritti opportunamente per Alice. In questo modo sono state selezionate le prime misure che potranno essere svolte con la TPC di Alice non appena l'esperimento entrerà in funzione..1.3 Sede proposta Sede proposta per il centro e descrizione delle principali altre attività di calcolo previste essere presenti presso la stessa, fra il 2006 e il 2010.

La sede proposta per il centro Tier-2 di Torino è la Sala Farm del Centro di Calcolo della sezione INFN di Torino in via Pietro Giuria 1. Nella stessa sala saranno ospitate anche le farm degli esperimenti non LHC. 2Risorse di calcolo.2.1 Tipologia e quantità delle risorse di calcolo (CPU, Disco, switch di rete di primo livello con indicazione potenza elettrica assorbita) La valutazione delle risorse necessarie in funzione degli anni è stata fatta a partire dalle stime di ALICE per le risorse dei propri Tier-2, in termini di KSI2k e TB. La stima è basata sui dati contenuti nel Computing Technical Design Report, sul peso della componente italiana in seno alla Collaborazione e sul suo impegno nelle attività di calcolo. Si è tenuto conto anche delle indicazioni sui limiti di spesa forniti in via preliminare dall INFN. Queste valutazioni sono state presentate nella seduta di giugno 2005 della Commissione Scientifica Nazionale III. I progetti dei 4 Tier-2 di ALICE sono stati fatti assumendo un equidistribuzione delle risorse sui quattro siti. Da queste valutazioni sono state poi derivate le stime in numero di box e dischi, e di conseguenza le necessità in termini di spazio fisico, potenza elettrica e costi. A tal fine è stata utilizzata la seguente tabella, usata come riferimento comune da tutti gli esperimenti di LHC (modello di previsione PASTAIII del CERN modificato da B. Panzer) 2004 2005 2006 2007 2008 2009 2010 ksi2k/box 2,40 3,60 5,40 8,10 12,15 18,23 27,34 GB/disk 200 330 540 900 1500 2400 4000 La quantità di risorse per il Tier-2 di Torino in funzione del tempo è riportata nella tabella seguente: 2005 2006 2007 2008 2009 2010 KSI2K 150 150 283 645 1210 1500 TB 23 52 103 232 444 532 La stessa informazione è riportata qui in forma grafica per la CPU:

CPU (KSI2K) 1600 1400 1200 1000 KSI2K 800 600 400 200 0 dic-05 mar-06 E per il disco: giu-06 set-06 dic-06 mar-07 giu-07 set-07 dic-07 mar-08 giu-08 set-08 Year dic-08 mar-09 giu-09 set-09 dic-09 mar-10 giu-10 set-10 dic-10 DISKS (TB) 600 500 400 TB 300 200 100 0 dic-05 mar-06 giu-06 set-06 dic-06 mar-07 giu-07 set-07 dic-07 mar-08 giu-08 set-08 YEAR dic-08 mar-09 giu-09 set-09 dic-09 mar-10 giu-10 set-10 dic-10 La valutazione in termini di KSI2k e TB si traduce in box da una unità standard e numero di dischi applicando la tabella di conversione convenzionalmente adottata: 2005 2006 2007 2008 2009 2010 CPU (BOXES) 47 47 52 82 88 99 DISKS 83 138 166 251 301 275

.2.2 Profilo di acquisizione Le risorse verranno installate nello stesso anno di acquisizione per essere disponibili a fine anno alla Collaborazione. Il profilo temporale tiene conto delle sostituzioni dell hardware obsoleto, assumento una vita operativa di quattro anni sia per la cpu che per i dischi. Il profilo di acquisti per anno è riassunto dalla tabella seguente, presentata in Commisione III: 2006 2007 2008 2009 2010 CPU (BOXES)/YR 0 21 30 37 11 DISKS /YR 55 65 86 95 29 CPU (Ksi2K)/YR 0 173 363 675 290 DISKS (TB) /YR 30 59 129 227 117.2.3 Target di performance di utilizzo dei mezzi di calcolo Tempi di installazione e configurazione, efficienza di utilizzo della CPU e dello storage, downtime per interventi di manutenzione. Il tempo di installazione fisica delle macchine, sia che venga effettuata dai fornitori, sia che venga effettuata dal personale del centro, richiede tempi che si possono stimare in 2-3 giorni per equipaggiare un rack da 42 U. La configurazione del sistema operativo e del software di GRID viene fatta con tool automatici: con i sistemi APT/YAIM si impiega tipicamente mezza giornata lavorativa per il server e il repository e circa un ora a box, certificazione compresa. Sono previsti downtime totali della farm in caso di upgrade del software o di interventi su componenti critici del sistema (switch di rete, controller FibreChannel, ) Per minimizzare l impatto dei guasti della farm, verrà posta particolare attenzione agli elementi critici quali servizi di sito, storage ed elettronica di rete. Sulla base dell esperienza maturata finora verranno utilizzati: Elementi hardware ridondanti (alimentatori, dischi in configurazione RAID) Disponibilità adeguata di parti spare (dischi, alimentatori) Estensione di garanzia con interventi on-site Next Business Day oppure con Advance Replacement In base all esperienza maturata sul prototipo, ci si aspetta una frequenza di 1-2 incidenti rilevanti (downtime totale del sistema per più di qualche ora) all anno. 3Infrastrutture.3.1 Infrastrutture di rete Descrizione dell' infrastruttura di rete nelle sue due componenti di struttura interna e di collegamento alla rete geografica. Si assume che il primo livello di connessione delle singole macchine del Tier 2 sia parte integrante dell'architettura delle farm, mentre il secondo livello costituisca l'infrastruttura locale di rete che, in uno schema di base, potrebbe essere formata da un unico centro-stella con diverse porte ad alta velocità. Per il collegamento verso l'esterno, e' utile venga indicata, oltre a quella necessaria per il Tier 2, anche la banda complessiva totale prevista in ingresso e uscita, comprensiva delle altre utenze presenti in sede. La BGA e' la Banda Garantita di Accesso e la BEA e' la Banda Effettiva di Accesso che di solito sta tra 2 e 10 volte la BGA massima ed è determinata dalla tecnologia di accesso

(valori multipli di 1, 2.5 o 10 Gbit/s). Per quanto riguarda l infrastruttura di rete di primo livello, che è parte integrante dell architettura delle farm, al momento vengono utilizzati switch con porte prevalentemente a 1 Gb/s. Non sono presenti switch con porte a 10 Gb/s. Alcuni server, tuttavia, utilizzano collegamenti multipli allo switch, effettuando il load balancing, in modo tale da aumentare il throughput complessivo. Gli indirizzi ip dei nodi e dei server delle farm del Tier-2 appartengono ad una rete privata e comunicano con la rete esterna attraverso opportuni gateway (il Computing Element, ad es.) oppure mediante la traduzione degli indirizzi mediante NAT. I nodi visibili delle farm hanno un indirizzo pubblico appartenente ad una sottorete di classe C dedicata alle farm e fisicamente separata dalla rete pubblica di Sezione. Gli switch delle farm del Tier-2 sono collegati al centro stella della Sala Farm (attualmente costituito da un Summit 5i, con 16 porte a 1 Gbit/s) e quest ultimo è collegato al router di frontiera della sezione (Cisco 7304, acquistato nel 2004) mediante un link in fibra ottica ad 1 Gb/s. Lo switch centro stella della Sala Farm dovrà essere sostituito nel 2006 per aumentare il numero di porte disponibili. A sua volta il router di frontiera è collegato al PoP GARR-G, ospitato dalla Sezione INFN nello stesso edificio, mediante un link in fibra ottica ad 1 Gb/s. Attualmente sono in corso alcuni test di performance del trasferimento dati tra il Tier-2 di Torino ed il Tier-1 del CNAF, nell ambito delle attività per il Service Challenge 3. Per quanto riguarda la banda necessaria per il Tier-2, ALICE prevede la necessità di una banda garantita a partire dal 2007, fino a raggiungere 1 Gb/s in uscita e 200 Mb/s in entrata nel 2010 (vedi tabella). Non è attualmente possibile valutare con precisione le necessità di banda per gli esperimenti non LHC a partire dal 2008, né il costo degli switch necessari (aumento di 8 porte Gb/s dal 2008 e di due porte 10 Gb/s nel 2010). Sistemi di rete unita' 2005 2006 2007 2008 2009 2010 Caratteristiche principali Numero di porte centro-stella a 10 Gbps n. 0 0 0 0 0 2 Numero di porte centro-stella a 1 Gbps n. 16 24 24 32 32 32 BGA in uscita dal Tier 2 Mbps 300 600 600 1000 BGA in entrata dal Tier 2 Mbps 50 100 100 200 BGA in uscita complessiva Mbps 70 70 370 650 650 1000 BGA in entrata complessiva Mbps 70 70 120 150 150 250 BEA verso il GARR Mbps 1000 1000 1000 1000 1000 10000 Costi Costo centro stella e altre apparecchiature di rete keuro 4 Costo manutenzione annuale keuro

.3.2 Logistica Caratteristiche strutturali della Sala Macchine che possono influenzare le scelte impiantistiche: Collocazione sala, superficie totale disponibile e superficie necessaria per il Tier 2 Caratteristiche sala (accessibilità, esposizione a rischi ambientali, altezza soffitto, portata pavimento, previsione di pavimento flottante,... ) Conseguenti vincoli sulla disposizione delle apparecchiature di calcolo (peso dei rack, altezza dei rack,...) e sull' accessibilità alle stesse. Collocazione delle unità tecnologiche (UPS, condizionamento, eventuale gruppo elettrogeno, quadri elettrici, impianto antincendio, ecc.) La Sala Farm, dove sarà localizzato il Tier-2, è ospitata nel Centro di Calcolo della sezione INFN che si trova nel I seminterrato del vecchio edificio dell Istituto di Fisica. E dotata di pavimento galleggiante. Alle farm sono riservate 12 linee elettriche trifase che sono collegate al quadro elettrico del Centro di Calcolo mediante due linee da 80 A ciascuna. Queste linee, il quadro della Sala Farm con gli interruttori magnetotermici a cui le farm sono collegate, ed il quadro elettrico del Centro di Calcolo sono stati realizzati nel 2004 con fondi di sezione. Al Centro di Calcolo si può accedere dal corridoio nel I seminterrato del vecchio edificio di Fisica oppure dal cortile (a cui si accede da C.so Massimo D Azeglio 46). L ingresso lato cortile è particolarmente utile per effettuare il trasporto di materiali.

.3.3 Impianti tecnologici.3.3.1 Potenza elettrica Le linee ed i quadri elettrici del Centro di Calcolo, che comprendono anche linee e quadro della Sala Farm, sono stati realizzati nel 2004 e sono dimensionati in modo tale da poter sostenere l assorbimento elettrico attuale e quello previsto almeno fino al 2007. Deve essere però verificato (e la richiesta è già stata inoltrata all ufficio tecnico dell Università) se la sottocabina dell Istituto di Fisica a cui il Centro di Calcolo è collegato è in grado di sostenere l aumento previsto di potenza elettrica, tenendo anche conto del fatto che a tale sottocabina sono collegate altre utenze dell Istituto. Per le necessità dal 2008 in poi occorrerà fare una ulteriore e più precisa valutazione. Tabella 1 unita' 2005 2006 2007 2008 2009 2010 Caratteristiche principali Potenza elettrica totale necessaria per macchine centro Tier 2 kw 22,1 24,3 27,5 42,9 47,3 50,6 Potenza elettrica totale necessaria per altre macchine presenti in sala kw 60,0 70,0 75,0??? Potenza elettrica disponibile in sala kva Potenza elettrica disponibile in cabina kva Potenza massima disponile per rack kva Disponibilita' sistema di monitoring e spegnimento automatico su allarme mese Costi Interventi necessari keuro Costo interventi keuro Costo manutenzione annuale keuro Costo energia elettrica keuro Per il calcolo della potenza necessaria per il Tier-2 (riportati nella tabella) sono stati utilizzati (dopo varie interazioni e discussioni) i valori costanti di 400 W per box e 40 W per disco che dovrebbero rappresentare una stima cautelativa delle necessità reali. Per quanto riguarda il costo della fornitura di energia elettrica per il Centro di Calcolo (e quindi anche per il Tier-2) attualmente tale costo non insiste sulla sezione INFN di Torino poiché è a carico dei Dipartimenti di Fisica dell Università con i quali è stata stipulata una convenzione generale. E molto probabile, pero, che con la crescita significativa del consumo di corrente elettrica sarà necessario ridefinire l accordo con l Università definendo un contributo specifico per questa spesa a carico della sezione INFN.

.3.3.2 Sistemi di raffreddamento e trattamento dell' aria Attualmente la sala calcolo, in cui sarà ospitato il Tier-2, è raffreddata da due condizionatori con le seguenti caratteristiche: condizionatore resa frigorifera tot (kw) resa frigorifera sens. (kw) HIMOD 42UA 43.4 41.3 HIMOD 65UA 66.6 60.6 Totale 110.0 101.6 Il secondo (e più potente) condizionatore è stato installato nel 2004 per dissipare il calore prodotto dalle farm. L incremento di potenza di calcolo e storage del Tier-2 non dovrebbe comportare problemi di condizionamento almeno fino alla fine del 2007. E in fase di valutazione l incremento di potenza di calcolo e storage per gli esperimenti non LHC per poter fare una valutazione complessiva della potenza frigorifera necessaria. E però necessario dotarsi da subito di sistemi per il convogliamento dell aria attraverso i rack, in modo tale da incrementare in modo significativo l efficienza della dissipazione del calore prodotto dalle farm. La spesa sarà valutata sulla base delle raccomandazioni che saranno date dal gruppo di lavoro costituito nel workshop sulle infrastrutture Tier-2 di Padova (ottobre 2005). Inoltre, un ulteriore elemento che influisce sulla dissipazione del calore, è il tipo di calcolatori utilizzati (ad es. sistemi blade vs calcolatori 1U) e anche di questo bisognerà tenere conto nel processo di definizione delle specifiche per i nuovi acquisti di hardware..3.3.3 UPS Attualmente non esiste un impianto UPS centralizzato per le farm. Le farm del Tier-2 sono protette da due piccoli UPS (da 3000 VA e 5000 VA) che proteggono i server importanti e lo switch di rete consentendo lo shutdown delle macchine in caso di mancanza di corrente. Sicuramente questo servizio dovrà essere notevolmente potenziato a partire dal 2006. La valutazione sarà effettuata tenendo conto delle raccomandazioni che saranno date dal gruppo di lavoro costituito nel workshop sulle infrastrutture Tier-2 di Padova (ottobre 2005).

.3.3.4 Gruppo elettrogeno Strategia di gestione dei black-out non programmati non gestibili dall' UPS ed eventuale acquisizione motivata di un gruppo elettrogeno. Attualmente non è presente un gruppo elettrogeno e non lo si ritiene indispensabile per il funzionamento del Tier-2..3.3.5 KVM Tecnologia adottata (seriale, IP) e caratteristiche di scalabilità ed accessibilità. Attualmente i calcolatori delle farm sono collegati a switch KVM standalone o, al più, collegati in cascata. E prevista l implementazione di una soluzione console su ip in modo tale da consentire la gestione remota delle farm e per questo nel 2005 è stato richiesto un finanziamento alla CCR (in terza priorità, non ancora assegnato). Per il 2006 sono stati richiesti ulteriori 60 keur per rack, remotizzazione console, UPS, etc. alla Commissione Calcolo e Reti..3.3.6 Impianto anti-incendio Esiste un impianto antincendio comune per il Centro di Calcolo e la sala farm. Tale impianto è costituito da 3 bombole di gas ecologico NAF S III, due a vista ed una sotto il pavimento galleggiante. Le bombole sono state ricollaudate il 1 aprile 2003. Non si ritiene necessario potenziare l impianto..3.3.7 Sistemi di allarme E attivo un impianto antifurto per il Centro di Calcolo dove sarà ospitato il Tier-2. In caso di allarme è previsto l intervento del personale di una ditta di sorveglianza privata (servizio pagato dall Università)..3.3.8 Controllo di accesso e di videosorveglianza E in fase di realizzazione la separazione della sala farm, dove sarà ospitato il Tier-2, dal Centro di Calcolo. L accesso alla sala farm avverrà da un ingresso dedicato con controllo di accesso mediante scheda magnetica e chiavi. Non esiste impianto di videosorveglianza.

4Risorse umane.4.1 Ruoli di responsabilità.4.1.1 Responsabilità gestionale e di coordinamento: Incarico assegnato a membro della collaborazione, coadiuvato eventualmente da un vice-responsabile, che svolge le funzioni di: coordinamento locale contatti con la collaborazione, con le Commissioni INFN, ecc. coordinamento con l'infrastruttura nazionale di Grid gestione procedure di acquisto ricerca e organizzazione personale di esperimento La responsabilità gestionale ed operativa del centro sarà assunta dalle seguenti persone: Massimo Masera (PA) Enrico Scomparin (primo ric. - vice) Luciano Gaido (primo tecnologo - coordinamento con l infrastruttura di GRID) Piergiorgio Cerello (ric. - coordinamento con la Collaborazione).4.1.2 Responsabilità tecniche responsabile(i) impianti e servizi generali responsabile architettura hardware e software del Tier2 coordinamento personale tecnico accesso e funzionamento risorse locali attraverso la Grid responsabile impianti e servizi generali e coordinamento personale: Luciano Gaido (primo tecnologo) responsabile architettura hardware e software: Mario Sitta (RU) e Stefano Lusso (tecnologo) accesso e funzionamento risorse locali attraverso la Grid: Stefano Bagnasco ( tempo determinato ).4.1.3 Responsabilità operative Un membro della collaborazione, incaricato di organizzare e gestire le attività di supporto operativo necessarie per l'utilizzo del centro da parte della collaborazione, incluse l' allocazione delle risorse di calcolo e la pianificazione delle attività di produzione in collaborazione con gli altri centri Tier1 e Tier2 Le responsabilità operative sono assunte dalle stesse persone che hanno le responsabilità gestionali, menzionate al punto 4.1.1

.4.2 Personale tecnico.4.2.1 Personale per i servizi di base Personale facente parte del servizio di calcolo della Sezione o Laboratorio che assicuri con la necessaria continuità i servizi di rete, gestione sicurezza (es.: security contact di Grid), E-mail, backup, ecc. I servizi di base, comuni con la Sezione, saranno forniti dal Servizio Calcolo e Reti di Sezione.4.2.2 Personale sistemistico dedicato (1.5-2 FTE distribuiti su due e o più persone) Personale tecnico o tecnologo incaricato di svolgere: installazioni hardware e software, configurazioni, interventi gestione contatti per interventi di installazione, riparazione e manutenzione gestione DB hardware, sistemi di monitoring e di allarmistica gestione eventuale tape library dedicata gestione installazione/aggiornamento middleware e servizi Grid Si ritiene che in linea di massima siano necessari: da 2 FTE per l'avvio del centro e durante i periodi di maggiore attività (es.: installazioni) fino ad 1 FTE quando il centro lavorerà a regime; la presenza dovrà essere assicurata in orario di lavoro, periodi di ferie inclusi. Vanno specificate eventuali necessità di outsourcing. Stefano Lusso (tecnologo del servizio calcolo e reti) Mario Sitta (RU) Pietro Cortese (RU) Federico Nebiolo (tempo determinato) Riccardo Brunetti (tempo determinato) Stefano Bagnasco (tempo determinato) La Sezione ha deciso che il prossimo concorso per un posto da tecnologo sarà destinato al servizio calcolo e reti per il supporto del Tier-2.4.2.3 Servizio di supporto sistemistico on-call remoto Disponibilità ad intervenire in finestre temporali al di fuori dell'orario di lavoro nei periodi in cui il centro e' operativo. Deve essere commisurato con gli obiettivi espressi al punto 1.1 Il servizio non è previsto al momento. Tuttavia, su una base di best effort e sull esperienza maturata finora, si cercherà di organizzare un monitoraggio remoto da parte di membri della Collaborazione, durante i giorni festivi..4.2.4 Servizio di intervento per gravi emergenze 24x7 Personale di agenzie di vigilanza per interventi in caso di gravi allarmi (incendio, elevata temperatura, ecc.) Gli impianti di allarme e anti incendio del Tier-2 sono collegati al sistema di gestione allarmi dell Istituto di Fisica che prevede l attivazione automatica dell impianto anti incendio e l intervento del personale di una ditta di vigililanza.

.4.2.5 Supporto operativo Personale incaricato di svolgere i seguenti compiti: manutenzione del software di esperimento movimentazione e archiviazione dei dati gestione documentazione per gli utenti servizio di supporto agli utenti interfacciamento con personale sistemistico coordinamento sottomissione job e controllo produzioni contatto locale per l'operazione della griglia di produzione L' impegno dipenderà dal livello di attività del centro. E' verosimile che complessivamente si tratti di compiti che richiedono l'equivalente di 1 FTE. Parte di queste attività (ad esempio la manutenzione del software di esperimento) sarà gestita a livello di Collaborazione via Grid. Le attività di manutenzione e supporto locali saranno fornite da: Roberta Arnaldi (ric. INFN) Francesco Prino (ric. INFN).4.3 Attribuzioni iniziali di responsabilita' Elencati nei paragrafi precedenti 5Piano di sviluppo e milestones Testo_da_inserire (UPS e aria forzata nei rack dal 2006) 6Piano finanziario complessivo Piano complessivo in cui vengono riassunti i costi di investimento, di manutenzione e di funzionamento dei centri, con indicazione di eventuali sorgenti di finanziamento diverse dall' INFN. impianti acquisti outsourcing manutenzione impianti e macchine sorgenti di finanziamento Testo_da_inserire

7Dichiarazione del Direttore della struttura Il Direttore della Sezione/Laboratorio di... valuta positivamente il progetto di Centro Tier2 per l' (gli) esperimento(i)... che ritiene sia realizzabile e mantenibile sulla base degli impegni espressi dai gruppi coinvolti. Ritiene che i Servizi della Sezione/Laboratorio interessati, siano in grado di garantire il personale necessario all' attivazione e alla gestione del Centro. In particolare conferma che il personale attualmente addetto al Servizio Calcolo della Sezione/Laboratorio, potrà farsi carico della realizzazione del centro e che i piani di sviluppo della Sezione /Laboratorio sono compatibili con l' impegno di garantire il supporto sistemistico delineato nei paragrafi 4.2.1, 4.2.2, 4.2.3 di questo documento, come indicato nella seguente tabella. Tabella 2 Supporto sistemistico Personale con contratto a tempo indeterminato Personale con contratto a tempo determinato unita' 2005 2006 2007 2008 2009 2010 persone FTE persone FTE...,.../.../... Il Direttore