Le Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa

Documenti analoghi
CSN4! GGI marzo Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari

Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma,

SISSA computing project 2012: HPC technical specification

Soluzione medium cost: Thumper

Hepix Spring 2006 Report Roberto Gomezel

Regione Calabria - BANDO SIAR Chiarimenti e risposte ai quesiti. Schede di Dettaglio Dotazione Infrastrutturale

Allegato Tecnico BaaS/CBaaS

Tecnico Hardware & Sistemistica

ISTITUTO COMPRENSIVO STATALE CENTRO NORD. Via G. Lorca, Campi Bisenzio (FI) Sede Garibaldi: Tel. 055/ Fax.

Roberto Covati Roberto Alfieri

Sedi Sede formativa accreditata della proponente sita in Via Messina n. 3 a Palermo.

Laboratorio di Reti Locali e Geografiche

Le distribuzioni GNU/Linux

Impianti informatici. Sistemi di storage. Paolo Cremonesi

Tecnologie di virtualizzazione per il consolidamento dei server

SCHEDA TECNICA. PROCEDURA Ambiente

Infrastrutture e Architetture di sistema

INTEGRAZIONE delle FARM di Sezione e di Grid Consiglio di Sezione 8 ottobre 2007 Tullio Macorini Lucio Strizzolo

REALIZZAZIONE SALA CED

Laboratorio Centro Calcolo

BUDVR4PLUS - BUDVR16PLUS

Una delle cose che si apprezza maggiormente del prodotto è proprio la facilità di gestione e la pulizia dell interfaccia.

REGIONE BASILICATA UFFICIO S. I. R. S.

INFORMATICA. Prof. MARCO CASTIGLIONE. Istituto Tecnico Statale Tito Acerbo - PESCARA

CONVENZIONE CONSIP RETI LOCALI 5 RICHIESTA di sopralluogo tecnico PRELIMINARE. Prot. n 3102 Roseto degli Abruzzi, 16/04/2016

IV Workshop INFN-Grid. Campus Grid a Napoli. Esperienze in un anno di attività. Paolo Mastroserio. IV Workshop INFN-Grid

La rete di ASCO TLC per la Pubblica Amministrazione

Il Progetto TIER1 Status Update

IC PIANEZZA. Via Manzoni 5 PIANEZZA

Software Libero infrastrutturale: l'esperienza ENEA. Antonio Colavincenzo Gianfilippo Giannini

SERVIZIO DI ACCESSO ALLA RETE CSI-RUPAR TRAMITE VPN SSL

Programma Operativo di Cooperazione Transfrontaliera Italia Svizzera PROGETTO STRATEGIO PTA

CAPITOLATO TECNICO del progetto ampliamento rete LAN/WLAN RETE WIFI DI ACCESSO AD INTERNET PER DISPOSITIVI DEI DOCENTI NELL ISTITUTO

Transparent Networking e tecnologie di virtualizzazione della rete. M. Caberletti (INFN-CNAF) A. Brunengo (INFN Genova)

Indice. Introduzione PARTE PRIMA ELEMENTI DI BASE DI SUSE LINUX 1

Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno

Introduzione...xvii. Operazioni preliminari L architettura a 64 bit... 8

Workshop CCR-INFNGRID Survey MPI. Roberto Alfieri - Università di Parma & INFN, Gr.Coll. di Parma. Catania, 18 Maggio 2010

Netcube Italia Srl. Il Cloud Computing. In collaborazione con

Zeroshell su APU1D. By Paolo Iapilone Febbraio Zeroshell su APU1D By Paolo Iapilone

Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware

Caratteristiche di un PC

Sicurezza del File System

CAPITOLATO TECNICO Q.TA MINIMA TIPOLOGIA. Server

Prestazioni computazionali di OpenFOAM sul. sistema HPC CRESCO di ENEA GRID

Test di affidabilita e performance a Genova. Alessandro Brunengo

PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005

Case History Workstation certificate per Matrox Axio e RTX2

Segue a questa lista una descrizione delle funzioni per ogni punto.

PIANO DI LAVORO ANNO SCOLASTICO I.T.S.O.S C. E. GADDA Sede di Langhirano MATERIA DI INSEGNAMENTO: SISTEMI E RETI PROF.

DIREZIONE DIDATTICA DI SAN GIUSEPPE JATO Programma Operativo Nazionale Fondo Sociale Europeo - Competenze per lo sviluppo

OGGETTO: SERVIZI DI GESTIONE PRIMO SEMESTRE 2013 PER PROGETTI WEB

DI GESTIONE E CONSERVAZIONE DEI DOCUMENTI

Milano 5 Ottobre. Andrea Goldoni

Costo unitario della manutenzione mensile

CHI SIAMO CHI SCEGLIE ESTRACOM PUÒ CONTARE SU UN AZIENDA FATTA DI PERSONE CAPACI DI GUARDARE AVANTI.

Infrastruttura VMware

DEDUPLICA DI EMC DATA DOMAIN SISTEMI DI STORAGE

Il Progetto di Centro di Reprocessing di BaBar: Monitoring e Simulazione

Spett.le Prof. De Gaetano, come da accordi sono a rimetterle la nostra migliore offerta per quanto da Lei gentilmente richiesto.

Marche Cloud: descrizione di infrastruttura, contesto e requisiti

Network & Security Management System Administration

WINDOWS Avviare Windows95. Avviare Windows95 non è un problema: parte. automaticamente all accensione del computer. 2. Barra delle applicazioni

Reti di Calcolatori ed Internet. Reti di Calcolatori ed Internet. Reti di Calcolatori. Reti di Calcolatori. Architettura dei Servizi di Rete

Allegato 1 Specifiche tecniche ambiente CNPADC. Giugno 2013

ALLEGATO 1 CAPITOLATO TECNICO

ENEA GRID. CRESCO: Corso di introduzione. Autore: Alessandro Secco

Apache e Mysql cluster

Il kit di installazione delle farm di CMS. Giovanni Organtini CMS/Roma

Sperimentazione del file system distribuito HDFS in ambiente grid

VIRTUALIZE IT. - digibyte@digibyte.it

Mariarosaria Napolitano. Architettura TCP/IP. Corso di: Laboratorio di tecnologie informatiche e telematiche

DESCRIZIONE DELLA FORNITURA OFFERTA

ISTITUTO COMPRENSIVO OPICINA VEČSTOPENJSKA ŠOLA OPČINE

YABC - ESAME DI STATO DI ISTITUTO TECNICO INDUSTRIALE

Flash talk: Wide Area Swift

(1) (2) (3) (4) 11 nessuno/a (1) (2) (3) (4) X è il minore tra A e B nessuno/a X è sempre uguale ad A X è il maggiore tra A e B

LTSP; ovvero, come realizzare laboratori didattici a basso costo

Candidatura N del 13/07/ FESR - realizzazione/ampliamento rete LanWLan

SISTEMI OPERATIVI DISTRIBUITI

DATACENTER CED. Server Fisico Server Virtuale Contenuto Sistema operativo

Indice. Indice V. Introduzione... XI

Tier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi

DELL SOLUZIONI DI BACKUP

Aspetti critici rete LAN e WAN per i Tier-2. R.Gomezel

Thinking Fast: il sistema di backup più veloce al mondo ora esegue anche l'archiviazione

Indice generale. Introduzione...xiii. Perché la virtualizzazione...1. Virtualizzazione del desktop: VirtualBox e Player...27

Manutenzione mezzi di calcolo. Manutenzioni Novità del mercato e consigli per gli acquisti

DISCIPLINARE TECNICO POTENZIAMENTO DATACENTER DI ARPA E SERVIZI SISTEMISTICI CONNESSI 1. PREMESSA... 2

Come Funziona. Virtualizzare con VMware

Soluzioni di Storage Grandi prestazioni Avanzate funzionalità Ampia capacità

interoperabilità fra dispositivi forniti da diversi produttori; superare i problemi legati alla limitazione del numero di risorse.

Michelangelo, un sistema ad alte prestazioni per la bioinformatica italiana

Prospettive dei servizi cloud in ENEA-GRID

Server e Storage, le pietre angolari dell IT per l ufficio tecnico di Massimo Fucci

Redatto da Product Manager Verificato da E4 Team Supporto

Sommario. Introduzione al problema Infrastruttura realizzata Procedure di ottimizzazione Validazione Conclusioni

Direzione Sistemi Informativi SPECIFICA TECNICA. Progetto di consolidamento dei sistemi per la gestione dei Data Base del GSE.

Laboratorio di Informatica

Rete Sicura Plus. Guida d installazione ed attivazione del servizio

Transcript:

Le Farm Grid a Pisa Commissione Calcolo e Reti ROMA 5/10/2007 Silvia Arezzini INFN - Pisa

Sala Calcolo e farm

Caratteristiche Scirocco (Opteron 280 ) 300 processori opteron dual core 2.4 GHz (socket E) 1 Gb ram per core Uniwide 1 U 2P Libeccio (Opteron 2218) 300 processori opteron dual core 2.6 GHz (socket F cioe quad core ready) 1 GB per core Rete veloce Infiniband 10 Gb/sec) IBM x3455 1U 2 P Grecale (Opteron 8220) 10 macchine SUN X4600 4U 8P Ogni macchina: 8 processori Opteron dual core 2.8 GHz (socket F) 2 GB ram per core valore commerciale circa 50 Keuro ciascuna

Modelli di utilizzo Diversi modelli di utilizzo con AMD: Scirocco: Processori non piu di ultima generazione Uso esclusivo struttura ospitante (INFN-GRID) Libeccio: In condominio Soluzione Bottone Rosso Grecale: Temporaneamente in uso esclusivo nostro Futuro condominio

condominio Per uso in condominio si intende: Il materiale è in uso alla AMD per attività di testing e benchmarking (mediamente non oltre il 20% del tempo macchina). Per il tempo macchina rimanente (mediamente almeno l 80% su base mensile) i sistemi sono in uso INFN/Dipartimento di Fisica.

Soluzione Bottone Rosso Meccanismo di switching automatico (basato su bootstrap via PXE) che permette la rapida riconfigurazione dei sistemi (tutti o in parte) dalla modalità di uso AMD a quella di uso INFN-Grid. Più precisamente nel caso di esigenza di un passaggio veloce da INFN-Grid a AMD i job in corso vengono re-indirizzati su altri sistemi in modo automatico, salvaguardando la loro integrità. Soluzione sviluppata dal Servizio Calcolo e Reti di Pisa

Bottone Rosso in dettaglio 1 Per l uso AMD viene installato di norma SUSE Linux SLES10 e non e' gridizzato/abile. Per l uso INFN-PISA grid, il sistema operativo e SLC4 Per rendere agevole questo cambio di sistema operativo : ogni server e' stato dotato di un secondo disco: sul disco 1 e' installata la configurazione "AMD", sul disco 2 e' installata la configurazione grid". Nessuna delle due configurazioni e' a conoscenza dell'esistenza dell'altra Per cambiare configurazione e' sufficiente riboostrappare la macchina dal disco contenente la configurazione desiderata. Per poter rendere automatico lo switch ciascuno dei sistemi si riferisce ad un indirizzamento IP diverso (la configurazione AMD e quella grid generarno un pool di macchine con indirizzi di rete diversi)

Bottone Rosso in dettaglio 2 con un solo comando, impartito via DHCP/PXE, si puo indicare la configurazione richiesta a tutta la farm/cluster, ad una singola macchina o a gruppi di macchine. Viene inviato alle macchine coinvolte nello switch un boot loader via PXE in grado di selezionare il boot loader del disco rigido contenente la configurazione desiderata. Prima che un server sia passato da una configurazione all'altra entra in gioco un meccanismo che interrompe e riaccoda eventuali job in esecuzione sulle macchine interessate dallo switch. il sistema e' dotato di tutti i tool (shell script realizzati in proprio) per il controllo delle configurazioni in produzione e lo switch delle stesse.

Infrastruttura di connessione In Sala Calcolo : traffico aggregato sul singolo rack switch FE + uplink GE Cablaggio strutturato cat 5e schermato (supporta Gbs) sotto pavimento con mattonelle a scomparsa Sistema di distribuzione fibre ottiche aereo utilizzato per la SAN

Rete locale: layout L2 L2 Link GE primario Link FE backup Link FE servizio Per ciascun armadio di piano

Connessioni Sala per Servizi Centrali e Farm Link GE geografico Uplink GE

Per il futuro: Sulla rete saranno presenti diversi protocolli (IP, Infiniband, Myrinet ecc.) Pensare a soluzioni in grado di gestirli tutti contemporaneamente Presenza di link da 10Gb/s Nella architettura generale dovrà essere prevista una sottorete dedicata allo storage con presenza congiunta di storage devices di tipo SAN e NAS e collegamenti di diversi tipi.

Organizzazione GRID 2 CE uno su lama IBM e uno provvisoriamente su SUN V20z. Il primo annuncia le code SLC3 e l'altro SLC4. Finita la transizione a SLC4 (fine ottobre) avremo ancora 2 CE (entrambi su blade IBM) funzionanti in parallelo (RIDONDANZA). 2 SE HLR: 1 di tipo classico esistente per motivi storici (vecchio supermicro) 1 di tipo dcache formato da 1 "head node" e 4 disk server. sistema di accounting attualmente ospitato su una macchina virtuale di tipo VMWare vari servizi specifici di CMS (Phedex, squid, pa, user interface)

Installazione e gestione code Meccanismo di gestione delle installazioni Sistema realizzato in casa e presentato workshop Otranto http://www.infn.it/ccr/workshop/ws2006/presenta zioni/mazzoni_installazione_multidistribuzione.pdf LSF e organizzazione code

Sistema di installazione 1 storia e motivazioni Nasce nel 2001 perche a fronte di una infrastruttura UNIX/Linux definita (autorizzazione AFS, syslog centralizzato, politiche di sicurezza) mancava: riproducibilità e standardizzazione dell'installazione Punto nodale: Garantire flessibilità per compensare differenze hardware e personalizzazioni specifiche dei gruppi All inizio: floppy bootnet + KS + script fatto in casa eseguito al primo boot Dal 2004 profonda rivoluzione dovuta a: diffusione capillare di PXE sulle NIC consolidamento infrastruttura di rete aumento delle distribuzioni da gestire

Sistema di installazione 2 Server coinvolti Server DHCP Fornisce conf. di rete alla macchina Passa file da caricare (filename "pxelinux.0";) Passa informazione sul nodo (next-server swsrv.pi.infn.it;) Server TFTP fornisce al PXE della NIC il bootloader e la sua configurazione grazie alle info ricevute via DHCP Repository delle distribuzioni: macchina con copia delle distribuzioni accessibili tramite protocollo anonimo (NFS, FTP, HTTP) Server DNS fornisce al sistema informazioni riguardanti la macchina (tipo dii nstallazione, utente/gruppo proprietario ) queste informazioni in precedenza erano immesse a mano dall'operatore

Sistema di installazione 3 caratteristiche principali Diverse reti IP ciascuna dedicata a tipologie di macchine diverse (server centrali e farm, desktop, portatili, ospiti, sistemi DAQ) Per ciascuna rete un file di configurazione del Boot Loader diverso Ovvero: diverse condizioni al contorno per l'installazione default = boot dal disco Per tutti disponibili utility generiche come memtest e rescue system File specifici per nodi particolari, es. macchine grid Possibile portare (soft. link) i file di configurazioni fuori dal TFTP server (AFS) per dare autonomia di installazione ai gruppi

Gestione code batch tramite LSF Un nodo master di LSF SERVIZIO di SEZIONE LSF viene usato infatti anche per cluster e farm non grid Ad oggi: due code per ciascuna VO supportate (una per SLC3 e una per SLC4) peso relativo delle code determinato in base al fairshare. coda local Nonostante ne esistesse gia' uno in ambiente INFN, internamente e in collaborazione con CMS-Pisa e' stato sviluppato un tool di monitoring dell'attivita' grid gestita mediante LSF http://farmsmon.pi.infn.it/lsfmon Il tool e trasferibile agli altri T2 interessati

Cenni sullo storage Device utilizzati Esperienza su SAN e NAS SRM: Attualmente Dcache Esperienza con DPM

Storage in particolare: Infrastruttura SAN (Storage Area Network) 2 switch FC (CISCO MDS9020) per permettere la ridondanza dei collegamenti Sistemi di storage: RIO288 6x4=24TB ==> espandibile a 32TB ER2510 7x4=28TB ==> massima capacità T2000 8TB ==> 840 dischi ~ 0.8PB 10 server di disco collegati Sistema PANASAS: 5 TB Sistema Thumper (Sun 4500): 24 TB

Lavori in corso Link 10 Gb per storage Presentazione di E. Mazzoni (Workshop CCR Rimini 2007) (https://agenda.infn.it/getfile.py/access?contribid=40&resid =0&materialId=paper&confId=65) Poster CHEP http://indico.cern.ch/contributiondisplay.py?contribid=81&session Id=20&confId=3580 bottone rosso Da completare, ma gia raccontato. Analisi termica In collaborazione con il servizio Alte Tecnologie della Sezione INFN di Pisa Simulazione fluido-termodinamica della sala (in corso) in collaborazione con Dip. Ingegneria Aerospaziale.

Futuro ASPETTI INFRASTRUTTURALI Completamento sala con APC Secondo chiller da 80KW gia' acquistato e posizionato (da collegare), forse un terzo Piu continuita elettrica?

Futuro FARM Presumibile installazione di Blade HP (occasione per analisi comparativa pizza vs blade) Valutazione AMD Opteron quad-core Valutazione pizze 1U 4P (16 core)

Futuro STORAGE Accordo con EMC2 (in corso di definizione) Potenziamento SAN Riorganizzazione: GPFS, xrootd? Approfondimento tematica NAS

Sala Calcolo ( foto 1)

Sala Calcolo (foto 2)

Sala Calcolo (foto 3)

Sala futura, modello 3D