Il nuovo cluster INFN per la fisica teorica

Documenti analoghi
RISORSE E MODELLI DI CALCOLO

Workshop CCR-INFNGRID Survey MPI. Roberto Alfieri - Università di Parma & INFN, Gr.Coll. di Parma. Catania, 18 Maggio 2010

Stato e prospettive del calcolo nel gruppo IV

Il calcolo MPI nell'infn

CSN4! GGI marzo Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari

CSN4! UP 22/23 settembre Calcolo teorico. E. Onofri, E. Vicari

Tier-2 Legnaro-Padova. Massimo Biasotto

Servizio Calcolo. Alessandro Brunengo

Grid Tutorial Day Palermo, 13 Aprile 2011

Uso di Grid per il calcolo parallelo:

ISTITUTO NAZIONALE DI FISICA NUCLEARE

PROPOSTA DI UTILIZZO DI 6 STAZIONI DI LAVORO MULTI-CORE A MEMORIA CONDIVISA PER IL CALCOLO DI PROBLEMI DI STRUTTURA E DINAMICA NUCLEARE

High Performance Cloud Computing Research Infrastructure

LINUX in ENEA: utilizzo di openmosix?

Test e risultati sull uso di un file system GPFS condiviso su rete WAN

Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS

L iniziativa Il calcolo ad alte prestazioni a supporto della ricerca avanzata e della didattica moderna

Laboratorio Interdipartimentale di Chimica Computazionale

Workshop Congiunto INFN CCR e GRID. Acireale, Maggio INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo

GRID Data Center INFN Pisa

UPDATE sulle attività di calcolo in gruppo IV

Tier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1

Referaggio SST. Carbone, Gianoli, Mezzadri

Esperienze di gestione di OpenNebula, Openstack, VMWare

CURRICULUM VITÆ E DELLA ATTIVITA

Cluster CRESCO ed ENEAGRID

Art. 2 SPECIFICHE TECNICHE

Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali

P r o g e t t o P I 2 S 2

Futuro del Calcolo in Sezione

ReCaS Datacenter cluster HPC, guida al suo utilizzo Febbraio, 2016 Alessandro Italiano

CRESCO4 & ENEAGRID per TEDAT e per il calcolo scientifico in ENEA

Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013

Laboratorio Centro Calcolo

SOFTWARE SCIENTIFICO DISPONIBILE SUL CLUSTER DI CALCOLO DI IASF-BOLOGNA

Evoluzione dei sistemi HPC ENEA-GRID/CRESCO

INFORMAZIONI PERSONALI

Allegato Tecnico Housing

Bologna Batch System (BBS) Franco Semeria Seminario di Sezione

Setup di una cloud privata a Torino Un prototipo in produzione. S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso

BaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1

Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017

Configurazioni ottimizzate per lo scheduling dei job

Laboratorio Virtuale per la Didattica

Area Sistemi di Elaborazione Microinformatica

Servizio di backup e ripristino dati su sistema disco/tape al CNAF

UTICT e UTFUS, il calcolo scientifico, accesso al nuovo cluster CRESCO4

Il Progetto TIER1 Status Update

Contributo ENEA all'attività WP13, progetto FIRB GRID.IT (Chimica computazionale)

the torino cloud Attività di Calcolo Stefano Bagnasco Torino, Jul 2, /417

La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014

Stato Calcolo BaBar in Italia e contributo INFN Fondi Comuni

Sistemi di calcolo distribuiti e paralleli per l utilizzo di codici Monte Carlo

Le Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa


Progettazione ed implementazione di un sistema di calcolo distribuito ibrido multithread/multiprocesso per HPC: applicazione all imaging medico

Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management

Indice degli argomenti

Allegato Tecnico Housing presso il punto di interscambio / pop neutrale

Presentazione di Docet

IV Workshop INFN-Grid. Campus Grid a Napoli. Esperienze in un anno di attività. Paolo Mastroserio. IV Workshop INFN-Grid

Prima domanda: Un calcolatore parallelo e... Un calcolatore parallelo e... Che differenza c e tra: un Calcolatore Parallelo

Corso di Architettura dei Calcolatori e Parallelismo Blu Gene Marco Trentini anno 2007/2008

Gestione delle catene operative previsionali nel settore meteo - idrologico al Cineca

Introduzione alla riunione

Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003

Codici e Laboratori Virtuali

Studio di tecniche di accesso ai dati dell esperimento CMS a LHC: il caso dell axigluone

Case History Workstation certificate per Matrox Axio e RTX2

Il calcolo Scientifico in Ateneo 20/01/2016

Il sistema di monitoring con Nagios

Corporate Cloud: stato e sviluppi. Giacinto Donvito INFN Sez. di Bari On behalf of the INFN-CC Group

CSN1, 3 aprile 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio

Intel Parallel Studio Seminar Milano 22 Giugno 2010

Tendenze HPC fuori e dentro ENEA

D Menasce INFN Milano-Bicocca

Modello di Progetto di massima Centro Tier 2

Normalizzazione puntuale dei dati di accounting

Microsoft Windows 7 Service Pack 1 (32/64 bit) Microsoft Windows 8 (32/64 bit) Microsoft Windows 10 (32/64 bit)

Massimo Sgaravatto INFN Padova. Cloud Area Padovana e CloudVeneto

Test di storage ad alte prestazioni con interconnessione 10 GE

Stato ed evoluzione dell'infrastruttura di calcolo INFN. Tommaso Boccali Gian Paolo Carlino Luca dell Agnello Workshop CCR - Rimini, 14 giugno 2018

UTICT-HPC : Calcolo scientifico ad alte prestazioni IN ENEA

Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015

HPC in ENEA, stato dei Cluster e dei CED CRESCO a Portici

Organizzazione LAN dei Tier2 di CMS Italia

Verso una infrastruttura di calcolo aperta e flessibile: risorse multipiattaforma nella GRID di produzione

Suma: primo compleanno

Flash talk: Wide Area Swift

5. quesito [ CSDP Servizi prodotti in Ambiente Intel X86 - Core ]

Il progetto HPC dell'università e dell'infn di Parma. Roberto Alfieri

ICM: Prospettive e applicazioni

DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO

Relazione utilizzo rete, proposte per banda e collegamenti extra GARR

Ambienti di calcolo a griglia Parte 2. Docente: Marcello CASTELLANO

Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste

Griglie Computazionali: GRID

UTICT e UTTEI e il calcolo scientifico

HPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale

Table of Contents. 9. Penali Contatti... 7

Transcript:

Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1

Necessità di calcolo del Gr. IV Attività nelle aree scientifiche: Fenomenologia delle particelle elementari, Fisica teorica nucleare, Meccanica statistica, Turbolenza, Sistemi complessi, Biologia quantitativa, teoria di campo, teoria di Gauge su reticolo,.. 20% delle attività : simulazioni su reticolo (elevato parallelismo locale) Necessita' tipico Job (Esempio SuberB): 2010: O(TFlops-year) - 2011: O(10 TFlops-year) - 2012: O(PFlops-year) Soluzione CSN4: PROGETTI APE (attualmente ApeNext 12 TFlops ) 80% delle attività : calcolo generale Numerosi Job sequenziali o paralleli (multicomputer e/o multicore) Necessita' tipo job < O(100 Gflops-year) Strumenti Software: tools e librerie per il calcolo scientifico e simbolico ( Mathematica, Maple, Matlab, NAG, GSL, GMP,..) Soluzione CSN4 : CLUSTER di PC 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 2

CLUSTER DI PC FINANZIATI DA CSN4 2005 : Numerose farm o cluster MPI medio piccoli distribuiti diverse sedi - spesso al di fuori dei centri di calcolo 2005-2006 : Centralizzazione al CNAF di un cluster MPI (CusterQuarto) - 24 dual Xeon, Infiniband 2007-2008 : 4 PC cluster (BA, CT, MIB e PI) su proposte consorziate - apertura a InfnGrid (VO theophys) 2010 : Richiesta alla Presidenza un supporto per il finanziamento di un nuovo cluster centrale (CSN4cluster) 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 3

CSN4CLUSTER: LA SEDE Ottobre 2009: Chiesta la collaborazione alla CCR per la definizione dei requisiti da inviare alle sedi candidate Novembre 2009: Inviato Call for proposal alle Sezioni INFN. Requisiti: - Infrastruttura: procedura già utilizzata per i Tier2 (descrizione dei locali, impianto elettrico e condizionamento, personale tecnico e scientifico, costi di installazione e di esercizio) - Hardware: 5Tflops di picco, nodi multicore x86_64, almeno 1 GB per core - Network: Rete a bassa latenza (Infiniband o equivalenti) - Storage: almeno 10TB condivisi tra i nodi di calcolo. - Software: Linux x84_64 supportato da InfnGrid, librerie MPI-2 - Accessibilità: via InfnGrid (job sia sequenziali che paralleli) Dicembre 2009: Tre delle proposte ricevute sono state prese in considerazione Gennaio 2010 : Richiesti alle sedi (BA, NA, PI) chiarimenti e ulteriori dettagli Febbraio 2010: Scelta finale 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 4

Fisica teorica in Infn-Grid: THEOPHYS http://gridview.cern.ch/gridview/dt_index.php https://www3.egee.cesga.es/gridsite/accounting/cesga/egee_view.php 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 5

MPI/GRID NELLA FISICA TEORICA I teorici utilizzano i cluster di PC sia con job sequenziale che paralleli, ma attualmente i job paralleli vanno quasi esclusivamente su risorse locali. Possibili motivazioni nella preferenza di risorse locali per MPI: Migliore conoscenza dell'ambiente hardware, software e della gestione: possiamo accordarci con gli amministratori per adattarlo alle nostre esigenze configurazioni specifiche, supporto per accesso e programmazione Accesso : disponibilità di facility di scheduling (Reservation, Check-Pointing) maggiori sicurezze sul workflow del Job (tempi di attesa, job aborted,..) Carenze di MPI/GRID : limitazioni nell'ambiente software e nel middleware documentazione, supporto tecnico supporto 64 bit affidabilità 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 6

04/12/08 10/16 19/02/09 9/16 21/04/09 10/16 MPI/GRID RELIABILITY VO THEOPHYS con supporto MPI-START Tabella presentata a Palau maggio 2009 mpich1.2.7: 10 openmpi-1.2.6: 1 mpich-1.2.7: 9 openmpi-1.2.6: 1 mpich-1.2.7: 10 openmpi-1.3: 1 LSF: 4 PBS: 6 Inifinband: 1 LSF: 4 PBS: 5 Infiniband: 2 LSF: 6 PBS: 4 Infiniband: 3 OK: 3 SL64/mpi32: 4 no-gcc: 1 no-hostbasedauth: 1 aborted:1 OK: 3 SL64/mpi32: 2 no-gcc: 1 no-hostbasedauth: 1 aborted: 2 OK: 4 SL64/mpi32: 3 no-hostbasedauth: 1 aborted: 2 Test SAM (https://lcg-sam.gridops.org:8443/sam/sam.py) Al 21/01/2010 su 46 risorse nazionali che supportano MPI solo 16 sono OK 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 7 7

PERCHE' MPI/GRID SU CSN4CLUSTER? Grid e' una scelta INFN - molte risorse disponibili, punti di accesso, prospettive future Ottimizzazione delle risorse HPC - Contenimento dei costi Standardizzazione - procedure di accesso, programmazione, condivisione esperienze Occasione concreta per far funzionare MPI in INFN-Grid Ci sono rischi da evitare. Ad esempio: Utilizzo esclusivo di job sequenziali. - Spreco acquisto delle rete a bassa latenza e manpower di supporto specializzato (vedi cluster Quarto al Cnaf). Starvation dei job (sequenziali e paralleli) - gli slot riservati per i job paralleli rimangono inutilizzati... 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 8

MPI IN INFNGRID (THEOPHYS): SPUNTI PER LA DISCUSSIONE Discriminazione job sequenziali e paralleli: - gruppi/ruoli VOMS, ApplicationSoftwareRunTimeEnvironment= PARALLEL (altro?) - Griglia separata per le code parallele ( Bencivenni - Aiftimiei) : Code parallele separate mediante l'attributo GlueCESiteStatus = PARALLEL Scheduling: Pool di WN condiviso (completamente o parzialmente) con preemption dei job sequenziali (o trasferiti su altri core in overbooking?) - Disponibilità effettiva di slot per coda? Numero di siti limitato (almeno inizialmente) e con configurazioni concordate e omogenee (es: csn4cluster + altri cluster Consorziati ) Altri problemi: - Quale Software: x86_64, flavour MPI, compilatori, librerie - LowLatency Network: Ethernet, Infiniband, 10Gb Eth?,.. Formazione: Organizzato nel 2010 a Catania corso per Fisica Teorica 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 9

Commenti / domande? 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 10