HPC in ENEA, stato dei Cluster e dei CED CRESCO a Portici

Documenti analoghi
Le novità della infrastruttura ICT ENEA per il calcolo scientifico e il supporto alle attività progettuali

Infrastrutture di SuperCalcolo a supporto della simulazione

Evoluzione dei sistemi HPC ENEA-GRID/CRESCO

Evoluzione dei cluster CRESCO di ENEAGRID

I servizi di supporto all'utenza

Esperienze di gestione di OpenNebula, Openstack, VMWare

L'infrastruttura ENEA-GRID

Servizio Calcolo. Alessandro Brunengo

ENEA GRID un'infrastruttura al servizio della ricerca e delle imprese

Software Libero infrastrutturale: l'esperienza ENEA. Antonio Colavincenzo Gianfilippo Giannini

FARO Accesso Web a risorse remote per l industria e la ricerca

7 Borsisti Day 20/01/2016 Roma Consortium GARR

SISSA computing project 2012: HPC technical specification

Benchmark Ansys Fluent su CRESCO

Laboratorio Virtuale NEPTUNIUS (Numerical. codes for computational fluid dynamics and. fluid structure interactions)

Cloud Computing in ENEA-GRID: Macchine Virtuali, Roaming Profile e Online Storage

Prospettive dei servizi cloud in ENEA-GRID

Catalogo Corsi E-learning UTICT PRA Giugno 2012

ESPERIMENTI DI CLOUD COMPUTING IN ENEA-GRID

LINUX in ENEA: utilizzo di openmosix?

ISTITUTO NAZIONALE DI FISICA NUCLEARE

PROCEDURA APERTA PER L EVOLUZIONE DEL SISTEMA DI CALCOLO HPC DELLA SISSA PRESSO LA SEDE DI VIA BEIRUT 2-4 TRIESTE

Esperimenti di Cloud Computing in ENEA-GRID

Workshop CCR-INFNGRID Survey MPI. Roberto Alfieri - Università di Parma & INFN, Gr.Coll. di Parma. Catania, 18 Maggio 2010

Verso una infrastruttura di calcolo aperta e flessibile: risorse multipiattaforma nella GRID di produzione

La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014


Characterization of Gas Turbine Film Cooling Efficiency on High Performance Computing platforms: an Experimental/Numerical integrated approach

ENEA GRID. CRESCO: Corso di introduzione. Autore: Alessandro Secco

Play Video. HPC hardware Best Practice Leonardo Torretta, Business Development Manager

Estensione dei servizi cloud di ENEA-GRID basati su OpenNebula ad una configurazione multisite. Dott. Pasquale De Michele Tutor: Ing.

Modello di Progetto di massima Centro Tier 2

Prestazioni computazionali di OpenFOAM sul. sistema HPC CRESCO di ENEA GRID

PROGETTO: TELEGRID - Piattaforma per lo sviluppo di soluzioni avanzate di GRID computing e la teleoperazione di strumenti scientifici complessi

Definizione di una metodologia per l utilizzo d infrastrutture digitali per la produzione, la condivisione e la protezione di dati e applicativi

ShareGrid Una piattaforma di calcolo condivisa per Grid Computing

D1.3 Documento contenente le specifiche tecniche e funzionali di massima delle componenti architetturali

IV Workshop INFN-Grid. Campus Grid a Napoli. Esperienze in un anno di attività. Paolo Mastroserio. IV Workshop INFN-Grid

Intel Parallel Studio Seminar Milano 22 Giugno 2010

Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003

MAGO CRESCO - SPI.2. Relazione finale sul Progetto MAGO. Consorzio Campano di Ricerca per l Informatica e l Automazione Industriale S.c.a.r.l.

Gestione delle catene operative previsionali nel settore meteo - idrologico al Cineca

Potenziamento dei laboratori di Casaccia per le tecnologie abilitanti

WorkShop sul Calcolo Scientifico in Ateneo

Test e risultati sull uso di un file system GPFS condiviso su rete WAN

Remotizzazione avanzata di servizi ICT per la gestione e manutenzione a distanza di un impianto solare a concentrazione ibrido realizzato in Egitto

Soluzioni per la Gestione della rete elettrica e Monitoraggio Energetico. Marco Pazzocco

SERVIZIO DI MIGRAZIONE E INSTALLAZIONE NUOVA INFRASTRUTTURA SOFTWARE DATABASE ORACLE CIG Z8F0DE9926

La Modellazione 3D e Real-Time applicata al Marittimo 9 Giugno 2014, Galata - Museo del Mare

Remote file access sulla grid e metodi di interconnesione di rete

CSN4! GGI marzo Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari

ACCORDO ATTUATIVO CATASTO FISCALITA' nella Provincia di Parma. Unioni che hanno partecipato ai bandi per le Filiere 1-2-3:

Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015

(SINTESI DELL APPALTO)

Allegato 1 INFORMAZIONI PERSONALI ESPERIENZA LAVORATIVA F ORMATO EUROPEO PER IL

STATISTICHE SUL PERSONALE

Via per Monteroni, Lecce Italy.

ITALIAN NATIONAL AGENCY FOR NEW TECNOLOGY, ENERGY AND THE ENVIRONMENT

Sistemi di calcolo distribuiti e paralleli per l utilizzo di codici Monte Carlo

Le Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa

D3.3 Documento illustrante le metodologie di interfacciamento tra il visualizzatore remoto e il portale EnginFrame in ambiente Cloud.

Stabilimento Pilkington di San Salvo. Sistema di monitoraggio dell energia Sergio Vellante Managing Director Lenze Italia

DHTCS-IT Distributed High Throughput Computing and Storage in Italy

Il progetto HPC dell'università e dell'infn di Parma. Roberto Alfieri

Progetto ReCaS status update. Giuseppe Andronico WS CCR, Catania 28 Maggio 2014

La server farm e i data center del CSI Piemonte. Stefano Lista Responsabile Area Server Farm e Reti

Utilizzare IDEM per controllare l'accesso wireless. Case Study: la rete wireless dell Università di Ferrara

Power Your Business with Windows Server + Intel Technologies

Setup di una cloud privata a Torino Un prototipo in produzione. S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso

Case History Workstation certificate per Matrox Axio e RTX2

LEZ Logistica Emissioni Zero

Povo2. Nuovo Datacenter d Ateneo. Trasloco sala macchine domenica 14 dicembre 2014

Cosa facciamo. Outsourcing services since 1995: Database Assessment & Professionals. Network Assessment & Professionals

Scritto da Palma Cristallo Venerdì 24 Maggio :21 - Ultimo aggiornamento Domenica 22 Settembre :03

L Affidabilità dei Sistemi di Input-Output ad Elevate Prestazioni

Capitolato tecnico. Manutenzione HW e SW dei sistemi server e storage IBM CIG:

Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma,

Allegato Tecnico BaaS/CBaaS

L accesso alla rete wireless di UniFe e la sua integrazione con la federazione IDEM. Relatore: Michele Lugli

STRUMENTI INNOVATIVI PER LA GRID ENEA

Ambienti di calcolo a griglia Parte 2. Docente: Marcello CASTELLANO

La soluzione di Cloud Backup e Disaster Recovery

Tecnologia per connettere le persone e per migliorare le aziende.

Progetto di Interesse strategico NEXTDATA. Unità CASPUR

Servizio posta

Tier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi

Virtualizzazione con OpenVZ

Prima domanda: Un calcolatore parallelo e... Un calcolatore parallelo e... Che differenza c e tra: un Calcolatore Parallelo

Il Progetto TIER1 Status Update

CAPITOLATO SPECIALE D APPALTO Parte Tecnica N.1

RELIABILITY MADE EASY

Progetto Lauree Scientifiche a.a. 2011/2012

Allegato Tecnico BaaS/CBaaS

ELASTIC CLOUD STORAGE (ECS) APPLIANCE

L'architettura di ENEA-GRID, infrastruttura distribuita per la condivisione di risorse informatiche dedicate al calcolo scientifico

Simulazioni in remoto ovvero quali risorse di calcolo utilizzare per il MonteCarlo?

Laboratorio Centro Calcolo

Il cloud server, affidabile senza rinunciare a flessibilità e velocità

Sistemi Operativi. A.M. Fanelli Architettura dei Sistemi a. a Livello di Sistema Operativo. Livello di Linguaggi Applicativi

Transcript:

Portici 4 novembre 2015 HPC in A, stato dei Cluster e dei CED CRESCO a Portici G.Bracco giovanni.bracco@enea.it http://www.utict.enea.it http://www.eneagrid.enea.it http://www.cresco.enea.it

La presentazione Infrastruttura HPC: AGRID Utenza CED e sistemi L'evoluzione CED prevista nel 2016 Il laboratorio HPC in A fa parte del Dipartimento delle Tecnologie Energetiche e della divisione ICT e le risorse di calcolo sono dedicate l'agenzia e le sue attività progettuali. Una ventina di persone, 4 su Portici + 1 esterno, supporto dal resto della divisione per rete, macchine virtuali, servizi ICT vari Le risorse per lo sviluppo: ==> progetti PON Progetti europei: DC4cities(fine Q1/2016),EoCoE (inizio 2015/10)

L'infrastruttura HPC di A: AGRID risorse di calcolo e storage distribuite Le risorse di calcolo offerte all'utenza sono attualmente i sistemi Linux x86_64 (i cluster CRESCO ~9000 cores) e sistemi speciali dedicati (ad es. GPU/PHI). Storage AFS e GPFS. Le risorse sono distribuite su 6 Centri di Ricerca A, Portici è il sito principale.

AGRID: CRESCO a Portici dal 2008 CR A Portici edifici progettati da Vittorio Gregotti, 1982/86

Architettura di AGRID Componenti strutturali maturi per garanzia di affidabilità e semplicità di gestione, interfacce Web sviluppate/customizzate per un ambiente utente amichevole: Autenticazione Kerberos 5 File systems: AFS/OpenAFS: file system geografico GPFS: file system parallelo, anche su WAN Gestore delle risorse: LSF Interfacce grafiche Web per l'utente: CLOUD NX/FARO dal..1999! Jobrama: Stato dei job & Accounting Sistema di monitoring: Zabbix Gestione Web utenze e progetti: WARC

Strumenti x l'utenza:interfaccia grafica FARO Accesso WEB a dati,applicazioni, macchine virtuali realizzato con una integrazione di NX e applicazioni java

Strumenti x l'utenza : FARO grafica 3D Rendering 3D Remoto Tota l displacemen t (m m) Po st Process or

Strumenti collaborativi : Laboratori virtuali Portali tematici che integrano l'accesso ai dati e alle applicazioni specifici del settore

Strumenti collaborativi : Laboratori virtuali CMAST Workshop A Sede 13/4/2015 http://utict.enea.it/it/laboratori-virtuali/virtual-labs

L'utenza e le applicazioni ~450 utenti attivi: ~200 sottomettono job seriali o a parallelismo contenuto e ~70 utenti che sottomettono job HPC altamente paralleli. Le aree applicative: fluidodinamica combustione chimica computazionale simulazioni climatiche analisi della diffusione degli inquinanti nell'atmosfera tecnologie nucleari fluidodinamica per l'aerospazio fisica della fusione nucleare bioinformatica sistemi complessi A A ESTERNI

Ripartizione per aree applicative 2013 Rapporto annuale CRESCO arrivato alla V edizione 2013, a breve l'uscita del report x 2014. Research Area WCT (hours) x 106 WCT (years) Percentage (%) of total WCT Material Science 15.411 1759.3 55.7 Combustion 2.991 341.5 10.8 Climate 2.140 244.3 7.7 Nuclear Fusion 1.845 210.7 6.7 Gas Turbine 1.635 186.6 5.9 Nuclear Fission 0.471 53.7 1.7 Complex Systems 0.302 34.5 1.1 Biotechnologies 0.099 11.3 0.4 Aerospace 0.081 9.2 0.3 WCT < 2 years 2.683 306.3 9.7 Total 27.658 3157.4 100

Ripartizione per unità A 2013 Technical Unit WCT (years) Percentage (%) of total WCT Number of users UTTMAT 1078.16 33.91 16 UTICT 534.88 16.82 45 UTRINN 458.84 14.43 5 UTTEI 397.80 12.51 5 UTMEA 284.46 8.95 9 UTFUS 268.91 8.46 22 UTFISSM 41.03 1.29 8 UTFISST 40.98 1.29 5 UTVALAMB 29.36 0.92 7 METR 28.90 0.91 2 UTTRI 14.51 0.46 4 Total 3177.83 99.95 128 1.59 0.05 10 3179.42 100 138 Total

Ripartizione utenza esterna 2013 (27%) Organization WCT (years) Percentage (%) of total WCT Number of users UniRoma1 491.01 55.94 6 UniSa 220.21 25.09 8 UniCam 50.25 5.72 1 UniRoma2 27.34 3.11 1 INFN/NA 14.00 1.59 1 UniZhejiang 13.46 1.53 1 UniRJCMadrid/ES 13.18 1.50 2 UniFi 12.58 1.43 4 INFN/GE 12.04 1.37 1 Avio 9.21 1.05 1 Ylichron 4.47 0.51 1 UniNa 3.46 0.39 3 VincaInstitute 2.51 0.29 1 IMAST 2.32 0.26 1 Total 876.04 99.78 32 1.73 0.22 7 877.77 100 39 Total

Cluster CRESCO a Portici: stato 2015 CRESCO2, 84 nodi, 672 cores Intel Nehalem,Westmere 16GB CRESCO3, 84 nodi 2016 cores AMD Interlagos, 64 GB RAM CRESCO4,304 nodi,4864 cores Intel SandyBridge, 64 GB RAM La novità 2015: 5 nodi a grande memoria 768 GB RAM 4 nodi con cooprocessori Intel PHI e Nvidia K40 Storage DDN SFA7700 TapeLibrary estesa a ~2 PB CRESCO5 640 cores Haswell Le dismissioni fine 2014: CRESCO1 CRESCO2 256 nodi Clovertown,DDN 9550 CED2 CRESCO4 sezione speciale CRESCO5 CED1 CRESCO2*, CRESCO3 Storage, Macchine Virtuali, Tape Library

CRESCO4 (PON TEDAT et al) rilasciato 2014/01

2015: la sezione speciale e CRESCO5 5 nodi a grande RAM/Ivybridge 768 GB, dual E5-2643v2, 3.5 GHz,6c 4 dei nodi con PHI 3120P (57 c,1tf) 4 nodi Intel PHI & Nvidia K40M 64 GB, dual E5-2680v2,2.8 GHz 5 schede PHI 5110P (60 c, 1TF) 3 schede Nvidia K40M(1.43 TFlops) Potenza di picco: 16.4 Tflops (di cui 13.2 Tflops negli acceleratori) CRESCO5: nuovo piccolo cluster cpu HASWELL per applicazioni licenziate (ANSYS!) 40 nodi, 640 cores 24.6 Tflops! 64 GB, 2x E5-2630v3, 2.4 GHz,8c

Cluster CRESCO, rete IB, Storage another SFA7700 Q1/2016 new

Le infrastrutture, evoluzione CED nel 2016 Stato 2015 Alimentazioni elettriche Cabina A 1.5 MW UPS 400 KVA 320 kw Gruppo elettrogeno 550 KW Gruppo elettrogeno x condizionamento 550kW Condizionamento CED1 5 Emerson 50 kw gas CED2 4 ClimaVeneta 50kW freecooling, H2O Evoluzione nel 2016 CED2 CRESCO3* CRESCO4 CRESCO5 CED1 CED1 sezionato in due: sala storage + sala con nuovi chillers (~150kW)