High Performance Cloud Computing Research Infrastructure

Documenti analoghi
PROCEDURA APERTA PER L EVOLUZIONE DEL SISTEMA DI CALCOLO HPC DELLA SISSA PRESSO LA SEDE DI VIA BEIRUT 2-4 TRIESTE

CARATTERISTICHE TECNICHE, FUNZIONALI, OPERATIVE E NORME DI ESECUZIONE

TRATTATIVA PRIVATA PER LA FORNITURA DI UNA PIATTAFORMA IT MODULARE DI VIRTUALIZZAZIONE A SERVIZIO DEI LABORATORI PROM FACILITY CODICE CIG

Allegato Tecnico Housing

Allegato 6 - Capitolato tecnico

Allegato Tecnico BaaS/CBaaS

MINISTERO DELL INTERNO

P r o g e t t o P I 2 S 2

Table of Contents. 9. Penali Contatti... 7

Corrispettivi Server Deskside

Ufficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE

Bando di gara a procedura aperta per la fornitura di hardware

Specifica Tecnica Acquisizione Server Blade ed Enclosure

MINISTERO DELL INTERNO CAPITOLATO TECNICO. Potenziamento infrastrutture tecnologiche e di sicurezza del C.E.D. della Polizia di Stato.

Virtualizzazione Infrastrutture ICT. A chi è rivolto. Vantaggi per il Cliente. Perchè Luganet. Partner Commerciale

Modello di Progetto di massima Centro Tier 2

Virtual Office è un Ufficio Virtuale on Cloud, ovvero un insieme di servizi erogati da Datacenter che elimina i costi tecnologici tipici di un

ISTITUTO TECNICO PER IL SETTORE TECNOLOGICO "G. MARCONI"

A CAPITOLATO TECNICO PER IL NOLEGGIO DI UNA INFRASTRUTTURA DI E-LEARNING

Migrazione Automazione. Premere Invio per continuare

Elenco sezioni libro di testo Ed. 5 Tra parentesi le corrispondenze per l'ed. 7.

TITOLO:...Sistemista. DURATA TOTALE:...XXX ore

Allegato Tecnico BaaS/CBaaS

ACI INFORMATICA S.p.A. Gara per l acquisto di storage di classe Enterprise di tipo Hybrid

1 PREMESSA Sigle e acronimi Definizioni OGGETTO DELLA FORNITURA Durata Manutenzione del produttore...

ALLEGATO A - TABELLA CRITERI DI VALUTAZIONE. Voce capitolato tecnico massimo

Affari Web

DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO

Allegato 1. Consolidamento Sistemi Informatici. Specifiche Tecniche

Interruzione improvvisa dell energia?

CAPITOLATO TECNICO. Infrastrutture Tecnologiche per Progetto Controllo del territorio in mobilità.

Affari Web

SERVIZIO DI MIGRAZIONE E INSTALLAZIONE NUOVA INFRASTRUTTURA SOFTWARE DATABASE ORACLE CIG Z8F0DE9926


indice CHI E TWT Pag. 4 FIBRA E CONNETTIVITA Pag. 6 VOCE Pag. 8 UNIFIED COMMUNICATION Pag. 10 SOLUZIONI UCOMM Pag. 11 DATA CENTER Pag.

Art. 2 SPECIFICHE TECNICHE

Criteri di valutazione di tipo discrezionale applicabili da parte dell A.D. nella valutazione della Proposta Tecnica PUNTEGGIO MASSIMO ASSEGNABILE: 12

Criteri di valutazione di tipo discrezionale applicabili da parte dell A.D. nella valutazione della Proposta Tecnica PUNTEGGIO MASSIMO ASSEGNABILE: 12

Acquisizione di apparati di calcolo e storage ad alte prestazioni e relativi servizi di manutenzione (Gara 107_16) CIG C1C

Il nuovo cluster INFN per la fisica teorica

Allegato Tecnico Housing presso il punto di interscambio / pop neutrale

Server mini-tower Dell PowerEdge T20: domande frequenti

Consip S.p.A. Gara per l acquisizione di un sistema informatico per il potenziamento dei sistemi dipartimentali del III Dipartimento-SINIT ALLEGATO 6

L informatica che ti aiuta a crescere

3.Quesito. Si chiede se sia possibile porre modifiche allo schema di contratto.

Corrispettivi Server Midrange

Grid Tutorial Day Palermo, 13 Aprile 2011

Servizio Calcolo. Alessandro Brunengo

A.P.System s.r.l. Terminal Services. sempre. ovunque. comunque

Proposta Adeguamento Infrastruttura Sistema Informativo del Comune di Biella: Apparati di rete Postazioni di lavoro

SERVIZI DI INGEGNERIA ELETTRONICA

Istituto per l Energetica e le Interfasi

EcoRemote SISTEMA DI GESTIONE DI UNA STAZIONE DI MONITORAGGIO DELLA QUALITÀ DELL ARIA. Ingegneria dei sistemi

Esperienze di gestione di OpenNebula, Openstack, VMWare

CARATTERISTICHE INDISPENSABILI DELLA FORNITURA

CONVENZIONE ACQUISTO PESONAL COMPUTER DESKTOP 4 - SERVIZI IN CONVENZIONE -

Unità Trattamento Aria

ML110 G7 Codice:

Scheda di controllo con combinatore telefonico di facile installazione per le esigenze di telesoccorso negli ascensori

MINISTERO DELL INTERNO

Comune di Cesena. MAN e Videosorveglianza Progetto lotto 1 Anello

GARA N Sistema di metering satellitare per gli impianti di produzione di energia elettrica da fonti rinnovabili non programmabili.

CAPITOLATO TECNICO Progetto A-FSEPON-FR Giornate al nido Modulo: I e II CUP: F95B CIG: Z8D28D92CC

Allegato E Alla S.p.A. AUTOVIE VENETE Via Locchi, Trieste

Allegato Tecnico Backup As A Service

ELASTIC CLOUD STORAGE (ECS) APPLIANCE

Cluster CRESCO ed ENEAGRID

Servizi di controllo integrità e prestazioni

Power Your Business with Windows Server + Intel Technologies

2: 3 SWITCH FIBER CHANNEL

Intel Parallel Studio Seminar Milano 22 Giugno 2010

Isaac DE è una piattaforma Big Data completa di strumenti e servizi per l installazione, la configurazione, l uso, la gestione e il monitoraggio di

Completamento del sistema di posta elettronica e UC&C dell Esercito Italiano basato sulla piattaforma ZIMBRA.

CAPITOLATO TECNICO Parte II

GE1412. Specifiche Tecniche del Servizio di Manutenzione. Hardware e Software

Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management

COMUNE DI ISOLA DELLA SCALA


T-300S Unità Integrata di telemetria GSM/GPRS dotata di pannello solare

ALLEGATO 3 DESCRIZIONE DELLA INFRASTRUTTURA INFORMATICA CHE OSPITERÀ L APPLICATIVO OGGETTO DI FORNITURA (Aggiornato al 28/11/2016 revisione 4)

RISPOSTE ALLE FAQ. Quesito n 1: Quesito n 2

VDI VIRTUAL DESKTOP INFRASTRUCTURE

PROGRAMMA DEL CORSO MASTER IN TECNICO HARDWARE E SOFTWARE

Le iniziative Consip a supporto

Agenda. Introduzione alle Smart City. Idee principali Opportunità. Nodexx. Funzionalità principali Vantaggi competitivi. Leitfeld

CONVENZIONE CONSIP RETI LOCALI 5 RICHIESTA PROGETTO PRELIMINARE

LINUX in ENEA: utilizzo di openmosix?

SLC. Station and Line Controller

Affari Web

Istituto Istruzione Superiore Piazza Sulis - Alghero. Codice mec. SSIS01800A C.F Tel Fax

Requisiti minimi Hardware/Software

Cloud Infrastructure - studio di fattibilità

Allegato Tecnico Storage As A Service

Transcript:

Capitolato tecnico High Performance Cloud Computing Research Infrastructure Sommario Introduzione... 3 HPCC Research Infrastructure - Capitolato tecnico pag. 1 / 12

Architettura del sistema... 4 Requisiti tecnici... 5 Tipologie di nodi... 5 Nodi di calcolo tipologia multi core (NCM)... 5 Nodi di calcolo con acceleratori (NCA)... 6 Nodi di front-end (NF)... 7 Nodi di gestione (NG)... 7 Composizione e quantitativi minimi... 8 Sistema di storage (US)... 8 Infrastruttura di rete... 8 Rete a bassa latenza... 8 Rete di gestione... 9 Rete a media latenza... 9 Accessori... 9 Software di sistema... 9 Sistema operativo e ambienti di sviluppo... 9 Software di virtualizzazione... 9 Software di gestione delle code... 9 Software di gestione e diagnostica... 10 Alimentazione elettrica... 10 Raffreddamento... 10 Servizi... 11 Contratto di servizio... Errore. Il segnalibro non è definito. Garanzia... 11 Formazione... 11 Assistenza e manutenzione hardware... 11 Assistenza e manutenzione impianti... 11 Assistenza e manutenzione software... 11 Assistenza sistemistica... 11 Implementazione... 11 Modalità di fornitura... 11 Benchmark e collaudo... 12 HPCC Research Infrastructure - Capitolato tecnico pag. 2 / 12

Introduzione L obiettivo del presente documento è quello di dotare l Ateneo, ed in particolare il Dipartimento di Ingegneria, di una infrastruttura di Calcolo ad Elevate prestazioni, dedicata ad offrire servizi orientati alla ricerca che facilitino l utilizzo di tecniche innovative in tutti gli ambiti della ricerca e che permetta all Ateneo di agire da protagonista nel mondo della ricerca, offrendo una infrastruttura dedicata che possa essere condivisa eventualmente con altre comunità accademiche (ad esempio aderendo al Cloud federato del GARR), ma anche avendo la possibilità di definire internamente le proprie politiche di gestione dei dati e delle attività, rimanendo proprietari dei dati raccolti, senza la necessità di doverli offrire all esterno per poterli elaborare, o dovendo dipendere da scelte tecnologiche altrui. L Infrastruttura richiesta è pensata per offrire sia le applicazioni che le infrastrutture di calcolo come un servizio, secondo il paradigma ormai consolidato del Cloud, ambendo a garantire semplicità di utilizzo e limitando la necessità di acquisire complessi know-how tecnologici da parte dei fruitori dei servizi: le interfacce proposte dal sistema saranno sostanzialmente interfacce Web, che permettono agli utenti di acquisire le risorse di calcolo e di storage necessarie per le proprie attività di ricerca. L adozione di strumenti di calcolo ad elevate prestazioni (HPC), l utilizzo di reti specializzate (reti a larga banda e bassa latenza) e di coprocessori dedicati permetteranno l esecuzione di algoritmi innovativi e dedicati alla soluzione di problemi specifici in ambito scientifico. HPCC Research Infrastructure - Capitolato tecnico pag. 3 / 12

Architettura del sistema L architettura generale del sistema di calcolo dovrà essere di tipo cluster e dovrà prevedere differenti tipologie di nodi specializzate per le diverse funzionalità richieste. NF NCM NG NCA US Rete a media latenza Rete gestione e monitoraggio Rete a bassa latenza I nodi di front-end (NF) costituiranno il punto di accesso dell utenza alla infrastruttura di calcolo. Saranno connessi quindi alla rete di ricerca dell ateneo. Il numero di nodi di questa tipologia dovrà essere pari a due. I nodi di gestione (NG) sono sistemi che sono deputati al controllo dell intera architettura effettuando un monitoraggio dell utilizzo delle risorse e consentono al personale sistemistico il completo controllo dell infrastruttura. Il numero di nodi di questa tipologia dovrà essere pari a due. Per quel che riguarda il calcolo scientifico sono presenti due tipologie di nodi, quelli con architettura di tipo multi core (NCM) e quelli che aggiungono anche acceleratori (NCA) per l elaborazione massiva. Il numero di nodi di tipo multi core dovrà essere non inferiore a 20. Il numero dei nodi con acceleratore dovrà essere non inferiore a 4. HPCC Research Infrastructure - Capitolato tecnico pag. 4 / 12

Le unità di storage (US) permettono la memorizzazione sia dei dati relativi al calcolo scientifico, sia delle immagini delle macchine virtuali. Il sistema è interconnesso con tre tipologie di reti, la prima ad elevata banda e bassa latenza utilizzata esclusivamente per il calcolo scientifico e non accessibile all esterno. La seconda rete, anch essa non accessibile all esterno, utilizzata per tutte le funzionalità di gestione e monitoraggio dei nodi. L ultima rete è quella connessa alla infrastruttura di ateneo e, mediante meccanismi di partizionamento, permetterà la connessione all esterno dei solo i nodi che devono essere direttamente raggiungibili. Come descritto nel capitolo relativo al Progetto, la composizione ed il bilanciamento delle tipologie di nodo, dovrà essere oggetto della proposta da parte del fornitore, mirata ad ottenere i requisiti di prestazioni richieste. Costituiscono parte integrante dell architettura e quindi della fornitura anche il sistema di alimentazione ed il sistema di raffreddamento. Requisiti tecnici In questo capitolo sono indicati i requisiti minimi delle varie tipologie di componenti del sistema. Tipologie di nodi Di seguito sono descritte le varie tipologie di nodi componenti il sistema. La composizione del sistema in termini di numerosità di esemplari per tipo dovrà essere scelta dal fornitore per garantire: a) il miglior livello prestazionale aggregato possibile, b) assicurare alti livelli di affidabilità e ridondanza c) massimizzare l efficienza energetica. Per il calcolo sono previste due tipologie di nodi entrambe basate su un architettura multi-core omogena. La prima senza acceleratori aggiuntivi (NCM) e la seconda in cui sono utilizzati, in aggiunta, acceleratori dedicati alle elaborazioni massive. La quantità e la tipologia dei nodi sarà oggetto di valutazione. Nodi di calcolo tipologia multi core (NCM) I nodi di calcolo con tipologia multi-core dovranno essere basati su piattaforme altamente integrate progettate per l ottimizzazione della potenza elettrica assorbita e dissipata con ridondanza dell alimentazione ed occupazione non superiore a 0.5 U per nodo. Ogni nodo dovrà soddisfare le seguenti caratteristiche minime: CPU: Due processori con architettura x86 a 64 bit con un numero di core per processore non inferiore a 16 e con velocità di clock maggiore o uguale a 2 GHz, dotati di cache L3 intelligente di almeno 22MB. RAM: Memoria non inferiore a 96 Gbyte di tipo tecnologicamente allo stato dell arte, con correzione d errore (DDR-4 registered ECC dual rank), operanti ad una frequenza effettiva di almeno 2666 MHz. Ai fini dell ottimizzazione delle prestazioni, i canali di memoria dovranno essere occupati in modo bilanciato secondo le indicazioni del produttore della scheda madre. I moduli di memoria dovranno essere omogenei per produttore e tipologia, approvati e certificati dal produttore della scheda madre. HPCC Research Infrastructure - Capitolato tecnico pag. 5 / 12

Storage: I nodi di calcolo dovranno essere datati di due unità di tipo SSD di capacità minima di 240 GB, all occorrenza configurabili in modalità RAID 1 con controller hardware. Saranno utilizzate solo per il sistema operativo e per l area di swap. Interconnessione: ciascun nodo dovrà essere dotato di interfacce idonee per la connessione a tutte le reti presenti nell architettura descritta nella sezione Infrastruttura di rete. E preferibile una ridondanza nelle connessioni per effettuare collegamenti a partizioni diverse della rete a media latenza. Controllo: ogni nodo dovrà essere dotato di un BMC (board management) controller compatibile IPMI versione 2.0 o superiore in grado di monitorare i parametri principali del nodo (temperature, ventole, alimentazione) e di interagire con il sistema in modalità KVM. Il controller dovrà utilizzare un interfaccia di rete dedicata. Nodi di calcolo con acceleratori (NCA) I nodi di calcolo con acceleratore dovranno essere basati su piattaforme altamente integrate progettate per l ottimizzazione della potenza elettrica assorbita e dissipata con ridondanza dell alimentazione. Ogni nodo dovrà presentare un architettura che sia equivalente in termini di caratteristiche rispetto a quella dei nodi di tipo NCM a cui si aggiungono almeno due acceleratori. Dovrà quindi essere possibile utilizzare la parte non accelerata, allo stesso modo dei nodi di tipo NCM. Ogni nodo dovrà soddisfare le seguenti caratteristiche minime (omogenee ai nodi NCM): CPU: Due processori con architettura x86 a 64 bit con un numero di core per processore non inferiore a 16 e con velocità di clock maggiore di 2 GHz, dotati di cache L3 intelligente di almeno 22MB. RAM: Memoria non inferiore a 96 Gbyte di tipo tecnologicamente allo stato dell arte, con correzione d errore (DDR-4 registered ECC dual rank), operanti ad una frequenza effettiva di almeno 2666 MHz. Ai fini dell ottimizzazione delle prestazioni, i canali di memoria dovranno essere occupati in modo bilanciato secondo le indicazioni del produttore della scheda madre. I moduli di memoria dovranno essere omogenei per produttore e tipologia, approvati e certificati dal produttore della scheda madre. Acceleratore: Acceleratori per calcolo parallelo in numero non inferiore a due. Gli acceleratori dovranno appartenere all ultima famiglia disponibile del produttore prescelto. Qualora gli acceleratori prevedano una memoria RAM dedicata, questa dovrà avere una capacità di almeno 6 Gbyte ed essere della tipologia idonea allo scopo. Ognuno dei due acceleratori dovrà garantire una prestazione di almeno 6 TFlops per operazioni di tipo double precision. Storage: I nodi di calcolo dovranno essere datati di due unità di tipo SSD di capacità minima di 240 GB, all occorrenza configurabili in modalità RAID 1 con controller hardware. Saranno utilizzate solo per il sistema operativo e per l area di swap. Interconnessione: interfacce idonee per la connessione a tutte le reti presenti nell architettura. È preferibile una ridondanza nelle connessioni per effettuare collegamenti a partizioni diverse della rete a media latenza. Controllo: ogni nodo dovrà essere dotato di un BMC (board management) controller compatibile IPMI versione 2.0 o superiore in grado di monitorare i parametri principali del nodo (temperature, ventole, alimentazione) e di interagire con il sistema in modalità KVM. Il controller dovrà utilizzare un interfaccia di rete dedicata. HPCC Research Infrastructure - Capitolato tecnico pag. 6 / 12

Nodi di front-end (NF) I nodi di front-end consentono l accesso dell utenza al sistema di calcolo per permettere l accesso alle relative risorse e la sottomissione dei job. Dovranno essere basati su piattaforme altamente integrate progettate per l ottimizzazione della potenza elettrica assorbita e dissipata con ridondanza dell alimentazione e con occupazione massima di 1U. Ogni nodo dovrà soddisfare le seguenti caratteristiche minime: CPU: Due processori con architettura x86 a 64 bit con un numero di core per processore non inferiore a 16 e con velocità di clock maggiore di 2 GHz, dotati di cache L3 intelligente di almeno 22MB. RAM: Memoria non inferiore a 96 Gbyte di tipo tecnologicamente allo stato dell arte, con correzione d errore (DDR-4 registered ECC dual rank), operanti ad una frequenza effettiva di almeno 2666 MHz. Ai fini dell ottimizzazione delle prestazioni, i canali di memoria dovranno essere occupati in modo bilanciato secondo le indicazioni del produttore della scheda madre. I moduli di memoria dovranno essere omogenei per produttore e tipologia, approvati e certificati dal produttore della scheda madre. Storage: Unità di memorizzazione con due unità disco di tipo SSD NMve configurabili in modalità RAID 1 con controller hardware e con capacità non inferiore a 1 TB da utilizzare per il bootstrap del sistema operativo e per l area di swap. Interconnessione: interfacce idonee per la connessione a tutte le reti presenti nell architettura. Inoltre i nodi di front-end dovranno avere la possibilità di ospitare connessioni multiple verso sotto-reti differenti della rete a media latenza. Controllo: ogni nodo dovrà essere dotato di un BMC (board management) controller compatibile IPMI versione 2.0 o superiore in grado di monitorare i parametri principali del nodo (temperature, ventole, alimentazione) e di interagire con il sistema in modalità KVM. Il controller dovrà utilizzare un interfaccia di rete dedicata. Nodi di gestione (NG) I nodi di gestione consentono l accesso da parte dei sistemisti al sistema di calcolo per permettere il monitoraggio e la configurazione di tutte le risorse disponibili. Dovranno essere basati su piattaforme altamente integrate progettate per l ottimizzazione della potenza elettrica assorbita e dissipata con ridondanza dell alimentazione e con occupazione massima di 1U. Ogni nodo dovrà soddisfare le seguenti caratteristiche minime: CPU: Due processori con architettura x86 a 64 bit con un numero di core per processore non inferiore a 8 e con velocità di clock maggiore di 2 GHz, dotati di cache L3 intelligente di almeno 22MB. RAM: Memoria non inferiore a 96 Gbyte di tipo tecnologicamente allo stato dell arte, con correzione d errore (DDR-4 registered ECC dual rank), operanti ad una frequenza effettiva di almeno 2666 MHz. Ai fini dell ottimizzazione delle prestazioni, i canali di memoria dovranno essere occupati in modo bilanciato secondo le indicazioni del produttore della scheda madre. I moduli di memoria dovranno essere omogenei per produttore e tipologia, approvati e certificati dal produttore della scheda madre. Storage: Storage: Unità di memorizzazione con due unità disco di tipo SSD NMve configurabili in modalità RAID 1 con controller hardware e con capacità non inferiore a 1TB. Interconnessione: interfacce idonee per la connessione a tutte le reti presenti nell architettura. Inoltre i nodi di gestione dovranno avere la possibilità di ospitare connessioni multiple verso sotto-reti differenti della rete a media latenza. HPCC Research Infrastructure - Capitolato tecnico pag. 7 / 12

Controllo: ogni nodo dovrà essere dotato di un BMC (board management) controller compatibile IPMI versione 2.0 o superiore in grado di monitorare i parametri principali del nodo (temperature, ventole, alimentazione) e di interagire con il sistema in modalità KVM. Il controller dovrà utilizzare un interfaccia di rete dedicata. Composizione e quantitativi minimi In relazione alle tipologie di nodi descritti in precedenza, i quantitativi minimi da offrire sono i seguenti: Tipologia Quantità Nodi di tipo NCM 20 Nodi di tipo NCM 4 Nodi di front-end 2 Nodi di gestione 1 Sistema di storage (US) Il sistema di storage dovrà essere dedicato alla memorizzazione delle immagini disco delle macchine virtuali preparate per le utenze dell infrastruttura e ai risultati delle elaborazioni. Dovrà garantire livelli alti in termini di: scalabilità, supporto di connettività eterogenea, affidabilità, ridondanza, prestazioni e facilità di gestione. Dovrà inoltre consentire l implementazione di meccanismi di condivisione ad elevate prestazioni dei file system residenti con predisposizione agli eventuali aggiornamenti. Dovrà prevedere tutti i meccanismi sia hardware che software per l automazione di procedure di backup verso unità remote. La capacità complessiva utile (al netto della ridondanza prevista) ed indirizzabile dovrà essere pari ad almeno 500 TiB (tebibyte). Le performance aggregate di I/O sul file system dovranno essere pari ad almeno 25 Gbyte/sec. Lo spazio utile di lavoro dovrà essere implementato con una soluzione di cluster parallel file system (Spectrum scale, Lustre, GPFS o equivalenti) con compatibilità allo standard POSIX. Pieno supporto per le funzionalità di ACL, user quotas, ridimensionamento dinamico, monitoring. Il sistema dovrà essere espandibile e scalabile. Tutti le unità a disco dovranno essere certificate per funzionamento ininterrotto 24h. Dovrà essere possibile sostituire a caldo, oltre che le unità a disco, tutte le componenti hardware critiche quali alimentatori o controller. Infrastruttura di rete Rete a bassa latenza La rete di interconnessione a larga banda e bassa latenza dovrà permette l interconnessione tra tutti i nodi di calcolo (NCM e NCA), l unità di storage ed i nodi di gestione. La topologia della rete potrà essere di tipo Fat-Tree oppure Toro ND con N maggiore o uguale a 3 (tipo Infiniband o Omnipath). La banda passante per singolo link dovrà essere non inferiore a 100 Gbit/sec, mentre i tempi di latenza dovranno essere inferiori a 2 microsecondi. La rete dovrà fornire il pieno supporto e compatibilità con le librerie MPI2 HPCC Research Infrastructure - Capitolato tecnico pag. 8 / 12

offerte descritte nella sezione Software. E dovrà presentare un fattore di Over-subscription non superiore a 2:1. Rete di gestione La rete di gestione sarà utilizzata per le funzioni di configurazione, installazione e controllo dei nodi. Dovrà connettere tutti i dispositivi presenti nel sistema. Dovrà essere attestata su apparati differenti da quelli delle altre reti presenti. Potrà essere utilizzato il protocollo ethernet. Rete a media latenza La rete a media latenza dovrà avere una banda tipica di 10 Gbit/sec ethernet e dovrà consentire il collegamento tra tutti i dispositivi per realizzare tutte le funzionalità che non richiedano l utilizzo della rete a bassa latenza. Dovrà essere attestata su apparati che supportino la definizione di sotto-reti per consentire il partizionamento dell accesso ai nodi di calcolo. Accessori La fornitura dovrà comprendere tutto l occorrente in termini di armadi contenitori delle apparecchiature, cavi di interconnessione, dispositivi di distribuzione elettrica, minuterie, apparecchiature di controllo e monitoraggio dei parametri vitali. Il sistema di distribuzione elettrica di tutti i componenti dovrà essere controllabile da remoto a mezzo PDU intelligenti. Software di sistema Sistema operativo e ambienti di sviluppo Il sistema operativo da utilizzare sui nodi dovrà essere basato su Linux x86_64 di ultima generazione (es.: Red Hat, CentOS). Dovranno essere fornite suite di sviluppo e debugging con compilatori C, C++, Fortran, Perl, Python nell ultima versione disponibile per l architettura fornita. Dovranno essere forniti ambienti software per lo sviluppo di applicazioni parallele basate su OpenMP e MPI. I compilatori e le librerie dovranno essere preferibilmente ottimizzati per il sistema di networking fornito. Per i nodi con acceleratori dovranno essere fornite librerie e suite di sviluppo idonee agli acceleratori hardware proposte. Software di virtualizzazione Software per la creazione e la gestione di macchine virtuali in ambiente cluster. Software di gestione delle code Per consentire una distribuzione dei carichi di lavori che garantisca un ottima produttività degli utenti ed al tempo stesso un utilizzo efficiente delle risorse disponibili, si chiede la fornitura di un software per l implementazione di un sistema di code (tipo LSF, PBS, Slurm o equivalenti) che permetta la sottomissione di job, la gestione e l allocazione delle risorse. HPCC Research Infrastructure - Capitolato tecnico pag. 9 / 12

Il software dovrà avere pieno supporto per job seriali, paralleli ed ibridi (OpenMP / MPI), con possibilità di gestione delle priorità dei job con diverse classi di utenti e differenti politiche di scheduling. Dovrà essere possibile gestire workflow complessi di job. Dovranno essere inoltre presenti funzionalità di analisi statistica sull utilizzo delle risorse legate ad accounting (gestione utenti e gruppi). Software di gestione e diagnostica Il sistema dovrà essere fornito completo di un cluster management system (tipo xcat o similari) che si interfacci tramite la rete di gestione e monitoraggio a tutti i componenti presenti e che consenta al system administrator, tramite un interfaccia web e cli, di gestire tutti i componenti del sistema. Dovranno essere fornite funzioni di monitoraggio e analisi sull utilizzo delle risorse hardware e software con la possibilità di definire metriche personalizzate, rilevazione di eventi di allarme e pre-allarme, e azioni da attivare in automatico al verificarsi di eventi (trigger actions). Alimentazione elettrica L intero sistema (ad eccezione del raffreddamento) dovrà essere alimentato da un opportuno gruppo di continuità in grado di garantirne il funzionamento per interruzioni di alimentazione della durata di almeno 10 minuti per i nodi di calcolo e 30 minuti per i nodi di controllo, front-end, storage ed infrastruttura di rete. Lo stesso gruppo di continuità dovrà essere interfacciato al sistema ed attivare le procedure automatiche di shutdown progressivo per garantire il corretto spegnimento per interruzioni di durata maggiore. Il sistema di alimentazione ed il gruppo di continuità dovranno essere controllati e monitorati direttamente dal nodo di gestione, consentendo anche l invio di segnalazioni specifiche ai sistemisti. La ditta aggiudicataria dovrà provvedere all allaccio dell alimentazione presso il quadro di distribuzione di piano installando un adeguato interruttore nello stesso e certificando la relativa operazione. Il sistema di distribuzione elettrica di tutti i componenti del sistema dovrà essere controllabile da remoto a mezzo PDU intelligenti. Raffreddamento La soluzione proposta dovrà essere fornita completa del sottosistema di raffreddamento in grado di mantenere costante la temperatura di tutti i componenti entro i limiti previsti dai rispettivi costruttori. La capacità di raffreddamento dovrà essere adeguata rispetto alla potenza dissipata dal sistema nelle sue condizioni di utilizzo pieno delle risorse di calcolo. Il sistema di raffreddamento dovrà essere interfacciato con il software di gestione per consentire il controllo remoto dei rispettivi parametri e l attivazione automatica di procedure di emergenza in caso di guasti o ridotta capacità di dissipazione. La tecnica utilizzata per il raffreddamento sarà scelta dall offerente e sarà oggetto di valutazione anche in relazione ai parametri di affidabilità, efficienza energetica, rumorosità. La ditta aggiudicataria dovrà provvedere alla completa installazione dell impianto di raffreddamento, sia unità interne che esterne comprensive di eventuali lavori edili. Dovrà inoltre effettuare i relativi allacci elettrici al quadro di distribuzione, certificandone le relative operazioni. HPCC Research Infrastructure - Capitolato tecnico pag. 10 / 12

Servizi connessi Unitamente alla fornitura principale l aggiudicatario dovrà garantire i seguenti servizi di durata non inferiore ad anni 3 (tre): - Garanzia Tutti i componenti forniti dovranno essere coperti da garanzia e dovranno essere sostituiti con identici esemplari nuovi in caso di guasto durante il periodo di validità della garanzia. - Formazione Formazione di tipo sistemistico diretta al personale che dovrà amministrare il sistema. Tale formazione dovrà essere effettuata allo start-up del sistema e con aggiornamenti periodici (ogni 6-12 mesi), per tutti i 3 anni - Assistenza e manutenzione hardware Servizio di assistenza tecnica hardware su tutti i componenti del sistema, con intervento on-site, e tempi di risoluzione entro il giorno lavorativo successivo alla chiamata. Il servizio dovrà comprendere sia il costo dei ricambi che della manodopera e dovrà essere garantito per almeno 3 anni. Assistenza e manutenzione impianti Servizio di assistenza tecnica e manutenzione per gli impianti (elettrico e raffreddamento) con interventi on-site e tempi di risoluzione entro il giorno lavorativo successivo alla chiamata. Il servizio dovrà comprendere sia il costo della manodopera e dovrà essere garantito per almeno 3 anni. Assistenza e manutenzione software Servizio di aggiornamento gratuito (anche da remoto) di tutti i componenti del software di base, ed in particolare del sistema operativo, dei driver, dei software di virtualizzazione e di monitoraggio per almeno 3 anni Assistenza sistemistica Servizio di supporto tecnico sistemistico telefonico (help-line) gratuito per almeno 3 anni Implementazione e Consegna Modalità di fornitura La consegna, l installazione, l esecuzione di tutti i lavori impiantistici, e la configurazione dell intero sistema nella sede prevista dovrà essere effettuata dal Fornitore attraverso personale specializzato. A tal proposito, è obbligatorio per il Fornitore l effettuazione un sopralluogo per visionare i locali e gli impianti relativi messi a disposizione del Dipartimento, prima di presentare l offerta, a pena di esclusione dal procedimento di gara. In particolare il Fornitore dovrà verificare i vincoli presenti per dimensionare il sistema di raffreddamento. Sarà rilasciato apposito attestato da allegare alla documentazione di gara. Tutte le attività si intendono comprensive di ogni onere relativo al trasporto, facchinaggio, consegna al piano, posa in opera, asporto dell imballaggio e di qualsiasi altra attività ad esse strumentale. Il Fornitore, inoltre, dovrà dotarsi di mezzi opportuni e/o di quanto altro necessario a trasportare, scaricare e a collocare la fornitura nella sala suddetta. Il Fornitore garantirà, durante tutte le fasi di lavorazione, il rispetto delle normative vigenti in materia di tutela della salute e della sicurezza nei luoghi di lavoro. HPCC Research Infrastructure - Capitolato tecnico pag. 11 / 12

Benchmark e collaudo Al termine della installazione, sarà previsto un periodo di test della durata massima di 30 (trenta) giorni a partire dalla sottoscrizione del verbale di consegna. Durante tale periodo, personale del Dipartimento, coadiuvato da personale del Fornitore, provvederà ed effettuare: - Verifica del rispetto dei requisiti tecnici della fornitura in merito al numero, alla tipologia dei componenti, alle tecnologie utilizzate rispetto a quanto previsto dai documenti forniti nell offerta. - Collaudo funzionale del sistema di calcolo scalare/parallelo mediante l esecuzione dei benchmark più diffusi - Collaudo funzionale del sistema di storage mediante l esecuzione dei benchmark più diffusi HPCC Research Infrastructure - Capitolato tecnico pag. 12 / 12