UNIVERSITA DEGLI STUDI DI NAPOLI FEDERICO II Gruppo Tecnico Trasversale Laboratorio Virtuale per la Didattica G.B. Barone x, V. Boccia y, D. Bottalico z, L. Carracciuolo w. Maggio 2011 (BOZZA) x Università degli Studi di Napoli Federico II, Centro Servizi Informativi Divisione Sistemi y Università degli Studi di Napoli Federico II, progetto Digit@UNI z Università degli Studi di Napoli Federico II, Centro Servizi Informativi Divisioneo Sistemi w Consiglio Nazionale delle Ricerche ICTP (Istituto di Chimica e Tecnologia dei Polimeri) i
UNIVERSITA DEGLI STUDI DI NAPOLI FEDERICO II Gruppo Tecnico Trasversale Indice generale 1 INTRODUZIONE...4 2 PROGETTAZIONE...5 3 REALIZZAZIONE...7 4 MODALITÀ DI FRUIZIONE...8 5 RISULTATI...9 6 RIFERIMENTI...10 ii
1 Introduzione Scopo di tale documento è descrivere l'attività svolta per la realizzazione di un testbed, aperto alla didattica per gli studenti della Federico II, così come previsto dal progetto sperimentale descritto in [1]. Il suddetto testbed ( Laboratorio Virtuale per la Didattica ) rende accessibile alla comunità di riferimento (per il momento studenti di alcuni corsi delle Facoltà di Ingegneria e di Scienze) parte delle risorse del sistema denominato DATACENTER SCoPE. Tali risorse, acquisite nell'ambito del progetto PON SCoPE (Avviso 1575) comprendono 304 nodi, server Dell PowerEdge M600, con le seguenti caratteristiche hardware: due processori quad core Intel Xeon E5410@2.33GHz (Architettura a 64 bit) 8 o 16 GB di RAM dischi SATA da 80GB scheda Infiniband (Mellanox Technologies MT25418) o scheda Fibre Channel. Il sistema è inserito in un contesto di produzione che consente l'accesso, mediante il paradigma del Grid Computing, a diverse comunità di utenti: IGI/EGI 1, GRISU 2 e alla comunità scientifica dell'ateneo Federico II (vedi Figura 1). Le infrastruttura Grid nel quale il sistema è inserito sono tutte basate sul middleware glite [2]. Obiettivo del lavoro è stato quello di realizzare una mini infrastruttura di griglia (il testbed), integrata ma indipendente dall'infrastruttura di produzione, che comprendesse, come risorsa di calcolo, un cluster per il Calcolo Parallelo accessibile, oltre che in maniera tradizionale (ad accesso diretto), anche mediante servizi GRID. I contenuti del presente documento riguardano, in particolare: la progettazione del testbed la descrizione delle operazioni di installazione/configurazione del testbed l'individuazione delle modalità di fruizione e la loro documentazione la validazione del lavoro svolto 1 Italian Grid Infrastructure e European Grid Infrastructure. 2 GRISU` Griglia del SUD (Italia)
Figura 1: Le risorse di SCOPE DATACENTER e loro integrazione nelle infrastrutture GRID locali, nazionali ed europee 2 Progettazione Si è individuata, nell'architettura rappresentata in figura 2, la soluzione al problema di realizzare un testbed che riproducesse una piccola infrastruttura di griglia computazionale, basato sul middleware glite, e che includa una parte delle risorse di calcolo descritte nel paragrafo precedente. La risorsa di calcolo, la cui architettura è rappresentata in figura 3, è un cluster per il calcolo parallelo, accessibile direttamente tramite un front end e prevede: 1. Un insieme di nodi di calcolo interconsessi mediante teconologie di rete ad alte prestazioni 2. Un servizio di gestione delle risorse e scheduling di job (RMSS) 3. Un servizio di Autenticazione e Autorizzazione Locale (LAS) 4. Un servizio di Storage Locale (LSS) 5. Un servizio di Accesso Locale (UAS) (front end) Tale risorsa è accessibile anche mediante servizi GRID grazie al suo inserimento nel testbed suddetto che deve prevedere un numero minimo di servizi necessari alla definizione di un'infrastruttura grid indipendente: 1. Un servizio per l'autenticazione e l'autorizzazioni sulla base di credenziali (VOMS server) 2. Un servizio informativo sullo stato dell'infrastruttura grid (BDII server)
3. Un servizio per la gestione dei job (WMS server) 4. Un servizio per l'accesso alla infrastruttura (User Interface) 5. Un servizio per l'accesso alle risorse di calcolo (Computing Element) 6. Un insieme di nodi di calcolo (Working Node), costituenti la risorsa di calcolo e configurati in un cluster parallelo. Figura 2: Architettura del testbed di griglia Figura 3: Architettura del cluster
3 Realizzazione La realizzazione del testbed descritto nel paragrafo precedente è avvenuta effettuando i seguenti passi: 1. Configurazione e validazione della risorsa di calcolo quale cluster accessibile in maniera tradizionale (accesso diretto ), 2. Configurazione della infrastruttura GRID, 3. Inserimento della risorsa di calcolo nella infrastruttura e validazione delle modalità di accesso della stessa mediante servizi GRID, 4. Redazione della documentazione per l'utilizzo. Nella fase iniziale del lavoro è stato allestito il cluster parallelo implementando i servizi per l'autenticazione locale LAS (mediante server NIS), per lo storage locale LSS (mediante server NFS). Il servizio per la gestione delle risorse e lo scheduling RMSS coincide con quello attualmente usato dalla infrastruttura UNINA di produzione (vedi figura 1) e fa uso di una combinazione dei server PBS e MAUI. I nodi del cluster sono stati equipaggiati con il sistema operativo e i software di seguito elencati: Sistema operativo: Scientific Linux 5.3 Driver e software per connettività Infiniband Resource Manager e Job Scheduler: TORQUE RM e Maui JS Grid Middleware: glite 3.2 configurato per il ruolo di Working Node (WN) Librerie e software: Compilatori: GNU e Intel C, C++, F77 e F90 MVAPICH 1.2.0: implementazione dello standard MPI1 over Infiniband OPENMPI 1.4: implementazione dello standard MPI2 over Infiniband librerie di base Intel MKL v.11 Scope Toolkit v2.0: blacs 1.1.0 blas 3.2.2 espresso 4.0.5 fftw 3.2.1 gromacs 4.5.2 gsl 1.13.3 lapack 3.2.2
metis 4.0.0 neuron 7.1.0 octave 2.9.15 petsc 3.1.p7 scalapack 1.8.0 starccm 6.02.007 E' stato quindi configurato il primo punto di accesso al cluster sopra descritto che consentisse l'accesso diretto alla risorsa: un front end (UAS), munito della stessa dotazione software dei nodi di calcolo e con i tool (client del PBS) necessari alla sottomissione di job direttamente al RMSS. L'attività di allestimento del testbed è continuata con la configurazione di tutti i servizi minimi necessari, così come descritto nel paragrafo 2, ad esclusione del servizio di autenticazione ed autorizzazione (VOMS server) già reso disponibile dalla infrastruttura GRID UNINA di produzione (vedi figura 1). E' stato quindi configurato il secondo punto di accesso al cluster sopra descritto: un Computing Element per consentire l'inserimento della risorsa nel testbed e quindi il suo accesso mediante servizi grid. A valle delle operazione di validazione di tutta l'infrastruttura si è proceduto alla redazione di una Guida all'utilizzo delle risorse del del laboratorio virtuale SCoPE per la didattica e alla sua pubblicazione sul sito www.scope.unina.it. 4 Modalità di fruizione Il testbed realizzato è integrato in un Laboratorio Virtuale e, in quanto tale, non prevede uno spazio fisico con postazioni di lavoro nel quale ospitare gli studenti. Ad esso si può accedere esclusivamente via rete da postazioni di lavoro geograficamente distribuite nelle varie sedi dipartimentali, di Facoltà, etc. L accesso all'infrastruttura è consentito attraverso le seguenti modalità: 1. accesso diretto: login da remoto sul front end del cluster, sottomissione diretta al sistema mediante scheduler (RMSS). 2. accesso GRID: login da remoto sulla User Interface, sottomissione di job mediante i comandi del middleware glite. La risorsa di calcolo è dotata degli strumenti software descritti in [3]; eventuali integrazioni di tale dotazione verrà effettuata su richiesta dei docenti.
I docenti dei Corsi dell'univesità di Napoli Federico II, interessati a fruire del servizio, dovranno inviare una email a scopeadmin@unina.it indicando: 1. il nome del corso 2. la data di inizio del corso 3. gli orari in cui si svolgeranno le attività di esercitazione presidiate 4. gli orari aggiuntivi in cui si intende prenotare il Laboratorio Virtuale per garantire agli studenti l'accesso libero (da casa o comunque al di fuori degli orari del corso) 5. l'elenco degli studenti (Nome, Cognome, Matricola) 6. l'elenco di eventuali esigenze software aggiuntive. Si precisa che la prenotazione del Laboratorio Virtuale consente di evitare sovrapposizioni tra i corsi, garantendo, dunque, un buon livello di servizio. A valle di ciascun corso, docenti e studenti sono invitati a partecipare a procedure di valutazione del gradimento e alla raccolta di feedback sull'utilizzo del servizio. Il livello di servizio garantito è descritto in [4]. I fruitori del servizio possono comunicare eventuali anomalie al Contact Center di Ateneo mediante l'indirizzo email contactcenter@unina.it. 5 Risultati Il testbed è utilizzato da oltre un anno, soprattutto in modalità accesso diretto, da diverse comunità di studenti. In particolare hanno usufruito del servizio gli studenti dei corsi di: Calcolo Parallelo e Distribuito del prof Giuliano Laccetti del corso di laurea in Informatica della Facoltà d Scienze MFN, Calcolo Parallelo della prof. Alessandra D Alessio corso di laurea in Ingegneria Informatica della Facoltà di Ingegneria A valle di ciascun corso, docenti e studenti sono stati invitati a partecipare a procedure di valutazione del gradimento e alla raccolta di feedback. E` emerso quanto segue: gli studenti del corso di corso di Calcolo Parallelo, che hanno fruito per primi del servizio nell'a.a. 2009/2010, hanno espresso un buon livello di apprezzamento confermato dalle statistiche di utilizzo della risorsa e dall'aumento delle richieste di accesso nell'a.a. 2010/2011. Il corso, attivato in via sperimentale nell'a.a. 2009/2010 per la Laurea
Specialistica in Ingegneria Infromatica, è stato confermato quest'anno con un aumento del numero di crediti formativi (da 2 a 6). nonostante il numero elevato (circa 100) degli studenti del corso di Calcolo Parallelo e Distribuito, svoltosi nell'a.a. 2010/2011, complessivamente il livello di apprezzamento del servizio è risultato buono ciò evidenziato, oltre che dalle statistiche di utilizzo, anche dalle richieste da parte degli studenti di un ampliamento delle finestre di fruizione. I feedback ricevuti hanno consentito il miglioramento del servizio in termini di fruibilità. Inoltre l'aumentato numero di studenti che hanno acceduto al servizio ha consentito di verificare la robustezza dell infrastruttura realizzata. 6 Riferimenti [1] G. Laccetti, G. B. Barone, A. D Alessio, L. D Amore, M. Lapegna Progetto sperimentale per l apertura della risorsa di calcolo UNINA all utilizzo degli studenti della Federico II, Febbraio 2010. 3 [2] S. Burke, S. Campana, E. Lanciotti, P. M. Lorenzo, V. Miccio, C. Nater, R. Santinelli, A. Sciabà, glite 3 UserGuide, 2010. 4 [3] Guida all'utilizzo del Laboratorio Virtuale per la Didattica 5 [4] Servizi erogati dal Data Center e livelli di servizio del supporto utenti 6 3Disponibile all'url: http://www.scope.unina.it/servizioutenti/docs/ 4Disponibile all'url: https://edms.cern.ch/file/722398/1.3/glite 3 UserGuide.html 5Disponibile all'url: http://www.scope.unina.it/servizioutenti/docs/ 6 Disponibile all'url: http://www.scope.unina.it/servizioutenti/docs/sis_sla_v2.pdf