Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN.

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN."

Transcript

1 Università degli Studi di Napoli Federico II Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Tesi Sperimentale di Laurea Triennale Le problematiche dello storage in un Data Center: tecnologie a confronto Relatori Candidato Prof. G. Russo Giuliano Falcone Dr. S. Pardi matr. 50/452 Anno accademico 2008/2009

2 Indice generale PREMESSA Introduzione Il progetto SCoPE Vantaggi del Grid Computing L architettura generale di un sito GRID Il Data Center SCoPE Le tecnologie di storage Quadro generale I tipi di dischi utilizzati JBOD e RAID DAS, NAS, SAN Le tecnologie iscsi e Fibre Channel applicate a ScoPE Lo storage in SCoPE Il ruolo dello Storage Element L unità CX3-40 e la sua architettura L'equallogic e la sua architettura Il Synology e la sua architettura Il Dot Hill e la sua architettura Livelli di astrazione File System Distribuiti Le funzionalità Piano dei test Quadro generale dei test sullo storage Piano dei test Ambiente dei Test Prove e risultati Test Effettuati Test effettuati su San Test su ISCSI...54 Pagina 1 di 122

3 5.4 Test su Fibre Channel Confronto tra architetture Confronto tra Fsd Confronto tra sistemi di storage Tecnologie NAS Test NAS Linux Vs XP Confronto Synology Vs Locale Test Scrittura lettura Random Conclusioni La sintesi dei benchmark CX3-40 a confronto Synology Vs locale L'esperienza acquisita Bibliografia Appendici Appendice 1: il benchmark IOZone Pagina 2 di 122

4 PREMESSA L'attività di tirocinio per completare il corso di laurea triennale in Informatica presso la Facoltà di Scienze MM.FF.NN. dell'università di Napoli Federico II è iniziata a novembre 2008, nell'ambito del progetto SCoPE. Come è noto, tale progetto, finanziato sui fondi PON, ha portato alla realizzazione di un Data Center ad alte prestazioni, orientato alle elaborazioni scientifiche multidisciplinari. Come tale, le apparecchiature del Data Center, la cui installazione era stata completata poco prima dell'avvio del tirocinio, sono di vario tipo, per soddisfare tutte le esigenze delle varie aree di ricerca. Il mio lavoro si è concentrato sullo storage, ovvero sui sistemi per immagazzinare i dati: in SCoPE, sono presenti varie tecnologie: i DAS (Directly Attached Storage), cioè i dischi direttamente connessi ai server; i NAS (Network Attached Storage), cioè i dischi organizzati in un sistema autonomo accessibile via rete Ethernet con protocolli compatibili con Windows e con Linux; i NAS iscsi, cioè i dischi organizzati in un sistema autonomo accessibile via rete Ethernet con il solo protocollo iscsi; le SAN FC (Storage Area Network via Fibre Channel), cioè sistemi autonomi di grande capacità organizzati intorno ad una infrastruttura di rete Fibre Channel dedicata e proprietaria; le SAN iscsi (Storage Area Network via iscsi), cioè sistemi autonomi di grande capacità organizzati intorno ad una infrastruttura di rete aperta. Il mio lavoro è consistito nello studiare, prima teoricamente e subito dopo operativamente, tutti questi sistemi, confrontandoli attraverso appositi benchmark ed individuandone le caratteristiche prestazionali. L'attività pratica è stata lunga ed approfondita, ed è stata svolta presso la Control Room di SCoPE e presso lo stesso Data Center di SCoPE, utilizzando le molte apparecchiature di storage presenti. Pagina 3 di 122

5 1. Introduzione 1.1 Il progetto SCoPE Ad inizio 2005 l Ateneo Federico II presentò una proposta progettuale a seguito del bando cosiddetto Avviso 1575, finanziato dal MIUR sui fondi PON [1]. Il progetto, denominato SCOPE [2], che sta per Sistema Cooperativo Distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari, fu uno dei quattro approvati ed interamente finanziato, e l unico dei quattro ad essere presentato da una Università da sola. Il progetto è partito quindi a novembre 2005, e si è completato a marzo Obiettivo finale del progetto è la realizzazione di un Sistema di Calcolo ad Alte Prestazioni, orientato ad applicazioni scientifiche multidisciplinari, che operi anche secondo il paradigma GRID, dedicato alla modellistica computazionale ed alla gestione di grandi banche dati per ricerche nelle aree applicative di interesse del progetto. In particolare, il progetto ha consentito la costruzione di un nuovo Data Center, qui di seguito mostrato, che ospita circa 300 server, 200 Terabyte di spazio disco e tutta l infrastruttura di rete ad alte prestazioni (10 GbE [3], 1 GbE [4], FC [5], Infiniband [6]). L inaugurazione del Data Center si è avuta il 1 dicembre 2008, ed ora il centro è pienamente operativo. Le problematiche tecniche affrontate nella costruzione del Data Center hanno portato ad una architettura complessa, in cui si è cercato di ottimizzare le possibilità di colloquio dei server tra di loro (grazie alle connessioni a bassa latenza Infiniband) e dei server con lo storage (grazie alle connessioni Fibre Channel, ma anche alle unità iscsi [7]). Per quest ultima problematica, cioè quella dell accesso allo storage, era necessario effettuare una Pagina 4 di 122

6 serie di misurazioni delle prestazioni finali del sistema, per le due tipologie di storage installato, cioè una Storage Area Network [8] basata su Fiber Channel e quindi su protocolli proprietari, ed una Storage Area Network basata su iscci e quindi su protocolli aperti. Questa tesi si inquadra in questo contesto, ed in particolare affronta il problema dello storage, analizzando le tecnologie disponibili e misurandone le prestazioni. 1.2 Vantaggi del Grid Computing I vantaggi che la soluzione di Grid Computing [9] permette di ottenere sono: Creare un ambiente elaborativo dinamico per la condivisione di risorse e risultati; Mantenere contenuti i costi di manutenzione in quanto relativi ad una sola entità logica e non a una moltitudine di sistemi; Migliore utilizzo Minori dell hardware e delle condivisione delle risorse; requisiti gestionali e di amministrazione per ogni sistema in quanto l aggregazione di tali sistemi in una sola entità consente di avere performance più elevate; Velocità di risposta dei sistemi informativi indipendentemente dal server a cui si pone la richiesta, dal carico di lavoro in quel momento e dalla complessità della richiesta; 1.3 L architettura generale di un sito GRID L architettura generale di un sito GRID vede il middleware [10] diviso in due aree, quella dei servizi core e quella dei servizi collective. I servizi core (presenti in ciascun sito Grid) sono tipicamente i seguenti: repository pacchetti del middleware (YAIM) servizi di computing (WN [11], CE [12]) servizi di storage (SE [13]) user interface (UI [14]) I servizi collective, presenti in almeno un sito Grid, sono tipicamente i seguenti: servizi di autenticazione/autorizzazione [15] servizi di allocazione dei job (RB []) servizi informativi (II [17]) Pagina 5 di 122

7 cataloghi di file / repliche user interface (UI) I seguenti servizi non fanno parte dell'infrastruttura Grid, ma sono necessari/utili per il deployment e per la gestione: Certification Authority [18] servizi di monitoring servizi di accounting ticketing system service availability monitoring. Le caratteristiche principali dei servizi Core sono: la loro presenza sulle risorse di calcolo di ciascun sito periferico, l'inserimento delle risorse locali nell'infrastruttura Grid in base ad apposite policy di utilizzo. Questi servizi richiedono management locale per le operazioni di: start-up aggiornamenti troubleshooting Un elemento essenziale dei servizi Core è il Computing Element [12] (CE), qui descritto: interfaccia Grid verso una farm costituita da nodi di calcolo (Worker Node [11] WN) gestione dei job di calcolo tramite un batch-queue system tramite il batch system è possibile partizionare l'insieme di risorse di calcolo (CPU) e di definire delle policy di utilizzo da parte delle varie VO [19] (CPU time, numero di job concorrenti) mediante la creazione di code batch ciascun Computing Element è fornito di certificato digitale (rilasciato dalla CA INFN) che attesta l'attendibilità delle transazioni servizi Globus [20]: globus-gatekeeper, globus-gridftp, GRIS batch system supportati: PBS [21], Torque [22], LSF [23]. Altro elemento essenziale è il Worker Node [11] (WN), qui descritto: host disponibile per l'esecuzione di job gestione/allocazione da un Computing Element Pagina 6 di 122

8 pochi pacchetti del middleware installati contiene l'execution environment del processo di calcolo (librerie di esperimento, toolkit, ecc.) Per quanto riguarda gli Storage Element [13] (SE), le sue caratteristiche sono: interfaccia Grid ad uno spazio di storage utilizzo del protocollo GridFTP [24] per il trasferimento di file gestione dello spazio di storage in modo da permetterne l'utilizzo da parte di varie VO ciascuno Storage Element è fornito di certificato digitale che attesta l'attendibilità delle transazioni servizi Globus: globus-gridftp, GRIS [25] Le caratteristiche della User Interface (UI) sono: componente che permette agli utenti di accedere alle risorse Grid funzionalità di base sottomissione di job visualizzazione stato di un job cancellazione di un job recupero dell'output di un job l'utente accede alla UI tramite collegamento remoto ad una UI di infrastruttura o di gruppo (SSH,...) tramite un PC desktop o notebook personale configurato con i componenti della UI tramite web (GENIUS [26]) l'utente accede ad una UI tramite delle credenziali locali (es. username/password), tuttavia per poter accedere ai servizi Grid è necessario il proprio certificato personale. 1.4 Il Data Center SCoPE Il Data Center SCoPE implementa una architettura complessa, che vede i classici elementi costituenti una infrastruttura di Grid, ovvero: worker node storage element computing element Pagina 7 di 122

9 servizi collective user interface sistemi di storage infrastruttura di rete. Lo schema che segue illustra i vari componenti e le loro interconnessioni. Le due foto seguenti mostrano la prima (a sinistra) l interno del Data Center, e la seconda (a destra) il rack dello storage. Le due foto seguenti mostrano invece gli apparati di rete al gigabit (prima foto) e quelli Infiniband (seconda foto) e Fibre Channel (terza foto). Pagina 8 di 122

10 Pagina 9 di 122

11 2. Le tecnologie di storage 2.1 Quadro generale L analisi dello storage parte necessariamente dalle tecnologie disponibili per i dischi magnetici, che sono l elemento base di ogni sistema di storage. Nel complesso, un sistema di storage cerca di mettere a disposizione dei server tutte le caratteristiche dei dischi connessi, sia per quanto riguarda la loro capacità, sia per quanto riguarda le prestazioni. È infatti chiaro che se un singolo disco può, ad esempio, garantire una velocità di trasferimento massima (burst rate) di 200 Mbyte/sec, se i server sono 50 ed i dischi 200 sicuramente ogni server non potrà trasferire i dati da ogni disco a questa velocità: vi è un problema di banda, ma anche di connettività, per cui bisogna studiare la combinazione ottimale delle connessioni e delle tipologie di disco, in funzione di ciò che serve come prestazioni. Nel caso di SCoPE, lo storage vede due tecnologie SAN, quella Fiber Channel [5] e quella iscsi [7], ed inoltre almeno tre tecnologie di dischi, quella SATA, quella SAS, quella Fibre Channel. La conoscenza dettagliata delle caratteristiche dei dischi utilizzati è importante per gli amministratori di sistema, in quanto senza una conoscenza di base sul funzionamento dei dischi fissi, è possibile eseguire delle modifiche nei confronti della configurazione del sistema, in grado di influenzare in modo negativo le prestazioni del sistema stesso. Il tempo necessario ad un disco fisso per rispondere e completare una richiesta di I/O dipende da due cose: dai limiti elettrici e meccanici del disco fisso dal carico I/O imposto dal sistema. Limitazioni elettriche e meccaniche Poiché i dischi fissi sono dispositivi elettro-meccanici, essi sono soggetti a diverse limitazioni sulla loro velocità e prestazione. Ogni richiesta di I/O, per poter funzionare, necessita di diversi componenti del drive. Poiché ogni componente presenta diverse caratteristiche, la prestazione generale del disco fisso viene determinata dalla somma della prestazione dei componenti individuali. Pagina 10 di 122

12 Tuttavia, è noto che i componenti elettrici risultano essere più veloci rispetto ai componenti meccanici. Per questo motivo i componenti meccanici risultano avere un impatto maggiore sulle prestazioni generali del disco fisso. Il tempo di accesso medio di un disco fisso è di circa 8.5 millisecondi. Vediamo come ogni componente influisca sulle prestazioni generali del disco fisso. Tempo di elaborazione del comando Tutti i moderni dischi fissi possiedono dei sistemi computerizzati embedded molto sofisticati in grado di controllare le loro funzioni. Essi sono in grado di eseguire i seguenti compiti: Interagire con il mondo esterno attraverso l'interfaccia del disco fisso. Controllare le operazioni del resto dei componenti facenti parte del disco fisso, e ripristinare le normali funzioni dopo che si siano verificate alcune condizioni d'errore. Processare i dati letti e scritti sul media dello storage corrente. Anche se i microprocessori utilizzati nei dischi fissi sono relativamente potenti, i compiti a loro assegnati richiedono del tempo per la loro elaborazione. In media, il tempo necessario è di millisecondi. Testine di lettura/scrittura dei dati Le testine di lettura/scrittura del disco fisso funzionano solo quando i piatti del disco sono in rotazione. Poiché la lettura e la scrittura dei dati dipende dal movimento del media posizionato sotto la testina, il tempo necessario al media contenente il settore desiderato, a passare completamente sotto la testina, risulta essere l'unico componente in grado di determinare il tempo di accesso totale. Esso è in generale pari a.0086 millisecondi per una unità operante a 10, 000 RPM con 700 settori per traccia. Pagina 11 di 122

13 Tempo di rotazione Poichè i disk platter del disco fisso sono in continuo movimento, quando arriva una richiesta di I/O, risulterà improbabile che il piatto si troverà esattamente nella posizione corrispondente al settore desiderato. Per questo motivo, anche se il resto dell'unità è pronta ad accedere il settore desiderato, è necessario attendere la rotazione del piatto, portando il suddetto settore nella posizione giusta e cioè sotto la testina di lettura/scrittura. Questo è il motivo per il quale i dischi fissi, con elevate prestazioni, generalmente ruotano i loro piatti ad una velocità maggiore. Al giorno d'oggi una velocità pari a 15, 000 RPM è idonea per le unità con elevate prestazioni, mentre 5, 400 RPM è idonea per unità di tipo entry-level. Da ciò ne consegue che la media è di circa 3 millisecondi per una unità di 10, 000 RPM. Movimento del braccio d'accesso Se vi è un componente nel disco fisso che può essere considerato il punto debole, esso è rappresentato dal braccio d'accesso. Il motivo è che il braccio d'accesso si muove molto rapidamente e in modo preciso, su distanze relativamente molto lunghe. In aggiunta, il movimento del braccio d'accesso non è continuo infatti deve accelerare molto rapidamente per avvicinarsi al cilindro desiderato per poi decelerare per evitare di superarlo. Quindi il braccio d'accesso deve essere resistente (per sopravvivere alle forze alle quali viene sottoposto a causa dei movimenti brevi e veloci), ma anche leggero (in questo modo vi è meno massa da accelerare/ decelerare). Raggiungere questi obiettivi è difficile, infatti il movimento del braccio d'accesso è relativamente maggiore rispetto al tempo utilizzato da altri componenti. Per questo, il movimento del braccio d'accesso risulta essere determinante sulla prestazione generale del disco fisso, aggirandosi intorno a 5.5 millisecondi. Prestazione e carico I/O Un altro fattore in grado di controllare la prestazione del disco fisso è il carico di I/O al quale il disco fisso stesso viene sottoposto. Alcuni degli aspetti più specifici inerenti il carico di I/O sono: La quantità di dati letti rispetto a quelli scritti Pagina 12 di 122

14 Il numero corrente dei lettori/scrittori La posizione delle letture/scritture Letture contro scritture Per l'unità disco generica che utilizza un media magnetico per la conservazione dei dati, il numero delle operazioni I/O di lettura rispetto al numero delle operazioni di I/O di scrittura non risulta essere un problema, in quanto la lettura e la scrittura dei dati richiedono la stessa quantità di tempo. Tuttavia, altre tecnologie mass storage necessitano di una quantità di tempo diverso per processare la lettura e la scrittura. L'impatto che ne consegue è che i dispositivi che necessitano di maggior tempo per processare le operazioni I/O di scrittura (per esempio), sono in grado di gestire un minor numero di I/O di scrittura rispetto agli I/O di lettura. Se ci poniamo un'altra prospettiva, un processo di I/O di scrittura necessita di una maggiore abilità del dispositivo a processare le richieste di I/O rispetto al processo I/O di lettura. Lettori/scrittori multipli Un disco fisso che processa le richieste I/O provenienti da fonti multiple, presenta un carico diverso rispetto al disco fisso che fa fronte alle richieste I/O provenienti solo da una fonte. La ragione principale per questo è data dal fatto che le richieste I/O multiple hanno il potenziale di provvedere a carichi I/O più elevati, riguardanti un disco fisso invece di una richiesta I/O singola. Questo perché un richiedente I/O deve eseguire un certo numero di elaborazioni, prima che si possa verificare una operazione di I/O. Dopo tutto, il richiedente deve determinare la natura della richiesta di I/O prima che la stessa possa essere eseguita. Poiché la elaborazione necessaria per determinare quanto detto richiede del tempo, esiste un limite superiore sul carico di I/O che un richiedente è in grado di generare solo una CPU più veloce è in grado di elevare il suddetto limite. Questa limitazione è maggiormente evidenziata se il richiedente necessita un input umano prima di eseguire un I/O. Pagina 13 di 122

15 Tuttavia, con richieste multiple, i carichi di I/O più elevati possono essere sostenuti. Fino a quando è disponibile una alimentazione CPU sufficiente a supportare il processo necessario a generare le richieste di I/O, l'aggiunta di più richieste di I/O aumenta il carico di I/O risultante. Tuttavia, vi è un altro fattore in grado di essere collegato al carico di I/O risultante. Tale fattore viene affrontato nella sezione che segue. Posizione delle letture/scritture Anche se non forzato da un ambiente multi-richiedente, l'aspetto della prestazione del disco fisso tende ad essere più accentuato in tali ambienti. Il problema è se le richieste di I/O fatte da un disco fisso, siano per dati fisicamente vicini ad altri dati già richiesti. Il motivo per il quale esso risulta importante diventa apparente se si tiene in considerazione la natura elettromeccanica del disco fisso. La componente più lenta di qualsiasi disco fisso è rappresentata dal braccio d'accesso. Per questo motivo, se i dati interessati dalle richieste di I/O in entrata non necessitano di alcun movimento da parte del braccio d'accesso, il disco fisso è in grado di servire molte più richieste di I/O rispetto a quando i dati in questione si trovano in diverse posizioni nel drive, e quindi richiedono un movimento esteso da parte del braccio d'accesso stesso. Ciò può essere illustrato guardando alle specifiche sulla prestazione del disco fisso. Queste specificazioni includono spesso i tempi di ricerca adjacent cylinder (dove il braccio d'accesso viene mosso lievemente solo sul cilindro successivo), e tempi di ricerca full-stroke (dove il braccio d'accesso si muove dal primissimo cilindro fino all'ultimo). Per esempio, ecco i tempi di ricerca per un disco fisso ad alte prestazioni: Adjacent cylinder: 0.6 msec Full-stroke: 8.2 msec La tabella della pagina che segue, presa dalla letteratura, confronta le caratteristiche principali dei principali tipi di dischi oggi disponibili, ed in particolare: Pagina 14 di 122

16 ATA [27] SATA [28] SCSI [29] e SAS [30] Fibre Channel [5]. Pagina 15 di 122

17 2.2 I tipi di dischi utilizzati ATA [27] Lo standard AT Attachment (ATA) è utilizzato quale interfaccia primaria per lo storage interno dei PC; con l interfaccia ATA l host viene connesso a periferiche come dischi magnetici, dischi ottici, CD-ROM, DVD. L interfaccia Ultra ATA è una estensione dell interfaccia parallela ATA introdotta già negli anni 80, e mantiene la compatibilità verso il basso. L ultima versione dello standard Ultra ATA accettata è la ATA/ATAPI-6. Questa specifica supporta fino a 100Mbytes/sec per la velocità di trasferimento dati. Questo protocollo, relativamente semplice, definisce l accesso ai dati attraverso register maps. Questa semplicità riduce il costo del disco e ne semplifica l integrazione. I dischi ATA hanno spesso una altissima densità, rispetto al volume, ed un basso consumo elettrico, ma i dischi ATA meno costosi sono spesso meno affidabili (minor MTBF rispetto, ad esempio, ai dischi SCSI) ed hanno prestazioni inferiori (rispetto a velocità di rotazione in RPM, cache, tempi di accesso). Inoltre il protocollo ATA è un protocollo semplificato, che ne limita le prestazioni nel caso di sistemi multitasking. SATA [28] Lo standard Serial ATA, o SATA, è la nuova generazione di storage interconnect, nata per sostituire gradualmente l Ultra ATA. Esso consiste essenzialmente in una evoluzione da parallelo a seriale, ma con nuove tecnologie che ne incrementano l efficienza. L architettura a bus seriale supera i limiti elettrici che stavano nascendo con il continuo aumento della velocità dell Ultra ATA. La prima generazione, SATA-I, era semplicemente una trasposizione da parallelo a seriale funzionante a 150 Mbyte/sec, e pienamente aderente al protocollo ATA a livello software. La seconda generazione, SATA II, vede invece dei miglioramenti nel protocollo per arrivare a 3 Gigabit/sec, circa il doppio della precedente. I nuovissimi dispositivi SATA possono supportare trasferimenti in DMA (Direct Memory Access), eseguire i comandi da una coda sull host, restituire i risultati dei comandi direttamente all host, fornire i dati in ordine sparso, che vengono poi riordinati sull host, per garantire massima velocità. Tutto ciò rende i dischi SATA paragonabili a quelli SCSI ed FC. Tuttavia, non è previsto nel SATA il supporto per il cosiddetto multi-initiator su un dispositivo. Pagina di 122

18 SCSI [29] Lo standard Small Computer System Interface (SCSI) è nato nel 1986 come lo standard ANSI X , sulla base di quanto era stato disponibile, già alla fine degli anni 70, sui dischi con interfacce proprietarie per i supercomputer del tempo. Tale standard definisce una interfaccia universale, di tipo parallelo, detta lo SCSI bus, che può connettere fino ad otto unità su un singolo cavo. Su questo bus SCSI più unità e più controller possono scambiarsi informazioni, anche indipendentemente dall host. Lo standard si è evoluto da SCS-I, a SCSI-2, a SCSI-3, così come si sono evoluti i cavi, da Wide SCSI a Narrow SCSI. Le caratteristiche principali sono: fino a 7 unità (Narrow) o fino a 15 unità (Wide); lunghe distanze per i cavi; supporto per accesso ai dischi in multitasking; consegna dei dati out-of-order data delivery. Ma il protocollo è molto più complesso dell ATA e dell Ultra ATA, e questo ne aumenta la difficoltà di costruzione e di testing, rendendo i dischi SCSI più costosi ma anche più affidabili rispetto ai dischi Ultra ATA. SAS [30] Per superare le difficoltà e le limitazioni di banda del cablaggio a bus parallelo è nato il nuovo standard Serial Attached SCSI (SAS). L obiettivo era di mantenere le prestazioni dello SCSI, mantenendo comunque la compatibilità con il protocollo SCSI. SAS usa una topologia seriale punto-punto. Fibre Channel [5] Un altro standard per i dischi è il Fibre Channel (FC). I dischi FC tipicamente hanno una interfcaccia detta Fibre Channel Arbitrated Loop (FC-AL) che può essere singola o doppia, dove l interfaccia doppia garantisce ridondanza e, in alcuni casi, anche accesso concorrente, migliorando le prestazioni. FC-AL usa una topologia a loop che consente di connettere insieme fino a 126 dischi, anche senza uno switch FC; in questo caso la banda passante è unica e condivisa per tutti i dischi sul bus, e il bus rappresenta inoltre un single point of failure per un così grande numero di dischi. Pertanto, si usa quasi sempre un controller, detto Port Bypass Controller (PBC) in una topologia a stella, che implementa il bus con una operazione di chaining delle porte. I dischi FC hanno un alto data rate, possono essere connessi con cavi molto lunghi, possono essere fino a 126 su un bus, hanno ridondanza ed efficienza grazie alla doppia interfaccia. Pagina 17 di 122

19 2.3 JBOD e RAID I dischi, di qualunque tipo, sono spesso connessi tra di loro e con l host. Le due tecnologie utilizzate sono JBOD [31] e RAID []. JBOD (Just a Bunch of Disks) è un sistema per cui vari dischi sono in un enclosure con un backplane comune. Poichè un sistema JBOD non ha una logica (elettronica) di front-end che gestisce la distribuzione dei dati sui dischi, I dischi sono indirizzati singolarmente. Un sistema JBOD può essere usato sia in connessione diretta ad un host, sia in connessione ad un NAS (Network Attached Storage), sia in connessione ad una SAN (Storage Area Network) di tipo Fiber Channel. Alcune configurazioni sono qui di seguito mostrate. Tipicamente, nei Data Center i sistemi JBOD sono organizzati in cestelli da rack, di larghezza standard 19 pollici, con una dozzina o più di dischi da 3, 5 pollici. RAID (Redundant Array of Independent Disks) è una tecnologia che combina più dischi in un array che viene poi visto dall host come un singolo disco. Se si mettono semplicemente insieme n dischi (come nel JBOD) il sistema risultante ha un rate di errore che è n volte il rate di errore di un disco solo. L affidabilità è spesso misurata in MTTF (Mean time to Failure) o FITS (Failures in Time). Il parametro MTTF è la media della distribuzione dei tempi di vita dei dischi di quel tipo, ed è misurata in ore. Il parametro FITS è la misura del rate di errore in 109 ore di funzionamento. Se MTTFDisk e FITSDisk sono i valori di uno specifico disco, e MTTFJBOD e FITSJBOD i valori di un sistema JBOD system con n dischi, valgono le seguenti relazioni: Pagina 18 di 122

20 L MTTF di un disco Fibre Channel è oggi di 1.5M ore, un sistema JBOD con 100 dischi ha un MTTF di ore, cioè 1, 7 anni, valore chiaramente troppo basso. Con il RAID, il valore di MTTF aumenta invece considerevolmente. Il RAID è definito secondo vari livelli. RAID 0 Data Striping Il RAID 0 è semplicemente una configurazione dei dischi in array, con funzionalità di data striping, che consentono di avere file che superano i confini del disco fisico. RAID 1 Mirroring Il RAID 1 consiste nel mirroring dei dischi: i dati sono scritti su due dischi simultaneamente, garantendo così la ridondanza e consentendo anche di raddoppiare la velocità di lettura, gestendo opportunamente via software i due dischi. Il costo è solo quello di duplicare il disco. RAID 2 Striping con ECC Il RAID 2 usa un algoritmo di Hamming per generare checksum ECC (Error Correction Code). I dati ed i checksum possono superare i confini fisici del disco. Questo livello di RAID corregge errori nei bit, sia singoli che multipli, eventualmente presenti sui dischi. In pratica, la cosa non serve molto: spesso a rompersi è tutto il disco, non un singolo bit o gruppi di bit. E per I guasti semplici sui bit, è sufficiente un semplice meccanismo di parità XOR, senza bisogno dell algoritmo di Hamming. Di fatto, il RAID 2 non è praticamente mai utilizzato. RAID 3 Byte Striping con Parità Il livello RAID 3 effettua lo striping dei dati su più dischi come il RAID 2, e genera informazioni di parità basate su XOR. Se un disco si rompe, i dati possono essere ricostruiti dai dischi rimanenti. Il costo è di un disco ulteriore per la parità XOR, molto più semplice che mirrorare ogni disco con il RAID 1. RAID 4 Block Striping con Parity Pagina 19 di 122

21 Il livello RAID 4 usa lo stesso meccanismo del RAID 3, ma il checksum XOR è calcolato sui blocchi dei dischi, invece che sui byte. Viene utilizzato comunque un disco dedicato; le prestazioni complessive sono però quelle di un singolo disco. RAID 5 Block Striping with Distributed Parity Il livello RAID 5 è rivolto a risolvere i problemi di efficienza del RAID 4, e lo fa distribuendo i dati di parità su tutti i dischi, con un algoritmo di round robin. Anche il RAID 5 richiede, come il RAID 4, una operazione di scrittura del checksum per ogni operazione di scrittura dati sui dischi, ma i problemi di conflitto per accesso concorrente sono ridottissimi, per cui il RAID 5 è molto efficiente e molto usato. 2.4 DAS, NAS, SAN Il mercato tradizionalmente offre due opzioni per immagazzinare i dati: Direct-Attached Storage e lo storage in rete, che a sua volta si divide in due specifici sottosettori, le Storage Area Network (SAN) e i Network-Attached Storage (NAS). Nella sua forma più semplice, il Direct-Attached Storage consiste in un drive collegato direttamente a un server. I dati sono trasferiti usando comandi SCSI (Small Computer System Interface), il mezzo più comune di I/ O tra un computer e un disco. Nella gran parte delle implementazioni enterprise, in realtà, lo storage è un blocco di dischi, un sottosistema disco con protezione RAID o uno storage array di fascia più elevata. Nelle configurazioni tradizionali lo storage è una periferica, la gestione dei dati è centralizzata e tutte le applicazioni operano in maniera trasparente con il sottosistema di memorizzazione. Il Direct-Attached Storage funziona bene in ambienti con uno o pochi server, ma in realtà più complesse si mostrano i veri problemi. Man mano che cresce il numero di server, gestire i dati per ciascuno di essi risulta estremamente complesso. Diventa anche sempre meno efficiente il provisioning dello storage: i singoli server tendono a essere sovradimensionati per poter gestire i cambiamenti in capacità o prestazioni dello storage che le applicazioni richiederanno. La scalabilità è limitata e non si possono condividere le risorse di storage o i dati. Per tutti questi motivi, molti IT manager ritengono che le necessità nella gestione dei dati oggi siano soddisfatte molto meglio da un approccio con storage in rete: SAN e NAS. In una SAN più server hanno accesso condiviso allo storage e sono connessi attraverso uno switch Fibre Channel ai sistemi di memorizzazione. I server e lo storage comunicano attraverso i protocolli della suite Fibre Channel, con i quali i comandi SCSI possono essere Pagina 20 di 122

22 trasmessi su collegamenti seriali. Un sistema di storage deve permettere a più nodi di accedere ai suoi dischi interni: lo fa presentando ai server un insieme di dischi virtuali chiamati Logical Unit Number (LUN). I sistemi di storage sono quindi più intelligenti e complessi di un semplice blocco di dischi con un controller RAID e la gestione delle risorse è incentrata sullo storage e non sui server. Come accade per il DAS, comunque, ogni server fornisce i servizi di gestione dei dati alle proprie applicazioni attraverso un volume manager o un file system che vede le "sue" LUN come risorse fisiche. I dati non sono dunque condivisi, anche se l'accesso ai dischi lo è, perché ogni file system "conosce" solo le sue LUN. Le SAN hanno molti vantaggi rispetto al DAS in quanto a estendibilità, affidabilità, disponibilità e prestazioni, ma il loro punto di forza è la centralizzazione della gestione, che porta a un TCO più basso. Anche le SAN Fibre Channel hanno comunque dei lati negativi. La maggior parte degli osservatori riconosce che la complessità degli ambienti Fibre Channel e l'alto costo delle schede e degli switch FC hanno limitato le installazioni a realtà monofornitore per applicazioni mission critical ad alte prestazioni, tipicamente gli ambienti di data center. La complessità viene soprattutto dal fatto che FC è una tecnologia per collegamenti seriali mirati, non per una rete: non ha funzioni native per il routing e il failover dei nodi, mentre sono limitate quelle per la gestione dell'indirizzamento. In una SAN queste funzioni devono essere configurate dall'operatore e gestite dall'host e, spesso, sono fonte di blocchi operativi. Un altro problema è che lo storage delle SAN, anche se opera in maniera trasparente con tutte le applicazioni e permette la condivisione delle risorse di storage, non permette lo sharing dei dati: alcune applicazioni richiedono quindi un approccio differente. I dispositivi NAS sono stati originariamente progettati per la condivisione dei dati su LAN Ethernet, obiettivo raggiunto incorporando funzioni di file system nell'unità di storage. In un ambiente NAS, i server sono collegati allo storage attraverso una rete Ethernet standard e per le loro richieste usano protocolli di accesso ai file come NFS e CIFS. Le chiamate dei client al file system locale sono ridirezionate al NAS, il che permette la condivisione dei file. Se i client sono pc desktop il NAS fa in pratica del file serving "serverless", se sono sistemi server il NAS scarica loro dal peso della gestione dei dati. Queste funzioni integrate di gestione dei dati e l'uso di tecnologie standard di networking rendono i NAS l'approccio allo storage con il TCO più basso di tutti. Storicamente i NAS sono stati considerati come sistemi di storage con poca capacità e basse prestazioni. L'avvento di Gigabit Ethernet e di NAS con caratteristiche enterprise ha Pagina 21 di 122

23 accelerato la loro diffusione nei data center per applicazioni di fascia alta, in modo particolare quando la semplicità d'uso è un aspetto critico. I NAS non sono comunque indicati per tutte le applicazioni, perché alcune di esse sono progettate per vedere lo storage come un disco locale. In un tipico ambiente IT ci sono applicazioni che richiedono SAN e altre che richiedono NAS: il mercato sta iniziando a rispondere a questo fenomeno con sistemi unificati di storage in rete, detti anche Fabric-Attached Storage, che supportano protocolli sia SAN che NAS e sistemi di trasporto sia Fibre Channel che Ethernet. L'Internet SCSI (iscsi) è un protocollo per incapsulare comandi SCSI nei pacchetti TCP/IP e permettere il trasporto dei dati a blocchi su reti IP. iscsi può essere usato per realizzare reti di storage che adottino componenti infrastrutturali Ethernet standard. Per il lato server c'è bisogno di uno "iscsi initiator", che può essere implementato in software. In tal caso una scheda di rete Ethernet standard inserita nel server fornisce la connettività verso la rete di storage, in una soluzione che è giudicata perfettamente accettabile per i server con poco carico. In alternativa si può usare un initiator hardware: in tal caso un Host Bus Adapter iscsi inserito nel server permette di collegare quest'ultimo a una rete di storage nativa iscsi su Gigabit Ethernet. Le prestazioni degli HBA iscsi di prima generazione sono sufficienti per le necessità di storage in ambiente workgroup e dipartimentale, mentre l'uso di TCP/IP Offload Engine migliora le prestazioni di iscsi su reti Gigabit e 10 Gigabit Ethernet. Una SAN iscsi usa switch e cablaggi standard Gigabit Ethernet, mentre lato storage si deve usare un sistema di memorizzazione iscsi nativo, che fornisce un "target" iscsi per gli initiator dei server. I principali vantaggi di iscsi rispetto alle SAN Fibre Channel sono un costo più basso e una complessità minore. Usando Ethernet, i Layer di trasporto possono essere gestiti utilizzando le applicazioni attuali di network management, mentre le funzioni di gestione di livello più alto del protocollo iscsi - i permessi, le informazioni sui device, le configurazioni e via dicendo vanno sovrapposte o integrate a queste applicazioni. Gli HBA iscsi e gli switch Gigabit Ethernet hanno poi un costo per porta che è meno della metà degli equivalenti Fibre Channel. Pagina 22 di 122

24 3. Le tecnologie iscsi e Fibre Channel applicate a ScoPE 3.1 Lo storage in SCoPE Per la realizzazione del progetto ScoPE si è data fondamentale importanza allo storage. La capacità totale di spazio disco dell'unità di storage principale è di circa 130 TeraByte suddivisi in: 95 HDD da 300GB / 10K con accesso Fibre Channel 106 HDD da 1TB / 7, 2K con accesso SATA Tale suddivisione è frutto di un accurato studio in modo da garantire agli utenti il massimo delle prestazioni in termini di efficienza ma senza sottovalutare un aspetto fondamentale che riguarda l'affidabilità dei dati. La migliore soluzione al nostro problema è stato introdurre sistemi RAID. Tra i vari schemi possibili si è scelto di usare il livello 5 che garantisce un ottimo compromesso tra affidabilità e efficienza. I dischi sono stati suddivisi cosi come segue: costituito da 5 HDD x 300GB/10K (FC) Capacità gruppo: 1.073, 48 GB Capacità totale: 1.073, 48 GB 20 Gruppi RAID-5 costituiti da 5 HDD x 1TB/ 7.2K (SATA) Capacità gruppo: 3.668, 60 GB Capacità totale: , 93 GB4 1 Gruppo RAID-6 costituito da 6 HDD x 1TB/ 7.2K (SATA) Capacità gruppo: 3.668, 60 GB Capacità totale: 3.668, 60 GB Di seguito è illustrato come sono stati divisi fisicamente i dischi tra i vari raggruppamenti RAID. Ogni riga della tabella illustra un rack contenente dischi e dallo schema stesso si può osservare che alcuni raggruppamenti contengono dischi appartenenti a più rack. Pagina 23 di 122

25 É stato di grande importanza definire livelli di astrazione che permettano all'utente di usufruire di dati senza effettivamente sapere su quale disco si sta lavorando per rendere il sistema il più scalabile (aggiunta di dischi) e affidabile (sostituzione in caso di guasti) possibile. Ciò ha dato luce ad una struttura a cipolla che vede come nucleo della struttura i dischi veri e propri. Raggruppamenti di dischi danno vita ai RAID che sono autonomi tra di loro. Raggruppamenti di RAID, invece, generano LUN (Logical Unit Pagina 24 di 122

26 Number) Si noti che nel nostro caso specifico si può confondere senza problema alcuno il RAID con la LUN in quanto abbiamo impostato che una LUN sia esattamente costituita da un unico RAID. 3.2 Il ruolo dello Storage Element All interno di un sito INFN Grid lo Storage Element è il componente a cui viene affidata la fase di memorizzazione delle informazioni: esso infatti offre un accesso uniforme allo spazio disco presente sulla macchina. Questo elemento della griglia può comodamente controllare un enorme numero di array di dischi di varia natura, e quindi diversi Terabyte di dati. All interno dello Storage Element è in esecuzione il server GSIFTP, in grado di offrire le funzionalità di un normale servizio FTP [52], utilizzando però l infrastruttura GSI per un più veloce e sicuro trasferimento file da o verso lo Storage Element. Oltre al GSIFTP è presente anche lo Storage Resource Manager (SRM), in grado di gestire dinamicamente il contenuto dello spazio disco in qualsiasi momento. Questo componente interagisce con il sistema operativo del nodo per le operazioni di archiviazione e con diversi protocolli, quale quello utilizzato proprio dal servizio GSIFTP, per il trasferimento file. Inoltre sono presenti i servizi di Replica Catalogue e Replica Locations Service, in grado di individuare e tracciare le copie di dati. Lo Storage Element deve avere un certificato installato valido per poter essere mappato dal Resource Broker. Tale certificato è da richiedere presso la INFN Certification Authority (CA). 3.3 L unità CX3-40 e la sua architettura Il sistema EMC CLARiiON CX3-40 è un sistema che offre lo storage in rete a prestazioni e capacità elevate in grado di soddisfare i carichi di lavoro OLTP complessi e le esigenze degli ambienti di calcolo che richiedono un accesso intensivo ai dati. Garantisce scalabilità semplice fino a 173 TB di capacità di storage, utilizzando la larghezza di banda completa da 4 Gb/s dell'architettura CLARiiON CX3 UltraScale. In questo modo è Pagina 25 di 122

27 possibile ottenere il miglior rapporto prezzo/prestazioni e la massima disponibilità (99, 999%) necessari a soddisfare qualsiasi requisito aziendale. Le funzionalità software guidate semplificano le attività di gestione giornaliere, mentre le funzionalità avanzate proteggono i dati aziendali. Il sistema EMC CLARiiON CX3-40 offre: Architettura UltraScale Prestazioni ottimizzate, scalabilità e resilienza superiore grazie a una tecnologia all'avanguardia e alla larghezza di banda di 4 Gb/sec. Connettività Fibre Channel e iscsi 4 porte host Fibre Channel da 4 Gb/s e 8 porte host iscsi da 1 Gb/s, oppure una configurazione solo Fibre Channel con 8 porte host da 4 Gb/s Storage su più livelli Combinazione di unità a prestazioni elevate, costi convenienti e alta capacità per soddisfare qualsiasi esigenza aziendale e di budget. Tecnologia MetaLUN Maggiori prestazioni e utilizzo della capacità con l'espansione online delle LUN. Tecnologia Virtual LUN Gestione semplice delle implementazioni di storage su più livelli con migrazione dei dati senza interruzione delle attività nell'ambito dello stesso array. Aggiornamenti di tipo "data-in-place" Protezione dell'investimento con le funzioni uniche di upgrade "data-in-place" al sistema CX3-80. Pagina 26 di 122

28 Livelli RAID Livello Numero dischi Immagine minimo RAID 0 2 RAID 1 2 RAID 3 3 RAID 4 3 RAID 5 3 RAID 6 4 Pagina 27 di 122

29 RAID 0: striping dei dati su 3- unità RAID 1: coppie di mirroring di 2 unità RAID 1/0: mirroring dei dati e successivo striping su 4- unità RAID 3: accesso ai dati indipendente su 5 o 9 unità (con disco di parità dedicato) RAID 5: accesso dati indipendente su 3- unità (con parità di striping) RAID 6:Un sistema RAID 6 usa una divisione a livello di blocchi con i dati di parità distruibuiti due volte tra tutti i dischi. Il RAID-6 è più ridondante del RAID-5, ma è molto inefficiente quando viene usato in un numero limitato di dischi. Possibilità di utilizzare qualsiasi combinazione di livelli RAID su un unico sistema CX340 Profondità di striping RAID configurabile su 4,,, o settori per disco MetaLUN: virtualizzazione dello storage tramite espansione LUN online basata sullo striping o attraverso la concatenazione Hot spare configurabili Ricostruzione del tuning di priorità: adeguamento I/O minimo riservato al server durante la ricostruzione Connettività front-end (host) Due processori storage Ciascun per ciascun sistema CX3-40 processore di storage è dotato di 4 porte ottiche Fibre Channel da 4 Gb 4 porte in rame Ethernet da 1 Gb Pagina 28 di 122

30 2 porte ottiche Fibre Channel da 4 GB Lunghezza massima del cavo Fibra ottica a onde corte: 100 m (4 Gb) CAT5E e CAT6 in rame 300 m (2 Gb), 500 m (1 Gb) 100 m (1 Gb) Accodamento dei tag di comando (fino a tag) Connettività back-end (disco) Ciascun processore di storage CX3-40 FC è dotato di quattro loop arbitrati Fibre Channel C da 4 Gb. Possibilità di distribuire più gruppi RAID sui loop ridondanti per ottimizzare la larghezza di banda dei dischi. Il sistema CX3-40 supporta massimo 240 unità disco. Memoria di sistema Due processori storage per ciascun sistema CX GB di memoria per ciascun processore La configurazione minima di un CX3-40 consiste in un singolo Storage Processor enclosure, da 1 unità (1U), più un standby power supply (SPS), anch esso da 1 unità (1U), e da almeno 1 Pagina 29 di 122

31 disk-array enclosure (DAE) a 4-Gb/s UltraPoint, da 3 unità (3U), per un totale di 5 unità da rack. È possibile avere un totale di DAE e 2 SPS. Queste configurazioni sono mostrate nella figura che segue. La figura che segue mostra lo Storage Processor del CX3-40, dall esterno. Dei LED mostrano l attività della rete LAN, dell alimentazione dello Storage Processor, delle fasi del boot, dell alimentazione, e le condizioni eventuali di errore. Dei LED indicano anche la velocità delle porte in uso: verde per 2 Gb/s e blu per 4 Gb/s. Ciascun Storage Processor del CX3-40 ha 4 porte Front End (FE) a 4-Gb/s Fibre Channel. Queste porte, tutte del tipo SFP (small-form-factor pluggable), usano transceiver ottici e sono auto-negozianti per quanto riguarda la velocità. Usando il software Navisphere Manager o Pagina 30 di 122

32 mediante linea di comando (CLI), l utente può impostare la configurazione. Queste porte possono essere connesse a 1-, 2-, o 4-Gb/s mediante transceiver ad uno switch FC, o possono essere connesse direttamente a 1-, 2-, o 4-Gb/s HBA su un server. Ciascun Storage Processor del CX3-40 ha anche 4 porte Back End (DE) che costituiscono delle porte ridondanti. Il sistema di alimentazione del CX3-40 è mostrato nella figura che segue. Esso consiste in quattro alimentatori distinti, con relativo sistema di raffreddamento. Ogni alimentatore garantisce 260 watt. Pagina 31 di 122

33 È possibile avere un totale di DAE e 2 SP. 3.4 L'equallogic e la sua architettura Oltre al sistema di storage primario descritto in precedenza, in SCOPE è presente anche un sistema secondario, basato su ISCSI. L unità EqualLogic presente presso SCoPE (ve ne sono 2) è qui di seguito rappresentata. Pagina di 122

34 L unità Dell EqualLogic PS5000E è una SAN (Storage Area Network) virtualizzata iscsi, che combina le caratteristiche di unità intelligente ed automatica con quelle di fault tolerance, fornendo inoltre funzioni semplificate di amministrazione, di installazione, e con prestazioni di alto livello, affidabilità e scalabilità. L unità monta dischi SATA (Serial Advanced Technology Attachment) per un totale di Terabyte di storage raw. L unità PS5000E è progettata per consentire una rapida installazione, una gestione semplificata ed una facile espansione. L unità include funzionalità per la configurazione della SAN ed ha la capacità di determinare automaticamente la topologia della rete, di costruire automaticamente i RAID sets, e di eseguire verifiche sulle proprie condizioni, per verificare cioè che tutti i suoi componenti funzionino perfettamente. Pagina 33 di 122

35 MODULAR DESIGNWITH ENTERPRISE RELIABILITY L architettura degli EqualLogic della serie PS è basata sulla modularità e sulla virtualizzazione, permettendo così di avere la quantità di storage che serve, evitando sia una sottoutilizzazione sia un uso troppo intensivo dei dischi o di un singolo array di dischi, cioè di una singola unità EqualLogic. Infatti, utilizzando del software specializzato e dedicato per la gestione dei dati, due o più unità EqualLogic della SAN sulla rete lavorano insieme per gestire i dati, per bilanciare il carico sui vari array, e possono essere espanse, con l aggiunta di altri array, se serve altro spazio. In sostanza, gli EqualLogic PS5000E sono stati create proprio per i DataCenter, e sono ottimali in un ambiente Grid, che fa della virtualizzazione dello storage uno dei propri punti di forza. Il PS5000E include inoltre capacità di fault tolerance, grazie ai component ridondati e sostituibili a sistema accesso, o come si dice hot-swap: doppio controller dei dischi, doppio sistema di ventole, doppio alimentatore, dischi hot spare. Il sistema di caching dei dischi, del tipo write-back, usa delle batterie per evitare perdita dei dati anche se l unità si spegne improvvisamente, ed inoltre la cache stessa è replicate sui due controller. Il PS5000E ha le seguenti caratteristiche software: Auto-Replication Writeable Snapshots Automatic Load Balancing Auto-Snapshot Manager Auto-Stat Disk Monitoring System Multi-Path I/O PS Group Manager Pooled and Tiered Storage Snapshots and Auto-Replication Scheduler Home Smart Copy for Microsoft SQL Server and Windows File Systems Roles-based Administration Pagina 34 di 122

36 Storage Virtualization Thin Provisioning Volume Consistency Sets Volume Cloning Volume Management Volume Snapshot Tutte queste funzioni sono standard nell EqualLogic PS5000E. 3.5 Il Synology e la sua architettura Una ulteriore unità di storage secondario presente in SCoPE è nel sistema NAS della Synology, con protocolli NTFS e CIFS. Il Synology è il compromesso tra soluzione economica ed affidabile con prestazioni accettabili. L'architettura utilizata è di tipo Nas (Network Attached Storage), cioè un dispositivo collegato direttamente ad una rete di computer. Il synology offre la possibilità di utilizzare un insieme di dischi con livelli di raid a partire dal livello 0 fino al livello 6. L'unità è un NAS ben realizzato, integrante un hardware adeguato e pensato per reggere anche nelle situazioni più difficili alle quali si può sottoporre un unità del genere in ambito domestico o lavorativo. Ma è il software il vero punto di forza del DS508, con una possibilità di configurazione che ha dell incredibile, capace di essere utilizzato Pagina 35 di 122

37 agevolmente sia dagli utenti inesperti che da quelli più esperti, con una praticità ed una facilità d uso davvero fuori dal comune. L interfaccia è realizzata con estrema cura e risulta potente ma allo stesso tempo semplice e mai confusionaria, adattabile con pochi click alle varie esigenze che può avere un utente, senza per questo mai limitarlo nella scelta e nelle possibilità di configurazione. Dal lato puramente prestazionale poi, il NAS di Synology non sfigura certo di fronte a nessuno dei suoi concorrenti, potendo garantire una velocità di trasferimento molto elevata e, cosa forse più interessante, costante nel tempo e senza andamenti pericolosamente oscillanti. Un NAS per tutti quindi, dall amatore al professionista, da chi vuole un prodotto semplice senza rinunciare alle funzionalità a chi invece è già esperto ma chiede qualcosa in più ad un unità di questo tipo. Il Synology DS508 risponde con fermezza a tutte queste esigenze, mostrando una versatilità, una potenza ed una semplicità d uso che pochi altri possono vantare e risultando, senz ombra di dubbio, uno dei migliori prodotti disponibili sul mercato nella sua categoria. E' di certo più economico se si confronta il DS508 ai classici NAS che siamo abituati a vedere, considerando anche alla miriade di funzioni disponibili ed alle performance che lo pongono con decisione una spanna sopra alla maggior parte degli altri modelli concorrenti. Passiamo ad analizzare più nel dettaglio i servizi aggiuntivi che accompagnano di default l unità di Synology, fermo restando che, come abbiamo anticipato prima, è sempre possibile installarne di nuovi secondo le proprie esigenze. Il primo è File Station 2, un vero e proprio file browser che ci permette di gestire i dati presenti sull hard disk interno al DS508, con un interfaccia molto semplice ma ben progettata e di piacevole impatto estetico, che aiuta a rendere le operazioni molto semplici e di essere al contempo sufficientemente potente da non far sentire la mancanza di funzionalità aggiuntive: c è tutto quello che si rende necessario per le Pagina 36 di 122

38 normali operazioni. Audio Station è votato alla riproduzione di file audio, con una comoda interfaccia in stile media player, abbastanza spartano ma sufficiente a garantire le funzionalità di base per questa tipologia di software. Diamo giusto un occhiata veloce a Surveillance Station 2, anche qui, notando come tutte le funzioni siano ben documentate e facilmente accessibili, senza dimenticare le innumerevoli opzioni di configurazione per far si che l utente possa sfruttare il NAS fino in fondo senza limitazioni dovute ad un software male implementato. 3.6 Il Dot Hill e la sua architettura Successivamente all'inaugurazione del Data Center SCoPE, sono state aggiunte delle unità di storage ulteriori, da parte dell'infn, dedicate all'esperimento ATLAS: si tratta di unità della Dot Hill, un leader di mercato nella fornitura di soluzioni di storage flessibili e servizi a valore aggiunto destinati a OEM e system integrator, e precisamente il nuovo SANnet II U0 (U0). Il prodotto integra la settima generazione della tecnologia SCSI e garantisce, allo stesso prezzo, il doppio delle prestazioni rispetto ai sistemi conformi allo standard SCSI 0. Il SANnet II U0 è pienamente compatibile con le attuali infrastrutture SCSI e ciò assicura la protezione degli investimenti iniziali. Inoltre, il sistema consente di incrementare notevolmente le prestazioni preservando l integrità dei dati. Il SANnet II U0 è conforme alle norme NEBS e MIL e ciò rappresenta un vantaggio per vendor, VAR, enti governativi e operatori di telecomunicazioni che basano le loro infrastrutture su questo standard. Il SANnet II U0 supporta velocità di trasferimento dati fino a 0 megabyte per secondo e integra numerose tecnologie di pacchettizzazione, massimizzazione e quick arbitration select che consentono di ridurre sensibilmente l utilizzo della CPU da parte delle applicazioni 3.7 Livelli di astrazione Per quanto riguarda lo storage è molto importante definire livelli di astrazione che permettano all'utente di usufruire di dati senza effettivamente sapere su quale disco si sta lavorando. Avendo così una struttura a cipolla che vede come nucleo della Pagina 37 di 122

39 struttura i dischi veri e propri. Raggruppamenti di dischi danno vita ai RAID che sono autonomi tra di loro. Raggruppamenti di RAID, invece, generano LUN (Logical Unit Number). La comunicazione con questi meta-device è coordinata dalla tecnologia Fibre Channel. Si noti che nel nostro caso specifico si può confondere senza problema alcuno il RAID con la LUN in quanto abbiamo impostato che una LUN sia esattamente costituita da un unico RAID. Dato questo livello di astrazione, la lettura e scrittura nei dischi sarà fatta per gli utenti da appositi server 2950 (Storage Server) dediti solo allo storage. Questi server sono dotati di schede HBA (Host Bus Adapter) le quali hanno 2 porte FC. Tramite queste porte è possibile definire due collegamenti a due switch distinti, i quali a loro volta comunicano con due Stored Processor che saranno i veri responsabili della lettura e scrittura sulle LUN. Si noti che ogni switch possiede due porte che permettono a ogni server di stabilire 4 path di cui: 2 path : sono gli effettivi path che il server usa per comunicare con i due stored processor (HBA[0]->SWH1:68 e HBA[1]->SWH2:60) 2 path : sono path di ridondanza che permettono, in caso di guasto di uno switch, di arrivare allo Storage Processor che questo gestiva (HBA[0]->SWH1:61 e HBA[1]->SWH2:69) 3.8 File System Distribuiti Nell'intera architettura sono compresi anche server dediti al calcolo e alla gestione delle interfacce i quali hanno bisogno in continuazione di dati. Sia per motivi di efficienza che per motivi di scalabilità del sistema si vuole far in modo che questi server non possano accedere direttamente ai dischi o ad ogni altra loro astrazione; si introduce il Pagina 38 di 122

40 concetto di FSD(File System Distribuiti). DEFINIZIONE Un FSD è un particolare file system che permette la memorizzazioni di file e risorse in dispositivi di archiviazione distribuiti in una rete informatica. A differenza di un comune file system locale, i dati non vengono letti o archiviati su di un dispositivo locale, ma, attraverso un meccanismo client-server, su dispositivi remoti, collegati in maniera trasparente alla propria gerarchia di file. Un FSD deve poter gestire i file in maniera trasparente e concorrente e, di solito, è dotato di sistemi di autenticazione e, a volte, di criptazione. I principali FSD in commercio sono LUSTRE, GPFS e PUS. La creazione degli FSD è compito dei server 1950 che si intrapongono tra gli storage server e gli elaboration server. Questi server permettono il montaggio e l'uso, come un qualsiasi device, degli FSD da parte degli elaboration server e nel momento in cui viene fatta una richiesta sull'unità di storage da parte di quest'ultimi, i 1950 non fanno altro che tradurre la richiesta nel path specifico e passarla agli storage server che provvederanno all'esecuzione della richiesta tramite il modello sopra citato. I Gruppi di raid sopra elencati saranno suddivisi nei 5 FSD seguenti: uninahome: FS per le User Interface da montare sotto /home -1 LUN SATA Raid-6 3.6TB uninafc01: FS veloce per dati da montare sotto /uninafc - 10 LUN FC 21.4TB uninafc02: Per il management del sw scientifico e di libreria, da montare su tutti WN sotto /opt/exp_soft/ - 1 LUN FC 1TB uninasata01: Per i dati da montare sotto /flatfile/se00 su tutti i wn - 10 LUN SATA 36.6TB astro01: FS per astrofisici da Montare sotto /astro su tutti i wn - 10 LUN SATA 36.6TB Supponendo che una LUN sia formata da un'unico raggruppamento RAID avremo in totale LUN divise logicamente come nello schema della pagina che segue. Nello schema si possono notare i storage server collegato in modalità FC con le LUN. Questi collegamenti seguono lo schema sopra indicato, cioè ci sono collegamenti di default (blu) e Pagina 39 di 122

41 collegamenti ridondanti (rossi) che permettono di accedere alle LUN di un server tramite un path alternativo se questo dovesse guastarsi. Inoltre i server sono collegati tramite uno switch con cablaggio ethernet ai server dediti alla creazione e gestione dei FSD e sempre allo stesso switch sono collegati i server che monteranno gli FSD per poi usufruire dei dati. 3.9 Le funzionalità L unità CX3-40 è caratterizzata da funzioni intelligenti di gestione dello storage, che consentono operazioni in ambiente SAN. Alcune di queste funzioni sono qui illustrate. La gestione della cache È innanzitutto interessante vedere il meccanismo di funzionamento della cache del CX3-40: avendo due SP, Storage Processor, ognuno ha due cache memory, la prima è quella propria, la seconda è il mirror della cache dell altro, come illustrato in figura. Questo meccanismo Pagina 40 di 122

42 assicura la continuità di funzionamento anche se uno dei due SP si rompe. L unità CX3 è inoltre in grado di funzionare anche con il protocollo iscsi, anche se questa funzionalità non è ancora implementata nella installazione fatta per SCoPE, che per l iscsi ha scelto una diversa unità, la DELL EqualLogic PS50000e. Lo schema di funzionamento è illustrato di seguito: come si vede, Fiber Channel ed iscsi coesistono, consentendo l accesso anche agli stessi dischi da parte di vari server. Pagina 41 di 122

43 L area riservata Tutti i dischi del sistema CX3-40 hanno un area riservata per le informazioni di configurazione. Inoltre, i primi 5 dischi nel primo enclosure del primo loop di back-end hanno delle aree riservate che sono utilizzate per le immagini del software e per il dump della write cache (la cosiddetta vault area). Per garantire lo spazio per queste funzioni, lo spazio utente inizia dopo 33 Gbyte nei primi 5 dischi, e dopo 34 Mbyte negli altri dischi, come mostrato in figura. Pagina 42 di 122

Il middleware INFNGRID Certification Authority Virtual Organization Servizi core Servizi collective Servizi di supporto al deployment e per la

Il middleware INFNGRID Certification Authority Virtual Organization Servizi core Servizi collective Servizi di supporto al deployment e per la Architettura del middleware INFNGRID e piano di deployment sull'infrastruttura SCoPE Gennaro Tortone INFN Napoli 21 febbraio 2007 Indice Il middleware INFNGRID Certification Authority Virtual Organization

Dettagli

Valutazione del sistema di storage EMC CLARiiON AX4

Valutazione del sistema di storage EMC CLARiiON AX4 Valutazione del sistema di storage EMC CLARiiON AX4 Relazione preparata sotto contratto con EMC Introduzione EMC Corporation ha incaricato Demartek di eseguire una valutazione pratica del nuovo sistema

Dettagli

Sistemi avanzati di gestione dei Sistemi Informativi

Sistemi avanzati di gestione dei Sistemi Informativi Esperti nella gestione dei sistemi informativi e tecnologie informatiche Sistemi avanzati di gestione dei Sistemi Informativi Docente: Email: Sito: eduard@roccatello.it http://www.roccatello.it/teaching/gsi/

Dettagli

IBM System Storage DS5020 Express

IBM System Storage DS5020 Express Gestione della crescita, della complessità e dei rischi grazie a un sistema storage scalabile ad elevate prestazioni IBM System Storage DS5020 Express Punti di forza Interfacce FC a 8 Gbps di nuova Storage

Dettagli

Sistemi RAID. Sistemi RAID. Sistemi RAID

Sistemi RAID. Sistemi RAID. Sistemi RAID Sistemi RAID 1 Sistemi RAID Dei tre elementi fondamentali di un qualsiasi sistema computerizzato: processore, memoria primaria, memoria secondaria, quest ultimo è di gran lunga il più lento. Inoltre, il

Dettagli

Sistemi RAID. Sistemi RAID

Sistemi RAID. Sistemi RAID Sistemi RAID 1 Sistemi RAID Dei tre elementi fondamentali di un qualsiasi sistema computerizzato: processore, memoria primaria, memoria secondaria, quest ultimo è di gran lunga il più lento. Inoltre, il

Dettagli

Sistemi RAID tutti i dati che contiene RAID

Sistemi RAID tutti i dati che contiene RAID Sistemi RAID 1 Sistemi RAID Dei tre elementi fondamentali di un qualsiasi sistema computerizzato: processore, memoria primaria, memoria secondaria, quest ultimo è di gran lunga il più lento. Inoltre, il

Dettagli

Nastro magnetico. Gestione della memoria di massa. Disco magnetico. Disco magnetico. Usato in passato come dispositivo di memorizzazione secondaria

Nastro magnetico. Gestione della memoria di massa. Disco magnetico. Disco magnetico. Usato in passato come dispositivo di memorizzazione secondaria Impossibile visualizzare l'immagine. Nastro magnetico Gestione della memoria di massa Usato in passato come dispositivo di memorizzazione secondaria Può contenere grosse quantità di dati Principalmente

Dettagli

Dischi RAID. high-performance high-reliability. G.Serazzi a.a. 2003/04 Impianti Informatici RAID - 1/32

Dischi RAID. high-performance high-reliability. G.Serazzi a.a. 2003/04 Impianti Informatici RAID - 1/32 Dischi RAID high-performance high-reliability 15/03 03/04 G.Serazzi a.a. 2003/04 Impianti Informatici RAID - 1/32 indice caratteristiche generali dei dischi parallelismo ed alte prestazioni affidabilità

Dettagli

I/O Dispositivi di input/output

I/O Dispositivi di input/output I/O Dispositivi di input/output Corso di Calcolatori Elettronici A 2007/2008 Sito Web:http://prometeo.ing.unibs.it/quarella Prof. G. Quarella prof@quarella.net Dispositivi di I/O Processor Interrupts Cache

Dettagli

La componente tecnologica dei. sistemi informativi. Architettura hw. Componenti di una architettura hw

La componente tecnologica dei. sistemi informativi. Architettura hw. Componenti di una architettura hw Informatica o Information Technology La componente tecnologica dei sistemi informativi m. rumor Architettura del Sistema tecnologico Sistema tecnologico: insieme di componenti connessi e coordinati che

Dettagli

Virtualizzazione. Orazio Battaglia

Virtualizzazione. Orazio Battaglia Virtualizzazione Orazio Battaglia Definizione di virtualizzazione In informatica il termine virtualizzazione si riferisce alla possibilità di astrarre le componenti hardware, cioè fisiche, degli elaboratori

Dettagli

Implementazione in sistemi EMC VPLEX di Microsoft Hyper-V e SQL Server con supporto potenziato del clustering di failover

Implementazione in sistemi EMC VPLEX di Microsoft Hyper-V e SQL Server con supporto potenziato del clustering di failover Implementazione in sistemi EMC VPLEX di Microsoft Hyper-V e SQL Server con Tecnologia applicata Riepilogo Questo white paper prende in esame l implementazione e l integrazione delle soluzioni Microsoft

Dettagli

Solitamente la capacità è minore di un disco magnetico, ma la velocità è molto più alta.

Solitamente la capacità è minore di un disco magnetico, ma la velocità è molto più alta. C4. MEMORIA SECONDARIA Nel seguito verranno analizzati, oltre alla struttura dei dispositivi di memorizzazione, anche gli algoritmi di scheduling delle unità a disco, la formattazione dei dischi, la gestione

Dettagli

Calcolatori Elettronici

Calcolatori Elettronici Calcolatori Elettronici Dispositivi di I/O Francesco Lo Presti Rielaborate da Salvatore Tucci Organizzazione di un Calcolatore I/O 1 Dispositivi di I/O!! Un dispositivo di I/O è costituito da due componenti:!!

Dettagli

Soluzioni di storage per le aziende on demand

Soluzioni di storage per le aziende on demand Soluzioni di storage per le aziende on demand Sistemi IBM Storage Server X206 Storage Server x226 Storage Server HS20 Storage Server x346 Storage Server Caratteristiche principali Differenziazione e innovazione

Dettagli

Valutazione della piattaforma di storage multiprotocollo EMC Celerra NS20

Valutazione della piattaforma di storage multiprotocollo EMC Celerra NS20 Valutazione della piattaforma di storage multiprotocollo EMC Celerra NS20 Resoconto commissionato da EMC Corporation Introduzione In breve EMC Corporation ha incaricato Demartek di eseguire una valutazione

Dettagli

Appunti di Enterprise Digital Infrastructures

Appunti di Enterprise Digital Infrastructures Appunti di Enterprise Digital Infrastructures Matteo Gianello 30 settembre 2013 1 Indice 1 Hard Disk 3 1.1 Caratteristiche base....................... 3 1.1.1 Hard Disk: componenti e caratteristiche........

Dettagli

Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno

Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno Griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno LEZIONE N. 10 Tecnologie di Storage; DAS, NAS, SAN Esempio di SRM: StoRM 1 Introduzione

Dettagli

Struttura dei dischi

Struttura dei dischi Università di Udine Facoltà di Scienze MM.FF.NN. A.A. 2007-2008 Copyright c 2000 04 Marino Miculan (miculan@dimi.uniud.it) La copia letterale e la distribuzione di questa presentazione nella sua integrità

Dettagli

STORAGE. 2015 Arka Service s.r.l.

STORAGE. 2015 Arka Service s.r.l. STORAGE STORAGE MEDIA indipendentemente dal modello di repository utilizzato i dati devono essere salvati su dei supporti (data storage media). I modelli utilizzati da Arka Service sono i comuni metodo

Dettagli

DESCRIZIONE DELLA FORNITURA OFFERTA

DESCRIZIONE DELLA FORNITURA OFFERTA ALLEGATO B.1 MODELLO PER LA FORMULAZIONE DELL OFFERTA TECNICA Rag. Sociale Indirizzo: Via CAP Località Codice fiscale Partita IVA DITTA DESCRIZIONE DELLA FORNITURA OFFERTA Specifiche minime art. 1 lett.

Dettagli

FAMIGLIA EMC VPLEX. Continuous availability e data mobility all'interno e tra i data center

FAMIGLIA EMC VPLEX. Continuous availability e data mobility all'interno e tra i data center FAMIGLIA EMC VPLEX Continuous availability e data mobility all'interno e tra i data center CONTINUOUS AVAILABILITY E DATA MOBILITY PER APPLICAZIONI MISSION- CRITICAL L'infrastruttura di storage è in evoluzione

Dettagli

Milano 5 Ottobre. Andrea Goldoni

Milano 5 Ottobre. Andrea Goldoni Milano 5 Ottobre Andrea Goldoni Premessa Panoramica delle tecnologie disponibili Virtualizzazione dello storage Modello di valutazione dello storage Alcuni esempi Conclusioni Info: Work: Blog: www.itgold.info

Dettagli

REALIZZAZIONE SALA CED

REALIZZAZIONE SALA CED REALIZZAZIONE SALA CED CAPITOLATO TECNICO SOMMARIO 1 Realizzazione sala CED 2 Specifiche minime dell intervento 1. REALIZZAZIONE SALA CED L obiettivo dell appalto è realizzare una Server Farm di ultima

Dettagli

Migrazione dei dati di storage senza interruzioni: eventi pianificati con EMC VPLEX

Migrazione dei dati di storage senza interruzioni: eventi pianificati con EMC VPLEX Migrazione dei dati di storage senza interruzioni: eventi pianificati con EMC VPLEX Best practice di pianificazione Riepilogo In questo white paper vengono discusse le best practice da utilizzare con EMC

Dettagli

Sistemi Operativi. Gestione della memoria secondaria: dischi, SAN e organizzazioni RAID

Sistemi Operativi. Gestione della memoria secondaria: dischi, SAN e organizzazioni RAID Modulo di Sistemi Operativi per il corso di Master RISS: Ricerca e Innovazione nelle Scienze della Salute Unisa, 17-26 Luglio 2012 Sistemi Operativi Gestione della memoria secondaria: dischi, SAN e organizzazioni

Dettagli

All. 1. CAPITOLATO TECNICO per la Fornitura di una Infrastruttura Blade per il Progetto PIC di Rete Ferroviaria Italiana S.p.A.

All. 1. CAPITOLATO TECNICO per la Fornitura di una Infrastruttura Blade per il Progetto PIC di Rete Ferroviaria Italiana S.p.A. All. 1 CAPITOLATO TECNICO per la Fornitura di una Infrastruttura Blade per il Progetto PIC di Rete Ferroviaria Italiana S.p.A. INDICE 1. INTRODUZIONE...3 2. OGGETTO E LUOGO DI CONSEGNA DELLA FORNITURA...4

Dettagli

Memorizzazione dei dati: Dischi e File

Memorizzazione dei dati: Dischi e File Memorizzazione dei dati: Dischi e File Query\update Query plan Execution Engine richieste di indici, record e file Index/file/record Manager comandi su pagine Query Compiler Buffer Manager Lettura/scrittura

Dettagli

Sistemi Operativi A Parte VI - La memoria secondaria. Dischi magnetici. Nastri magnetici

Sistemi Operativi A Parte VI - La memoria secondaria. Dischi magnetici. Nastri magnetici Sistemi Operativi A Parte VI - La memoria secondaria Augusto Celentano Università Ca Foscari Venezia Corso di Laurea in Informatica Dischi magnetici Proprietà principali e parametri - Velocità di rotazione

Dettagli

COD.35_09 Capitolato tecnico per Upgrade infrastruttura di storage a corredo del cluster computazionale dedicato per processamento parallelo dei dati

COD.35_09 Capitolato tecnico per Upgrade infrastruttura di storage a corredo del cluster computazionale dedicato per processamento parallelo dei dati COD.35_09 Capitolato tecnico per Upgrade infrastruttura di storage a corredo del cluster computazionale dedicato per processamento parallelo dei dati di sequenziamento Premessa Il presente Capitolato definisce

Dettagli

Redundant Array of Inexpensive (Independent) Disks. Disco magnetico

Redundant Array of Inexpensive (Independent) Disks. Disco magnetico 26/5/25 RAID Redundant Array of Inexpensive (Independent) Disks Disco magnetico Costituito da un insieme di piatti rotanti (da a 5) Piatti rivestiti di una superficie magnetica Esiste una testina (bobina)

Dettagli

STORAGE SU IP I VANTAGGI DELLE SOLUZIONI DI STORAGE SU IP PER LE PICCOLE E MEDIE IMPRESE. Powered by

STORAGE SU IP I VANTAGGI DELLE SOLUZIONI DI STORAGE SU IP PER LE PICCOLE E MEDIE IMPRESE. Powered by STORAGE SU IP I VANTAGGI DELLE SOLUZIONI DI STORAGE SU IP PER LE PICCOLE E MEDIE IMPRESE Powered by STORAGE SU IP: I VANTAGGI DELLE SOLUZIONI DI STORAGE SU IP PER LE PICCOLE E MEDIE IMPRESE Introduzione

Dettagli

SISTEMI OPERATIVI MEMORIA SECONDARIA E TERZIARIA. Meccanica di un hard disk

SISTEMI OPERATIVI MEMORIA SECONDARIA E TERZIARIA. Meccanica di un hard disk SISTEMI OPERATIVI MEMORIA SECONDARIA E TERZIARIA Meccanica di un hard disk 2 Stru:ura di un disco 3 Dischi magne>ci» Velocità di rotazione fra i 60 e i 200 giri al secondo» La velocità di trasferimento

Dettagli

Memoria secondaria. Sistemi Operativi mod. B 14.1

Memoria secondaria. Sistemi Operativi mod. B 14.1 Memoria secondaria Struttura del disco Scheduling del disco Gestione dell unità a disco Gestione dello spazio di swap La struttura RAID Affidabilità dei dischi Connessione dei dischi 14.1 Memoria secondaria

Dettagli

LaCie 12big Rack Serial

LaCie 12big Rack Serial LaCie Soluzione di storage rivoluzionaria, espandibile e collegabile direttamente Fino a 60 TB Soluzione di storage collegabile direttamente Il sistema LaCie è particolarmente indicato per i professionisti

Dettagli

Le imprese intelligenti passano a IBM Scale Out Network Attached Storage (SONAS)

Le imprese intelligenti passano a IBM Scale Out Network Attached Storage (SONAS) IBM Systems and Technology Group (STG) System Le imprese intelligenti passano a IBM Scale Out Network Attached (SONAS) 2 Le imprese intelligenti passano a IBM Scale Out Network Attached (SONAS) Benvenuti

Dettagli

BOX ESTERNI DISTRIBUITO DA

BOX ESTERNI DISTRIBUITO DA Una gamma completa di box esterni per tutte le esigenze, sempre aggiornati con gli ultimi tagli di hard disk, in confezione colorata da esposizione con CD contenente manuale e drive possono essere aperti

Dettagli

Resilienza dei carichi di lavoro con EMC VPLEX

Resilienza dei carichi di lavoro con EMC VPLEX Resilienza dei carichi di lavoro con EMC VPLEX Best practice di pianificazione Riepilogo Questo white paper propone una breve introduzione a EMC VPLEX e descrive in che modo VPLEX contribuisce ad aumentare

Dettagli

EMC SYMMETRIX VMAX 10K

EMC SYMMETRIX VMAX 10K EMC SYMMETRIX VMAX 10K EMC Symmetrix VMAX 10K con ambiente operativo Enginuity è dotato di un'architettura scale-out multi-controller, che garantisce alle aziende consolidamento ed efficienza. EMC VMAX

Dettagli

Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202

Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202 Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202 Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202 Caratteristiche del prodotto La quantità di dati di importanza cruciale

Dettagli

Sistema di storage EMC CLARiiON AX4

Sistema di storage EMC CLARiiON AX4 DATA SHEET Sistema di storage EMC CLARiiON AX4 Transizione semplificata allo storage in rete EMC CLARiiON AX4 è una soluzione versatile ed economica per aziende alla ricerca di un alternativa allo storage

Dettagli

8 motivi per scegliere uno storage Openstor

8 motivi per scegliere uno storage Openstor UNIIFIIED STORAGE 8 motivi per scegliere uno storage Openstor OPENSTOR STORAGE EASY PROFESSIONAL STORAGE Da sempre siamo abituati a considerare lo storage esterno in base all interfaccia verso il server,

Dettagli

Sistemi RAID. Corso di Calcolatori Elettronici. Feragotto Elena

Sistemi RAID. Corso di Calcolatori Elettronici. Feragotto Elena Sistemi RAID Corso di Calcolatori Elettronici Feragotto Elena Cos è RAID Nato all Università di Berkeley nel 1968, RAID significa: Redundant Array of Inexpensive Disk L idea era quella di sostituire un

Dettagli

Soluzione medium cost: Thumper

Soluzione medium cost: Thumper CCR/19/07/P Luglio 2007 Versione 1.1 Infrastrutture di storage per servizi centrali e calcolo di esperimento: soluzioni e costi Gruppo storage di CCR Introduzione Questo documento riassume i dati sulle

Dettagli

Soluzioni innovative per la semplificazione dell infrastruttura IT. Virtualizzazione con il sistema operativo IBM i, PowerVM e Power Systems

Soluzioni innovative per la semplificazione dell infrastruttura IT. Virtualizzazione con il sistema operativo IBM i, PowerVM e Power Systems Soluzioni innovative per la semplificazione dell infrastruttura IT Virtualizzazione con il sistema operativo IBM i, PowerVM e Power Systems Caratteristiche principali La flessibilità e la scalabilità della

Dettagli

ALLEGATO TECNICO PER LA FORNITURA DI SERVER E RELATIVE PERIFERICHE E PRESTAZIONE DEI SERVIZI DI GARANZIA E ASSISTENZA TECNICA.

ALLEGATO TECNICO PER LA FORNITURA DI SERVER E RELATIVE PERIFERICHE E PRESTAZIONE DEI SERVIZI DI GARANZIA E ASSISTENZA TECNICA. ALLEGATO TECNICO PER LA FORNITURA DI SERVER E RELATIVE PERIFERICHE E PRESTAZIONE DEI SERVIZI DI GARANZIA E ASSTENZA TECNICA. La fornitura delle apparecchiature richieste si compone di: 1. n. 2 armadi rack

Dettagli

WD e il logo WD sono marchi registrati di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi; absolutely, WD Re, WD Se, WD Xe,

WD e il logo WD sono marchi registrati di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi; absolutely, WD Re, WD Se, WD Xe, WD e il logo WD sono marchi registrati di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi; absolutely, WD Re, WD Se, WD Xe, RAFF e StableTrac sono marchi di Western Digital Technologies,

Dettagli

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità Sistemi Server integrati di cassa MULTIFLEX Un sistema semplice e flessibile dalle grandi potenzialità ASEM PROSERVER MULTI-FLEX integra storage, elaborazione e connettività per rendere più semplice il

Dettagli

d2 Quadra ENTERPRISE CLASS Unità disco per uso professionale DESIGN BY NEIL POULTON esata 3Gb/s FireWire 800 & 400 USB 2.0

d2 Quadra ENTERPRISE CLASS Unità disco per uso professionale DESIGN BY NEIL POULTON esata 3Gb/s FireWire 800 & 400 USB 2.0 d2 Quadra ENTERPRISE CLASS DESIGN BY NEIL POULTON Unità disco per uso professionale esata 3Gb/s FireWire 800 & 400 USB 2.0 La differenza della classe Enterprise LaCie d2 Quadra è il disco rigido più completo

Dettagli

Cisco Small Business NSS2000 Series Network Storage System

Cisco Small Business NSS2000 Series Network Storage System Cisco Small Business NSS2000 Series Network Storage System Cisco NSS2000 2-Bay Gigabit Storage System Chassis Cisco NSS2050 2-Bay Gigabit Storage System Chassis con due unità disco rigido da 250 GB Quando

Dettagli

Procedura aperta per la fornitura di beni e servizi per la realizzazione della Server Farm del SIFS

Procedura aperta per la fornitura di beni e servizi per la realizzazione della Server Farm del SIFS SISTEMA INFORMATIVO REGIONALE DELLA FISCALITÀ (SIFS) Progetto del Sotto-Sistema informativo di gestione delle imposte regionali (SIFS-02) Procedura aperta per la fornitura di beni e servizi per la realizzazione

Dettagli

Impianti informatici. Sistemi di storage. Paolo Cremonesi

Impianti informatici. Sistemi di storage. Paolo Cremonesi Impianti informatici Sistemi di storage Paolo Cremonesi Capacità e Prestazioni Aumento di capacità dei dischi Densità di informazione (Mbit/cm 2 ) 100.000 10.000 1.000 100 10 1 1980 1985 1990 1995 2000

Dettagli

IBM iseries Soluzioni integrate per xseries

IBM iseries Soluzioni integrate per xseries Soluzioni innovative per l integrazione dei server Intel IBM iseries Soluzioni integrate per xseries La famiglia iseries, il cui modello più recente è l _` i5, offre due soluzioni che forniscono alternative

Dettagli

Sistemi Operativi e informatica 1

Sistemi Operativi e informatica 1 1 Dip. Scienze dell Informatica Università degli Studi di Milano, Italia marchi@dsi.unimi.it a.a. 2011/12 1 c 2010-2012 M.Monga R.Paleari M.. Creative Commons Attribuzione-Condividi allo stesso modo 2.5

Dettagli

DatavenetaBC. Note tecniche del servizio. edizione 2015 PERSONAL COMPUTER - SERVER - RETI - VPN - SICUREZZA & PRIVACY

DatavenetaBC. Note tecniche del servizio. edizione 2015 PERSONAL COMPUTER - SERVER - RETI - VPN - SICUREZZA & PRIVACY SEDE DI TREVISO Via Mattei, 2 31030 Casier (TV) Tel: 0422.381109 Fax: 0422.1833029 Web:www.dataveneta.it Assistenza: assistenza@dataveneta.it Commerciale:preventivi@dataveneta.it DatavenetaBC Cloud Computing

Dettagli

GUIDA AL PORTFOLIO LENOVO THINKSERVER. Altamente scalabile e flessibile per crescere insieme all azienda.

GUIDA AL PORTFOLIO LENOVO THINKSERVER. Altamente scalabile e flessibile per crescere insieme all azienda. GUIDA AL PORTFOLIO LENOVO THINKSERVER Altamente scalabile e flessibile per crescere insieme all azienda. Grazie ai sistemi Lenovo ThinkServer, fondamentali per l ottimizzazione di aziende da piccole a

Dettagli

Punto di partenza ideale come sistema di archiviazione professionale MAXDATA PLATINUM 600 IR

Punto di partenza ideale come sistema di archiviazione professionale MAXDATA PLATINUM 600 IR Punto di partenza ideale come sistema di archiviazione professionale MAXDATA PLATINUM 600 IR MAXDATA PLATINUM 600 IR: Punto di partenza ideale come sistema di archiviazione professionale Caratteristiche

Dettagli

Capitolo 12 -- Silberschatz

Capitolo 12 -- Silberschatz Gestione della memoria di massa Capitolo 12 -- Silberschatz Nastro magnetico Usato in passato come dispositivo di memorizzazione secondaria Può contenere grosse quantità di dati Principalmente usato per

Dettagli

Synology DiskStation Manager 2.3

Synology DiskStation Manager 2.3 Synology DiskStation Manager 2.3 DiskStation Manager 2.3 (d'ora in avanti denominato DSM 2.3) è il punto focale per la massimizzazione della propria esperienza NAS. Accluso a tutti i prodotti Synology,

Dettagli

Il Computer. Per capire che cosa è il computer, occorre partire dal concetto di:

Il Computer. Per capire che cosa è il computer, occorre partire dal concetto di: Il Computer Cos'è il computer? Per capire che cosa è il computer, occorre partire dal concetto di: INFORMATICA = INFORmazione automatica E' la scienza che si occupa del trattamento automatico delle informazioni.

Dettagli

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità Sistemi Server integrati di cassa MULTIFLEX Un sistema semplice e flessibile dalle grandi potenzialità ASEM PROSERVER MULTI-FLEX integra storage, elaborazione e connettività per rendere più semplice il

Dettagli

Gestione della memoria di massa

Gestione della memoria di massa Contenuti Gestione della memoria di massa Memoria di massa Struttura del disco Collegamento dei dischi Scheduling del disco Gestione del disco Gestione dello spazio di swap Strutture RAID Implementazione

Dettagli

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore)

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) 1. L hardware del PC (3 Lezioni - 9 ore) 2. Troubleshooting (1 Lezione - 3 ore) 3. Ambiente Operativo (5 Lezioni - 15 ore) 4.

Dettagli

Active Solution & Systems illustra La virtualizzazione dei Server secondo il produttore di Storage Qsan

Active Solution & Systems illustra La virtualizzazione dei Server secondo il produttore di Storage Qsan Active Solution & Systems illustra La virtualizzazione dei secondo il produttore di Storage Qsan Milano, 9 Febbraio 2012 -Active Solution & Systems, società attiva sul mercato dal 1993, e da sempre alla

Dettagli

Componenti del Sistema di Elaborazione

Componenti del Sistema di Elaborazione Componenti del Sistema di Elaborazione Il Sistema di Elaborazione Monitor Tastiera Processore Memoria Centrale (Programmi + Dati) Memorie di massa Altre periferiche Rete Rete a.a. 2002-03 L. Borrelli 2

Dettagli

Sommario. Introduzione alle Storage Area Network (SAN) Sommario. L evoluzione dello Storage. L evoluzione dello storage. Le architetture SAN

Sommario. Introduzione alle Storage Area Network (SAN) Sommario. L evoluzione dello Storage. L evoluzione dello storage. Le architetture SAN Introduzione alle Storage Area Network (SAN) Sommario L evoluzione dello storage Direct Attached Storage (DAS) Small Computer System Interface (SCSI) Network Attached Storage (NAS) Storage Area Network

Dettagli

La memoria secondaria

La memoria secondaria La memoria secondaria La memoria secondaria Struttura dei dispositivi di memoria Struttura dei dischi Connessione dei dischi Scheduling del disco Gestione dell unità a disco Gestione dell area di swap

Dettagli

Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT

Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT ALLEGATO 1 AL CAPITOLATO TECNICO Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT NUOVO BLADE CENTER PRESSO

Dettagli

: solution architects, engineers, e project. managers

: solution architects, engineers, e project. managers 1 Familiarità con HP P4000 (Lefthand) Background tecnico su Vmware vsphere in particolare funzionalità di HA e FT Concetti di business-critical applications e soluzioni di Disaster Recovery Buona conoscenza

Dettagli

MEMORIE MAGNETO- OTTICHE

MEMORIE MAGNETO- OTTICHE MEMORIE SECONDARIE I dati e i programmi devono essere conservati su memorie non volatili, di adeguate dimensioni e di costo contenuto. Occorre utilizzare dispositivi di memoria di massa quali ad esempio

Dettagli

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore)

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) 1. L hardware del PC (3 Lezioni - 9 ore) 2. Troubleshooting (1 Lezione - 3 ore) 3. Ambiente Operativo (5 Lezioni - 15 ore) 4.

Dettagli

Corso di studi in Ingegneria Elettronica A.A. 2003/2004. Calcolatori Elettronici. Esercitazione n 2. Ing Giovanni Costa

Corso di studi in Ingegneria Elettronica A.A. 2003/2004. Calcolatori Elettronici. Esercitazione n 2. Ing Giovanni Costa Corso di studi in Ingegneria Elettronica A.A. 2003/2004 Calcolatori Elettronici Esercitazione n 2 Ing Giovanni Costa Sommario: Codici a correzione di errori Dispositivi per: Memorizzazione Output Input

Dettagli

Memoria Esterna (secondaria) n Materiale usato per il disco: era in alluminio n Ora è di vetro, perché Migliora l uniformità della superficie

Memoria Esterna (secondaria) n Materiale usato per il disco: era in alluminio n Ora è di vetro, perché Migliora l uniformità della superficie Memoria Esterna (secondaria) Dischi magnetici RAID Rimovibili Ottica CD-ROM CD-Recordable (CD-R) CD-R/W DVD Nastri magnetici Dischi Magnetici Disco rivestito con materiale magnetico (ossido di ferro) Materiale

Dettagli

IBM BladeCenter S Grandi vantaggi per piccoli uffici

IBM BladeCenter S Grandi vantaggi per piccoli uffici IBM Center S Grandi vantaggi per piccoli uffici Caratteristiche Soluzione all-in-one, con integrazione di server, storage SAN, networking e input/output (I/O) in un unico chassis Nessuna particolare esigenza

Dettagli

Capitolato Tecnico fornitura SAN per la sede di Roma del Centro Sperimentale di Cinematografia Via Tuscolana, 1524

Capitolato Tecnico fornitura SAN per la sede di Roma del Centro Sperimentale di Cinematografia Via Tuscolana, 1524 Capitolato Tecnico fornitura SAN per la sede di Roma del Sommario 1. Introduzione... 2 2. Requisiti Fornitori... 2 3. Generalità... 3 4. La Soluzione SAN: requisiti richiesti... 4 4.1. Caratteristiche

Dettagli

IBM Svizzera Offerte Express Edizione dicembre 2011

IBM Svizzera Offerte Express Edizione dicembre 2011 IBM Svizzera Offerte Express Edizione dicembre 2011 Novità Novità: System x3100 M4 CHF 699. * Edizione dicembre 2011 Pagina 2 Il nuovo server IBM System x M4 Per avere un idea dei nostri prezzi vantaggiosi,

Dettagli

Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN.

Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN. Università degli Studi di Napoli Federico II Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Tesi Sperimentale di Laurea Triennale Integrazione di un sistema di storage Fibre Channel della

Dettagli

PICCOLE E MEDIE IMPRESE, UNA SOLUZIONE AD HOC. Soluzioni per le PMI

PICCOLE E MEDIE IMPRESE, UNA SOLUZIONE AD HOC. Soluzioni per le PMI PICCOLE E MEDIE IMPRESE, UNA SOLUZIONE AD HOC Soluzioni per le PMI Windows Server 2012 e System Center 2012 Informazioni sul copyright 2012 Microsoft Corporation. Tutti i diritti sono riservati. Il presente

Dettagli

Architettura dei calcolatori

Architettura dei calcolatori Università degli Studi di Palermo Dipartimento di Ingegneria Informatica C.I. 3 Modulo Informatica 2 c.f.u. Anno Accademico 2009/2010 Docente: ing. Salvatore Sorce Architettura dei calcolatori II parte

Dettagli

Bando di gara a procedura aperta per la fornitura di hardware

Bando di gara a procedura aperta per la fornitura di hardware Repubblica Italiana P.O.R. SARDEGNA 2000-2006 Misura 6.3 SITR-EST Supporto agli Enti Locali su Catasto, Territorio e Tributi: Estensione infrastruttura HW/SW del SITR e abilitazione sedi operative Bando

Dettagli

Memoria secondaria. Struttura del disco. Scheduling del disco. Gestione dell unità a disco. Affidabilità dei dischi: RAID

Memoria secondaria. Struttura del disco. Scheduling del disco. Gestione dell unità a disco. Affidabilità dei dischi: RAID Memoria secondaria Struttura del disco Scheduling del disco Gestione dell unità a disco Affidabilità dei dischi: RAID Sistemi Operativi 13.1 Struttura del disco I dischi vengono indirizzati come grandi

Dettagli

Presentazione della soluzione

Presentazione della soluzione Presentazione della soluzione Agenda Come nasce StorMagic? L Executive Team Il Problema La Soluzione Un esempio di istallazione c/o un cliente Domande? StorMagic Fondata nell Aprile 2006 Azienda privata

Dettagli

Cloud Infrastructure - studio di fattibilità

Cloud Infrastructure - studio di fattibilità Cloud Infrastructure - studio di fattibilità Business Intelligence Group: Lorenzo Baldacci Matteo Gofarelli Matteo Francia Simone Graziani Enrico Gallinucci Stefano Rizzi matteo.francia3@unibo.it Obiettivi

Dettagli

DATACORE. La strategia e le architetture. Storage 2013

DATACORE. La strategia e le architetture. Storage 2013 Storage 2013 DATACORE La strategia e le architetture DataCore pone al centro della sua strategia lo spostamento verso un modello di virtualizzazione dello storage definito dal software invece che dall

Dettagli

1 Nested Multiple Raid level

1 Nested Multiple Raid level Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 20 aprile 2006 Argomento: Nested Multiple Raid level, Interfacciamento, Drive swaping, RAID 6 Scribes: Andrea Giuseppe Abate, Valentina

Dettagli

IBM BladeCenter S: grandi vantaggi per piccoli uffici

IBM BladeCenter S: grandi vantaggi per piccoli uffici IBM Center S: grandi vantaggi per piccoli uffici Caratteristiche principali Soluzione all-in-one, con integrazione di server, storage SAN, networking e input/ output (I/O) in un unico chassis Nessuna particolare

Dettagli

2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2

2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2 2.2.1 FrontEnd FIREWALL RICHIESTO QTA' 2 modello throughput 400 Mbps Throughput cifrato (3DES) 200 Mbps VPN Session 700 Connessioni al secondo 7000 RAM 512 Mbyte System flash 64 6 porte per Network Gigabitporte

Dettagli

Sistema disco midrange IBM Storwize V7000

Sistema disco midrange IBM Storwize V7000 Sistema disco midrange IBM Storwize V7000 Il sistema disco midrange più potente, innovativo e semplice del mercato dei prodotti storage Punti di forza Funzione storage di classe enterprise di facile utilizzo

Dettagli

Acceleratore SQL ZD-XL 1.5

Acceleratore SQL ZD-XL 1.5 Acceleratore SQL ZD-XL 1.5 Soluzione di accelerazione hardware e software flash integrata per SQL Server Caratteristiche Supporta ambienti Microsoft Hyper-V e VMware ESXi Accelera SQL Server a livello

Dettagli

PROGETTAZIONE FISICA

PROGETTAZIONE FISICA PROGETTAZIONE FISICA Memorizzazione su disco, organizzazione di file e tecniche hash 2 Introduzione La collezione di dati che costituisce una BDD deve essere fisicamente organizzata su qualche supporto

Dettagli

EMC VMAX 10K BLOCK AND FILE

EMC VMAX 10K BLOCK AND FILE EMC VMAX 10K BLOCK AND FILE EMC Symmetrix VMAX 10K File unifica File e Block in un'architettura scale-out multi-controller Tier 1 reale, che garantisce alle aziende consolidamento, high availability ed

Dettagli

Documento tecnico sulla tecnologia LaCie RAID

Documento tecnico sulla tecnologia LaCie RAID Dopo anni di lavoro nel settore della memorizzazione dei dati, LaCie sa perfettamente che la disponibilità di un'unità di storage o backup è un requisito indispensabile per chiunque usi un computer e che

Dettagli

Indice. 1 Introduzione 7 1.1 Introduzione... 7 1.2 Cos è un impianto informatico enterprise... 8

Indice. 1 Introduzione 7 1.1 Introduzione... 7 1.2 Cos è un impianto informatico enterprise... 8 Indice 1 Introduzione 7 1.1 Introduzione............................. 7 1.2 Cos è un impianto informatico enterprise............. 8 2 Affidabilità 11 2.1 Introduzione............................. 12 2.1.1

Dettagli

RISPOSTA ALLE RICHIESTE DI CHIARIMENTI RELATIVAMENTE ALLA GARA PER L ACQUISIZIONE DI DUE SISTEMI DI STORAGE, CIG. N. 0728535618

RISPOSTA ALLE RICHIESTE DI CHIARIMENTI RELATIVAMENTE ALLA GARA PER L ACQUISIZIONE DI DUE SISTEMI DI STORAGE, CIG. N. 0728535618 RISPOSTA ALLE RICHIESTE DI CHIARIMENTI RELATIVAMENTE ALLA GARA PER L ACQUISIZIONE DI DUE SISTEMI DI STORAGE, CIG. N. 0728535618 1. DOMANDA: Con riferimento a quanto riportato alla pag. 20 dell ALLEGATO

Dettagli