Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN.

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN."

Transcript

1 Università degli Studi di Napoli Federico II Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Tesi Sperimentale di Laurea Triennale Integrazione di un sistema di storage iscsi della EqualLogic nel Data Center SCoPE Relatore Candidato Prof. G. Russo Marco Liberti Dr. S. Pardi matr. 566/ Anno accademico 7/

2 INDICE GENERALE PREMESSA.... Introduzione...5. Il progetto SCoPE...5. Obiettivi Area geografica.... L architettura generale di un sito GRID L architettura del sito GRID SCoPE.... Il problema dello storage nel Grid Computing...3. Lo storage nei DataCenter...3. Il protocollo iscsi....3 Lo Storage nel Grid Computing.... Esempi di Grid Storage Elements....5 Chi usa lo storage sulla Grid? La tecnologia iscsi applicata a SCoPE Il quadro generale L unità EqualLogic PS5 e la sua architettura Le funzionalità...3. Piano dei test Il quadro generale Programmazione piano dei test Le prove di scrittura e lettura sequenziale Le prove di scrittura e lettura random Ambiente di test Prove e risultati Il quadro generale Test su Volume di TetaByte con RAID Test su Volume di TetaByte con RAID Test su Volume di TetaByte con RAID Test in locale su server R Test su Volume di TetaByte con RAID-5 con due client Confronto max, min, medi, write/read report: RAID Confronto max, min, medi: R, RAID-5, RAID-5 per utenti...5

3 6. Conclusioni Prestazioni complessive della SAN EqualLogic Esperienza acquisita Bibliografia.... Appendici... Appendice : L interfaccia SATA... Appendice : Le configurazioni RAID...6

4 PREMESSA La presente tesi documenta l'attività di tirocinio dello scrivente, effettuata presso l'università Federico II nell'ambito del progetto SCoPE. Mi sono trovato nella favorevole condizione di iniziare il tirocinio con il Data Center SCoPE ormai realizzato nell'apposito locale tra le palazzine di Fisica e di Biologia nel complesso di Monte S. Angelo, ma non ancora utilizzato, per cui ho potuto utilizzare numerose apparecchiature informatiche di fascia alta, che nel loro complesso formano un Data Center con notevoli capacità e potenzialità. Nel Data Center sono presenti apparecchiature di rete di ultima generazione: oltre all'ormai classico gigabit, vi è una rete GbE ed una rete Infiniband; lato server vi sono circa 3 blade e circa 5 server tradizionali ; lato storage vi sono sia dischi DAS (Directly Attached Storage) locali, sia sistemi NAS (Network Attached Storage), sia sistemi SAN (Storage Area Network), con dischi di tutti i tipi, come UltraATA, SCSI, SAS, SATA II, FC. Grazie alla rete veloce e dedicata, al Data Center SCoPE è connesso un laboratorio, posto nella palazzina di Fisica, dove sono installati altri server, altre apparecchiature di rete ed altro storage, identici a quelli presenti nel Data Center, dedicate soprattutto alle sperimentazioni. Nel periodo del tirocinio ho sistematicamente operato sia nel Data Center che nel laboratorio, e soprattutto nel laboratorio ho potuto mettere direttamente mano sulle attrezzature sopra descritte, provvedendo alla loro configurazione, alla installazione del software di test, al tuning dei sistemi e dei collegamenti di rete. L'attività si è concentrata sulle misure delle prestazioni di un nuovo sistema di storage, funzionante con il protocollo iscsi, e disponibile agli utenti di SCoPE per attività General Purpose, sia in modalità interattiva, sia in modalità batch. Ho avuto modo quindi di fare notevole pratica su queste apparecchiature, acquisendo conoscenze ma anche esperienze, e contribuendo a caratterizzare il Data Center e le sue apparecchiature, ai fini del loro utilizzo per le elaborazioni scientifiche multidisciplinari alle quali è destinato. Liberti Marco 566/ Pagina di 3

5 . Introduzione. Il progetto SCoPE La presente tesi si inserisce nell ambito del progetto SCoPE dell Università Federico II; l acronimo SCoPE sta per Sistema Cooperativo Distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari []. Obiettivo finale del progetto è la realizzazione di un Sistema di Calcolo ad Alte Prestazioni, orientato ad applicazioni scientifiche multidisciplinari, che operi anche secondo il paradigma GRID [], dedicato alla modellistica computazionale ed alla gestione di grandi banche dati per ricerche nelle aree applicative di interesse del progetto. In particolare, il progetto intende sviluppare simulazioni computazionali, creare software innovativo ed originale relativo alle applicazioni in tali settori e realizzare una piattaforma di supercalcolo che integri in una modalità di accesso unica le differenti risorse (librerie, unità di calcolo, banche dati, etc.) già disponibili o in via di acquisizione, al fine di fornire un significativo avanzamento della conoscenza nei vari settori. Le funzionalità della piattaforma saranno inoltre predisposte per essere integrate in sistemi nazionali e internazionali operanti in rete, pertanto è stata individuata un area specifica middleware [3] preposta all integrazione delle suddette risorse, nonché specifiche applicazioni nelle aree delle: Scienze del Microcosmo e del Macrocosmo Scienze della Vita Scienze dei Materiali e dell Ambiente La strategia classica di sviluppo del software per applicazioni scientifiche, tende a realizzare obiettivi come: riuso modularità portabilità robustezza, estendibilità efficienza Liberti Marco 566/ Pagina 5 di 3

6 basandosi sull'uso delle librerie software viste in termini di "building block". Attualmente, alla luce dell'evoluzione nell'ambito delle esigenze applicative e delle architetture hardware e software, è necessario ripensare alle strategie di sviluppo di software. La sfida tecnologica è proprio quella di articolare i codici applicativi in modo che tengano conto sia dei requisiti propri dell applicazione, sia di quelli della piattaforma di calcolo. In tal senso, al fine di consentire una precisa e significativa articolazione dei codici applicativi, è fondamentale lo sviluppo di scientific computing environments (SCE) la cui struttura gerarchica a livelli e modulare riflette la necessità di una significativa cooperazione ed integrazione bidirezionale delle varie competenze multidisciplinari e dal livello dell applicazione al livello del software di sistema, consentendo quindi la progettazione del codice secondo le esigenze specifiche. Il DataCenter realizzato nell ambito del progetto è mostrato qui di seguito. Liberti Marco 566/ Pagina 6 di 3

7 . Obiettivi In sintesi, gli obiettivi generali del progetto consistono nel realizzare un ambiente di simulazione computazionale di applicazioni scientifiche multidisciplinari, attraverso la progettazione e integrazione di algoritmi innovativi in ambienti di calcolo avanzato: fornire alla comunità, attraverso un intensa fase sperimentale, nuovi input per l avanzamento della conoscenza attraverso lo sviluppo di ambienti specifici di PSE [] facilmente accessibili da parte della comunità scientifica per essere integrati nelle applicazioni di interesse del progetto per realizzare SCE. Il software sarà sviluppato secondo una metodologia per cui moduli paralleli per ambienti a memoria distribuita e/o a memoria condivisa realizzati con strumenti standard e di provata affidabilità, verranno completamente integrati come componenti dell'ambiente complessivo garantendone il massimo grado di riusabilità e di interoperabilità. Nella figura sottostante è rappresentato, mediante uno schema esemplificativo, il sistema che si intende creare con in cima le applicazioni scientifiche sopra citate. Liberti Marco 566/ Pagina 7 di 3

8 In tale schema invece, sono riportati i passi temporali che sono stati effettuati per arrivare ad un unico e definitovo obiettivo finale:.3 Area geografica Da un punto di vista tecnologico, la piattaforma sarà un'espansione della già esistente griglia CAMPUS-GRID presso Monte Sant Angelo potenziata dai laboratori di calcolo di Medicina ed Ingegneria, interconnessi tra di loro tramite la rete in fibra ottica ad Gbit/sec vita dell Università, ad una dando GRID METROPOLITANA. L accesso alla GRID, aperto ad un ampia comunità scientifica nazionale ed internazionale, avverrà tramite i servizi offerti dal CSI [5], che garantiranno l autenticazione degli anche utenti e meccanismi di gestione risorse. Liberti Marco 566/ Pagina di 3

9 . L architettura generale di un sito GRID L architettura generale di un sito GRID vede il middleware diviso in due aree, quella dei servizi core e quella dei servizi collective [6]. I servizi core (presenti in ciascun sito Grid) sono tipicamente i seguenti: repository pacchetti del middleware servizi di computing (WN, CE) servizi di storage (SE) user interface (UI) I servizi collective, presenti in almeno un sito Grid, sono tipicamente i seguenti: servizi di autenticazione/autorizzazione servizi di allocazione dei job (RB) servizi informativi (II) cataloghi di file / repliche user interface (UI) I seguenti servizi non fanno parte dell'infrastruttura Grid, ma sono necessari/utili per il deployment e per la gestione: Certification Authority servizi di monitoring servizi di accounting ticketing system service availability monitoring Una tipica installazione Grid è quindi, schematicamente, quella di seguito illustrata. Liberti Marco 566/ Pagina 9 di 3

10 Le caratteristiche principali dei servizi Core sono: la loro presenza sulle risorse di calcolo di ciascun sito periferico, l'inserimento delle risorse locali nell'infrastruttura Grid in base ad apposite policy di utilizzo. Questi servizi richiedono management locale per le operazioni di: start-up aggiornamenti troubleshooting Un elemento essenziale dei servizi Core è il Computing Element [7] (CE), qui sintetizzato: interface Grid verso una farm fatta da nodi di calcolo (Worker Node-WN) [] gestisce i job di calcolo tramite un batch-queue system tramite il batch system è possibile partizionare l'insieme di risorse di calcolo (CPU) e definire delle policy di utilizzo da parte delle varie VO (CPU time, numero di job concorrenti) mediante la creazione di code batch ciascun Computing Element è fornito di certificato digitale (rilasciato dalla CA INFN) che attesta l'attendibilità delle transazioni servizi Globus [9]: globus-gatekeeper, globus-gridftp, GRIS batch system supportati: PBS, Torque, LSF. Altro elemento essenziale è il Worker Node [7] (WN), qui sintetizzato: host disponibile per l'esecuzione di job viene gestito/allocato da un Computing Element [] pochi pacchetti del middleware installati contiene l'execution environment del processo di calcolo (librerie di esperimento, toolkit, ecc.) Liberti Marco 566/ Pagina di 3

11 Per quanto riguarda gli Storage Element [] (SE), le sue caratteristiche sono: interfaccia Grid ad uno spazio di storage utilizzo del protocollo GridFTP per il trasferimento di file consente di gestire lo spazio di storage in modo da permetterne l'utilizzo da parte di varie VO ciascuno Storage Element è fornito di certificato digitale che attesta l'attendibilità delle transazioni servizi Globus: globus-gridftp, GRIS Le caratteristiche della User Interface (UI) sono: componente che permette agli utenti di accedere alle risorse Grid funzionalità di base sottomissione di job visualizzazione stato di un job cancellazione di un job recupero dell'output di un job l'utente accede alla UI tramite: collegamento remoto ad una UI di infrastruttura o di gruppo (SSH,...) un PC desktop o notebook configurato con i componenti della UI web (GENIUS) l'utente accede ad una UI tramite delle credenziali locali (es. username/password), tuttavia per poter accedere ai servizi Grid deve utilizzare il proprio certificato personale Liberti Marco 566/ Pagina di 3

12 .5 L architettura del sito GRID SCoPE srv Servizi collettivi e di Infrastruttura Grid srv rn e s fa h itc w S srv TIPO A 96 blade h c w S rn te b ia g Nodi di Calcolo Biprocessori ed SMP TIPO B blade d a fb In h itc w S TIER ATLAS srv Grid Storage Element Sistemi di Storage Liberti Marco 566/ SCSI SATA Pagina di 3

13 . Il problema dello storage nel Grid Computing. Lo storage nei DataCenter Sebbene il prezzo dell hardware per lo storage sia diminuito notevolmente, la grande esigenza di storage, soprattutto per prodotti multimediali, e il crescente costo di gestione dello storage, hanno finora fatto sì che lo storage costasse molto in termini complessivi, considerando cioè il TCO, Total Cost of Ownership []. Si stima nel 6% la crescita delle esigenze di storage, ma i costi di gestione crescono sette volte più velocemente. Nei DataCenter di medie dimensioni, le alternative per le esigenze di storage sono due: o usare inefficienti sistemi DAS, Direct-Attached Storage [], cioè connettere sempre più dischi direttamente ai server, quindi molti server ognuno con molti dischi direttamente collegati, oppure investire in tecnologie SAN, Storage Array Network, spesso complesse e proprietarie. Inoltre non vi è garanzia che l hardware di vario tipo funzioni in maniera unitaria, e la gestione dello storage rimane molto articolata e spesso complicata. Per gestione intendiamo le attività di assegnazione dei file ai vari tipi di dischi, le attività di backup, la distribuzione del carico, cioè dei file, sulle varie unità, l ottimizzazione dei tempi di risposta etc. È nata quindi l esigenza di un sistema di storage via rete, in grado di portare i benefici dello storage consolidato, come è la SAN che però è complessa da gestire, a tutta una serie di attività, sia commerciali che scientifiche. La risposta l ha data l IETF [3], l Internet Engineering Task Force, che ha definito lo standard iscsi, quale risposta alle necessità di interoperabilità nello storage via rete, il cosiddetto Networked Storage. In sostanza, con l iscsi si può utilizzare una infrastruttura di rete per creare una SAN basata sul protocollo IP, invece che su sistemi proprietari, e con prestazioni paragonabili a quelle del Fiber Channel []. Liberti Marco 566/ Pagina 3 di 3

14 . Il protocollo iscsi Il protocollo iscsi [5] è costruito su due dei più conosciuti protocolli, cioè il protocollo SCSI [] ed il protocollo Ethernet [7], che sono rispettivamente i protocolli dominanti per lo storage e per il networking. Utilizzando una normale rete IP, il protocollo iscsi trasporta dati a livello di blocco, cioè un blocco di dati così come faceva il protocollo SCSI per i dischi DAS, non un messaggio, tra un iscsi iniziator su un server ed un iscsi target su un dispositivo di storage. Il protocollo iscsi incapsula i comandi SCSI ed assembla i dati in pacchetti per il protocollo TCP/IP. I pacchetti sono inviati sulla rete ethernet (che tipicamente è una rete Gigabit Ethernet) usando una connessione punto-punto. All arrivo, il protocollo ri-traduce i dati nel protocollo SCSI, per cui le applicazioni vedono sempre un protocollo SCSI, che è quello classico per l accesso allo storage. La figura che segue illustra questo meccanismo: sul server (iscsi iniziator) l applicazione accede al protocollo SCSI, che accede al protocollo iscsi, che accede al protocollo TCP/IP, e viceversa sull unità di storage (iscsi target) che riceve i pacchetti TCP/IP, li passa al protocollo iscsi, che li passa al protocollo SCSI. Dal punto di vista della rete, è opportuno ricordare che vale sempre il meccanismo di inoltro dei dati proprio del TCP/IP, ed analogo a quello della pila ISO/OSI, che qui viene schematizzata. In sostanza, una volta trasformati i dati nel payload dei pacchetti TCP/IP, questi viaggiano come qualunque pacchetto TCP/IP. Liberti Marco 566/ Pagina di 3

15 La sicurezza è garantita dal sistema di autenticazione del protocollo iscsi e da eventuali VPN, Virtual Private Networks, che limitano l accesso sulla rete ad altre macchine. È utile comunque ricordare che, per motivi di efficienza, la rete fisica utilizzata per l iscsi dovrebbe essere totalmente distinta da quella che connette server e PC: in pratica, per fare un esempio semplice, se ho server e sistemi iscsi, devo avere uno switch che connette i server, ed uno switch ulteriore che connette una seconda interfaccia di rete sui server e le interfacce di rete, in genere più di una, delle unità iscsi. Cioè, la rete fisica del protocollo iscsi è normalmente una rete al Gigabit totalmente dedicata e separata dalla normale rete di comunicazione tra server, stazioni di lavoro, stampanti etc. Quando un iscsi iniziator si connette ad un iscsi target, lo storage è visto dal sistema operativo come un normale dispositivo SCSI, che può essere formattato come al solito. Il processo sopra descritto è infatti trasparente alle applicazioni, al file system, al sistema operativo. Consolidando lo storage di un DataCenter con una SAN (Storage Area network) basata sul protocollo iscsi, piattaforme differenti, come ad esempio Windows e Linux, possono condividere lo stesso storage, migliorando quindi l utilizzo dei dispositivi e l efficienza dello storage. Esistono oggi anche dispositivi (switch) multiprotocollo, che Liberti Marco 566/ Pagina 5 di 3

16 consentono di far coesistere storage iscsi e storage Fiber Channel. Per accedere allo storage iscsi, tutto ciò di cui un server ha bisogno è un iscsi iniziator; questo può essere un semplice driver iscsi ed una scheda di rete standard, oppure una scheda di rete con un TOE, TCP Offload Engine, che permette di ridurre il carico sulla CPU in quanto il protocollo TCP/IP è interamente gestito dalla scheda stessa. Esistono anche schede HBA, che gestiscono direttamente sia il protocollo iscsi sia il protocollo TCP. Sul lato target, i dispositivi di storage implementano, allo stesso modo, il protocollo iscsi come illustrato in precedenza. Con il Gigabit Ethernet, il protocollo iscsi e lo storage iscsi possono garantire risultati paragonabili a quelli di una SAN Fiber Channel; ma sono già in arrivo sistemi iscsi con interfacce a Gigabit al secondo, che renderanno probabilmente l iscsi anche superiore ai sistemi basati su Fiber Channel []. Lo schema che segue illustra sinteticamente le possibilità di accesso appena descritte, rappresentando in colore blu i processi che utilizzano la CPU del server, ed in colore rosso i processi che utilizzano una apposita CPU presente sulla scheda di rete. Liberti Marco 566/ Pagina di 3

17 Sinteticamente, i benefici dell iscsi sono: Semplicità di installazione Semplicità di gestione Scalabilità Alta disponibilità Utilizzo di infrastrutture note e consolidate Prestazioni paragonabili al Fiber Channel Interoperabilità tra sistemi operativi diversi Oggi tutti i sistemi operativi supportano iscsi iniziator, cioè possono accedere a dispositivi di storage iscsi in modo nativo. E le possibilità di accesso a questi dispositivi sono notevoli, come illustrato ad esempio nella figura che segue. Liberti Marco 566/ Pagina 7 di 3

18 .3 Lo Storage nel Grid Computing Nell ambito del Grid computing, l accesso ai dati non avviene però direttamente attraverso il protocollo iscsi, che è comunque un protocollo di basso livello, ma è mediato attraverso un apposito middleware che crea dei servizi disponibili sulla Grid, ed in particolare gli Storage Element (SE) []. Uno Storage Element è infatti un servizio che permette agli utenti della Grid di immagazzinare e gestire i file, così come permette di gestire lo spazio assegnato. È opportuno richiamare un po di termini usati in ambito Grid a proposito di storage. Uno Storage Element ha delle proprietà, come: Un Globally Unique Identifier che lo identifica univocamente Una implementation, cioè il software usato per il servizio (es.: StoRM, dcache, CASTOR) Una implementation-version, cioè la versione del software Un OnlineSizeTotal, cioè lo spazio totale disponibile su disco Un NearlineSizeTotal, cioè lo spazio totale disponibile su nastro o su supporto ottico Uno Storage Element ha degli Storage Component. Uno Storage Component identifica uno specifico storage con certe proprietà, che sono:. Retention Policies: CUSTODIAL or REPLICA or OUTPUT. Access Latency: NEARLINE or ONLINE (or OFFLINE. Access Protocols (esempi: rfio, dcap, file, etc.) Il concetto di Storage Component fu introdotto per descrivere il tipo di storage che è usato per offrire una determinate qualità di storage. Per esempio, uno Storage Component è un tape set or a pool di filesystems. Uno Storage Element può avere più di una Storage Area. Una Storage Area definisce una porzione dello spazio disponibile totale che può utilizzare differenti tipi di dispositivi di storage all interno di uno Storage Element. In linea di principio, è possibile una qualsiasi combinazione di Storage Component in una Storage Area. Per esempio, una Storage Area può includere certi nastri, e può includere lo spazio disco di diversi sistemi, come Fiber Channel, iscsi, DAS. Liberti Marco 566/ Pagina di 3

19 Comunque, due Storage Area possono anche condividere lo stesso Storage Component, con regole differenti di accesso. Una schematizzazione di Storage Element e di Storage Area è la seguente. Il meccanismo di accesso ai Grid Storage Element è plurimo, cioè è possibile accedere sia attraverso un job sottomesso sulla Grid, sia attraverso una funzione esplicita di data transfer, come il servizio GridFTP, sia attraverso una interfaccia di accesso per il management, come illustrato qui di seguito. Liberti Marco 566/ Pagina 9 di 3

20 . Esempi di Grid Storage Elements dcache dcache [] è un software sviluppato a DESY (Europa) e FNAL (USA). Esso è scritto in Java, e comunica con sistemi di gestione nastri (TSM, HPSS, Enstore... ) per mettere i dati sui sistemi Nearline, quando necessario. Esso usa dischi e SAN per aggregare la capacità in un unico File System virtuale, il cui namespace può essere montato su ogni macchina via NFS. È stato progettato per gestire migliaia di richieste al minuto, provenienti da fonti differenti. I protocolli di accesso sono: dcap, gsidcap, xroot, GridFTP, SRM. dcache ha anche una funzione di replica automatica dei file più utilizzati. Oggi dcache è usato presso INP3, NIKEF, NGDF, BNL, FNAL e molti altri. glite Disk Pool Manager Questo middleware, abbreviato glite DPM [], è stato sviluppato al CERN, ed è basato su SRM. La sua funzione principale era di gestire i nodi di analisi cosiddetti tier (T), senza dati su nastro e con nodi eterogenei di storage. Viene realizzato un pool con un unico namespace, a partire da tutti i disk server. Lo schema che segue ne illustra il funzionamento. Liberti Marco 566/ Pagina di 3

21 CASTOR CASTOR [9] sta per CERN Advanced STORage, ed è stato appunto sviluppato presso il CERN per immagazzinare i dati dell acceleratore LHC. Esso conserva i file su nastro, e ne gestisce lo staging su disco con un semplice namespace gestito tramite il RDBMS Oracle. I dati vengono raccolti dagli esperimenti e passati direttamente a CASTOR che li migra su nastro; il restore da nastro a disco è controllato da uno stager che usa lo schedulatore di code batch LSF, secondo il meccanismo illustrato di seguito. Oggi CASTOR è usato preso CERN, RAL, INFN, AGSC. Liberti Marco 566/ Pagina di 3

22 StoRM STORM [] è stato interamente realizzato dall INFN, ed agisce come un strato SRM thin Acts sopra ad un filesystem POSIX. La sua realizzazione è inoltre basata sulle caratteristiche di GPFS, così da offrire le funzionalità di SRM.. Si tratta di uno sviluppo interessante in quanto mette a disposizione un cluster filesystems per ottimizzare l accesso ai file da parte degli utenti. Scalla/xrootd (SLAC) Questo software [] è stato realizzato a SLAC per un accesso ai file ad alte prestazioni; le sue caratteristiche sono la scalabilità e l affidabilità. Non è basato su un database centrale, come molti altri, ma su nodi detti Redirector che chiedono ai disk server se un determinato file è sul quel server o meno. Non è presente SRM. Il diagramma che segue illustra la distribuzione dell utilizzo di tali software, nelle varie versioni, su circa mesi nel corso del : si è partiti da circa installazioni a gennaio, per arrivare ad un totale di circa 5 installazioni. Liberti Marco 566/ Pagina di 3

23 .5 Chi usa lo storage sulla Grid? La risposta a questa domanda è molto lunga, in quanto si va da applicazioni di fisica e chimica, a quelle di biomedicina, a quelle di astrofisica. Un esempio massiccio, già avviato, è quello dell esperimento Large Hadron Collider [3] al CERN, qui illustrato. Se per gli esperimenti al CERN mettiamo in un diagramma l event rate (in Hz, in ordinata) e l event size (in bytes, in ascissa) otteniamo lo schema qui di lato. I vecchi esperimenti, nella zona blu, riuscivano a mettere tutti i dati in un sol posto; con i nuovi esperimenti ciò non è possibile. Quindi gli esperimenti su LHC usano un approccio distribuito, sia per il calcolo che per i dati. Ciò permette di inserire nel ciclo risorse aggiuntive da tutto il mondo. Liberti Marco 566/ Pagina 3 di 3

24 Questi esperimenti rappresentano delle sfide per quanto riguarda sia il data storage che il data management. Ma di quanto dati si tratta? LHC farà collidere fasci di protoni, ed il crossing rate è di MHz. Verranno usati appositi trigger per identificare gli eventi interessanti e gettare via gli altri (vedi schema). Dove sono immagazzinati i dati di LHC? Ogni esperimento (ATLAS, CMS, ) ha le sue regole, ma in ogni caso i dati raw saranno al CERN e delle repliche saranno mandate ai vari laboratori nazionali, nel cosiddetto Tier-. Qui i dati sono riprocessati e divisi in dataset, e questi sono mandati ai vari istituti, nei cosiddetti Tier-. Presso SCoPE vi è infatti uno dei Tier- di ATLAS []. Qui i fisici processano i dataset per mezzo di job sulla Grid, ed inoltre generano grandi insiemi di simulazioni Monte Carlo. Liberti Marco 566/ Pagina di 3

25 3. La tecnologia iscsi applicata a SCoPE 3. Il quadro generale La tesi è stata sviluppata presso il laboratorio (Data Center) ScoPE, ed il sottoinsieme di macchine utilizzato direttamente dal sottoscritto è qui di seguito rappresentato schematicamente. Lo schema precedente mostra tutta la configurazione rappresentante l'intera parte di storage del progetto ScoPE. La parte relativa al sistema di storage tramite protocollo iscsi su EqualLogic è evidenziata dall'area azzurra. É costituita da: server modello DELL R switch di rete a Gigabit/sec, modello DELL 6 area di storage con EqualLogic da Terabyte ciascuno collegamenti Ethernet da Gb/s Più avanti verranno date maggiori delucidazioni. Liberti Marco 566/ Pagina 5 di 3

26 La configurazione dell EqualLogic PS5E presso il centro SCoPE è la seguente: Doppio storage controller, con un totsale di Gbyte di Storage Controllers memoria, con battery-backup in grado di mantenere i dati per 7 ore Hard Disk Sedici () dischi SATA hot-pluggable Capacità dei drive terabyte per disco, 7, RPM SATA II System Capacities TB using sixteen () TB SATA disk drives Volumi Snapshots Hosts Accessing PS Series Group Host Protocol Fino a, 5 per volume / fino ad un massimo di, Fino a 5 Qualunque iscsi initiator che segue lo standard Windows Server, Windows Server 3, Red Hat Operating Systems Enterprise Linux, SUSE Linux Enterprise, Linux, Supported Sun Solaris, UNIX, IBM AIX, HP-UX, Mac OS X, VMware ESX Server, Novell Netware RAID Support Liberti Marco 566/ Automatic RAID 5, RAID, e RAID 5 Pagina 6 di 3

27 GbE Network Interface Expansion Option Tre (3), in rame, connettori RJ5 Può essere combinato con altri EqualLogic PS, online Controller ridondati ed hot-swap, alimentatori ridondati ed Affidabilità hot-swap, ventole ridondate ed hot-swap, dischi ridondati ed hot-swap. Il controllo dell alimentatore è separato per ogni disco. Configurazione ed utilizzo automatico dei dischi spare Enclosure Monitoring System SMART Sostituzione automatica dei bad block Auto-Stat Disk Monitoring System (ADMS) to monitor health of data on disk drives CHAP authentication Security Access control for iscsi Access control for management interfaces including RADIUS support Notification Methods SNMP traps, , syslog Tensione di alimentazione AC: - VAC ±%, singola fase Frequenza: 7-63 Hz Power Fattore di potenza:.9 (minimum) Consumo elettrico: 5 VA, 53 PeakVA (Massimo operativo) Dissipazione di calore:,55 BTU per hour (massimo) Alimentatori: Dual W dc Liberti Marco 566/ Pagina 7 di 3

28 Intervallo di temperature: 5 to 35 C Temperatura per immagazzinamento: - to 6 C Altezza: da -7 m a 3, m (se in funzione) / da -35 a,9 m (se non in funzione) Umidità relative: to % non-condensing (se in funzione) / 5 to 95% non-condensing (se non in funzione) Environmental Shock: 5 g ms ½ sine (se in funzione) / 3 g ms ½ sine (se non in funzione) Vibration: Random. 5-5Hz (se in funzione) / Random. grms -Hz (se non in funzione) Acoustics: Sound Power Operating: <5. db C Altezza: 3 cm / 5. in / 3 unità EIA nel rack Physical Larghezza:.6 cm / 9. in / EC Rack Compliant Profondità: 55. cm Peso: 35 kg (massimo) Liberti Marco 566/ Pagina di 3

29 3. L unità EqualLogic PS5 e la sua architettura L unità EqualLogic presente presso SCoPE (ve ne sono ) è qui di seguito rappresentata. Liberti Marco 566/ Pagina 9 di 3

30 L unità Dell EqualLogic PS5E è una SAN (Storage Area Network) virtualizzata iscsi, che combina le caratteristiche di unità intelligente ed automatica con quelle di fault tolerance, fornendo inoltre funzioni semplificate di amministrazione, di installazione, e con prestazioni di alto livello, affidabilità e scalabilità. L unità monta dischi SATA (Serial Advanced Technology Attachment) per un totale di Terabyte di storage raw. L unità PS5E è progettata per consentire una rapida installazione, una gestione semplificata ed una facile espansione. L unità include funzionalità per la configurazione della SAN ed ha la capacità di determinare automaticamente la topologia della rete, di costruire automaticamente i RAID sets, e di eseguire verifiche sulle proprie condizioni, per verificare cioè che tutti i suoi componenti funzionano perfettamente. MODULAR DESIGNWITH ENTERPRISE RELIABILITY L architettura degli EqualLogic della serie PS è basata sulla modularità e sulla virtualizzazione, permettendo così di avere la quantità di storage che serve, evitando sia una sottoutilizzazione sia un uso troppo intensivo dei dischi o di un singolo array di dischi, cioè di una singola unità EqualLogic. Infatti, utilizzando del software specializzato e dedicato per la gestione dei dati, due o più unità EqualLogic della SAN sulla rete lavorano insieme per gestire i dati, per bilanciare il carico sui vari array, e possono essere espanse, con l aggiunta di altri array, se serve altro spazio. In sostanza, gli EqualLogic PS5E sono stati create proprio per i DataCenter, e sono ottimali in un ambiente Grid, che fa della virtualizzazione dello storage uno dei propri punti di forza. Il PS5E include inoltre capacità di fault tolerance, grazie ai component ridondati e sostituibili a sistema accesso, o come si dice hot-swap: doppio controller dei dischi, doppio sistema di ventole, doppio alimentatore, dischi hot spare. Il sistema di caching dei dischi, del tipo write-back, usa delle batterie per evitare perdita dei dati anche se l unità si spegne improvvisamente, ed inoltre la cache stessa è replicate sui due controller. Liberti Marco 566/ Pagina 3 di 3

31 Il PS5E ha le seguenti caratteristiche software: Auto-Replication Writeable Snapshots Automatic Load Balancing Auto-Snapshot Manager Auto-Stat Disk Monitoring System Multi-Path I/O PS Group Manager Pooled and Tiered Storage Snapshots and Auto-Replication Scheduler Home Smart Copy for Microsoft SQL Server and Windows File Systems Roles-based Administration Storage Virtualization Thin Provisioning Volume Consistency Sets Volume Cloning Volume Management Volume Snapshot Tutte queste funzioni sono standard nell EqualLogic PS5E. Liberti Marco 566/ Pagina 3 di 3

32 3.3 Le funzionalità Peer deployment è una tecnologia di configurazione delle SAN che può verificare la topologia della rete, costruire in automatico i RAID set, ed effettuare un check sullo stato di salute del sistema per verificare il corretto funzionamento di tutti i componenti. Peer control è lo strumento che permette la gestione dello storage virtualizzato con una singola pagina (view). Le unità della serie PS Series sono progettate per autogestirsi: il sistema controlla di continuo le risorse di storage resources ed automaticamente effettua il bilanciamento del carico (load balance) dei dati sui controller, sulle connessioni di rete e sui dischi, garantendo così prestazioni ottimali. La funzionalità Peer control rende automatiche funzioni vitali come la configurazione, il management, la gestione dei pool di storage, la distribuzione dei dati sui dischi, aiutando così a minimizzare la complessità delle funzioni di amministrazione del sistema. Peer provisioning è una funzionalità che consente di fornire risorse dinamicamente, a seconda delle richieste che vengono dagli iscsi initiator, cioè dai server che necessitano dei dati. Ciò è relativo non solo allo spazio disco, ma anche alla rete, alla sicurezza, alle prestazioni ed alla protezione dei dati. Al cambiare delle esigenze, la configurazione della SAN deve cambiare di conseguenza. Il Peer provisioning è stato progettato per semplificare l espansione, mentre il sistema è ancora in funzione ed online: è possibile ad esempio aggiungere un nuovo array, cioè una nuova unità EqualLogic, sulla rete e questa si connetterà automaticamente alla SAN esistente, creando un unico sistema e riequilibrando il carico dei dati. In questo modo l espansione è lineare, permettendo così agli amministratori di scalare non solo i dischi, ma anche i controller, le interface di rete, la memoria cache e di conseguenza le prestazioni della SAN. Il Peer provisioning consente quindi di acquistare lo storage on demand, cioè quando serve. Oltre alla funzionalità automatica, all amministratore di sistema è consentito effettuare modifiche ai parametri, per maggiore flessibilità, in funzione delle applicazioni. Un amministratore di sistema può anche allocare lo storage virtual ai volume logici fino Liberti Marco 566/ Pagina 3 di 3

33 a dei limiti prefissati, e separatamente allocare spazio fisico quando serve. Sia negli ambienti con server fisici, sia negli ambienti con server virtuali, è possible far ricorso a volume clonati, cioè repliche totali di volume logici, in modo un server possa avere accesso solo ad una copia dei dati. Peer protection è una funzionalità basata sul design robust che evita i cosiddetti single points of failure ed è progettata per garantire una disponibilità di sistema, in termini di tempo, superiore al percento. Questa funzionalità prevede anche di fare snapshot, cioè una fotografia dei dati in un certo momento, a disposizione dell applicazione, in modo da effettuare un veloce ripristino dei dati e delle configurazioni. Ad esempio, prima di modificare un applicazione, si fa uno snapshot, così è possibile ripristinare la siutuazione precedente alle modifiche, se necessario. Si tratta di una caratteristica molto utile per l amministratore di sistema, che garantisce la protezione dei dati. Peer integration è una funzionalità che si concretizza nella disponibilità di estesi software toolkit che facilitano l installazione, la gestione, la protezione di una SAN EqualLogic in ambiente Microsoft Windows. Questi toolkit rendono gli EqualLogic PS interoperabili e facile da gestire. La funzione di snapshot, in ambiente Windows, è estesa ulteriormente con il modulo Auto-Snapshot Manager. Modular design I moduli controller inseriti nell EqualLogic PS sono hot-swappable e sono dotati di processori high-performance dual-core 6-bit con un bus di I/O ad alta velocità del tipo HyperTransport, e con due canali gemelli a 6-bit, double data rate (DDR). Ciascun modulo è dotato di Gbyte di memoria veloce DRAM con battery backup. Ciascun disco è connesso con un suo canale seriale indipendente dagli altri, ed è fissato meccanicamente con uno chassis a smorzamento inerziale, che ne elimina (o almeno ne riduce notevolmente) le vibrazioni. Le cache sono anche replicate (mirror) sui controller. É possibile connettere dischi Serial Attached SCSI (SAS) e dischi Serial ATA (SATA) [vedi appendice ]. È possibile Liberti Marco 566/ Pagina 33 di 3

34 configurare le funzionalità RAID [vedi appendice ] in molti modi, tra cui RAID-5, RAID-, e RAID-5; utilizzo di dischi hot spare; ricostruzione automatica del RAID set danneggiato; algoritmi avanzati di striping; espansione on-line del RAID set; cambiamenti della geometria del RAID; algoritmi predittivi degli errori sui dischi e loro correzione. PSGroupManager Gli amministratori di sistema possono gestire le unità EqualLogic con una singola interfaccia, il PS Group Manager (vedi figura). Si tratta di una interfaccia Web based, quindi del tipo Graphical User Interface (GUI), che non richiede stazioni dedicate, potendo essere richiamata da qualunque browser, anche remotamente, per effettuare le operazioni di gestione. In aggiunta, è possible utilizzare una command-line interfa tramite Secure Shell (SSH) e tramite Telnet, ed è possibile utilizzare degli script. Le funzioni incorporate prevedono le notifiche tramite , un syslog, ed il monitoraggio tramite il protocollo Simple Network Management Protocol (SNMP). Liberti Marco 566/ Pagina 3 di 3

35 Le funzioni di gestione includono anche l utility Auto-Stat Disk Monitoring System (ADMS), che effettua la scansione dei dischi alla ricerca di errori fisici e li corregge. Liberti Marco 566/ Pagina 35 di 3

36 . Piano dei test. Il quadro generale Le misure delle prestazioni di un sistema informatico si fanno con i cosiddetti benchmark: dei software appositi, che misurano determinati parametri del sistema, in varie condizioni di lavoro. Nello specifico, i benchmark che ci interessano sono quelli che per le operazioni di Input/Output (I/O) sullo storage. Questo tipo di benchmark consiste in programmi che eseguono delle operazioni di scrittura e lettura nelle varie condizioni, cambiando la dimensione del file, la lunghezza del record, il tipo di accesso e così via. Nell'effettuare tali benchmark di I/O, bisogna fare molta attenzione ad alcuni parametri, che influiscono molto sui valori ottenuti, valori che tipicamente si misurano in numero Kbyte/sec per le varie operazioni. Questo perché le operazioni vengono eseguite da un programma che gira sotto un determinato sistema operativo su un determinato sistema, e le condizioni al contorno sono da studiare con attenzione. Infatti, va considerato che alle prestazioni complessive contribuiscono vari fattori, tra cui i principali sono: dimensione della cache della CPU dimensione della cache di I/O del sistema operativo dimensione della cache del controller di accesso dimensione della cache del disco Facciamo qualche esempio: oggi la cache L della CPU, una memoria molto veloce presente direttamente sul chip, è di almeno Mbyte, e spesso di Mbyte: se facciamo operazioni di scrittura e poi di lettura su un file di Mbyte, su un sistema dedicato e quindi non con altri utenti, è facile che le operazioni di lettura prendano i dati direttamente dalla cache L, quindi i tempi che ne verranno fuori saranno decisamente ridotti, in termini di prestazioni, rispetto a file più grandi della dimensione della cache L. Lo stesso concetto va applicato a tutte le altre cache citate sopra. Nel caso nostro, il benchmark di I/O più diffuso è IOZone, per il quale valgono le seguenti regole: Per un buono studio degli effetti provocati dalle presenza del disco, il file deve essere almeno 3 volte superiore alle dimensioni del buffer cache. Liberti Marco 566/ Pagina 36 di 3

37 Per un buono studio degli effetti provocati dalle presenza del buffer cache, il file deve essere inferiore alle dimensioni del buffer cache e quest ultimo deve essere almeno di MB. È inoltre necessario che le dimensioni del file siano inferiori di 3 volte rispetto a quelle delle cache interne ed esterne della CPU. Altri requisiti:. Il benchmark non deve essere modificato;. Il sistema deve essere stabile;. Programmazione piano dei test Tutti i test effettuati, si basano su file che vanno dalle dimensioni di GB a 6GB e con record da MB a MB. I risultati sono stati riportati tutti in forma tabellare e grafica e divisi per tipo di test. Il piano di test programmato è stato suddiviso nei seguenti test: Test Test su un volume di TeraByte con raid-5 Test su un volume di TeraByte con raid- Test su un volume di TeraByte con raid-5 Test in locale su un server R Test su Volume di TetaByte con RAID-5 con due client Descrizione Il test vuole studiare le prestazioni del sistema con raid-5 Il test vuole studiare le prestazioni del sistema con raid- Il test vuole studiare le prestazioni del sistema con raid-5 Il test vuole studiare le prestazioni del sistema con raid-5 Il test vuole studiare le prestazioni del sistema nel caso di multiutenti che lavorano sullo stesso volume, con raid-5 In definitiva, viene proposto un ulteriore e definitivo grafico, che mette a confronto le prestazioni del sistema nel caso del test, test5 e test6, per mostrare come effettivamente la tecnologia iscsi riesca a mantenere buone prestazioni di storage. Di seguito vengono suddivisi i test(le prove eseguite da IOZone), usualmente previsti per quanto riguarda l I/O sullo storage, in due categorie: scrittura e lettura sequenziale e random, effettuati in maniera asincrona. Liberti Marco 566/ Pagina 37 di 3

38 . Le prove di scrittura e lettura sequenziale Write: Questo test misura le prestazioni nella scrittura di un nuovo file. Ciò vuol dire non solo la scrittura dei dati, ma anche delle informazioni sulla posizione del file, sulla usa dimensione e sugli altri parametri del file system, cioè anche i cosiddetti metadati. L operazione di write è chiaramente più lenta, nel complesso, della successive, che è di re-write dello stesso file. Re-write: Questo test misura le prestazioni nella scrittura di un file che già esiste. Questo vuol dire che i metadati non vengono riscritti, o che solo pochi di essi lo sono. Chiaramente l operazione è più veloce della precedente. Read: Questo test misura le prestazioni nella lettura di un file che già esiste. Re-Read: Questo test misura le prestazioni nella lettura di un file che già esiste e che è stato già letto di recente. Poichè il sistema operative bufferizza in una cache i dati letti, le prestazioni di questo test sono generalmente migliori del precedente. Backwards Read: Questo test misura le prestazioni nella lettura di un file non dall inizio alla fine, ma dalla fine all inizio. Il test serve in quanto esistono delle applicazioni che veramente leggono il file al contrario: un esempio è il NASTRAN, e si tratta di file di molti gigabyte. Fwrite: Questo test misura le prestazioni di scrittura di un file con la funzione di libreria fwrite(), che usa un buffer nello spazio di indirizzamento del programma utente. Sono scritti anche i metadati. Frewrite: Come il precedente, ma senza i metadati. Fread: Questo test misura le prestazioni di lettura di un file con la funzione di libreria fread(), che usa un buffer nello spazio di indirizzamento del programma utente. Freread: Come il precedente, ma con la possibilità di avere i dati nella cache del SO. Liberti Marco 566/ Pagina 3 di 3

39 .3 Le prove di scrittura e lettura random Random Read: Questo test misura le prestazioni nella lettura di un file non dall inizio alla fine, ma in punti random del file stesso. Le prestazioni dipendono da numerosi fattori, come la dimensione della cache, il numero dei dischi, i relativi tempi di latenza etc. Random Write: Questo test misura le prestazioni nella scrittura di un file non dall inizio alla fine, ma in punti random del file stesso. Le prestazioni dipendono, come per il test precedente, da numerosi fattori, come la dimensione della cache, il numero dei dischi, i relativi tempi di latenza etc. Random Mix: Questo test misura le prestazioni nella lettura e nella scrittdi un file non dall inizio alla fine, ma in punti random del file stesso. Le prestazioni dipendono da numerosi fattori, come la dimensione della cache, il numero dei dischi, i relativi tempi di latenza etc. Il test va eseguito con più processi che eseguono simultaneamente lo stesso test, alternativamente, cioè un test scrive, il successivo legge e così via. Si tratta quindi di un test di stress dello storage. Strided Read: Questo test misura le prestazioni di lettura di un file in modo cosiddetto strided, cioè una prima lettura, ad esempio di kbyte, poi un salto, ad esempio di Kbyte, poi di nuovo ciclicamente una lettura ed un salto. In genere, i sistemi operativi non ottimizzano affatto questa funzione. Record Rewrite: Questo test misura le prestazioni nella scrittura di una porzione (un record) del file in un suo punto intermedio, e poi nella riscrittura della stessa porzione. Se il record è piccolo ed entra nella cache della CPU, le prestazioni sono alte; se il record non entra nella cache della CPU, ma nella TLB (il Translation Lookaside Buffer, cioè un buffer (o, nelle implementazioni più sofisticate, una cache) nella CPU che contiene porzioni della page table, una struttura dati che traduce gli indirizzi di memoria virtuali in indirizzi reali) le prestazioni sono ancora buone. Se infine il record non entra né nella cache della CPU, né nella TLB, ma entra nella cache del sistema operativo, le prestazioni sono ancora accettabili, altrimenti queste degradano. Liberti Marco 566/ Pagina 39 di 3

40 . Ambiente di test Estrapolando dallo schema generale l'area di storage relativa al protocollo iscsi su per dispositivi di storage EqualLogic, andiamo a studiare l'area sottostante: Dallo schema si può notare che il percorso di storage parte dai server R, ciascuno dei quali esaudisce le richieste di I/O degli utenti, accedendo all'area di storage tramite uno switch di rete ad alte prestazioni (un DELL 6). Quest'area è rappresentata da EqualLogic messi in cascata che danno luogo ad uno spazio di storage totale di 3TB complessivi. Ciò ci fa capire che un qualsiasi dato può essere diviso tra i due EqualLogic, pur appartenendo ad un unico volume logico. L'accesso agli EqualLogic avviene tramite 6 collegamenti. In realtà per ogni EqualLogic: 3 collegamenti sono effettivamente funzionanti 3, quelli tratteggiati, sono semplicemente percorsi ridondanti, utili, quindi, in caso di danneggiamento dei percorsi principali, dando così, maggiore stabilità e sicurezza al sistema stesso. Liberti Marco 566/ Pagina di 3

41 5. Prove e risultati 5. Il quadro generale A conferma delle premesse fatte sopra, riguardo alle alte prestazioni che avrebbe raggiunto il sistema in determinate situazioni, ci sono le misurazioni successivamente mostrate, che sono il risultato di test di stress fatti dal benckmark IOZone. Si potrà notare, infatti, che tutti i test, fatta eccezione per il test di record re-write, presentano picchi elevatissimi delle prestazioni del sistema per file di dimensioni relativamente piccole, cioè dalle dimensioni di GB a quelle di GB indipendentemente dalla grandezza del pacchetto con cui si trasferisce. Tutto ciò, invece, cambia per file relativamente grandi, cioè da Gb a 6GB, in cui i valori si avvicinano maggiormente alle vere prestazioni del sistema. Questa netta differenza, è ancor più rilevante nei test di read, in cui il sistema raggiunge prestazioni ancor più elevate, per poi subire picchi violenti di prestazioni nel passaggio da file di GB a quelli di GB, dando vita ad un vero e proprio scalino di valori. È in questo punto che è il disco ad esser messo maggiormente sotto pressione, mostrando così la sua lentezza rispetto alla memoria RAM. In generale è in questa famiglia di test che è possibile notare che il sistema risente maggiormente della dimensione dei record di trasferimento, se pur mantenendo lo stesso ordine di grandezza, per file fino a GB, a differenza di quella dei test di write in cui i valori sono quasi sovrapposti. Tornando al test di record re-write, invece, si noterà che la macchina mantiene prestazioni più o meno costanti, per tutto il tempo del test indipendentemente dalla dimensione del file, ma con valori di pacchetto che vanno da Mb a MB. Molto più vario e addirittura incrementale, è il percorso prestazionale nel caso di pacchetti con dimensioni da MB a MB. Ricordando che il test di record re-write risente ancor di più del fatto di raggiungere buone prestazioni per file che possano entrare nella cache o in alternativa nella TLB, è ovvio che per pacchetti fino a MB, il sistema riesce ad elaborare i dati senza nessuno sforzo in particolare, sfruttando questi ultimi, ma che perda prestazioni per i pacchetti successivi. Tutte queste osservazioni sono parallelamente riportabili per il test, test, e test3. L'unica differenza sta nei valori prestazionali che raggiunge il sistema, che sono ovviamente più bassi per i test e test3 relativi a volumi che hanno rispettivamente una politica di raid- e raid-5 e più alti per quello del test, fatto su un volume con Liberti Marco 566/ Pagina di 3

42 politica di raid-5. Si sottolinea infatti, che per i primi due test, quando le prestazioni del sistema si vanno normalizzando, si avvicinano molto allo zero, specialmente nel caso delle letture. Ciò è dovuto al fatto che i raid- e raid-5 badano più alle prestazioni del sistema per quanto riguarda le operazioni di scrittura dei dati, mostrando una struttura logica di gestione dei dati complessa e su più livelli, portando così un gran dispendio di energie da parte del sistema, proprio nel caso si facciano richieste di lettura, per reperire tutti i dati. In particolare il raid- è utile quando ci sono accessi di scrittura di piccole quantità di dati e in maniera random, mentre il raid-5 per quei sistemi che richiedono la conservazione di grandi quantità di dati e a cui non si accede molto frequentemente. Tale affermazione è ulteriormente accentuata dal caso di letture effettuale con record di dimensioni da MB, in cui il sistema va enormemente sotto sforzo, presentando così sempre i valori più bassi e con un netto picco di peggioramento prestazionale già per file dalle dimensione di soli GB. Per quanto riguarda gli effetti che subiscono i test per le prestazioni del sistema, dovute alla presenza di cache e di altri buffer (TLB) ad alto livello, lo schema seguente mostra i passaggi effettivi dei dati, dando un'idea del perchè è possibile raggiungere valori così alti: In particolare, si vedrà che nei test, i valori per file fino a GB, risentono dell'effetto cache, quelli tra GB e GB, della TLB e i restanti invece, vanno a forzare maggiormente le reali prestazioni del dispositivo di storage vero e proprio. Tutto questo è molto più evidente nei test di lettura, in cui: il gradino più alto è relativo alla cache l'alzata è relativa alla TLB il gradino più basso è relativo strettamente al dispositivo storage. Di seguito, vengono mostrati grafici e tabelle dei test. Per quanto riguarda le tabelle, le dimensioni dei file (per riga) sono in GB, le dimensioni dei record (per colonna) in MB e i risultati in MB/s. I valori in blu sono i valori massimi, quelli in rosso i valori minimi. Liberti Marco 566/ Pagina di 3

Valutazione del sistema di storage EMC CLARiiON AX4

Valutazione del sistema di storage EMC CLARiiON AX4 Valutazione del sistema di storage EMC CLARiiON AX4 Relazione preparata sotto contratto con EMC Introduzione EMC Corporation ha incaricato Demartek di eseguire una valutazione pratica del nuovo sistema

Dettagli

Il middleware INFNGRID Certification Authority Virtual Organization Servizi core Servizi collective Servizi di supporto al deployment e per la

Il middleware INFNGRID Certification Authority Virtual Organization Servizi core Servizi collective Servizi di supporto al deployment e per la Architettura del middleware INFNGRID e piano di deployment sull'infrastruttura SCoPE Gennaro Tortone INFN Napoli 21 febbraio 2007 Indice Il middleware INFNGRID Certification Authority Virtual Organization

Dettagli

Virtualizzazione. Orazio Battaglia

Virtualizzazione. Orazio Battaglia Virtualizzazione Orazio Battaglia Definizione di virtualizzazione In informatica il termine virtualizzazione si riferisce alla possibilità di astrarre le componenti hardware, cioè fisiche, degli elaboratori

Dettagli

All. 1. CAPITOLATO TECNICO per la Fornitura di una Infrastruttura Blade per il Progetto PIC di Rete Ferroviaria Italiana S.p.A.

All. 1. CAPITOLATO TECNICO per la Fornitura di una Infrastruttura Blade per il Progetto PIC di Rete Ferroviaria Italiana S.p.A. All. 1 CAPITOLATO TECNICO per la Fornitura di una Infrastruttura Blade per il Progetto PIC di Rete Ferroviaria Italiana S.p.A. INDICE 1. INTRODUZIONE...3 2. OGGETTO E LUOGO DI CONSEGNA DELLA FORNITURA...4

Dettagli

REALIZZAZIONE SALA CED

REALIZZAZIONE SALA CED REALIZZAZIONE SALA CED CAPITOLATO TECNICO SOMMARIO 1 Realizzazione sala CED 2 Specifiche minime dell intervento 1. REALIZZAZIONE SALA CED L obiettivo dell appalto è realizzare una Server Farm di ultima

Dettagli

Valutazione della piattaforma di storage multiprotocollo EMC Celerra NS20

Valutazione della piattaforma di storage multiprotocollo EMC Celerra NS20 Valutazione della piattaforma di storage multiprotocollo EMC Celerra NS20 Resoconto commissionato da EMC Corporation Introduzione In breve EMC Corporation ha incaricato Demartek di eseguire una valutazione

Dettagli

LaCie 12big Rack Serial

LaCie 12big Rack Serial LaCie Soluzione di storage rivoluzionaria, espandibile e collegabile direttamente Fino a 60 TB Soluzione di storage collegabile direttamente Il sistema LaCie è particolarmente indicato per i professionisti

Dettagli

Soluzioni di storage per le aziende on demand

Soluzioni di storage per le aziende on demand Soluzioni di storage per le aziende on demand Sistemi IBM Storage Server X206 Storage Server x226 Storage Server HS20 Storage Server x346 Storage Server Caratteristiche principali Differenziazione e innovazione

Dettagli

Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno

Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno Griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno LEZIONE N. 10 Tecnologie di Storage; DAS, NAS, SAN Esempio di SRM: StoRM 1 Introduzione

Dettagli

IBM System Storage DS5020 Express

IBM System Storage DS5020 Express Gestione della crescita, della complessità e dei rischi grazie a un sistema storage scalabile ad elevate prestazioni IBM System Storage DS5020 Express Punti di forza Interfacce FC a 8 Gbps di nuova Storage

Dettagli

Sistemi avanzati di gestione dei Sistemi Informativi

Sistemi avanzati di gestione dei Sistemi Informativi Esperti nella gestione dei sistemi informativi e tecnologie informatiche Sistemi avanzati di gestione dei Sistemi Informativi Docente: Email: Sito: eduard@roccatello.it http://www.roccatello.it/teaching/gsi/

Dettagli

Capitolato Tecnico fornitura SAN per la sede di Roma del Centro Sperimentale di Cinematografia Via Tuscolana, 1524

Capitolato Tecnico fornitura SAN per la sede di Roma del Centro Sperimentale di Cinematografia Via Tuscolana, 1524 Capitolato Tecnico fornitura SAN per la sede di Roma del Sommario 1. Introduzione... 2 2. Requisiti Fornitori... 2 3. Generalità... 3 4. La Soluzione SAN: requisiti richiesti... 4 4.1. Caratteristiche

Dettagli

Calcolo numerico e programmazione. Sistemi operativi

Calcolo numerico e programmazione. Sistemi operativi Calcolo numerico e programmazione Sistemi operativi Tullio Facchinetti 25 maggio 2012 13:47 http://robot.unipv.it/toolleeo Sistemi operativi insieme di programmi che rendono

Dettagli

Soluzione medium cost: Thumper

Soluzione medium cost: Thumper CCR/19/07/P Luglio 2007 Versione 1.1 Infrastrutture di storage per servizi centrali e calcolo di esperimento: soluzioni e costi Gruppo storage di CCR Introduzione Questo documento riassume i dati sulle

Dettagli

Milano 5 Ottobre. Andrea Goldoni

Milano 5 Ottobre. Andrea Goldoni Milano 5 Ottobre Andrea Goldoni Premessa Panoramica delle tecnologie disponibili Virtualizzazione dello storage Modello di valutazione dello storage Alcuni esempi Conclusioni Info: Work: Blog: www.itgold.info

Dettagli

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità Sistemi Server integrati di cassa MULTIFLEX Un sistema semplice e flessibile dalle grandi potenzialità ASEM PROSERVER MULTI-FLEX integra storage, elaborazione e connettività per rendere più semplice il

Dettagli

IBM iseries Soluzioni integrate per xseries

IBM iseries Soluzioni integrate per xseries Soluzioni innovative per l integrazione dei server Intel IBM iseries Soluzioni integrate per xseries La famiglia iseries, il cui modello più recente è l _` i5, offre due soluzioni che forniscono alternative

Dettagli

SYNETO: OLTRE LO STORAGE

SYNETO: OLTRE LO STORAGE SYNETO: OLTRE LO STORAGE Pag. 1 Indice 1 Chi è Syneto... 3 2 Perché valutare gli Storage di Syneto... 3 3 I differenziali di Syneto... 4 Pool di dischi... 4 Copy on write... 4 Checksum... 4 Self Healing...

Dettagli

DEDUPLICA DI EMC DATA DOMAIN SISTEMI DI STORAGE

DEDUPLICA DI EMC DATA DOMAIN SISTEMI DI STORAGE DEDUPLICA DI EMC DATA DOMAIN SISTEMI DI STORAGE I sistemi di storage con deduplica EMC Data Domain continuano a rivoluzionare il disk backup, l'archiviazione e il disaster recovery con funzionalità di

Dettagli

DESCRIZIONE DELLA FORNITURA OFFERTA

DESCRIZIONE DELLA FORNITURA OFFERTA ALLEGATO B.1 MODELLO PER LA FORMULAZIONE DELL OFFERTA TECNICA Rag. Sociale Indirizzo: Via CAP Località Codice fiscale Partita IVA DITTA DESCRIZIONE DELLA FORNITURA OFFERTA Specifiche minime art. 1 lett.

Dettagli

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità

MULTIFLEX PROFESSIONAL COMPUTERS. Sistemi Server integrati di cassa. Un sistema semplice e flessibile dalle grandi potenzialità Sistemi Server integrati di cassa MULTIFLEX Un sistema semplice e flessibile dalle grandi potenzialità ASEM PROSERVER MULTI-FLEX integra storage, elaborazione e connettività per rendere più semplice il

Dettagli

COD.35_09 Capitolato tecnico per Upgrade infrastruttura di storage a corredo del cluster computazionale dedicato per processamento parallelo dei dati

COD.35_09 Capitolato tecnico per Upgrade infrastruttura di storage a corredo del cluster computazionale dedicato per processamento parallelo dei dati COD.35_09 Capitolato tecnico per Upgrade infrastruttura di storage a corredo del cluster computazionale dedicato per processamento parallelo dei dati di sequenziamento Premessa Il presente Capitolato definisce

Dettagli

L innovazione diventa la norma

L innovazione diventa la norma torna all'indice Server IBM System x premere per stampare L innovazione diventa la norma Server IBM System x Punti di forza Creazione di un ambiente IT flessibile e conveniente con l ausilio della tecnologia

Dettagli

2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2

2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2 2.2.1 FrontEnd FIREWALL RICHIESTO QTA' 2 modello throughput 400 Mbps Throughput cifrato (3DES) 200 Mbps VPN Session 700 Connessioni al secondo 7000 RAM 512 Mbyte System flash 64 6 porte per Network Gigabitporte

Dettagli

Impianti informatici. Sistemi di storage. Paolo Cremonesi

Impianti informatici. Sistemi di storage. Paolo Cremonesi Impianti informatici Sistemi di storage Paolo Cremonesi Capacità e Prestazioni Aumento di capacità dei dischi Densità di informazione (Mbit/cm 2 ) 100.000 10.000 1.000 100 10 1 1980 1985 1990 1995 2000

Dettagli

Nastro magnetico. Gestione della memoria di massa. Disco magnetico. Disco magnetico. Usato in passato come dispositivo di memorizzazione secondaria

Nastro magnetico. Gestione della memoria di massa. Disco magnetico. Disco magnetico. Usato in passato come dispositivo di memorizzazione secondaria Impossibile visualizzare l'immagine. Nastro magnetico Gestione della memoria di massa Usato in passato come dispositivo di memorizzazione secondaria Può contenere grosse quantità di dati Principalmente

Dettagli

VIRTUALIZE IT. www.digibyte.it - digibyte@digibyte.it

VIRTUALIZE IT. www.digibyte.it - digibyte@digibyte.it il server? virtualizzalo!! Se ti stai domandando: ma cosa stanno dicendo? ancora non sai che la virtualizzazione è una tecnologia software, oggi ormai consolidata, che sta progressivamente modificando

Dettagli

Le imprese intelligenti passano a IBM Scale Out Network Attached Storage (SONAS)

Le imprese intelligenti passano a IBM Scale Out Network Attached Storage (SONAS) IBM Systems and Technology Group (STG) System Le imprese intelligenti passano a IBM Scale Out Network Attached (SONAS) 2 Le imprese intelligenti passano a IBM Scale Out Network Attached (SONAS) Benvenuti

Dettagli

Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN.

Università degli Studi di Napoli Federico II. Facoltà di Scienze MM.FF.NN. Università degli Studi di Napoli Federico II Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Tesi Sperimentale di Laurea Triennale Le problematiche dello storage in un Data Center: tecnologie

Dettagli

Reti e Domini Windows 2000. Corso di Amministrazione di Reti A.A. 2002/2003

Reti e Domini Windows 2000. Corso di Amministrazione di Reti A.A. 2002/2003 Reti e Domini Windows 2000 Corso di Amministrazione di Reti A.A. 2002/2003 Materiale preparato utilizzando dove possibile materiale AIPA http://www.aipa.it/attivita[2/formazione[6/corsi[2/materiali/reti%20di%20calcolatori/welcome.htm

Dettagli

Sistema di storage EMC CLARiiON AX4

Sistema di storage EMC CLARiiON AX4 DATA SHEET Sistema di storage EMC CLARiiON AX4 Transizione semplificata allo storage in rete EMC CLARiiON AX4 è una soluzione versatile ed economica per aziende alla ricerca di un alternativa allo storage

Dettagli

Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202

Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202 Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202 Elevate prestazioni e sicurezza dell'investimento: MAXDATA SR 1202 Caratteristiche del prodotto La quantità di dati di importanza cruciale

Dettagli

Dischi RAID. high-performance high-reliability. G.Serazzi a.a. 2003/04 Impianti Informatici RAID - 1/32

Dischi RAID. high-performance high-reliability. G.Serazzi a.a. 2003/04 Impianti Informatici RAID - 1/32 Dischi RAID high-performance high-reliability 15/03 03/04 G.Serazzi a.a. 2003/04 Impianti Informatici RAID - 1/32 indice caratteristiche generali dei dischi parallelismo ed alte prestazioni affidabilità

Dettagli

SISTEMA DI BLOCK STORAGE EMC VNXe1600

SISTEMA DI BLOCK STORAGE EMC VNXe1600 SISTEMA DI BLOCK STORAGE EMC Il sistema di storage EMC è un block storage array semplice, conveniente ed efficiente basato sul rinomato EMC VNXe3200. Tutte le capacità e funzionalità di sono compresse

Dettagli

Solitamente la capacità è minore di un disco magnetico, ma la velocità è molto più alta.

Solitamente la capacità è minore di un disco magnetico, ma la velocità è molto più alta. C4. MEMORIA SECONDARIA Nel seguito verranno analizzati, oltre alla struttura dei dispositivi di memorizzazione, anche gli algoritmi di scheduling delle unità a disco, la formattazione dei dischi, la gestione

Dettagli

SAS, SSD E XIV A CONFRONTO GIUGNO 2014. www.seeweb.com

SAS, SSD E XIV A CONFRONTO GIUGNO 2014. www.seeweb.com Seeweb S.r.l. Corso Lazio 9a Frosinone Tel. 800 112825 www.seeweb.com GIUGNO 2014 SAS, SSD E XIV A CONFRONTO Benchmark comparativi dei sistemi di storage più diffusi nell infrastruttura Cloud. Test di

Dettagli

Navigare verso il cambiamento. La St r a d a. p i ù semplice verso il ca m b i a m e n t o

Navigare verso il cambiamento. La St r a d a. p i ù semplice verso il ca m b i a m e n t o Navigare verso il cambiamento La St r a d a p i ù semplice verso il ca m b i a m e n t o Le caratteristiche tecniche del software La Tecnologia utilizzata EASY è una applicazione Open Source basata sul

Dettagli

EMC DATA DOMAIN OPERATING SYSTEM

EMC DATA DOMAIN OPERATING SYSTEM EMC DATA DOMAIN OPERATING SYSTEM Accensione di EMC Protection Storage ESSENTIALS Deduplica scalabile ad alta velocità Prestazioni fino a 58,7 TB/h Riduce i requisiti per il backup storage da 10 a 30 volte

Dettagli

Componenti del Sistema di Elaborazione

Componenti del Sistema di Elaborazione Componenti del Sistema di Elaborazione Il Sistema di Elaborazione Monitor Tastiera Processore Memoria Centrale (Programmi + Dati) Memorie di massa Altre periferiche Rete Rete a.a. 2002-03 L. Borrelli 2

Dettagli

Punto di partenza ideale come sistema di archiviazione professionale MAXDATA PLATINUM 600 IR

Punto di partenza ideale come sistema di archiviazione professionale MAXDATA PLATINUM 600 IR Punto di partenza ideale come sistema di archiviazione professionale MAXDATA PLATINUM 600 IR MAXDATA PLATINUM 600 IR: Punto di partenza ideale come sistema di archiviazione professionale Caratteristiche

Dettagli

Soluzioni innovative per la semplificazione dell infrastruttura IT. Virtualizzazione con il sistema operativo IBM i, PowerVM e Power Systems

Soluzioni innovative per la semplificazione dell infrastruttura IT. Virtualizzazione con il sistema operativo IBM i, PowerVM e Power Systems Soluzioni innovative per la semplificazione dell infrastruttura IT Virtualizzazione con il sistema operativo IBM i, PowerVM e Power Systems Caratteristiche principali La flessibilità e la scalabilità della

Dettagli

Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware

Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware ROMA CAPITALE Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware Procedura Aperta Servizio di gestione, manutenzione, supporto e sviluppo tecnologico delle infrastrutture hardware e software

Dettagli

Come Funziona. Virtualizzare con VMware

Come Funziona. Virtualizzare con VMware Virtualize IT Il Server? Virtualizzalo!! Se ti stai domandando: ma cosa stanno dicendo? ancora non sai che la virtualizzazione è una tecnologia software, oggi ormai consolidata, che sta progressivamente

Dettagli

Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT

Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT ALLEGATO 1 AL CAPITOLATO TECNICO Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT NUOVO BLADE CENTER PRESSO

Dettagli

STORAGE. 2015 Arka Service s.r.l.

STORAGE. 2015 Arka Service s.r.l. STORAGE STORAGE MEDIA indipendentemente dal modello di repository utilizzato i dati devono essere salvati su dei supporti (data storage media). I modelli utilizzati da Arka Service sono i comuni metodo

Dettagli

ALLEGATO TECNICO PER LA FORNITURA DI SERVER E RELATIVE PERIFERICHE E PRESTAZIONE DEI SERVIZI DI GARANZIA E ASSISTENZA TECNICA.

ALLEGATO TECNICO PER LA FORNITURA DI SERVER E RELATIVE PERIFERICHE E PRESTAZIONE DEI SERVIZI DI GARANZIA E ASSISTENZA TECNICA. ALLEGATO TECNICO PER LA FORNITURA DI SERVER E RELATIVE PERIFERICHE E PRESTAZIONE DEI SERVIZI DI GARANZIA E ASSTENZA TECNICA. La fornitura delle apparecchiature richieste si compone di: 1. n. 2 armadi rack

Dettagli

Il Sistema Operativo (1)

Il Sistema Operativo (1) E il software fondamentale del computer, gestisce tutto il suo funzionamento e crea un interfaccia con l utente. Le sue funzioni principali sono: Il Sistema Operativo (1) La gestione dell unità centrale

Dettagli

EMC VMAX 10K BLOCK AND FILE

EMC VMAX 10K BLOCK AND FILE EMC VMAX 10K BLOCK AND FILE EMC Symmetrix VMAX 10K File unifica File e Block in un'architettura scale-out multi-controller Tier 1 reale, che garantisce alle aziende consolidamento, high availability ed

Dettagli

La componente tecnologica dei. sistemi informativi. Architettura hw. Componenti di una architettura hw

La componente tecnologica dei. sistemi informativi. Architettura hw. Componenti di una architettura hw Informatica o Information Technology La componente tecnologica dei sistemi informativi m. rumor Architettura del Sistema tecnologico Sistema tecnologico: insieme di componenti connessi e coordinati che

Dettagli

Memorizzazione dei dati: Dischi e File

Memorizzazione dei dati: Dischi e File Memorizzazione dei dati: Dischi e File Query\update Query plan Execution Engine richieste di indici, record e file Index/file/record Manager comandi su pagine Query Compiler Buffer Manager Lettura/scrittura

Dettagli

Virtualizzazione protetta per le PMI con il ReadyDATA 5200

Virtualizzazione protetta per le PMI con il ReadyDATA 5200 Virtualizzazione protetta per le PMI con il ReadyDATA 5200 White Paper Per la maggior parte delle PMI, l'installazione di una soluzione di virtualizzazione che fornisca scalabilità, affidabilità e protezione

Dettagli

Implementazione del File System

Implementazione del File System Implementazione del file system Implementazione del File System Struttura del file system. Realizzazione del file system. Implementazione delle directory. Metodi di allocazione. Gestione dello spazio libero.

Dettagli

Sperimentazione del file system distribuito HDFS in ambiente grid

Sperimentazione del file system distribuito HDFS in ambiente grid Sperimentazione del file system distribuito HDFS in ambiente grid Giovanni Marzulli INFN Bari Tutor: dott. Domenico Diacono 4 Borsisti Day 13/09/2013 Outline Cosa è HDFS Attività svolta nel 2012 Test e

Dettagli

Come funziona un sistema di elaborazione

Come funziona un sistema di elaborazione Introduzione Cosa è un Sistema Sste aoperativo? Come funziona un sistema di elaborazione Proprietà dei Sistemi Operativi Storia dei Sistemi di Elaborazione Sistemi Mainframe Sistemi Desktop Sistemi i Multiprocessori

Dettagli

Parte VI SISTEMI OPERATIVI

Parte VI SISTEMI OPERATIVI Parte VI SISTEMI OPERATIVI Sistema Operativo Ogni computer ha un sistema operativo necessario per eseguire gli altri programmi Il sistema operativo, fra l altro, è responsabile di riconoscere i comandi

Dettagli

A) SERVER PREMESSA. Fornitura ed installazione di n.13 configurazioni a rack di: n. 2 PC Server ciascuno con le seguenti caratteristiche:

A) SERVER PREMESSA. Fornitura ed installazione di n.13 configurazioni a rack di: n. 2 PC Server ciascuno con le seguenti caratteristiche: ALLEGATO TECNICO PER LA FORNITURA DI SERVER, PERSONAL COMPUTER, ALTRE ATTREZZATURE INFORMATICHE E LO SVOLGIMENTO DI SERVIZI DI GARANZIA E ASSISTENZA TECNICA. PREMESSA Il Sistema Informativo dell Assessorato

Dettagli

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore)

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) 1. L hardware del PC (3 Lezioni - 9 ore) 2. Troubleshooting (1 Lezione - 3 ore) 3. Ambiente Operativo (5 Lezioni - 15 ore) 4.

Dettagli

Sistemi Distribuiti. Informatica B. Informatica B

Sistemi Distribuiti. Informatica B. Informatica B Sistemi Distribuiti Introduzione Che cos è un sistema distribuito? Un sistema distribuito è una collezione di computer indipendenti che appare all utente come un solo sistema coerente Da notare: le macchine

Dettagli

Griglie computazionali

Griglie computazionali Griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno IL MIDDLEWARE Richiami sulla caratterizzazione dei sistemi GRID Il Concetto di Virtual

Dettagli

Manuale Servizi di Virtualizzazione e Porta di Accesso Virtualizzata

Manuale Servizi di Virtualizzazione e Porta di Accesso Virtualizzata Manuale Servizi di Virtualizzazione e Porta di Accesso Virtualizzata COD. PROD. D.6.3 1 Indice Considerazioni sulla virtualizzazione... 3 Vantaggi della virtualizzazione:... 3 Piattaforma di virtualizzazione...

Dettagli

Corso di Sistemi di Elaborazione delle informazioni

Corso di Sistemi di Elaborazione delle informazioni Corso di Sistemi di Elaborazione delle informazioni Sistemi Operativi Francesco Fontanella La Complessità del Hardware Il modello di Von Neumann è uno schema di principio. Attualmente in commercio esistono:

Dettagli

Infrastrutture e Architetture di sistema

Infrastrutture e Architetture di sistema Università di Bergamo Facoltà di Ingegneria GESTIONE DEI SISTEMI ICT Paolo Salvaneschi B2_1 V1.1 Infrastrutture e Architetture di sistema Il contenuto del documento è liberamente utilizzabile dagli studenti,

Dettagli

ALLEGATO TECNICO COTTIMO FIDUCIARIO FORNITURE PER IL SISTEMA INFORMATIVO DI MARCHE NORD

ALLEGATO TECNICO COTTIMO FIDUCIARIO FORNITURE PER IL SISTEMA INFORMATIVO DI MARCHE NORD ALLEGATO TECNICO COTTIMO FIDUCIARIO FORNITURE PER IL SISTEMA INFORMATIVO DI MARCHE NORD Il presente allegato tecnico ha per oggetto la fornitura di server e di materiale e servizi di assistenza tecnica

Dettagli

DatavenetaBC. Note tecniche del servizio. edizione 2015 PERSONAL COMPUTER - SERVER - RETI - VPN - SICUREZZA & PRIVACY

DatavenetaBC. Note tecniche del servizio. edizione 2015 PERSONAL COMPUTER - SERVER - RETI - VPN - SICUREZZA & PRIVACY SEDE DI TREVISO Via Mattei, 2 31030 Casier (TV) Tel: 0422.381109 Fax: 0422.1833029 Web:www.dataveneta.it Assistenza: assistenza@dataveneta.it Commerciale:preventivi@dataveneta.it DatavenetaBC Cloud Computing

Dettagli

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore)

Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) Corso Configurazione e gestione dell Aula di Informatica (18 lezioni 54 ore) 1. L hardware del PC (3 Lezioni - 9 ore) 2. Troubleshooting (1 Lezione - 3 ore) 3. Ambiente Operativo (5 Lezioni - 15 ore) 4.

Dettagli

Hepix Spring 2006 Report Roberto Gomezel

Hepix Spring 2006 Report Roberto Gomezel Hepix Spring 2006 Report Roberto Gomezel CCR 5-6 giugno 2006 Spring meeting 2006 La riunione primaverile è stata organizzata dal CASPUR presso le sale riunioni CNR a Roma Organizzazione ha evidenziato

Dettagli

EMC SYMMETRIX VMAX 10K

EMC SYMMETRIX VMAX 10K EMC SYMMETRIX VMAX 10K EMC Symmetrix VMAX 10K con ambiente operativo Enginuity è dotato di un'architettura scale-out multi-controller, che garantisce alle aziende consolidamento ed efficienza. EMC VMAX

Dettagli

Grid on Cloud : Implementazione e Monitoraggio

Grid on Cloud : Implementazione e Monitoraggio Tesi di Laurea Magistrale Anno Accademico 2013-2014 Relatore Ch.mo Prof. Marcello Cinque Correlatori Ch.mo Ing. Flavio Frattini Ch.mo Ing. Davide Bottalico Candidato Antonio Nappi Matr. M63000141 Supercalcolatori

Dettagli

POWEREDGE T20 E3-1225V3/4G(1X4)/1TB/290W/ 1YNBD

POWEREDGE T20 E3-1225V3/4G(1X4)/1TB/290W/ 1YNBD POWEREDGE T20 E3-1225V3/4G(1X4)/1TB/290W/ 1YNBD :20-3708 Dell T20, il server conpatto ad alte prestazoni. Produttività superiore Il server racchiude un'ampia capacità di storage interno e prestazioni elevate

Dettagli

D3.2 Documento illustrante l architettura 3D Cloud per la realizzazione di servizi in modalità SaaS

D3.2 Documento illustrante l architettura 3D Cloud per la realizzazione di servizi in modalità SaaS D3.2 Documento illustrante l architettura 3D Cloud per la realizzazione di servizi in modalità SaaS Il modello SaaS Architettura 3D Cloud Il protocollo DCV Benefici Il portale Web EnginFrame EnginFrame

Dettagli

Silent Cubes. Archiviazione certificata di lungo termine di dati su hard disk super-ridondanti

Silent Cubes. Archiviazione certificata di lungo termine di dati su hard disk super-ridondanti Silent Cubes Archiviazione certificata di lungo termine di dati su hard disk super-ridondanti 02 Infinita quantità di dati indefinitamente: archiviazione di lungo termine con Silent Cubes Liberate spazio

Dettagli

I SISTEMI OPERATIVI CONCETTI INTRODUTTIVI

I SISTEMI OPERATIVI CONCETTI INTRODUTTIVI I SISTEMI OPERATIVI CONCETTI INTRODUTTIVI Il Software Software di Base Sistema Operativo (Software di base essenziale) Software di base non essenziale Utility Driver Software applicativi (Applicazioni)

Dettagli

Sistema disco midrange IBM Storwize V7000

Sistema disco midrange IBM Storwize V7000 Sistema disco midrange IBM Storwize V7000 Il sistema disco midrange più potente, innovativo e semplice del mercato dei prodotti storage Punti di forza Funzione storage di classe enterprise di facile utilizzo

Dettagli

IBM BladeCenter: La scelta giusta

IBM BladeCenter: La scelta giusta Affidabile, innovativo, aperto e di facile distribuzione, IBM BladeCenter rappresenta la scelta giusta per soddisfare le diverse esigenze aziendali IBM BladeCenter: La scelta giusta Punti di forza La scelta

Dettagli

Acceleratore SQL ZD-XL 1.5

Acceleratore SQL ZD-XL 1.5 Acceleratore SQL ZD-XL 1.5 Soluzione di accelerazione hardware e software flash integrata per SQL Server Caratteristiche Supporta ambienti Microsoft Hyper-V e VMware ESXi Accelera SQL Server a livello

Dettagli

VIRTUAL INFRASTRUCTURE DATABASE

VIRTUAL INFRASTRUCTURE DATABASE ALLEGATO B5.3 VIRTUAL INFRASTRUCTURE DATABASE Situazione alla data 30.6.2011 Pag. 1 di 6 AIX Logical Partitions Database L infrastruttura dell ambiente RISC/AIX viene utilizzata come Data Layer; fornisce

Dettagli

WD e il logo WD sono marchi registrati di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi; absolutely, WD Re, WD Se, WD Xe,

WD e il logo WD sono marchi registrati di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi; absolutely, WD Re, WD Se, WD Xe, WD e il logo WD sono marchi registrati di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi; absolutely, WD Re, WD Se, WD Xe, RAFF e StableTrac sono marchi di Western Digital Technologies,

Dettagli

8 motivi per scegliere uno storage Openstor

8 motivi per scegliere uno storage Openstor UNIIFIIED STORAGE 8 motivi per scegliere uno storage Openstor OPENSTOR STORAGE EASY PROFESSIONAL STORAGE Da sempre siamo abituati a considerare lo storage esterno in base all interfaccia verso il server,

Dettagli

CAPITOLO 5 - Sistemi Operativi Moderni

CAPITOLO 5 - Sistemi Operativi Moderni CAPITOLO 5 - Sistemi Operativi Moderni PRESENTAZIONE DI INSIEME Vedremo ora come si è evoluta nel tempo la struttura di un sistema operativo, per passare dalle vecchie strutture di tipo normalmente modulari,

Dettagli

PANORAMA. Panorama consente la gestione centralizzata di policy e dispositivi attraverso una rete di firewall di nuova generazione Palo Alto Networks.

PANORAMA. Panorama consente la gestione centralizzata di policy e dispositivi attraverso una rete di firewall di nuova generazione Palo Alto Networks. PANORAMA consente la gestione centralizzata di policy e dispositivi attraverso una rete di firewall di nuova generazione Palo Alto Networks. Interfaccia Web HTTPS SSL Grafici di riepilogo delle applicazioni

Dettagli

Sistema disco midrange IBM Storwize V7000

Sistema disco midrange IBM Storwize V7000 Sistema disco midrange IBM Storwize V7000 Un sistema disco midrange potente, innovativo e semplice da utilizzare Caratteristiche Sofisticata funzione storage di classe enterprise di facile utilizzo per

Dettagli

EMC ISILON SERIE NL REDEFINE. Specifiche. EMC Isilon NL400. EMC Isilon NL410 ARCHITETTURA

EMC ISILON SERIE NL REDEFINE. Specifiche. EMC Isilon NL400. EMC Isilon NL410 ARCHITETTURA EMC ISILON SERIE NL EMC Isilon NL400 EMC Isilon NL410 Le esigenze di storage e gestione dei dati a costi contenuti rappresentano una sfida sempre più pressante. Occorre valutare il costo dello storage

Dettagli

Prestazioni adattabili all ambiente del business

Prestazioni adattabili all ambiente del business Informazioni sulla tecnologia Prestazioni intelligenti Prestazioni adattabili all ambiente del business Il processore Intel Xeon sequenza 5500 varia in modo intelligente prestazioni e consumo energetico

Dettagli

LaCie 12big Rack Fibre

LaCie 12big Rack Fibre Soluzione di storage di classe Enterprise per contenuti HD non compressi Fino a 60 TB Una soluzione di storage completa Il sistema offre uno spazio di storage incredibilmente ampio, velocità ultra-elevate

Dettagli

LAN MAN WAN. Una internet è l'insieme di più reti reti distinte collegate tramite gateway/router

LAN MAN WAN. Una internet è l'insieme di più reti reti distinte collegate tramite gateway/router Rete di reti (interrete, internet) 2 Prof. Roberto De Prisco TEORIA - Lezione 8 Rete di reti e Internet Università degli studi di Salerno Laurea e Diploma in Informatica Una rete di comunicazione è un

Dettagli

FAMIGLIA EMC VPLEX. Continuous availability e data mobility all'interno e tra i data center

FAMIGLIA EMC VPLEX. Continuous availability e data mobility all'interno e tra i data center FAMIGLIA EMC VPLEX Continuous availability e data mobility all'interno e tra i data center CONTINUOUS AVAILABILITY E DATA MOBILITY PER APPLICAZIONI MISSION- CRITICAL L'infrastruttura di storage è in evoluzione

Dettagli

IBM Tivoli Storage Manager for Virtual Environments

IBM Tivoli Storage Manager for Virtual Environments Scheda tecnica IBM Storage Manager for Virtual Environments Backup senza interruzioni e ripristino immediato: un processo più semplice e lineare Caratteristiche principali Semplificare la gestione del

Dettagli

ML110 G6 Codice: 470065-319

ML110 G6 Codice: 470065-319 GENOVAMARKET.IT Un prodotto di EsseBi Tecnologia Tel. 333.88588 email: info@genovamarket.it Novità ML G6 Codice: 4765-39 HP PROLIANT ML G6 Il server HP ProLiant ML, semplice ma potente, presenta tutte

Dettagli

Progetto per la realizzazione di una Cloud per l'area Padovana

Progetto per la realizzazione di una Cloud per l'area Padovana Progetto per la realizzazione di una Cloud per l'area Padovana Versione 0.3.2 14 Ottobre 2013 Introduzione Il modello di calcolo basato su paradigma GRID si e' rivelato di grande successo perche' ha permesso

Dettagli

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2013-14. Pietro Frasca.

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2013-14. Pietro Frasca. Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2013-14 Pietro Frasca Lezione 3 Martedì 15-10-2013 1 Struttura ed organizzazione software dei sistemi

Dettagli

ALLEGATO 1 CAPITOLATO TECNICO

ALLEGATO 1 CAPITOLATO TECNICO PROCEDURA IN ECONOMIA PER LA FORNITURA DI UNA INFRASTRUTTURA SERVER BLADE, PER LA NUOVA SEDE DELLA FONDAZIONE RI.MED CUP H71J06000380001 NUMERO GARA 2621445 - CIG 25526018F9 ALLEGATO 1 CAPITOLATO TECNICO

Dettagli

Sistemi RAID. Sistemi RAID. Sistemi RAID

Sistemi RAID. Sistemi RAID. Sistemi RAID Sistemi RAID 1 Sistemi RAID Dei tre elementi fondamentali di un qualsiasi sistema computerizzato: processore, memoria primaria, memoria secondaria, quest ultimo è di gran lunga il più lento. Inoltre, il

Dettagli

Sistemi RAID. Sistemi RAID

Sistemi RAID. Sistemi RAID Sistemi RAID 1 Sistemi RAID Dei tre elementi fondamentali di un qualsiasi sistema computerizzato: processore, memoria primaria, memoria secondaria, quest ultimo è di gran lunga il più lento. Inoltre, il

Dettagli

Grid Data Management Services. Griglie e Sistemi di Elaborazione Ubiqui

Grid Data Management Services. Griglie e Sistemi di Elaborazione Ubiqui Grid Data Management Services D. Talia - UNICAL Griglie e Sistemi di Elaborazione Ubiqui Sommario Grid Data Management in Globus Toolkit GridFTP RFT RLS OGSA-DAI GridFTP GT4 Data Services High-performance

Dettagli

File system. Realizzazione del file system. Struttura del file system. Struttura del file system. Realizzazione del file system

File system. Realizzazione del file system. Struttura del file system. Struttura del file system. Realizzazione del file system Realizzazione del file system Struttura del file system Metodi di allocazione: Contigua Concatenata Indicizzata Gestione dello spazio libero Realizzazione delle directory Efficienza e prestazioni Ripristino

Dettagli

SERVER FUJITSU PRIMERGY TX1330 M1

SERVER FUJITSU PRIMERGY TX1330 M1 T33SCIN - SERVER FUJITSU PRIMERGY TX33 M SERVER FUJITSU PRIMERGY TX33 M FUJITSU TECHNOLOGY SOLUTIONS PRIMERGY TX33 M Cabinet Floorstand, chipset Intel C22, slots per RAM [DDR3 RAM ECC a 6 MHz (fino a 32

Dettagli

Ottimizzazioni delle prestazioni di un Web server Ottimizzazioni delle prestazioni di un Web server

Ottimizzazioni delle prestazioni di un Web server Ottimizzazioni delle prestazioni di un Web server Pagina 1 di 5 Ottimizzazioni delle prestazioni di un Web server Ottimizzazioni delle prestazioni di un Web server Spesso il server non è in grado di gestire tutto il carico di cui è gravato. Inoltre, una

Dettagli

IBM Svizzera Offerte Express Edizione dicembre 2011

IBM Svizzera Offerte Express Edizione dicembre 2011 IBM Svizzera Offerte Express Edizione dicembre 2011 Novità Novità: System x3100 M4 CHF 699. * Edizione dicembre 2011 Pagina 2 Il nuovo server IBM System x M4 Per avere un idea dei nostri prezzi vantaggiosi,

Dettagli

Introduzione ai sistemi operativi

Introduzione ai sistemi operativi Introduzione ai sistemi operativi Che cos è un S.O.? Shell Utente Utente 1 2 Utente N Window Compilatori Assembler Editor.. DB SOFTWARE APPLICATIVO System calls SISTEMA OPERATIVO HARDWARE Funzioni di un

Dettagli