Università degli Studi di Napoli Federico II



Documenti analoghi
In estrema sintesi, NEMO VirtualFarm vuol dire:

VMware. Gestione dello shutdown con UPS MetaSystem

IT Cloud Service. Semplice - accessibile - sicuro - economico

Appliance Cisco FirePOWER serie 8000

Creare una Rete Locale Lezione n. 1

La piattaforma di lettura targhe intelligente ed innovativa in grado di offrire servizi completi e personalizzati

Dell Networking accelera l implementazione di data center cloud e virtuali a 10 Gigabit HW Legend

Capire i benefici di una rete informatica nella propria attività. I componenti di una rete. I dispositivi utilizzati.

IL CLOUD COMPUTING DALLE PMI ALLE ENTERPRISE. Salvatore Giannetto Presidente Salvix S.r.l

Virtualization. Strutturare per semplificare la gestione. ICT Information & Communication Technology

INFORMATICA. Il Sistema Operativo. di Roberta Molinari

Progetto Virtualizzazione

SERVER E VIRTUALIZZAZIONE. Windows Server Guida alle edizioni

Migrazione a un data center a 40 Gbps con la tecnologia bidirezionale QSFP di Cisco

Linux User Group Cremona CORSO RETI

Introduzione alla Virtualizzazione

Approccio stratificato

Evoluzione della rete Ethernet (II parte)

Grazie a Ipanema, Coopservice assicura le prestazioni delle applicazioni SAP & HR, aumentando la produttivita del 12%

GLI APPARATI PER L INTERCONNESSIONE DI RETI LOCALI 1. Il Repeater 2. L Hub 2. Il Bridge 4. Lo Switch 4. Router 6

Consolidamento Server

Network Monitoring. Introduzione all attività di Network Monitoring introduzione a Nagios come motore ideale

Dispositivi di rete. Ripetitori. Hub

Introduzione alle tecnologie informatiche. Strumenti mentali per il futuro

Come Funziona. Virtualizzare con VMware

Lezione 4 La Struttura dei Sistemi Operativi. Introduzione

Progetto Vserver- HighAvailability

Cos'è una vlan. Da Wikipedia: Una LAN virtuale, comunemente

LA MIGRAZIONE IN SEMPLICI STEP. Il moving di una macchina Linux sul Cloud Server Seeweb

Sistemi informativi secondo prospettive combinate

Servizio Monitoraggio Energia via Web. CEAM CWS32-H01 Professional Web Platform

D 3) PUNTEGGIO TECNICO DELL APPALTO SPECIFICO

Verifica scritta di Sistemi e Reti Classe 5Di

Architetture Informatiche. Dal Mainframe al Personal Computer

Architetture Informatiche. Dal Mainframe al Personal Computer

Le fattispecie di riuso

Gartner Group definisce il Cloud

Il Sistema Operativo (1)

Cloud Computing Stato dell arte, Opportunità e rischi

Il software impiegato su un computer si distingue in: Sistema Operativo Compilatori per produrre programmi

Il cloud per la tua azienda.

Software di sistema e software applicativo. I programmi che fanno funzionare il computer e quelli che gli permettono di svolgere attività specifiche

Ti consente di ricevere velocemente tutte le informazioni inviate dal personale, in maniera assolutamente puntuale, controllata ed organizzata.

Telerilevamento e GIS Prof. Ing. Giuseppe Mussumeci

SERVER DI STAMPA AXIS

Le 5 ragioni principali

Reti LAN. IZ3MEZ Francesco Canova

Descrizione generale del sistema SGRI

SOFTWARE PER LA RILEVAZIONE PRESENZE SUL WEB

L Informatica al Vostro Servizio

Brochure Internet. Versione The Keyrules Company s.r.l. Pagina 2 di 8

OmniAccessSuite. Plug-Ins. Ver. 1.3

Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno

Sistemi Operativi di Rete. Sistemi Operativi di rete. Sistemi Operativi di rete

Corso di Informatica

La Videosorveglianza Criteri per il dimensionamento dello storage

Diode Array 7440 SD. Apparecchio NIR per analisi in linea. Affidabile, Accurato, Immediato

CONTROLLO NUMERICO Z32

Hardware delle reti LAN

3. Introduzione all'internetworking

Panoramica delle funzionalita

SERVICES OVER NEEDS MIMOS 9/10/2012 C/O UNIVERSITÀ TOR VERGATA

CONTROLLO DEGLI ACCESSI INTELLIGENTE PER UN FLUSSO DI PERSONE SICURO E CONFORTEVOLE. KONE Access

RETI DI COMPUTER Reti Geografiche. (Sez. 9.8)

uadro Soluzione software e hardware Per le rilevazione presenze Gestione Aziendale Fa quadrato attorno alla tua azienda

Cloud Computing....una scelta migliore. ICT Information & Communication Technology

C Cloud computing Cloud storage. Prof. Maurizio Naldi

SICUREZZA INFORMATICA PER L UNIONE DI COMUNI LOMBARDA ASTA DEL SERIO

La gestione di un calcolatore. Sistemi Operativi primo modulo Introduzione. Sistema operativo (2) Sistema operativo (1)

Premessa Le indicazioni seguenti sono parzialmente tratte da Wikipedia ( e da un tutorial di Pierlauro Sciarelli su comefare.

Sistemi avanzati di gestione dei Sistemi Informativi

Con il termine Sistema operativo si fa riferimento all insieme dei moduli software di un sistema di elaborazione dati dedicati alla sua gestione.

HBase Data Model. in più : le colonne sono raccolte in gruppi di colonne detti Column Family; Cosa cambia dunque?

PREMESSA AUTOMAZIONE E FLESSIBILITA'

vshape rimodella il tuo data center. Immediatamente.

Sommario. Oracle Database 10g (laboratorio) Grid computing. Oracle Database 10g. Concetti. Installazione Oracle Database 10g

VIRTUALIZE IT. - digibyte@digibyte.it

Dal software al CloudWare

MODELLO CLIENT/SERVER. Gianluca Daino Dipartimento di Ingegneria dell Informazione Università degli Studi di Siena

Lo scenario: la definizione di Internet

Quel che ogni azienda deve sapere sul finanziamento*

Le Infrastrutture Software ed il Sistema Operativo

CAPITOLO 1. Introduzione alle reti LAN

Sistemi Operativi. Conclusioni e nuove frontiere

List Suite 2.0. Sviluppo Software Il Telefono Sas 10/06/2010

La Guida per l Organizzazione degli Studi professionali

CALCOLATORI ELETTRONICI A cura di Luca Orrù

FileMaker Pro 13. Utilizzo di una Connessione Desktop Remota con FileMaker Pro13

LaCie Ethernet Disk mini Domande frequenti (FAQ)

AFFIDATI ALL ESPERIENZA PER AFFRONTARE LE NECESSITÀ DI OGGI E LE SFIDE DI DOMANI

SDD System design document

Il Sistema Operativo. C. Marrocco. Università degli Studi di Cassino

Architetture Applicative

SISTEMA DI CONTROLLO ACCESSI IN TECNOLOGIA LONWORKS

Potenza Elaborativa, Sistemi Operativi e Virtualizzazione

I sistemi virtuali nella PA. Il caso della Biblioteca del Consiglio Regionale della Puglia

SICUREZZA SENZA COMPROMESSI PER TUTTI GLI AMBIENTI VIRTUALI. Security for Virtual and Cloud Environments

Software per Helpdesk

Case Study TWT. North Sails, ha rivoluzionato il modo di lavorare. Brian Turnbow Network Manager TWT

Transcript:

Università degli Studi di Napoli Federico II Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Tesi di Laurea Magistrale Confronto tra tecnologia QFABRIC(Juniper) e UCS(Cisco) Relatore Candidato Prof. Guido Russo Correlatore Alberto Lotti matr. N97/32 Prof. Adriano Peron Anno Accademico 2011-2012

Ringraziamenti: Innanzitutto vorrei esprimere la mia gratitudine al prof. Guido Russo, per avermi dato la possibilità di svolgere la mia attività di tirocinio e per il sostegno fornitomi durante la stesura del lavoro. Alberto Lotti N97/32 Pagina 2 di 100

Indice generale 1 Introduzione...5 1.1 Evoluzione dei data center...6 1.2 Il reale consumo di energia e raffreddamento...8 2 Concetti basilari sui data center e sulle tecnologie applicate...9 2.1 La virtualizzazione...11 2.2 Il cablaggio...12 2.3 Tipologie dei server e architetture...16 3 UCS Enables Tecnologies...14 3.1 Cisco Unified Computing System...14 3.2 UCS B-series Blade Servers...15 3.3 UCS C-series Rack Servers...16 3.3 UCS Manager...16 4 Juniper network...17 4.1 Architettura QFabric...17 4.2 Gruppi di nodi...18 4.3...18 5 Confronto tra tecnologia UCS e QFabric...23 5.1 Vantaggi nell'uso di UCS...23 5.2 Vantaggi nell'adottare tecnologia QFabric...34 5.3 UCS contro QFabric...35 5.4 Simulazione attraverso virtualizzazione...37 6 Conclusione e Sviluppi Futuri...39 6.1 Integrare una tecnologia di tipo UCS nel data center SCOPE...39 6.2 Integrare una tecnologia di tipo QFabric nel data center SCOPE...39 Alberto Lotti N97/32 Pagina 3 di 100

8 Appendice...68 Alberto Lotti N97/32 Pagina 4 di 100

Introduzione Le reti dei provider di servizi di oggi sono sottoposte a uno stress enorme: devono fornire velocità di connessione eccezionali, garantire larghezza di banda per tutti i tipi di applicazioni, fornire una scalabilità flessibile e ciò che forse rappresenta il compito più difficile di tutti, offrire un'architettura di rete che sia accessibile dal punto di vista economico. Tutte le grandi aziende sono oggi impegnate a gestire esigenze di business sempre crescenti, con i budget e le infrastrutture IT esistenti. La sfida in atto è piuttosto chiara: mantenere elevati livelli di efficienza nonostante l esplosione dei dati (da qui al 2020 si prevede che si arriverà a un totale di 35 Zettabyte). È per questo che le aziende stanno migrando verso ambienti virtualizzati per ridurre i costi, aumentare la qualità del servizio e utilizzare le risorse in maniera più efficiente. Nessuno è più disposto a mantenere un numero elevato di server sottoutilizzati in data center di enormi dimensioni, che consumano risorse ingenti per alimentazione e condizionamento, e che soprattutto richiedono molte persone dedicate alla loro gestione. Per avere un idea delle risorse utilizzate dalle maggiore compagnie mondiali riportiamo di seguito alcuni dati: Google The Dalles (OR) facility 68,680 Sq Ft (6,380 m2) Microsoft Quincy, 470,000 Sq Ft (43,655 m2), 47 MWatts Yahoo Wenatchee & Quincy, 2 Million Sq Ft (185,800 m2) Terremark NOTA, 750,000 Sq Ft (68,6767 m2), 100MWatts Alberto Lotti N97/32 Pagina 5 di 100

In una ricerca condotta da Gartner nel corso dello scorso anno, quasi la metà degli intervistati ha indicato la crescita dei dati come una delle loro prime tre sfide, insieme a performance e scalabilità. Mentre tutte le sfide principali dei data center hanno in qualche misura un impatto sugli investimenti, la crescita dei dati si correla con l'aumento dei costi riguardanti la manutenzione hardware e software, nonché la gestione e i servizi. Alcune organizzazioni hanno fatto ricorso a semplici tattiche per tenere il passo con la domanda di capacità, per esempio aggiungendo ulteriori server, con il risultato di aggravare il problema. Quindi la soluzione chiave non sta semplicemente nell'aggiungere router più grandi e più veloci o una circuit network (rete a circuito): queste soluzioni non sono né sufficienti né adeguate. Di fatto, una soluzione reale e significativa richiede un nuovo modo di pensare per quanto riguarda l'aspetto più importante, ossia il core. La struttura ad albero tradizionale che ha dominato a lungo nella progettazione delle reti è ormai obsoleta e introduce una serie di problemi che riducono le prestazioni della rete e aumentano sia i costi che la difficoltà nella gestione. Alberto Lotti N97/32 Pagina 6 di 100

Molte aziende, tuttavia, hanno capito che il modello tradizionale di data center, seppur efficace, non è sostenibile e non scala con la crescita del business. Grazie alla virtualizzazione, le aziende possono diminuire sensibilmente lo spazio fisico occupato dai server, tagliare i costi di alimentazione e condizionamento e aumentare la disponibilità delle applicazioni: tutti elementi che riducono notevolmente la complessità. Infatti, la complessità potrà solo ridursi quanto più le imprese ricorrono alla virtualizzazione. Questo spiega anche il motivo del cambiamento delle tipologie di rete. Negli anni '70 con l'avvento dei mainframe e terminali si aveva una topologia di rete di tipo centralizzato, in cui era il mainframe a gestire tutta le rete. In seguito con l'introduzione delle architetture client/server si è passati a delle topologie di rete distribuite, in cui la rete non si appoggiava su unico nodo centrale. Entrambi gli approcci però non sono riusciti a camminare parrallelamente con l'esigenze del mercato. Nel caso del mainframe, gli svantaggi erano dovuti ad una forte intolleranza ai guasti e a delle performance basse. Nel caso delle architetture distribuite, lo svantaggio principale è stato la crescita esponenziale della rete e dei dati e tutto questo richiede una gestione molto più attenta e investimenti in termini di spazio e risorse molto elevati, come nel caso dei data center attuali. L'idea ora è proprio quella di creare una soluzione ibrida tra le due topologie. Cioè creare una rete di tipo centralizzata per facilitare la gestione e nello stesso tempo sfruttare tutti i vantaggi acquisiti da una topologia di tipo distribuita. Ma come si possono ottenere i numerosissimi vantaggi offerti dai data center virtualizzati e porre la basi per una migrazione verso il cloud? Il concetto chiave sta nella rete, che svolge un ruolo fondamentale nel data center virtuale. Ignorare questo aspetto può portare a qualche rischio. L evoluzione è Alberto Lotti N97/32 Pagina 7 di 100

essenziale. E' chiaro che la rete deve evolversi per supportare la virtualizzazione. Deve essere semplice, scalabile, resiliente e cloud-ready, cioè ottimizzata per il cloud. Le topologie Ethernet classiche non offrono questo, quindi per dotarsi di un data center virtualizzato le aziende devono guardare al futuro, volgendo la loro attenzione alla tecnologia Ethernet Fabric. Nel corso dei decenni, Ethernet si è evoluta di pari passo con le crescenti esigenze degli utenti. Con la rapida espansione dell industria IT in nuovi segmenti, come le macchine virtuali e il cloud computing, i classici limiti di Ethernet si sono rivelati problematici. Nel corso del tempo, analogamente all'evoluzione del walkman verso l'ipod e del classico videoregistratore nel Blu-Ray, Ethernet si è evoluta in Ethernet Fabric, nell arco di più di trenta anni. Gli Ethernet Fabric costituiscono il prossimo passo nell'evoluzione dell Ethernet, e sono realizzati appositamente per i nuovi data center virtualizzati e ottimizzati per il cloud, cioè per il mondo IT tipico del 2012 e oltre. Gli Ethernet Fabric garantiscono reti più piatte, eliminando la configurazione manuale e permettendo banda continua e scalabile nel fabric. In sostanza, forniscono livelli più elevati di prestazioni, di utilizzo, di disponibilità e di semplicità, riducendo i costi operativi. Con l'aumento della mobilità fornito da Ethernet Fabric, le aziende possono prepararsi in modo adeguato per un ambiente cloud, dotandosi di una migliore efficienza energetica nel data center, con riduzioni dei costi e massimizzazione dei ricavi. In ultima analisi, permette alla virtualizzazione di estendersi al di fuori del data center e di espandere tutte le funzionalità fino al desktop. Per garantire che le aziende possano sfruttare al massimo i propri investimenti in termini di virtualizzazione e in termine di architetture service-oriented (SOA), due delle più importanti aziende specializzate nel campo della progettazione Alberto Lotti N97/32 Pagina 8 di 100

delle reti, la CISCO e la JUNIPER NETWORK, hanno studiato ed elaborato una soluzione per ottimizzare la progettazione e le performance della rete. La Juniper Networks ha progettato il Quantum Fabric (Qfabric), un architettura rivoluzionaria che prevede una progettazione costituita da un unico livello che opera come un singolo Switch Ethernet. I vantaggi offerti da un architettura QFabric sono: scalabilità, prestazioni e semplicità, offrendo allo stesso tempo la capacità di supportare gli ambienti totalmente convergenti e virtualizzati così cruciali per i data center di oggi. Cisco ha presentato Unified Computing System, o UCS, nel marzo del 2009. UCS comprende un insieme innovativo di tecnologie di rete, elaborazione, virtualizzazione e gestione in un'unica unità gestita a livello centralizzato, caratterizzata da standard aperti e da un unico motore di policy comune. UCS integra perfettamente componenti hardware e software, offrendo un'architettura a prestazioni elevate e vantaggiosa che supporta un'ampia varietà di hardware, tra cui dispositivi Cisco e non. Lo scopo di questa tesi è quello di mettere a confronto queste due tecnologie, analizzando sia gli aspetti pratici, come costi e benefici, sia evidenziare gli aspetti tecnici di entrambi. Nel primo capitolo vedremo come si sono evoluti i data center e analizzeremo in dettaglio tutte le problematiche che hanno portato ad un architettura di tipo centralizzata. In seguito nei capitoli due e tre focalizzeremo la nostra attenzione nel descrivere in dettaglio la tecnologia Juniper e la tecnologia Cisco. Infine verrà dedicato un capitolo per analizzare e mettere a confronto entrambi queste due architetture. Alberto Lotti N97/32 Pagina 9 di 100

EVOLUTIONE DEI DATA CENTER In questa sezione descriveremo l evoluzione delle architetture server nei data center. STAND ALONE SERVERS Anche conosciuti come server 'indipendenti', possono variare in dimensioni a partire da una postazione PC desktop fino alla grandezza di un mainframe. Contengono tutti i componenti basilari (CPU,RAM,ROM,HD,Schede di rete, etc..), l unica differenza è nel numero di processori, la capacità di memoria, slot di espansione e memoria integrata. La maggior parte di questi tipi di server ha la possibilità di eseguire più applicazioni contemporaneamente e possono supportare un grande numero di utenti. Spesso usano alcuni tipi software di virtualizzazione che permettono di eseguire contemporaneamente più sistemi operativi. Tuttavia per quanto sia potente un stand-alone server, presenta problemi di scalabilità sia da un punto di vista fisico che software. Per superare i problemi di scalabilità, ci sono due differenti approcci: scale-up e lo scale-out. SCALE UP Scale-up,alias scale verticale, è un termine usato per indicare una strategia scalabile basata sull'incremento della potenza di elaborazione di un singolo Alberto Lotti N97/32 Pagina 10 di 100

server espandendo il numero di risorse in termini di processori, memorie,i/o device, etc. Lo scale verticale influenza anche il funzionamento delle tecnologie di virtualizzazione in modo più efficiente, in termini di risorse per i sistemi operativi e delle applicazioni. Lo scale-up riduce il numero di punti di gestione, facilitando cosi le politiche di sicurezza. Mentre per alcune applicazioni diventa un punto di forza, molti data center preferiscono usare i componenti standard e adottare un approccio di tipo scale- out. SCALE OUT Scale-out,alias scale orizzontale, è un termine usato per indicare una strategia scalabile basata sull'incremento del numero di server. Ha un grosso vantaggio, l amministratore può facilmente distribuire il carico di lavoro. Le strategie scale-out sono comunemente adottate in associazione con i server Intel X86. Questi tipi di server, basati su architetture di PC, offrono un notevole vantaggio in termini di prestazioni e soprattutto di costi. Questi sistemi commodity, hanno raggiunto una capacità di elaborazione sufficiente ad eseguire la maggior parte delle applicazioni presenti nei data center. Hanno anche la possibilità di essere interconnessi in cluster per applicazioni che richiedono alte prestazioni come nei campi scientifici, in cui lo scopo è quello di verificare modelli e eseguire simulazioni, nell'analisi semantica oppure nel campo delle biotecnologie. Tutto questo prima era possibile farlo solo se si possedeva un mainframe o un supercomputer. Il modello scale-out ha creato un incremento della domanda sia in termini di condivisione dei dati Alberto Lotti N97/32 Pagina 11 di 100

che in termini di performance molto alte, specialmente dov è richiesta una grande elaborazione di dati come nel caso dei database. SCALE UP VS SCALE OUT Analizziamo le differenze sostanziali tra questi due modelli. Lo scale-up richiede un hardware dedicato e molto costoso e fornisce un numero limitato di ambienti per i sistemi operativi, inoltre ha delle limitazioni sul carico totale di lavoro che i server possono supportare. Il vantaggio però è che avendo pochi punti di gestione si ha un migliore utilizzo delle risorse e questo porta ad una elaborazione più efficiente rispetto al modello scale-out. Lo scale-out dedica ogni server ad una specifica applicazione. Ogni applicazione è limitata alla capacità del singolo nodo, ma ogni server può eseguire il sistema operativo più appropriato per quella applicazione. Questo approccio chiaramente richiede un gran numero di server e nello stesso tempo una gestione più complessa. RACK OPTIMIZED SERVERS Con lo scale-out si ha un costante incremento del numero dei server, questo richiede un ottimizzazione dello spazio,del flusso d'aria,delle connessioni e una razionalizzazione delle installazioni. Rack-optimized server fu il primo tentativo per risolvere il problema. (Vedi figura 1). Alberto Lotti N97/32 Pagina 12 di 100

Figura 1: Rack-Mounted Server Conosciuti anche come rack-mounted server, consistono in 19 scompartimenti e la loro altezza viene misurata in termini di Rack Unit(RU), che corrisponde a 44,45 mm. Un tipico server Intel-based è alto un RU e consuma circa 500 Watts. I rack sono tipicamente costituiti da 42 RUs, ma di regola è impossibile fornire energia e raffreddamento per un intero rack. Un tipico data center ha dai 5 ai 10 KW di potenza in cui per ogni rack sono previsti dai 10 ai 20 server. Lo spazio che rimane è lasciato per i patch panel. La tipica progettazione è di tipo ToR(Top of the rack). Anche se nella maggior parte dei casi viene usata una soluzione ibrida, cioè vengono connessi tutti i server in una riga, avendo cosi uno scherma ToR/EoR. Il vantaggio di questo approccio è quello di essere molto flessibile e di razionalizzare lo spazio utilizzato. Quindi è possibile estendere il numero di processori, la memoria e diversi slot di I/O. Alberto Lotti N97/32 Pagina 13 di 100

L unica debolezza di questo approccio sta nel cablaggio che risulta essere abbastanza complicato. I server rack-mounted sono una soluzione più semplificata rispetto ai convenzionali server perchè permettono di installare più server per metro quadro nei data center ma non hanno molte differenze a livello di funzionalità. Secondo uno studio ad oggi il 50% del mercato utilizza la soluzione dei server rack-optimized. BLADE SERVERS I Blade Server sono stato introdotti come una soluzione per ottimizzare il cablaggio e l energia dei server comparati alla soluzione dei rack mounted. Uno chassis Blade server contine dai 6 ai 12 RUs e può ospitare dai 6 ai 16 elaboratori blades, più diversi moduli I/O, supporti all alimentazione,ventole e gestori chassis per CPU (vedi Figura 2). Figura 2: Blade Servers I vantaggi dei blade server sono di avere infrastrutture chassis condivise (principalmente energia e raffredamento), razionalizzazione del cablaggio, e Alberto Lotti N97/32 Pagina 14 di 100

la capacità di monitorare la condivisione delle infrastrutture. Il numero di punti di gestione è ridotto da uno per server a uno per chassis. I blade server non possono ospidare generiche PCI card, ma richiedo card ammezzate cioè proprietarie. Questo è il grande limite rispetto ai rack mounted server. Secondo uno studio ad oggi il 10% del mercato utilizza la soluzione dei blade server. SERVER SPRAWL Oggi, la maggior parte dei server montano un singolo sistema operativo (in genere o Windows o Linux) e una singola applicazione per server (vedi Figura 3). Figura 3: Singolo OS/applicazione per server Questo modello viene detto Server sprawl, dove il numero dei server utilizzati è in costante crescita e c è un basso utilizzo delle CPU, il cui Alberto Lotti N97/32 Pagina 15 di 100

impiego varia tra il 5% e il 10%. Questo però significa anche sprecare spazio, corrente e raffreddamento. I vantaggi di questo modello sono: l isolamento (ogni applicazione ha le proprie risorse), la flessibilità (può girare qualsiasi tipo di sistema operativo o applicazione), e la semplicità(ogni applicazione gira sul proprio sistema operativo ed ha le sue risorse). Questa architettura consente l impostazione di diverse politiche per applicazioni differenti. La rete ha una o più porte fisiche per ogni applicazione, e ad ogni porta si possono abilitare servizi come QoS, ACL, sicurezza,etc. Questo modo di operare rimane indipendentemente dal fatto che gli switch sono all interno di blade server o fuori. Ciò nonostante, il server sprawl rappresenta comunque uno spreco in termini di spazio,energia e raffreddamento. Inoltre, la gestione di tutti questi server diventa molto onerosa per un amministratore. Alberto Lotti N97/32 Pagina 16 di 100

VIRTUALIZATION La virtualizzazione è una della chiavi tecnologiche usata per ridurre il numero di server sprawl ed è stata fortemente adottata dalle organizzazione di tutto il mondo. Al contrario dello chassing che fungeva da contenitore, con la virtualizzazione un server è un contenitore di molteplici server logici (vedi Figura 4). Figura 4: Virtualizzazione di server La virtualizzazione software utilizza un software che permette di switchare come un normale switch fisico in uno chassis. I vantaggi della virtualizzazione sono: usabilità,mobilità, e avviabilità. Gli svantaggi sono la mancanza di politiche distribuite, sicurezza, diagnostica e predicibilità delle performance. Alberto Lotti N97/32 Pagina 17 di 100

SERVER DEPLOYMENT TODAY Tutta l introduzione fatta fin ora sull evoluzione dei server ha descritto principalmente un evoluzione di spazio e non ha accennato al cambiamento dei modelli. Lo scale-up significa servers più grandi;lo scale-out significa più server e quindi più infrastrutture di rete. Ad esempio, la figura 5 mostra tre blade server, su cui viene fatta una virtualizzazione, montati in un rack e interconessi attraverso degli switch esterni. Figura 5: Blade Server interconnessi da switch esterni Alberto Lotti N97/32 Pagina 18 di 100

Gli strumenti per la gestione sono spesso un aggiunta: vengono applicati ai server e non integrati negli stessi. Questo richiede un numero elevato di applicativi per gestire e settare lo stesso server e in generale questo porta ad avere maggiori difficoltà per gestire politiche,sicurezza e per scalare. IL REALE CONSUMO DI ENERGIA E DI RAFFREDAMENTO SERVER CONSOLIDATION Nel tentativo di consumare meno energia, è importante avere un approccio di bilanciamento tra conto dei watts e distributore di servizi. Quindi l obbiettivo è quello di provare a ottimizzare ogni componente utilizzato nei data center per ridurre il consumo di energia elettrica. I server in generale sono i componenti che consumano più energia nei data center anche se il carico di lavoro è poco. Infatti se notiamo la figura di seguito ci rendiamo subito conto dell energia che viene richiesta da un server con un carico di lavoro minimo fino ad un server con carico di lavoro massimo: Alberto Lotti N97/32 Pagina 19 di 100

Figura 6: Esempio rapporto carico di lavoro/energia Questo sta a significare che l unico modo per avere un risparmio energetico è quello di sostituire i server con delle macchine virtuali.la chiave tecnologica per ridurre il numero dei server è proprio la virtualizzazione dei server. VIRTUALIZZAZIONE Per virtualizzazione ci si riferisce all astrazione dei computer e delle risorse di rete. Un esempio sono le VLAN(virtual Lan) e VSAN(Virtual San) rappresentano delle forme di virtualizzazione della rete. Quello che sta diventando molto importante per i data center è la virtualizzazione dei server, in particolare l assistenza hardware tramite virtualizzazione. Wikipedia da la seguente definizione: Alberto Lotti N97/32 Pagina 20 di 100

Hardware-assisted virtualization è un approccio alla virtualizzazione che abilita in modo completamente efficiente usando le capacità hardware, soprattutto sfruttando i processori degli host. La virtualizzazione completa viene usata per simulare un ambiente hardware, o una virtual machine, in cui un sistema operativo ospite (usando le stesse istruzioni impostate come l host machine) viene eseguito in completo isolamento. L'Hardware-assisted virtualization è stata implementata su un Sistema IBM System/370, ed è stata recentemente aggiunta(2007) nei processori x86 (Intel VT o AMD-V). Diversi studi firmati da IDC riportano i seguenti dati: il 22% dei server oggi sono tutte macchine virtuali, e entro il 2010 supereranno i server fisici. Una tipica configurazione di virtualizzazione basata su un processore X86 include: VMware, vsphere/esx, Microsoft Hyper-V,Linux KVM, e Linux Xen. Con un efficiente Hardware-assisted virtualization, molteplici server inutilizzati possono essere virtualizzati (trasformandoli in una Macchina Virtuale) e molteplici Macchine Virtuali possono essere eseguite simultaneamente sullo stesso server fisico. Le virtual machine posso essere anche spostate da un server all altro per bilanciare il carico o per recupero dati. Le massime organizzazione mondiali hanno già iniziato a cogliere il vantaggio di questo modello. Infatti uno studio del 2007 IDC, mostra che il 50% delle VMware ESX adottano la capacità di Vmotion. Questa tecnologia Alberto Lotti N97/32 Pagina 21 di 100

aiuta gli utenti a spostarsi da un server fisico ad un altro senza nessun impatto sui dati o sugli utenti. Questo permette anche ai manager IT di pianificare strategie, come il bilanciamento del carico. UCS, con un largo utilizzo di memoria e nativo supporto per la virtualizzazione, può aiutare a ridurre il numero dei server, in unico sistema aiutando di molto il risparmio energetico. IL REALE CONSUMO DI ENERGIA E DI RAFFREDAMENTO Nella costruzione di un nuovo data center, il numero dei server che possono essere installati per metro quadro è il risultato di svariate considerazioni, in primis quanto raffreddamento bisogna prevedere. Infatti un data center produce molto calore che deve essere rimosso attraverso un sistema di condizionamento. Gli attuali data center consumano circa dai 50 ai 200 Watts per mq. I nuovi data center progettati consumano tra i 300 e i 500 Watts per mq. Questo perché le nuove tecnologie utilizzate per raffreddare devo essere sempre in funizione, in modo da mantenere una temperatura che al massimo può raggiungere i 14. I Watt per mq hanno una diretta correlazione tra i Watt disponibili per ogni base del rack. Con dei rack che occupano dai 4 a 6 mq abbiamo un consumo nei data center da 2 a 10 KWatt/rack e in futuro si pensa di arrivare intorno ai 12-25 Kwatt/rack. Alberto Lotti N97/32 Pagina 22 di 100

2.2 IL CABLAGGIO Il cablaggio rappresenta una caratteristica tipica nella progettazione di un data center. Un mix tra cavi di rame e fibre ottiche che vengono attualmente utilizzati seguendo due tra le maggiori topologie chiamate Top of Rack (ToR) e End of Row(EoR). L approccio EoR prevede il posizionamento degli apparati di rete (principalmente switch LAN e SAN) alla fine della fila e utilizza degli switch con un elevato numero di porte (128-512 porte) nel tentativo di ridurre il numero di apparati di rete che devono essere gestiti. Questo implica cablaggi molto lunghi con differenti lunghezze da server agli apparati di rete. Fino ad 1Gbps si possono utilizzare i tradizionali cavi in rame, ma ma per raggiungere un'ampiezza di 10 Gbs la fibra potrebbe essere l unica soluzione. Mentre un cavo in fibra può essere più economico di un cavo in rame, quando consideriamo delle singole connessioni, se dobbiamo utilizzare da 2 a 4 collegamenti per server, la spesa potrebbe diventare onerosa senza considerare i costi degli switch. Al contrario, l approccio ToR prevede il posizionamento dei dispositivi di rete quanto più vicini possibili ai server, tipicamente al top di ogni rack o ogni 2-3 rack. Gli switch ToR hanno generalmente un numero di porte basso (dalle 26-52 porte) in combinazione con altri switch. La distanza dai server a gli Switch Tor non supera i 10 metri e i cavi in rame possono essere facilmente distribuiti, ognuno ad una velocità di 10 Gbps. Le fibre sono usate per connettere gli switch ToR alla centrale di controllo( dove si intende gli switch generali e le fibre principali). Tutti i server sono connessi allo stesso switch Alberto Lotti N97/32 Pagina 23 di 100

Tor che distribuisce il costo di queste fibre. Al contrario dell architettura EoR, il ToR prevede una gestione più ampia di tutti i dispositivi che fanno parte della rete. In entrambi i casi, il cablaggio rappresenta una parte fondamentale del CAPEX(spesa capitale) di un data center e limita il flusso d aria nel rack e sotto il pavimento, impattando negativamente sull efficacia del raffredamento(opex:spesa operativa). La figura 7 mostra un esempio estremo di cablaggio a spaghetti. Figura 7: Esempio di cablaggio errato Alberto Lotti N97/32 Pagina 24 di 100

Precedentemente, una divisione tipica per i differenti flusso di traffico era: Ethernet per il traffico LAN Fibra ottica per il traffico SAN Una rete Ethernet separata per la gestione della LAN In aggiunta venivano progettate delle reti di supporto Ethernet o Fibra, per i backup dei dati o per avere una banda illimitata per le computazioni High Performance. Oggi nelle architetture dei data center, l Ethernet prevale come tecnologia per un progetto di rete unico. I termini come Unified Fabric,I/O consolidation e FCoE(Fibre Channel over Ethernet) sono usati per indicare l adozione di una rete Ethernet come unica rete nei data center. Questo certamente semplifica la fase di cablaggio. UCS è un sistema progettato secondo l approccio ToR; Tutti i server che compongono un UCS sono connessi da due interconnessioni Fabric che sono disposte al top di uno o di ogni rack, e comunicano usando l approccio Unified Fabric, cosi da minimizzare il cablaggio. Alberto Lotti N97/32 Pagina 25 di 100

2.1 L'ARCHITETTURA QFABRIC Il sistema Juniper Network QFabric è una soluzione che unisce alte prestazioni, bassi costi e una gestione facilitata dei dispositivi cloud utilizzando le tradizionali metodologie di elaborazione, memorizzazione e dispositivi di rete. La caratteristica fondamentale su cui si basa la tecnologia QFabric è quella di centralizzare tutte le funzionalità di un data center in un unico switch Ehternet, che può supportare fino a 6000 porte Ethernet. Un architettura Juniper Network Qfabric è composta da tre componenti: Qfabric Director Qfabric Interconnect Qfabric node Ognuno di questi componenti è fondamentale per il corretto funzionamento dell'architettura. Il Qfabric Director funziona come un Rounting engine (RE) Alberto Lotti N97/32 Pagina 26 di 100

attraverso uno switch modulare, il quale è responsabile della gestione generale del sistema Qfabric e si occupa anche di distribuire le tabelle di routing ai nodi Qfabric e alle interconnessioni Qfabric. Il Qfabric Interconnect è paragonabile ad una fabbrica, nel senso che agisce come uno switch e fornisce un collegamento semplice e veloce che interconnette tutti i nodi Qfabric in unica grande rete a maglia per permettere la connettività da qualsiasi porta ad ogni altra porta. Il Qfabric node è un nodo intelligente che può sia instradare che switchare i pacchetti che si scambiano due dispositivi connessi alla rete. Figura 9: Configurazione Fisica e Logica Alberto Lotti N97/32 Pagina 27 di 100

Figura 10: Esempio di come vengono utilizzati i componenti QFabric Funzionamento del Routing Engines nello Switch QFabric Il Routing Engine esegue task molto importanti per il funzionamento dell'intero sistema. E' importante capire il suo funzionamento e i servizi che offre per capire come viene gestito l'intero sistema Qfabric. Hardware Based Routing Engines Un tradizionale Juniper Networks Routing Engine è un'unità sostituibile sul campo hardware che gestisce i protocolli di routing, costruisce le tabelle di routing e switching, invia le informazioni di routing al motore Packet Forwarding Engine, e gestisce diversi processi software per il dispositivo (come interfaccia di controllo, il monitoraggio dello chassis, la gestione del sistema e l'accesso degli utenti). I dispositivi Node che fanno parte di gruppi di Node server dello switch QFabric che si collegano a server o dispositivi di Alberto Lotti N97/32 Pagina 28 di 100

archiviazione, implementano le funzioni del Routing Engine in locale utilizzando questo metodo tradizionale hardware. Software Based External Routing Engines Il sofware utilizzato dal Rounting Engine racchiude tutte le caratteristiche necessarie affinchè lo switch Qfabric possà gestire l'intero flusso di dati. Di seguito elenchiamo le principali: Figura 11: Tipi di Routing Engine esterni Fabric manager Routing Engine-Fornisce servizi a tutti i dispositivi dello switch QFabric, come l'inizializzazione del sistema, scoperta della topologia di rete, l'indirizzo IP interno e l'assegnazione ID, e la comunicazione interdevice. Il Fabric manager Routing Engine autentica i dispositivi di interconnessione e Node, e mantiene un database per i componenti del Alberto Lotti N97/32 Pagina 29 di 100