Resilienza dei carichi di lavoro con EMC VPLEX



Documenti analoghi
Implementazione in sistemi EMC VPLEX di Microsoft Hyper-V e SQL Server con supporto potenziato del clustering di failover

Migrazione dei dati di storage senza interruzioni: eventi pianificati con EMC VPLEX

FAMIGLIA EMC VPLEX. Continuous availability e data mobility all'interno e tra i data center

In estrema sintesi, NEMO VirtualFarm vuol dire:

Replica con TeraStation 3000/4000/5000/7000. Buffalo Technology

Online Help StruxureWare Data Center Expert

LA MIGRAZIONE IN SEMPLICI STEP. Il moving di una macchina Linux sul Cloud Server Seeweb

Una delle cose che si apprezza maggiormente del prodotto è proprio la facilità di gestione e la pulizia dell interfaccia.

Panoramica delle funzionalita

IL SERVIZIO DI POSTA ELETTRONICA

Introduzione alla Virtualizzazione

DW-SmartCluster (ver. 2.1) Architettura e funzionamento

Accordo sul livello dei servizi per server dedicati

Protezione dei sistemi virtuali in tre passaggi. Aziende che devono orientarsi nella scelta di una soluzione di backup per ambienti virtuali.

Riepilogo delle modifiche di PA-DSS dalla versione 2.0 alla 3.0

Sistemi avanzati di gestione dei Sistemi Informativi

D 3) PUNTEGGIO TECNICO DELL APPALTO SPECIFICO

Progetto Virtualizzazione

Coordinazione Distribuita

Grazie a Ipanema, Coopservice assicura le prestazioni delle applicazioni SAP & HR, aumentando la produttivita del 12%

Gestione della memoria centrale

Come funzione la cifratura dell endpoint

Guida Rapida di Syncronize Backup

Introduzione al Cloud Computing

Nokia C110/C111 scheda LAN senza filo Manuale di installazione

MANUALE DELLA QUALITÀ Pag. 1 di 6

Progetto Vserver- HighAvailability

DuBackup+ OnlineBackups BestPractices

SurfCop. Informazioni sul prodotto

VMware. Gestione dello shutdown con UPS MetaSystem

Guida all installazione degli Hard Disk SATA ed alla configurazione del RAID

LaCie Ethernet Disk mini Domande frequenti (FAQ)

SOLUZIONE Web.Orders online

Istruzioni di installazione di IBM SPSS Modeler Text Analytics (licenza per sito)

Le fattispecie di riuso

Laboratorio di reti Relazione N 5 Gruppo 9. Vettorato Mattia Mesin Alberto

Airone Gestione Rifiuti Funzioni di Esportazione e Importazione

CONTROLLO DEGLI ACCESSI INTELLIGENTE PER UN FLUSSO DI PERSONE SICURO E CONFORTEVOLE. KONE Access

Capire i benefici di una rete informatica nella propria attività. I componenti di una rete. I dispositivi utilizzati.

EMC SYMMETRIX VMAX 10K

Il glossario della Posta Elettronica Certificata (PEC) Diamo una definizione ai termini tecnici relativi al mondo della PEC.

INDIRIZZI IP ARCHITETTURA GENERALE DEGLI INDIRIZZI IP FORME DI INDIRIZZI IP CINQUE FORME DI INDIRIZZI IP

REGIONE BASILICATA DIPARTIMENTO PRESIDENZA DELLA GIUNTA UFFICIO SOCIETÀ DELL INFORMAZIONE

Attività federale di marketing

Domanda n.1 Schema di contratto non Risposta 1 Domanda n.2 Risposta 2 Domanda n.3 Risposta 3 Domanda n.4 Risposta 4

Creare una Rete Locale Lezione n. 1

Scheduling della CPU. Sistemi multiprocessori e real time Metodi di valutazione Esempi: Solaris 2 Windows 2000 Linux

COME SVILUPPARE UN EFFICACE PIANO DI INTERNET MARKETING

Manuale Amministratore Legalmail Enterprise. Manuale ad uso degli Amministratori del Servizio Legalmail Enterprise

STRUTTURE DEI SISTEMI DI CALCOLO

Manuale Utente Albo Pretorio GA

Utilizzo delle piattaforme di virtualizzazione VMware con EMC VPLEX

La Videosorveglianza e la Salvaguardia degli ambienti

Il Gruppo Arvedi sceglie tecnologie Microsoft per la virtualizzazione dei sistemi server

I MODULI Q.A.T. PANORAMICA. La soluzione modulare di gestione del Sistema Qualità Aziendale

I Thread. I Thread. I due processi dovrebbero lavorare sullo stesso testo

Riferimento rapido per l'installazione SUSE Linux Enterprise Server 11 SP1

Introduzione. Coordinazione Distribuita. Ordinamento degli eventi. Realizzazione di. Mutua Esclusione Distribuita (DME)

IT Cloud Service. Semplice - accessibile - sicuro - economico

Procedure di ripristino del sistema.

C Cloud computing Cloud storage. Prof. Maurizio Naldi

EW1051 Lettore di schede USB

Con il termine Sistema operativo si fa riferimento all insieme dei moduli software di un sistema di elaborazione dati dedicati alla sua gestione.

4.5 CONTROLLO DEI DOCUMENTI E DEI DATI

I see you. fill in the blanks. created by

IL SERVIZIO CLOUD BOX DELLA HALLEY CONSULTING s.p.a

Valutazione del sistema di storage EMC CLARiiON AX4

Soluzioni innovative per la semplificazione dell infrastruttura IT. Virtualizzazione con il sistema operativo IBM i, PowerVM e Power Systems

SISTEMI OPERATIVI DISTRIBUITI

Guida alla registrazione on-line di un DataLogger

Linux nel calcolo distribuito

SERVER E VIRTUALIZZAZIONE. Windows Server Guida alle edizioni

Cos'è una vlan. Da Wikipedia: Una LAN virtuale, comunemente

Appliance Cisco FirePOWER serie 8000

EM4586 Adattatore USB wireless Dual Band

SUPPORTO TECNICO AI PRODOTTI:

Reti di Calcolatori. Il software

MService La soluzione per ottimizzare le prestazioni dell impianto

Guida rapida per l utilizzo del servizio OwnCloud-MIUR (versione 1.6)

Modulo Antivirus per Petra 3.3. Guida Utente

Approccio stratificato

PROCEDURA DI CHIUSURA ANNO FISCALE 2006 CON E-SHOP

3. Introduzione all'internetworking

Premessa Le indicazioni seguenti sono parzialmente tratte da Wikipedia ( e da un tutorial di Pierlauro Sciarelli su comefare.

ƒ Gli standard e la gestione documentale

7.2 Controlli e prove

ROM Upgrade Utility (RUU) Prima dell aggiornamento fare attenzione se

Strategie e Operatività nei processi di backup e restore

Note di rilascio. Aggiornamento disponibile tramite Live Update a partire dal. Il supporto per Windows XP e Office 2003 è terminato

Protocollo Informatico (D.p.r. 445/2000)

Backup e ripristino Guida per l'utente

Procedura per la configurazione in rete di DMS.

Certificato di garanzia

Introduzione alla famiglia di soluzioni Windows Small Business Server

COMUNE DI VILLABATE. Corpo di Polizia Municipale Via Municipio, VILLABATE (PA) Tel Fax

SWITCH. 100 Mb/s (UTP cat. 5E) Mb/s SWITCH. (UTP cat. 5E) 100 Mb/s. (UTP cat.

Prot. n.8930 A 22 a Torino, 4 novembre 2014 IL DIRETTORE GENERALE

Sistemi RAID. Corso di Calcolatori Elettronici. Feragotto Elena

I SISTEMI DI GESTIONE DELLA SALUTE E SICUREZZA SUL LAVORO: OHSAS AV2/07/11 ARTEMIDE.

n. prog. QUESITO RISPOSTA In riferimento al Capitolato Tecnico, si richiedono le seguenti specifiche:

Transcript:

Resilienza dei carichi di lavoro con EMC VPLEX Best practice di pianificazione Riepilogo Questo white paper propone una breve introduzione a EMC VPLEX e descrive in che modo VPLEX contribuisce ad aumentare la resilienza dei carichi di lavoro del data center. Il documento indica inoltre le best practice per le implementazioni di high availability e descrive le modalità di gestione dei diversi scenari di guasto da parte di VPLEX. Maggio 2010

Copyright 2010 EMC Corporation. Tutti i diritti riservati. Le informazioni contenute nel presente documento sono accurate alla data di pubblicazione. Le informazioni sono soggette a modifica senza preavviso. LE INFORMAZIONI CONTENUTE NELLA PRESENTE DOCUMENTAZIONE VENGONO FORNITE COME SONO. EMC CORPORATION NON RICONOSCE ALCUNA GARANZIA DI NESSUN GENERE INERENTE LE INFORMAZIONI RIPORTATE NELLA PRESENTE PUBBLICAZIONE, TRA CUI GARANZIE IMPLICITE DI COMMERCIABILITÀ O IDONEITÀ AD UN DETERMINATO SCOPO. L uso, la copia e la distribuzione del software EMC descritto nella presente pubblicazione richiedono una licenza software valida. Per un elenco aggiornato dei nomi di prodotti di EMC, vedere i marchi di EMC Corporation sul sito web di italy.emc.com. Tutti gli altri marchi utilizzati in questo documento appartengono ai rispettivi proprietari. PN h7138.1 Best practice di pianificazione 2

Sommario In sintesi...4 Introduzione...4 Destinatari... 4 Panoramica della tecnologia VPLEX...4 Architettura di clustering di EMC VPLEX... 6 Virtualizzazione dei dispositivi di VPLEX... 7 Panoramica dell hardware VPLEX...7 Panoramica dell implementazione...9 Implementazione di VPLEX Local... 9 Quando utilizzare un implementazione di VPLEX Local... 10 Implementazione di VPLEX Metro in un data center... 10 Quando utilizzare un implementazione di VPLEX Metro in un data center... 11 Implementazione di VPLEX Metro tra data center... 11 Quando utilizzare un implementazione di VPLEX Metro tra data center... 12 Resilienza dei carichi di lavoro...12 Interruzioni del funzionamento degli storage array... 13 Best practice... 13 Interruzioni della SAN... 14 Best practice... 15 Guasti dei componenti di VPLEX... 16 Guasto delle porte Fibre Channel... 16 Guasto dei moduli di I/O... 17 Guasto dei director... 17 Guasto degli alimentatori del motore... 18 Guasto delle ventole del motore... 18 Guasto delle subnet IP all interno di un cluster... 18 Guasto degli switch Fibre Channel all interno di un cluster... 18 Guasto dei motori VPLEX... 18 Guasto degli alimentatori di standby... 18 Guasto dei collegamenti tra i cluster... 18 Guasto dei volumi dei metadati... 19 Errore DRL... 19 Guasto del management server... 19 Guasto dei gruppi di continuità... 20 Guasti dei cluster VPLEX... 20 Guasti degli host... 20 Interruzioni dei data center... 20 Conclusioni...21 Bibliografia...21 Best practice di pianificazione 3

In sintesi La famiglia EMC VPLEX è la soluzione di nuova generazione per la mobilità delle informazioni e l accesso all interno, su e tra data center. Si tratta della prima piattaforma al mondo che fornisce sia local federation che distributed federation. La local federation consente la collaborazione trasparente degli elementi fisici all interno di un sito. La distributed federation estende l accesso tra due siti a distanza. VPLEX è una soluzione per la federazione sia dello storage EMC che dello storage non EMC. La soluzione VPLEX integra l infrastruttura di storage virtuale EMC e fornisce un livello di supporto dello storage virtuale tra i computer host che eseguono le applicazioni del data center e gli storage array che forniscono lo storage fisico utilizzato da tali applicazioni. In questo white paper verrà esaminato il modo in cui utilizzare VPLEX per aggiungere aumentati livelli di resilienza alle applicazioni in esecuzione all interno e tra i data center. Questa capacità viene definita resilienza dei carichi di lavoro. Introduzione Il presente white paper dimostra come utilizzare la tecnologia VPLEX per incrementare la resilienza dei carichi di lavoro nel data center. Associando tecniche e procedure oggigiorno comunemente impiegate alle best practice di implementazione di VPLEX, la resilienza dei carichi di lavoro nel data center può essere migliorata per resistere al mancato funzionamento degli array e persino ad eventi ad alto impatto, come la manutenzione del data center o le interruzioni di alimentazione. Tali funzionalità vengono presentate con una breve panoramica della tecnologia VPLEX e dei casi di utilizzo applicabili. Vengono descritti l hardware VPLEX e le più comuni implementazioni della tecnologia. Il white paper prosegue con la descrizione del comportamento di VPLEX nei diversi scenari di guasto che possono verificarsi nell ambiente. Vengono quindi indicate le best practice per porre rimedio a ciascun tipo di guasto e per ottenere i massimi livelli di resilienza dei carichi di lavoro nel data center con VPLEX. Destinatari Il white paper si rivolge ad architetti e amministratori di storage che desiderano approfondire le possibilità di aumentare la resilienza dell infrastruttura di storage del data center fornite da VPLEX. Per la comprensione degli argomenti esposti sono necessarie conoscenze pregresse dei concetti di base relativi a storage array, reti SAN (Storage Area Network) e infrastruttura dei server. Panoramica della tecnologia VPLEX EMC VPLEX introduce una nuova architettura, che integra tutta l esperienza acquisita da EMC in oltre 20 anni di progettazione, implementazione e perfezionamento di soluzioni di cache intelligente e di protezione distribuita dei dati in ambienti di classe enterprise. Basata su motori di processori scalabili e ad high availability, la famiglia EMC VPLEX è progettata per poter scalare senza problemi da configurazioni di piccole dimensioni a configurazioni di medie e grandi dimensioni. VPLEX risiede tra i server e le risorse di storage eterogenee e utilizza una speciale architettura di clustering che consente ai server in più data center di avere accesso in lettura e scrittura a storage device in blocchi condivisi. Best practice di pianificazione 4

Tra le caratteristiche esclusive di questa nuova architettura vi sono: Hardware clustering scalabile che consente di cominciare con una piccola implementazione iniziale e ampliarla successivamente, con livelli di servizio prevedibili Caching avanzato dei dati che utilizza cache SDRAM su vasta scala per migliorare le prestazioni e ridurre la latenza di I/O e le contese tra array Coerenza della cache distribuita per condivisione, bilanciamento e failover automatici di I/O nel cluster Vista coerente di una o più LUN sui cluster VPLEX, sia a distanza minima all interno del data center sia su data center remoti in modalità sincrona, per nuovi modelli di high availability e riposizionamento dei carichi di lavoro. Figura 1. Capacità del sistema EMC VPLEX di eseguire la storage federation in ambienti eterogenei EMC AccessAnywhere, disponibile con VPLEX, è l innovativa tecnologia EMC che supporta la condivisione, l accesso e il riposizionamento a distanza di una singola copia di dati. EMC GeoSynchrony è il sistema operativo di VPLEX. La famiglia VPLEX comprende due prodotti: VPLEX Local e VPLEX Metro. VPLEX Local fornisce gestione semplificata e mobilità dei dati senza interruzioni tra array eterogenei. VPLEX Metro fornisce mobilità e accesso ai dati tra due cluster VPLEX dislocati in data center remoti, in modalità sincrona. Figura 2. Soluzioni della famiglia EMC VPLEX e caratteristiche delle rispettive architetture Grazie alla speciale architettura completamente scalabile, il caching avanzato dei dati e la coerenza della cache distribuita del sistema VPLEX consentono massima resilienza e condivisione automatica dei carichi di lavoro, bilanciamento e failover dei domini di storage, nonché accesso locale e remoto ai dati con livelli di servizio prevedibili. VPLEX Local supporta la local federation. VPLEX Metro fornisce funzionalità di distributed federation ed estende l accesso tra due siti remoti in modalità sincrona. VPLEX Metro utilizza AccessAnywhere per consentire la condivisione, l accesso e il riposizionamento a distanza di una singola copia di dati. Best practice di pianificazione 5

L utilizzo congiunto di un data center virtualizzato e di EMC VPLEX consente ai clienti di risolvere i problemi IT con metodi innovativi e introdurre al contempo nuovi modelli di elaborazione. In particolare, i clienti saranno in grado di: Spostare le applicazioni virtualizzate sui data center Eseguire il bilanciamento e il riposizionamento dei carichi di lavoro tra siti Aggregare data center e garantire i servizi IT in modalità 24 x forever Architettura di clustering di EMC VPLEX VPLEX utilizza una speciale architettura di clustering per consentire ai clienti di eliminare le barriere fisiche nei data center e permettere ai server in più data center di avere accesso in lettura/scrittura a storage device in blocchi condivisi. Una configurazione VPLEX Local è definita da uno, due o quattro motori VPLEX, integrati in un unico cluster, mediante le interconnessioni complete e ridondanti delle fabric tra i motori. Le interconnessioni del cluster consentono di aggiungere on-line motori VPLEX, fornendo scalabilità eccezionale sia per la configurazione VPLEX Local che per la connessione VPLEX Metro. La connettività tra i nodi cluster di VPLEX e sulle configurazioni di VPLEX Metro è totalmente ridondante e garantisce protezione dai single point of failure. Un cluster VPLEX è completamente scalabile: sia mediante l aggiunta di più motori, sia tramite la connessione di cluster in un sistema VPLEX Metro (due cluster VPLEX connessi alle distanze supportate). VPLEX consente lo spostamento e la condivisione trasparenti dei carichi di lavoro (inclusi gli host virtualizzati), il consolidamento dei data center e l ottimizzazione dell utilizzo delle risorse sui data center. Inoltre, fornisce mobilità dei dati senza interruzioni, gestione dello storage eterogeneo e availability migliorata delle applicazioni. VPLEX Metro supporta un massimo di due cluster, che possono risiedere all interno dello stesso data center, in due diversi siti, entro distanze sincrone (fino a un massimo di 100 chilometri circa). Figura 3. Local federation e distributed federation con EMC VPLEX Local e VPLEX Metro EMC VPLEX soddisfa le aspettative dei clienti in termini di availability dello storage high-end. L availability high-end è molto più di una semplice ridondanza, significa operazioni e aggiornamenti senza interruzioni e possibilità di essere sempre on-line. EMC VPLEX fornisce: AccessAnywhere, con connettività completa delle risorse sui cluster e le configurazioni di Metro-Plex Opzioni di migrazione e mobilità dei dati sugli storage array eterogenei Capacità di preservare funzionalità e livelli di servizio con la crescita del consolidamento Controllo semplificato per il provisioning in ambienti complessi Bilanciamento dinamico del carico dei dati tra storage array. Best practice di pianificazione 6

Virtualizzazione dei dispositivi di VPLEX Le funzionalità di virtualizzazione dei dispositivi di VPLEX consentono di richiedere gli storage device come volumi di storage all interno del sistema VPLEX, dove possono essere suddivisi o incapsulati come estensioni e utilizzati per formare dispositivi compositi, da presentare agli host come volumi virtuali. VPLEX supporta diverse opzioni di trasformazione dei dispositivi da virtuali a fisici, tra cui: Estensioni: un estensione è un dispositivo che costituisce un intervallo contiguo di pagine di un volume di storage. Un estensione può incapsulare completamente un volume di storage o può definire un area suddivisa di un volume di storage. Una pagina di un sistema VPLEX 4.0 consiste in 4 KB di storage. RAID 0: un dispositivo RAID 0 è un aggregato di due o più dispositivi su cui viene eseguito lo striping delle pagine logiche dello storage, allo scopo di aumentare le prestazioni di I/O, distribuendo i dati su più splindle. RAID-C: un dispositivo RAID-C è un aggregato di due o più dispositivi che sono logicamente concatenati per formare uno storage device di dimensioni maggiori. RAID 1: un dispositivo RAID 1 utilizza due o più dispositivi locali di dimensioni similari per creare un mirror. Ognuno di questi dispositivi fornisce una copia completa dei dati e le operazioni di scrittura eseguite sul dispositivo RAID 1 vengono applicate su ciascuna istanza del mirror. DR-1: un dispositivo DR-1 è un dispositivo RAID 1 distribuito; è come un dispositivo RAID 1, ma le istanze del dispositivo di cui viene eseguito il mirroring sono fornite da cluster differenti di un sistema VPLEX. VPLEX 4.0 fornisce coerenza della cache distribuita alle funzionalità di virtualizzazione dei dispositivi. La cache di VPLEX viene gestita a livello globale e coerente tra i diversi director del sistema. Insieme, le cache dei director funzionano in modo da dare l illusione che ciascun volume virtuale sia un disco singolo, nonostante il fatto che i dati di questo volume possano essere collocati su molti dispositivi differenti, oltre che distribuiti tra diversi data center, da cui possono essere accessibili. Panoramica dell hardware VPLEX Come descritto nella precedente sezione, ogni sistema VPLEX 4.0 è composto da uno o due cluster VPLEX, ciascuno formato da uno, due o quattro motori. Un motore VPLEX è uno chassis che contiene due director, alimentatori ridondanti, ventole, moduli di I/O e moduli di gestione. I director sono i componenti essenziali del sistema e sono responsabili dell elaborazione delle richieste di I/O provenienti dagli host, dell invio e della manutenzione dei dati nella cache distribuita, della conversione degli I/O dal livello virtuale a quello fisico e dell interazione con gli storage array ad uso degli I/O. La Figura 4 illustra un sistema VPLEX Metro costituito da due cluster a quattro motori. Best practice di pianificazione 7

Figura 4. Un sistema VPLEX Metro con due cluster di grandi dimensioni La Figura 5 è l immagine di un motore VPLEX. Nella fotografia vengono illustrati i 12 moduli di I/O supportati dal motore, sei per ogni director. Ogni director è dotato di due moduli di I/O Fibre Channel a quattro porte da 8 Gb/s utilizzati per la connettività della SAN front-end (host) e di due moduli di I/O Fibre Channel a quattro porte da 8 Gb/s utilizzati per connettività della SAN back-end (storage array). Ciascun modulo ha una larghezza di banda PCI effettiva di 10 Gb/s alle CPU del corrispondente director. Un quinto modulo di I/O fornisce due porte per la connettività Fibre Channel da 8 Gb/s per la comunicazione entro i cluster e due porte per la connettività Fibre Channel da 8 Gb/s per la comunicazione tra i cluster. Il sesto modulo di I/O contiene quattro porte Ethernet da 1Gb/s e attualmente non viene utilizzato. Figura 5. Un motore VPLEX e i suoi componenti Best practice di pianificazione 8

Il motore alloggia due alimentatori ridondanti, ciascuno in grado di fornire alimentazione completa allo chassis. I moduli di gestione ridondanti forniscono connettività IP ai director dal management server che viene fornito con ognuno dei cluster. Due subnet IP private forniscono connettività IP ridondante tra i director di un cluster e il management server del cluster. Quattro ventole ridondanti provvedono al raffreddamento dello chassis del motore e supportano un modello di configurazione 3+1 che consente un raffreddamento adeguato anche in caso di guasto di una delle ventole. Ogni motore viene supportato da un unità SPS ridondante (Standby Power Supply), che fornisce l alimentazione sufficiente a superare interruzioni di corrente transitorie della durata massima di cinque minuti. I cluster contenenti uno o più motori sono dotati di una coppia di switch Fibre Channel che fornisce la connettività Fibre Channel ridondante necessaria per il supporto delle comunicazioni all interno dei cluster tra i director. Ogni switch Fibre Channel viene supportato da un gruppo di continuità dedicato, che consente il funzionamento anche in caso di interruzioni di alimentazioni momentanee. Panoramica dell implementazione VPLEX supporta più modelli differenti di implementazione, per soddisfare le più diverse esigenze. Nelle sezioni seguenti viene fornita una descrizione dei vari modelli e dei casi di utilizzo. Implementazione di VPLEX Local La Figura 6 illustra una tipica implementazione di un sistema VPLEX Local. I sistemi VPLEX Local vengono offerti nelle configurazioni piccola, media e grande, che comprendono uno, due o quattro motori rispettivamente, e supportano sistemi con due, quattro o otto director. Best practice di pianificazione 9

Figura 6. Esempio di implementazione di una piccola configurazione VPLEX Local Quando utilizzare un implementazione di VPLEX Local VPLEX Local è la scelta più adatta se si desidera disporre di funzionalità di storage virtuale per lo spostamento dei carichi di lavoro, la resilienza dei carichi di lavoro e la gestione dello storage semplificata all interno di un unico data center, e se la scalabilità offerta da VPLEX Local è sufficiente per le necessità del data center in questione. In caso sia necessaria una maggiore scalabilità, è opportuno considerare l implementazione di un sistema VPLEX Metro (discussa di seguito) o l implementazione di più istanze di VPLEX Local. Implementazione di VPLEX Metro in un data center La Figura 7 illustra una tipica implementazione di un sistema VPLEX Metro in un unico data center. I sistemi VPLEX Metro contengono due cluster, ognuno dei quali con uno, due o quattro motori. I cluster in un implementazione di VPLEX Metro non devono necessariamente essere dotati dello stesso numero di motori. Ad esempio, un sistema VPLEX Metro 2 x 4 viene supportato con un cluster a due motori e l altro cluster a quattro motori. Best practice di pianificazione 10

Figura 7. Esempio dell implementazione di un sistema VPLEX Metro in un data center Quando utilizzare un implementazione di VPLEX Metro in un data center L implementazione di un sistema VPLEX Metro in un data center è adatta se si desidera disporre di funzionalità di storage virtuale per lo spostamento dei carichi di lavoro, la resilienza dei carichi di lavoro e la gestione dello storage semplificata all interno di un unico data center ed è necessaria una scalabilità maggiore rispetto a quella offerta da una soluzione VPLEX Local oppure se si preferisce una maggiore resilienza. VPLEX Metro fornisce vantaggi aggiuntivi in termini di resilienza rispetto a VPLEX Local, di seguito descritti. I due cluster di un sistema VPLEX Metro possono essere collocati a una distanza massima di 100 km. Ciò consente eccellente flessibilità di implementazione in un data center e permette anche di implementare i due cluster alle estremità separate di una stanza riservata alle macchine o su piani diversi di un edificio, per un migliore isolamento dei guasti tra i cluster. I cluster possono ad esempio essere posizionati in due diverse aree antincendio e questo può significare poter affrontare un domani un guasto localizzato come un incendio circoscritto anziché un interruzione totale del sistema. Implementazione di VPLEX Metro tra data center La Figura 8 illustra l implementazione di un sistema VPLEX Metro tra due data center. Questo tipo di implementazione è simile a quella illustrata nella sezione Implementazione di VPLEX Metro in un data center con l unica differenza che in questo ultimo caso i cluster si trovano in data center separati. Ciò significa la connessione di host separati a ciascun cluster. Le applicazioni in cluster possono comprendere ad esempio un gruppo di application server implementato nel data center A e un altro gruppo implementato Best practice di pianificazione 11

nel data center B per un aumentata resilienza e per vantaggi di trasferimento dei carichi di lavoro. Come descritto nella sezione precedente, è importante comprendere che il guasto di un sito o di un cluster completo del cluster principale per un volume distribuito richiede una ripresa manuale degli I/O sul sito secondario. Figura 8. Esempio di implementazione di un sistema VPLEX Metro tra data center Quando utilizzare un implementazione di VPLEX Metro tra data center L implementazione di un sistema VPLEX Metro tra due data center è adatta se si vuole contare sui vantaggi di una maggiore resilienza dei carichi di lavoro, garantita dalla collocazione dei dati di un applicazione in entrambi i data center. Questo tipo di implementazione è consigliato se: È necessario garantire alle applicazioni di un data center l accesso ai dati presenti nel secondo data center. Si desidera che una delle applicazioni possa ridistribuire i carichi di lavoro tra i due data center. In uno dei data center lo spazio, l alimentazione o il raffreddamento non sono più sufficienti. Resilienza dei carichi di lavoro Nelle sezioni che seguono verranno esaminati i differenti tipi di guasto che possono verificarsi in un data center e l utilizzo di VPLEX per fornire resilienza aggiuntiva alle applicazioni, in modo che i relativi carichi di lavoro non risentano delle condizioni di guasto. Verranno considerate le seguenti classi di guasto e di eventi che richiedono assistenza: Interruzioni del funzionamento degli storage array (pianificate e non pianificate) Best practice di pianificazione 12

Interruzioni della SAN Guasti dei componenti di VPLEX Guasti dei cluster VPLEX Guasti degli host Interruzioni dei data center Interruzioni del funzionamento degli storage array Per ovviare alle interruzioni del funzionamento degli storage array sia pianificate che non pianificate, VPLEX supporta la funzionalità di mirroring dei dati di un volume virtuale tra due o più volumi di storage 1 utilizzando un dispositivo RAID 1. La Figura 9 illustra un volume virtuale di cui è stato eseguito il mirroring tra due array. In caso di interruzione di uno degli array, pianificata o non, il sistema VPLEX sarà in grado di continuare con l elaborazione degli I/O sull istanza del mirror funzionante. Dopo il ripristino del volume di storage danneggiato, i dati del volume che ha continuato a funzionare vengono risicronizzati sull istanza ripristinata. Best practice Si consiglia di eseguire il mirroring dei dati critici su due o più volumi di storage forniti da due array separati. Per prestazioni ottimali, è necessario che i volumi di storage siano configurati in modo identico e che siano forniti dallo stesso tipo di array. 1 Vengono supportate fino a otto istanze per volume di mirroring. Best practice di pianificazione 13

Figura 9. Esempio di impiego del mirroring di RAID 1 per la protezione dalle interruzioni del funzionamento degli array Interruzioni della SAN Quando una coppia di fabric Fibre Channel ridondanti viene utilizzata con VPLEX, i director VPLEX devono essere connessi a entrambe le fabric, sia per la connettività front-end (lato host) che per la connettività back-end (lato storage array). Questo tipo di implementazione, unitamente all isolamento delle fabric, consente al sistema VPLEX di funzionare anche in caso di guasti che mettono fuori uso un intera fabric, oltre che di fornire accesso continuo ai dati nonostante il guasto. Gli host devono inoltre essere connessi a entrambe le fabric e utilizzare un software a percorsi multipli, per garantire l accesso continuo ai dati anche in caso dei guasti sopra indicati. La Figura 10 illustra un implementazione dual fabric secondo le best practice consigliate. Best practice di pianificazione 14

Figura 10. Uso consigliato di un implementazione dual fabric Best practice Si consiglia di connettere i moduli di I/O a fabric ridondanti. Ad esempio, in un implementazione con fabric A e B, si consiglia di eseguire la connessione delle porte di un director come illustrato nella Figura 11. Best practice di pianificazione 15

Figura 11. Assegnazione consigliata delle fabric per le porte FE e BE Guasti dei componenti di VPLEX Tutti i componenti critici per l elaborazione di un sistema VPLEX utilizzano un minimo di ridondanza pair-wise per consentire il massimo accesso ai dati. In questa sezione viene descritto come gestire i guasti dei componenti di VPLEX e le best practice da utilizzare per consentire alle applicazioni di funzionare anche in caso di guasto. Tutti i guasti dei componenti che si verificano all interno di un sistema VPLEX vengono segnalati mediante eventi inoltrati al Centro assistenza EMC per garantire una risposta tempestiva e la riparazione dei guasti. Guasto delle porte Fibre Channel Tutte le comunicazioni di VPLEX si verificano su percorsi ridondanti che consentono il proseguimento delle comunicazioni anche in presenza di guasti delle porte. Questa ridondanza consente al software a percorsi multipli sui server host di ritrasmettere e ridirezionare i processi di I/O sui percorsi non funzionanti per i guasti delle porte o per altri eventi verificatisi nella SAN e che hanno causato la perdita dei percorsi. VPLEX utilizza una logica a percorsi multipli per mantenere la ridondanza dei percorsi da ciascun director allo storage back-end. Ciò consente a VPLEX di funzionare nonostante i guasti delle porte sulle porte VPLEX back-end, oltre che sulle fabric back-end e sulle porte degli array che collegano lo storage fisico a VPLEX. I ricetrasmettitori SFP (Small Form-factor Pluggable) che vengono utilizzati per la connettività a VPLEX sono unità FRU (Field Replaceable Unit) gestibili all interno degli accordi di assistenza. Best practice Verificare che esista un percorso da ciascun host ad almeno una porta front-end sul director A e ad almeno una porta front-end sul director B. Quando il sistema VPLEX è dotato di uno o più motori, accertare che l host abbia almeno un percorso sul lato A in uno dei motori e almeno uno sul lato B in un motore separato. Per la massima availability, ogni host può avere un percorso ad almeno una porta front-end su ciascun director. Utilizzare il software a percorsi multipli sui server host per poter contare su risposte tempestive e I/O continui in caso di guasti dei percorsi. Best practice di pianificazione 16

Verificare che per ogni host ci sia un percorso a ciascun volume virtuale, mediante ognuna delle fabric. Controllare inoltre che il mapping e il masking delle LUN per ogni volume di storage presentato da uno storage array a VPLEX inoltri i volumi ad almeno due porte dall array, su almeno due fabric differenti, e che connetta ad almeno due diverse porte servite da due diversi moduli di I/O back-end di ciascun director, all interno di un cluster VPLEX. Verificare che lo zoning della fabric fornisca accesso ridondante degli host alle porte front-end di VPLEX e che consenta a VPLEX l accesso ridondante alle porte degli array. Guasto dei moduli di I/O I moduli di I/O all interno di VPLEX hanno un ruolo dedicato. Ogni director VPLEX è dotato di due moduli di I/O front-end, due moduli di I/O back-end e un modulo COM I/O utilizzato per la connettività all interno e tra i cluster. Ogni modulo di I/O è un unità FRU gestibile all interno degli accordi di assistenza. Nelle sezioni che seguono viene descritto il comportamento del sistema e le best practice per massimizzare l availability in presenza di guasti. Modulo di I/O FE In caso di guasto di un modulo di I/O FE, tutti i percorsi connessi a tale modulo di I/O verranno interrotti e risulteranno non funzionanti. Le best practice elencate a pagina 16 devono essere rispettate per garantire agli host percorsi ridondanti ai dati. Durante la rimozione e la sostituzione di un modulo di I/O, viene eseguito il reset del director interessato dal guasto. Modulo di I/O BE In caso di guasto di un modulo di I/O BE, tutti i percorsi connessi a tale modulo di I/O verranno interrotti e risulteranno non funzionanti. Le best practice elencate a pagina 16 devono essere rispettate per garantire ad ogni director un percorso ridondante a ciascun volume di storage tramite un modulo di I/O separato. Durante la rimozione e la sostituzione di un modulo di I/O, viene eseguito il reset del director interessato dal guasto. Modulo di I/O COM In caso di guasto di un modulo di I/O COM, avviene il reset del director e l interruzione di tutti i servizi da esso forniti. Il rispetto delle best practice elencate a pagina 16 garantisce ad ogni host l accesso ridondante allo storage virtuale tramite più director, in modo che il reset di un singolo director non provochi la perdita dell accesso allo storage da parte dell host. Durante la rimozione e la sostituzione di un modulo di I/O, viene eseguito il reset del director interessato dal guasto. Guasto dei director Il guasto di un director provoca la perdita di tutti i servizi forniti da tale director. Ogni motore VPLEX è dotato di una coppia di director ai fini della ridondanza. I cluster VPLEX che contengono due o più motori traggono vantaggio dall ulteriore ridondanza fornita dai director aggiuntivi. Ogni director all interno di un cluster è in grado di presentare lo stesso storage. Le best practice descritte a pagina 16 consentono agli host di continuare a funzionare nonostante i guasti dei director grazie ai percorsi ridondanti allo storage virtuale, disponibili tramite le porte fornite dai diversi director. L associazione di software a percorsi multipli sugli host e di percorsi ridondanti mediante diversi director del sistema VPLEX consente all host di ovviare alla perdita di un director. In un sistema a più motori, un host può mantenere l accesso ai dati anche nella remota eventualità in cui si verificassero guasti di più di un director, grazie ai percorsi allo storage virtuali forniti da ciascun director del sistema. Ogni director è un unità FRU gestibile all interno degli accordi di assistenza. Best practice di pianificazione 17

Guasto degli alimentatori del motore Gli alimentatori del motore VPLEX sono completamente ridondanti e in caso di guasto di uno di essi non si verifica alcuna perdita dei servizi o delle funzionalità. Ogni alimentatore è un unità FRU gestibile all interno degli accordi di assistenza e può essere rimosso e sostituito senza alcuna interruzione del funzionamento del sistema. Guasto delle ventole del motore Le unità a ventola del motore VPLEX sono totalmente ridondanti e in caso di mancato funzionamento di una singola unità non si verifica alcuna interruzione dei servizi. Ogni motore è dotato di quattro unità a ventola. In caso di guasto di una delle ventole, le tre rimanenti unità continueranno a fornire al sistema un livello di raffreddamento sufficiente. In caso di gusto di due ventole, il motore si spegnerà automaticamente per prevenire i danni del surriscaldamento. Ogni ventola è un unità FRU gestibile all interno degli accordi di assistenza e può essere rimossa e sostituita senza alcuna interruzione del funzionamento del sistema. Guasto delle subnet IP all interno di un cluster Ogni cluster VPLEX è dotato di una coppia di subnet IP private locali che connettono i director al management server. Tali subnet vengono utilizzate per la gestione del traffico, oltre che per la protezione dal partizionamento all interno dei cluster. La perdita dei collegamenti in una delle subnet può impedire le comunicazioni tra alcuni dei membri di tale subnet; grazie però alla presenza di subnet ridondanti, ciò non comporterà né interruzione dei servizi né problemi di gestibilità. Guasto degli switch Fibre Channel all interno di un cluster Ogni cluster VPLEX con due o più motori utilizza una coppia di switch Fibre Channel dedicati per le comunicazioni tra director all interno del cluster. Vengono create due fabric Fibre Channel ridondanti per ogni switch destinato a una specifica fabric. La perdita di un singolo switch Fibre Channel non comporta alcuna interruzione delle operazioni di elaborazione o dei servizi. Guasto dei motori VPLEX Per quanto riguarda i cluster VPLEX che contengono due o più motori, nell improbabile caso di guasto a un motore si verificherà la perdita dei servizi forniti dai director all interno di quello specifico motore, ma i volumi virtuali che dipendono dai director dei motori che continuano a funzionare rimarranno disponibili. In Best practice, a pagina 16, viene descritta la best practice per la disposizione di percorsi ridondanti a un volume virtuale sui director di motori differenti all interno di cluster VPLEX a più motori. Guasto degli alimentatori di standby Ogni motore VPLEX è supportato da una coppia di alimentatori di standby o SPS (Standby Power Supply), che forniscono alimentazione di emergenza per un periodo di cinque minuti, consentendo il funzionamento del sistema in caso di interruzioni temporanee di corrente. Un SPS è in grado di fornire al motore a cui è collegato l alimentazione necessaria. VPLEX fornisce una coppia di alimentatori SPS per l high availability. Ogni SPS è un unità FRU e può essere sostituita senza alcuna interruzione dei servizi forniti dal sistema. Il tempo di ricarica di un alimentatore di standby è di massimo 5 ore e mezza e le batterie degli SPS sono in grado di fare fronte a due interruzioni di alimentazione di cinque minuti, una successiva all altra. Guasto dei collegamenti tra i cluster Ogni director in un sistema VPLEX è dotato di due collegamenti dedicati alla comunicazione tra cluster. Ciascun collegamento deve essere configurato (ad esempio mediante zoning) per fornire percorsi a ognuno Best practice di pianificazione 18

dei director nel cluster remoto. In questo modo, la connettività completa tra director rimane disponibile anche in caso di guasto di un singolo collegamento. Se il director perde entrambi i collegamenti, tutti i processi di I/O tra i due cluster verranno sospesi per preservare le semantiche dell ordine di scrittura originario e per consentire al sito remoto di conservare un immagine ripristinabile. In caso si verifichi un evento del genere, i mirror remoti vengono frazionati e le regole configurate dall utente, definite regole di scollegamento, vengono applicate per stabilire quale cluster VPLEX può consentire il proseguimento dei processi di I/O per un determinato mirror remoto. Le regole possono essere configurate in base al dispositivo, in modo che rimangano disponibili alcuni volumi su un cluster e altri volumi su un diverso cluster. Una volta posto rimedio al guasto dei collegamenti, è possibile ripristinare i processi di I/O e avviare le attività di risincronizzazione per ripristinare i mirror remoti. Tali operazioni verranno eseguite automaticamente, ma è anche possibile configurare i volumi in modo che richiedano il ripristino manuale dei processi di I/O in caso sia necessario il coordinamento con le azioni dei server. I processi di I/O ai dispositivi verranno eseguiti immediatamente, senza bisogno di attendere il completamento delle attività di risincronizzazione. Guasto dei volumi dei metadati VPLEX mantiene il proprio stato di configurazione, indicato anche con il nome di metadati, sui volumi di storage forniti dagli storage array sulla rete SAN. Ogni cluster VPLEX conserva i propri metadati, che descrivono le informazioni di configurazione locale per lo specifico cluster, oltre ad eventuali informazioni di configurazione distribuita condivise tra cluster. Si consiglia vivamente di configurare i volumi dei metadati per ciascun cluster con volumi di storage back-end multipli forniti da più storage array dello stesso tipo. Le funzionalità di protezione dei dati garantite dagli storage array, come RAID 1 e RAID 5, devono essere impiegate per assicurare l integrità dei metadati del sistema. Si raccomanda inoltre di eseguire copie di backup dei metadati ogni volta che viene modificata la configurazione del sistema. VPLEX utilizza i metadati persistenti all avvio completo del sistema e carica le informazioni di configurazione su ciascun director. Quando viene modificata la configurazione del sistema, le modifiche vengono scritte sul volume dei metadati. In caso di interruzione dell accesso al volume dei metadati, i director VPLEX continuano a fornire i servizi di virtualizzazione utilizzando la copia in memoria delle informazioni di configurazione. Se il sistema di storage che supporta il dispositivo dei metadati rimane indisponibile, sarà necessario configurare un nuovo dispositivo dei metadati. Una volta assegnato e configurato un nuovo dispositivo, la copia in memoria del dispositivo dei metadati conservata dal cluster verrà registrata nel nuovo dispositivo dei metadati. La possibilità di apportare modifiche alla configurazione viene temporaneamente bloccata quando non è disponibile l accesso al dispositivo dei metadati persistenti. Errore DRL VPLEX Metro utilizza un registro DRL (Dirty Region Log) per registrare informazioni che indicano quali aree di un mirror frazionato distribuito sono state aggiornate durante lo scollegamento di un istanza del mirror. Queste informazioni vengono conservate per ogni istanza del mirror scollegato. Se il volume in questione diventa inaccessibile, i director registreranno l intera istanza come obsoleta e richiederanno una risincronizzazione completa di questa stessa istanza del volume, dopo che è stata ricollegata al mirror. Guasto del management server Ogni cluster VPLEX è dotato di un management server dedicato che fornisce accesso ai director per attività di gestione e supporta la connettività di gestione per l accesso remoto al cluster peer in un ambiente VPLEX Metro. Poiché l elaborazione degli I/O dei director VPLEX non dipende dai management server, la perdita di un management server non causerà alcuna interruzione dell elaborazione di I/O e dei servizi di virtualizzazione forniti da VPLEX. Best practice di pianificazione 19

Guasto dei gruppi di continuità Nei cluster VPLEX che contengono due o più motori, una coppia di switch Fibre Channel supporta le comunicazioni all interno dei cluster tra i director dei motori. Ogni switch è dotato di un gruppo di continuità dedicato che fornisce alimentazione di emergenza in caso di interruzioni temporanee di corrente. I gruppi di continuità consentono agli switch Fibre Channel di continuare a funzionare per un massimo di cinque minuti dopo l interruzione dell alimentazione. Il gruppo di continuità collocato più in basso nel rack fornisce alimentazione di emergenza anche al management server. Guasti dei cluster VPLEX VPLEX Metro supporta due forme di dispositivi distribuiti: volumi virtuali metro-distribuiti e volumi virtuali remoti. I volumi virtuali metro-distribuiti forniscono copie sincronizzate (mirror) dei dati dei volumi in ciascun cluster. Il volume di cui è stato eseguito il mirroring appare e si comporta come un singolo volume; funziona in modo simile a un volume virtuale che utilizza un dispositivo RAID 1, ma con il valore aggiunto fornito dalla capacità per ogni cluster di conservare una copia dei dati. I volumi virtuali remoti forniscono l accesso al volume virtuale i cui dati risiedono in un cluster. I volumi virtuali remoti, come i volumi virtuali metro-distribuiti, sono in grado di sfruttare il vantaggio della cache coerente distribuita di VPLEX e dei relativi algoritmi di prefetching per offrire migliori prestazioni rispetto a una soluzione di estensione SAN. Per ogni volume virtuale metro-distribuito, una regola di scollegamento identifica quale cluster in un sistema VPLEX Metro deve scollegare l istanza del mirror (rimuovendola dal servizio) in caso di perdita delle comunicazioni tra i due cluster. Le regole definiscono in modo efficiente un sito bias (o migliore) nell eventualità di interruzione delle comunicazioni tra un cluster e l altro. L arresto delle comunicazioni tra i cluster può essere causato da due condizioni: il guasto dei collegamenti tra cluster, di cui si è discusso in Guasto dei collegamenti tra i cluster e il guasto del cluster. In questa sezione viene descritto il secondo tipo di guasto. Se si verifica un guasto del cluster, ogni volume virtuale metro-distribuito con una regola di scollegamento che ha identificato il sito restante come sito operante continuerà a ricevere I/O nell istanza funzionante del dispositivo. Per i volumi le cui regole di scollegamento hanno determinato lo scollegamento del sito in caso di perdita delle comunicazioni i processi di I/O verranno sospesi. Poiché non è possibile distinguere un guasto dei cluster da un guasto dei collegamenti, questo comportamento preserverà l integrità dei dati sui dispositivi distribuiti in questione. Esistono due scenari di guasto dei volumi virtuali remoti. Nel primo caso, se si verifica un guasto del cluster che fornisce i supporti fisici al volume virtuale, il volume virtuale remoto sarà completamente inaccessibile. Nel secondo scenario, se si verifica un guasto del cluster remoto (il cluster senza supporti fisici per questo volume), l accesso al volume virtuale continuerà ad essere disponibile dal cluster di hosting (il cluster con i dati fisici) ma non dal cluster remoto. Guasti degli host Anche se non si tratta di una specifica funzionalità fornita da VPLEX, il clustering basato su host è una tecnica importante per massimizzare la resilienza dei carichi di lavoro. Con il clustering basato su host un applicazione può continuare a fornire servizi anche in caso di guasti degli host, utilizzando un modello di elaborazione attivo/attivo o attivo/passivo. Se si associa il clustering basato su host alle funzionalità di VPLEX descritte, si potrà contare su un infrastruttura in grado di fornire un notevole livello di high availability. Interruzioni dei data center Un sistema VPLEX Metro distribuito tra due data center può essere utilizzato per la protezione contro la perdita dei dati in caso di interruzioni del data center, eseguendo il mirroring dei dati tra i due data center. Questo tipo di implementazione consente di migliorare ulteriormente l accesso ai dati nell eventualità di in interruzione del data center che si verifica come descritto in Guasti dei cluster VPLEX, vale a dire se l interruzione di un data center causa la perdita di uno dei cluster VPLEX in un sistema VPLEX Metro. L accesso ai dati rimarrà disponibile per i volumi virtuali metro-distribuiti il cui cluster operante si trova Best practice di pianificazione 20

nel data center che continua a funzionare. Per i volumi il cui cluster operante si trova nel data center che ha cessato di funzionare, l accesso ai dati può essere ripristinato nell altro cluster, utilizzando un comando manuale per riprendere i processi di I/O sospesi. In associazione alla logica di failover per i cluster host, ciò consente all infrastruttura di ripristinare le operazioni di servizio velocemente, anche in caso di un interruzione del data center non pianificata. Alcune interruzioni del data center sono causate dall interruzione dell alimentazione nel data center stesso. VPLEX utilizza alimentatori di standby e gruppi di continuità per fare fronte a mancanze temporanee di corrente della durata massima di cinque minuti. Ovviamente deve essere approntata un infrastruttura di supporto simile anche per host, apparecchiature di rete e storage array, in modo che le interruzioni temporanee di alimentazione possano essere tollerate dall intera soluzione. In caso di interruzioni di corrente superiori a cinque minuti, VPLEX interromperà i servizi di virtualizzazione. Le proprietà di scrittura write-through sulla cache di VPLEX garantiscono la scrittura dei dati sugli storage array back-end prima del riconoscimento dei dati sull host. Conclusioni VPLEX fornisce ampia ridondanza interna sia dell hardware che del software, che non solo garantisce l high availability dei servizi VPLEX, ma migliora anche la resilienza dei carichi di lavoro per quanto riguarda l infrastruttura circostante. Grazie all associazione delle best practice relative a clustering basato su host, percorsi multipli, ridondanza delle fabric, protezione dei supporti di storage, e infrastruttura con alimentazione di standby, il risultato finale fornirà una solida base per lo storage virtuale e costituirà una soluzione affidabile per l availability dello storage. Bibliografia Per ulteriori informazioni sull infrastruttura di storage virtuale e sulle funzionalità di VPLEX 4.0, consultare i white paper elencati di seguito. Note tecniche alle best practice per la pianificazione e l implementazione di EMC VPLEX Utilizzo delle piattaforme di virtualizzazione VMware con EMC VPLEX Best practice di pianificazione Migrazione dei dati di storage senza interruzioni: eventi pianificati con EMC VPLEX Best practice di pianificazione vmotion over Distance for Microsoft, Oracle, and SAP Enabled by VCE Vblock1, EMC Symmetrix VMAX, EMC CLARiiON, and EMC VPLEX Metro An Architectural Overview Implementazione in sistemi EMC VPLEX di Microsoft Hyper-V e SQL Server con supporto potenziato del clustering di failover Tecnologia applicata Best practice di pianificazione 21