Infrastruttura fisica del datacenter: ottimizzare il valore aziendale



Documenti analoghi
Capitolo 4 - Teoria della manutenzione: la gestione del personale

MService La soluzione per ottimizzare le prestazioni dell impianto

PROJECT MANAGEMENT SERVIZI DI PROJECT MANAGEMENT DI ELEVATA PROFESSIONALITÀ

Le 5 ragioni principali

MANUALE DELLA QUALITÀ Pag. 1 di 6

Le fattispecie di riuso

della manutenzione, includa i requisiti relativi ai sottosistemi strutturali all interno del loro contesto operativo.

Quel che ogni azienda deve sapere sul finanziamento*

Manuale della qualità. Procedure. Istruzioni operative

leaders in engineering excellence

Project Cycle Management La programmazione della fase di progettazione esecutiva. La condivisione dell idea progettuale.

SOLUZIONE Web.Orders online

IL PROCESSO DI BUDGETING. Dott. Claudio Orsini Studio Cauli, Marmocchi, Orsini & Associati Bologna

03. Il Modello Gestionale per Processi

Quando si trasferisce un modello 3D da un'applicazione CAD a un'altra, si possono perdere ore e addirittura giorni nel tentativo di ottenere una

Nessuno sarebbe felice di pagare in anticipo 2000 euro per tutti i caffè che berrà in un anno. Lo stesso vale per il software aziendale, almeno

divisione INFORMATICA

IL MARKETING E QUELLA FUNZIONE D IMPRESA CHE:

IL BUDGET 04 LE SPESE DI REPARTO & GENERALI

Le effettive esigenze della Direzione del Personale nella gestione delle risorse umane in azienda. Andamento dal 2005 ad oggi

EasyMACHINERY ERPGestionaleCRM. partner

Il modello di ottimizzazione SAM

La tecnologia cloud computing a supporto della gestione delle risorse umane

IL RISPARMIO ENERGETICO E GLI AZIONAMENTI A VELOCITA VARIABILE L utilizzo dell inverter negli impianti frigoriferi.

IL FONDO OGGI E DOMANI

1- OBIETTIVI DEL DOCUMENTO 2- INTRODUZIONE

Attività federale di marketing

Efficienza Produttiva. Il Piano d azione dell efficienza

Indice di rischio globale

GUIDA DI APPROFONDIMENTO IL CONTROLLO DI GESTIONE: IL SISTEMA DI REPORTING

OBIETTIVI DEL DOCUMENTO INTRODUZIONE

Sistemi Informativi e Sistemi ERP

Application note. CalBatt NomoStor per i sistemi di accumulo di energia

ENERGY EFFICIENCY ENERGY SERVICE COMPANY ENERGY EFFICIENCY ENERGY SERVICE COMPANY ENERGY + EFFICIENCY

IL CLOUD COMPUTING DALLE PMI ALLE ENTERPRISE. Salvatore Giannetto Presidente Salvix S.r.l

Piano di gestione della qualità

Ogni azienda ha la necessità di conoscere il proprio sistema dei costi sia per controllare la situazione esistente che per verificare il

La manutenzione come elemento di garanzia della sicurezza di macchine e impianti

ISO 9001:2015 e ISO 14001:2015

Management Game 2011

UN APP FLESSIBILE E INTUITIVA PER GESTIRE I TUOI AFFARI IN TUTTA COMODITÀ

COME SVILUPPARE UN EFFICACE PIANO DI INTERNET MARKETING

Prendi il vantaggio di un Servizio Originale

La Guida per l Organizzazione degli Studi professionali

Quintiq stabilisce un nuovo standard per la pianificazione delle risorse nel settore ferroviario

Comitato Termotecnico Italiano Energia e Ambiente

CONTROLLO DEGLI ACCESSI INTELLIGENTE PER UN FLUSSO DI PERSONE SICURO E CONFORTEVOLE. KONE Access

DEPLOY YOUR BUSINESS

Risparmiare innovando

Aumenti reali del capitale sociale

Network Monitoring. Introduzione all attività di Network Monitoring introduzione a Nagios come motore ideale


I processi di acquisizione/utilizzo dei fattori produttivi pluriennali

Indice. pagina 2 di 10

Capitolo 2. Operazione di limite

UNI EN ISO 9001:2008 Sistemi di Gestione per la Qualità: requisiti e guida per l uso

Il modello veneto di Bilancio Sociale Avis

LA LOGISTICA INTEGRATA

Entusiasmo? «Ho voce in capitolo sul mio denaro.» Helvetia Piano di garanzia. Ottimizzare garanzia e rendimento in modo individuale.

COMUNE DI RAVENNA GUIDA ALLA VALUTAZIONE DELLE POSIZIONI (FAMIGLIE, FATTORI, LIVELLI)

Norme per l organizzazione - ISO serie 9000

Project Management. Modulo: Introduzione. prof. ing. Guido Guizzi

Informazioni sulla FSMA. (Legge per la modernizzazione della sicurezza alimentare) Proposta di legge sull accreditamento di auditor terzi

La gestione della qualità nelle aziende aerospaziali

LA MIGRAZIONE IN SEMPLICI STEP. Il moving di una macchina Linux sul Cloud Server Seeweb

ENERGY EFFICIENCY PERFORMANCE IL MIGLIORAMENTO DELL EFFICIENZA EFFICIENZA ENERGETICA NELLE PICCOLE E MEDIE IMPRESE DAVIDE VITALI ALESSANDRO LAZZARI

Concetti di base di ingegneria del software

1- Corso di IT Strategy

Comprendere il Cloud Computing. Maggio, 2013

4.5 CONTROLLO DEI DOCUMENTI E DEI DATI

Trasforma l energia del sole in energia produttiva

Progettaz. e sviluppo Data Base

Le basi della Partita Doppia in parole Facile e comprensibile. Ovviamente gratis.

GESTIONE DELLA FORMAZIONE E

EasyPLAST. Siamo riusciti a trasferire in EasyPLAST tutte le informazioni e le procedure che prima erano gestite con fogli excel

Capitolo II. La forma del valore. 7. La duplice forma in cui si presenta la merce: naturale e di valore.

Corso di. Analisi e contabilità dei costi

La Metodologia adottata nel Corso

Appliance Cisco FirePOWER serie 8000

UN NUOVO MODELLO DI PRODUZIONE

Corso formazione su Sistema di gestione della qualità. Standard ISO 9001:2000/2008 Vision 2000

Uso delle attrezzature di lavoro

Il controllo dell efficienza energetica nei Data Center. Valentino Violani, Npo Consulting srl

DALLA PARTE DEGLI ALTRI OPERATORI ECONOMICI. La nostra risposta alle esigenze della tua attività.

I modelli di qualità come spinta allo sviluppo

Fare Efficienza Energetica attraverso l automazione degli edifici

PROPOSTA DI CONVENZIONE N Per. Federfarma Lecco. 16 Maggio 2012

THEME Matrice di Competenza - Meccatronica

DELIBERAZIONE N. 30/7 DEL

ISA 610 e ISA 620 L'utilizzo durante la revisione dei revisori interni e degli esperti. Corso di revisione legale dei conti progredito

SysAround S.r.l. L'efficacia delle vendite è l elemento centrale per favorire la crescita complessiva dell azienda.

IT Cloud Service. Semplice - accessibile - sicuro - economico

Watt e Voltampere: facciamo chiarezza

DIPARTIMENTO INFORMATIVO e TECNOLOGICO

LA GESTIONE DELLE INFORMAZIONI IN AZIENDA: LA FUNZIONE SISTEMI INFORMATIVI 173 7/001.0

B.P.S. Business Process Server ALLEGATO C10

Consolidamento Server

SVILUPPO, CERTIFICAZIONE E MIGLIORAMENTO DEL SISTEMA DI GESTIONE PER LA SICUREZZA SECONDO LA NORMA BS OHSAS 18001:2007

Ma quanto costa realmente un investimento? TCO

RISCHIO INQUINAMENTO & SOLUZIONI ASSICURATIVE

Transcript:

Infrastruttura fisica del datacenter: ottimizzare il valore aziendale White Paper 117 Revisione 1 A cura di Wendy Torell > In sintesi Per continuare a essere competitive nell'odierna realtà in rapida evoluzione, le aziende devono modificare il loro punto di vista sul valore dei loro investimenti nell'infrastruttura fisica dei datacenter (DCPI, datacenter Physical Infrastructure). Da soli, i criteri della disponibilità e del costo iniziale non sono più sufficienti a prendere decisioni in modo ponderato. L'agilità, ovvero la flessibilità aziendale, e il basso TCO (Total Cost of Ownership, costo totale di possesso) sono diventati criteri altrettanto importanti per le aziende che intendono avere successo in un contesto globale in continuo cambiamento. Contenuti Cliccate su una sezione per accedervi Introduzione 2 Ottimizzazione della DCPI per aumentarne il valore commerciale Disponibilità - vettore delle prestazioni n. 1 Agilità vettore delle prestazioni n. 2 TCO vettore delle prestazioni n. 3 Strategia di ottimizzazione del valore commerciale 3 5 8 11 14 Conclusioni 15 Risorse 16 Appendice: elementi della DCPI 17 I White Paper by Schneider Electric fanno parte del più ampio catalogo di white paper realizzati dal Data Center Science Center di Schneider Electric DCSC@Schneider-Electric.com

Introduzione Data Center Physical Infrastructure (DCPI) è il pilastro dell'information Technology (IT) e delle reti di telecomunicazioni. Essa costituisce "l'ossatura" delle attività aziendali, perché i suoi elementi forniscono l alimentazione, il raffreddamento, l'alloggiamento, la sicurezza, la protezione da incendi e i cavi che consentono all'information Technology di funzionare. La Figura 1 illustra tali elementi critici della DCPI e la loro integrazione in un sistema onnicomprensivo, senza soluzione di continuità, supportato da sistemi e servizi di gestione. È essenziale vedere la DCPI come un tutt'uno organico anziché come un assieme di singoli componenti se si vuole progettare e implementare un sistema integrato e comprensibile che si comporti in modo prevedibile. Quando non si coordina l'acquisto dei singoli elementi di una DCPI, il risultato finale di solito è costituito da un sistema DCPI complesso e imprevedibile, composto da prodotti di diversi fornitori che non sono stati progettati per interagire tra loro. La gestione diventa pertanto più complessa, perché occorre utilizzare svariati sistemi di gestione per assicurare la visibilità dell'intero sistema, nonché stipulare più contratti di assistenza con fornitori diversi. L'Appendice A di questo documento contiene descrizioni più dettagliate di ciascuno degli elementi della DCPI. Figura 1 Un sistema DCPI integrato Oggi la maggior parte delle aziende di successo dipende da una piattaforma IT stabile. Per mantenere in efficienza queste attività IT, devono essere presenti quattro strati (unità base). La Figura 2 illustra questo modello a più strati e l'importanza di disporre di un sistema DCPI integrato come base per garantire la continuità delle funzioni aziendali. Oltre alla DCPI, include la information technology, i processi e il personale di supporto al Schneider Electric Data Center Science Center White Paper 117 Rev 1 2

funzionamento di tali sistemi. L Information Technology comprende i sistemi di elaborazione dati, archiviazione e comunicazione, sia hardware che software. Senza un'opportuna pianificazione e progettazione di questa tecnologia, la rete, e in ultima analisi l'azienda, non possono funzionare. Tutti i processi necessari per operare in questo ambiente datacenter o IT devono essere definiti chiaramente, ben documentati e standardizzati in modo abbastanza semplice da consentirne la comprensione da parte di tutti gli utenti. Quando tali processi non vengono implementati in modo efficace, è inevitabile che vi siano incongruenze nel funzionamento e nella manutenzione dei sistemi, il che può portare a interruzioni impreviste delle attività. È inoltre necessario disporre del personale di supporto alle operazioni. Tale personale deve essere costituito da un numero sufficiente di addetti, dotati di competenze adeguate e opportunamente addestrati. In assenza di un'opportuna pianificazione dell'organico e dei livelli di addestramento/professionalità, l'errore umano è inevitabile. Attività IT affidabili Figura 2 La DCPI rappresenta uno strato critico delle attività IT affidabili Persone Processi Information Technology Con organico o competenze tecniche inadeguati, il successo aziendale è difficile da realizzare Il successo del personale dipende in larga parte dall'adozione di processi definiti e documentati in modo chiaro I processi e il personale dipendono dalla stabilità dell'it che consente di conseguire gli obiettivi aziendali Il livello di base su cui poggia ogni altro aspetto è destinato a naufragare senza DCPI affidabili, information technology, processi e personale In questo documento si spiega che i pianificatori della IT devono cambiare mentalità quando prendono decisioni in materia di investimenti nella DCPI e si accenna ai fattori che impongono una nuova serie di criteri di valutazione. Ottimizzazione della DCPI per aumentarne il valore commerciale Per un'organizzazione, il valore commerciale è in genere imperniato su tre obiettivi principali: aumento delle entrate; riduzione dei costi; migliore sfruttamento delle risorse. Qualunque sia la line of business, questi tre obiettivi portano in ultima analisi a un miglioramento degli utili e del flusso di cassa. Gli investimenti nella DCPI vengono effettuati perché essi influiscono, direttamente o indirettamente, sul conseguimento di questi tre Schneider Electric Data Center Science Center White Paper 117 Rev 1 3

obiettivi aziendali. I gestori acquistano prodotti quali generatori, condizionatori d'aria, sistemi di sicurezza e sistemi UPS affinché servano da "polizze di assicurazione". Per qualsiasi rete o datacenter sussiste il rischio di interruzione delle attività dovuto a problemi di alimentazione e termici, e gli investimenti nella DCPI hanno lo scopo di attenuare questi e altri rischi. Vediamo ora come essi influiscono sul conseguimento dei tre obiettivi aziendali primari (entrate, costi e risorse). Il rallentamento o l'interruzione dei flussi di entrate dell'azienda, che deve sostenere costi e spese mentre le risorse vengono sottoutilizzate o sono addirittura improduttive, è inevitabile quando i sistemi sono fermi. Quanto maggiore è l'efficacia con cui la DCPI consente di ridurre le interruzioni delle attività, dovute a un motivo qualsiasi, tanto più essa assume un ruolo importante per il conseguimento di tutti e tre gli obiettivi aziendali. Sinora la valutazione del valore commerciale della DCPI è stata basata su due criteri fondamentali: disponibilità e costo iniziale. L'aumento della disponibilità del sistema DCPI e, di conseguenza, dei processi aziendali, consente all'azienda di continuare ad aumentare i ricavi e ottimizzare l'uso (o la produttività) delle sue risorse. Si pensi a un'azienda che elabora transazioni con carte di credito. Se questi sistemi diventano indisponibili, non è più possibile elaborare gli acquisti con carte di credito e si ha un'interruzione del flusso di entrate per tutto il tempo in cui le attività sono ferme. Inoltre i dipendenti non sono produttivi quando i loro sistemi non sono on-line. La riduzione al minimo del costo iniziale della DCPI si traduce inoltre in un maggiore rendimento del capitale investito. Se i costi della DCPI sono modesti e il rischio/i costi dell'interruzione delle attività sono alti, risulta più facile giustificare l'investimento dell'azienda. Anche se questi argomenti sono tuttora validi, la rapida evoluzione odierna in atto negli ambienti IT impone due nuovi criteri di valutazione del valore commerciale della DCPI. In primo luogo, i business plan devono essere flessibili per far fronte alle mutevoli condizioni del mercato, alle nuove opportunità commerciali e ai fattori ambientali. Gli investimenti che bloccano risorse limitano la capacità dell'azienda di rispondere in modo flessibile; e quando manca questa flessibilità o agilità si può prevedere che l'azienda perderà opportunità commerciali. Occorre poi considerare un secondo criterio di valutazione del valore commerciale: il costo totale di possesso (TCO). Mentre il costo iniziale è tuttora un fattore molto importante, esso da solo non fornisce un quadro completo della situazione. Esso infatti non fornisce alcuna informazione al decision maker sui costi a lungo termine di una soluzione, in particolare per quanto riguarda i costi di gestione e di manutenzione. Spesso si è utilizzato come criterio il costo dell'investimento iniziale a causa di un approccio progettuale tradizionale agli investimenti a lungo termine in risorse. I costi di capitale, per motivi fiscali e di ammortamento, sono stati spesso separati dai costi delle spese continue nella giustificazione contabile di un progetto. Sebbene il costo iniziale sia solo una frazione del TCO, esso è stato sinora sufficiente a ottenere l'approvazione di un progetto e delle relative decisioni di acquisto, consentendo l avvio del progetto, senza includere nel processo decisionale fattori quali il costo dell'energia elettrica. Questi tipi di spese sono stati spesso considerati dei costi "scontati", ossia semplicemente un male necessario: essi erano associati al progetto e venivano pagati non con il budget del progetto ma con fondi di gestione. Oggi i decision maker delle aziende comprendono l'importanza di considerare anche questi altri costi nella valutazione del valore commerciale quando prendono decisioni critiche per l'azienda. Una decisione di investimento, per essere valida, deve tenere conto sia dei costi iniziali che dei costi di gestione dell'arco del tempo. La Figura 3 illustra il cambiamento del modo di considerare i criteri di valutazione del valore commerciale della DCPI che c'è stato nel passaggio dalle aziende dal ritmo lento di un tempo alle odierne aziende in rapida evoluzione. Lo scopo dell'equazione non è quello di fornire "un valore quantitativo". Essa intende invece mettere in luce i fattori da considerare per ottenere un valore commerciale elevato. Per aumentare il valore commerciale, occorre massimizzare la disponibilità e l'agilità, che sono al numeratore dell'equazione. Occorre inoltre ridurre al minimo il TCO, che si trova al denominatore dell'equazione. Schneider Electric Data Center Science Center White Paper 117 Rev 1 4

Leggendo questo documento, il responsabile del datacenter sarà stimolato a riflettere sulla disponibilità e sui costi in un nuovo modo e a considerare un nuovo vettore delle prestazioni, l'agilità, che non può essere assolutamente ignorato nella situazione odierna delle aziende. Tutti questi vettori delle prestazioni si traducono alla fine in denaro, ed è necessario pensare a come ottimizzare la "disponibilità agile per ogni euro di TCO". Figura 3 Cambiamento radicale dei criteri di valutazione del valore commerciale della DCPI Valore Valore Disponibilità Costo iniziale Disponibilità Flessibil Costo totale di gestione (TCO) Quando si considera questa nuova "equazione" del valore commerciale per la DCPI, si vede che a ciascuno dei tre criteri contribuiscono numerosi fattori. Nei paragrafi successivi si discute dei fattori che influiscono maggiormente sul valore commerciale complessivo. Disponibilità - vettore delle prestazioni n. 1 Come si è già detto, la disponibilità è un fattore chiave del valore commerciale per la DCPI. Essa è la ragione principale per cui si effettuano investimenti nella DCPI. Se i sistemi non sono disponibili, ciò implica il sacrificio di obiettivi aziendali essenziali. La disponibilità è però un termine che viene interpretato in molti modi diversi dalle diverse persone. Alcuni pensano che essa sia semplicemente l'affidabilità delle apparecchiature; ma tale interpretazione è riduttiva. La definizione rigorosa della disponibilità è la seguente: La disponibilità è la misura in cui un sistema o un componente è operativo e accessibile quando il suo utilizzo è richiesto [IEEE 90]. L'affidabilità delle apparecchiature è certamente una variabile che contribuisce "al fatto che i sistemi e i componenti rimangano operativi", ma vi sono altri fattori quali il Tempo medio di ripristino (MTTR) e gli errori umani, aventi anch'essi un ruolo significativo. I sistemi vanno in blocco per molti motivi, talvolta per interventi pianificati e talvolta in modo imprevisto. Un esempio di interruzione pianificata delle attività è quello connesso alle attività, regolarmente programmate, di manutenzione preventiva. Sono invece Disponibilità X Flessibilità esempi di interruzione non pianificata i fermi Valore = dovuti a errore umano e le catastrofi TCO naturali. Per quanto ciò possa sorprendere, tali catastrofi contribuiscono all'interruzione delle attività molto meno degli errori umani che avvengono durante le attività di routine. Secondo gli esperti del settore, essi provocano interruzioni impreviste delle attività durante il 40-60% del tempo. Schneider Electric Data Center Science Center White Paper 117 Rev 1 5

Il requisito della disponibilità viene espresso in svariati modi, più o meno precisi. Secondo la definizione più rigorosa, la disponibilità viene misurata come percentuale del tempo in cui il sistema o i sistemi sono operativi (ad esempio: 99,99%). Questa misura viene spesso chiamata dagli autori anglosassoni "9's" e molti gestori di datacenter si sforzano di raggiungere l'obiettivo dei "cinque nove". Altri esprimono la disponibilità dal punto di vista dell interruzione delle attività. Ad esempio, il 99,999% corrisponderà a cinque minuti all'anno di interruzione delle attività. C'è un terzo modo di esprimere la disponibilità, in termini di "livelli", dove ogni livello è associato a un diverso insieme di requisiti di ridondanza e di soluzione. L'Uptime Institute è una delle organizzazioni ad aver definito un insieme di livelli di disponibilità. Se la disponibilità è il motivo principale degli investimenti nella DCPI, in che modo si decide quale sarà il requisito di disponibilità? Ogni gestore di un datacenter desidera la massima disponibilità possibile. Il criterio sarà quindi spesso il costo della soluzione. Nelle aziende vi sono sempre progetti in competizione tra loro e problemi di ristrettezze di budget. Scegliendo una soluzione DCPI studiata per ottenere un'elevata affidabilità, progettata in modo da escludere l'errore umano e includere dei rapidi tempi di ripristino, i gestori possono ottenere la massima disponibilità possibile. Questi tre fattori chiave che concorrono a un'elevata affidabilità della DCPI (affidabilità delle apparecchiature, tempi di ripristino ed errore umano) vengono ora discussi in modo più dettagliato. Affidabilità delle apparecchiature L'affidabilità può essere definita come la probabilità che un dispositivo, un sistema o un processo assolva alla funzione prevista senza guasti per un determinato periodo di tempo. La parola "tempo" è una componente importante di questa definizione. Il concetto di affidabilità viene spesso interpretato in modo erroneo, come quando si dice che il "prodotto X ha un'affidabilità del 98,5%". Questa frase è priva di senso a meno che non si precisi il periodo di tempo a cui l'affidabilità si riferisce. Pertanto la frase deve essere così riformulata: "C'è la probabilità del 98,5% che il prodotto X funzionerà senza guastarsi per tre anni". L'affidabilità viene spesso espressa con il suo contrario, l'inaffidabilità (la probabilità di guasto). Ad esempio, l'equivalente della frase precedente per l'inaffidabilità sarà: "C'è una probabilità dell'1,5% che il prodotto si guasti durante tre anni di funzionamento". L'infrastruttura fisica di un datacenter è costituita da molti componenti. Affinché il sistema, nel suo complesso, sia affidabile, è necessario che i singoli componenti siano affidabili. I gestori dei datacenter non vogliono essere infastiditi dai guasti dei singoli componenti, indipendentemente dalla velocità cui possono essere riparati. Ogni guasto ha un costo in termini di ore-uomo e di euro; e la probabilità che si verifichi è tanto più bassa quanto maggiore è l'affidabilità dei componenti. Tempo medio di ripristino (Mean Time to Recover, MTTR) L'MTTR ha un ruolo importante nella disponibilità di un sistema riparabile. I datacenter devono essere progettati in modo da essere il più possibile affidabili dal punto di vista delle apparecchiature. Ma poiché la vita tipica di un datacenter è di 10-15 anni, è inevitabile che dei sistemi o dei sottosistemi si guastino. Tali guasti possono provocare un'interruzione delle attività o meno, a seconda del livello di ridondanza del sistema. In ogni caso, quando si verificano questi guasti, è importante che il tempo di ripristino dei sistemi sia il più breve possibile. La diagnosi del sistema deve essere effettuata in tempi brevi, le parti di ricambio devono essere facilmente reperibili e il sistema deve essere riparato o sostituito agevolmente. Circolano dei "racconti dell'orrore" su datacenter rimasti fermi per un guasto che sono stati ripristinati dopo giorni. Le ripercussioni commerciali di tali incidenti sono drammatiche. Schneider Electric Data Center Science Center White Paper 117 Rev 1 6

Errore umano Non è assolutamente possibile ignorare gli errori umani quando si esamina la disponibilità della DCPI. Come affermato in precedenza, diversi studi del settore mostrano chel l'errore umano è la principale causa dei tempi di inattività non pianificati, fino al 60%. Tipicamente le apparecchiature IT vengono sostituite quattro o più volte durante la vita utile di un datacenter. Quando ciò si verifica, possono cambiare i requisiti di alimentazione e raffreddamento, e anche quelli di sicurezza. Ad esempio, un nuovo server può richiedere una diversa presa di alimentazione, per cui è necessario modificare i circuiti di alimentazione sotto tensione. Questo ambiente instabile, soggetto a un continuo cambiamento, crea il caos e favorisce l'errore umano. In genere i fornitori mettono a disposizione dei loro clienti o potenziali clienti dei dati di disponibilità o affidabilità; tali dati tuttavia non contemplano l'errore umano. Quando i guasti delle apparecchiature rappresentano una percentuale così piccola del totale e i guasti dovuti a fattori umani sono preponderanti, tali dati dei fornitori diventano assolutamente fuorvianti. Il parametro di misura più significativo per la disponibilità di un sistema DCPI deve includere i guasti attribuibili a errori umani. L'inclusione di tali guasti nei parametri di misura costringerà i fornitori a progettare sistemi meno complessi, con interfacce semplici e intuitive, e compatibili con modifiche continue e la loro gestione indolore. Ciò in definitiva non potrà che far aumentare il valore commerciale. Lista di controllo dei fattori che influiscono sulla disponibilità La Tabella 1 contiene un elenco di fattori, spesso sottovalutati, che influiscono sulla disponibilità e di conseguenza sul valore commerciale. In passato molte di queste azioni erano irrealizzabili, ma nella situazione odierna non ci sono motivi per accettare una risposta negativa a queste domande. Considerazioni sulla disponibilità I componenti di ciascun elemento DCPI sono fabbricati con alti volumi di produzione per aumentare l'affidabilità delle apparecchiature? I componenti sono stati progettati con criteri di ridondanza della DCPI per ridurre al minimo la probabilità di un loro guasto che provochi il crash del datacenter/dei sistemi IT? Tabella 1 Elenco dei fattori che influiscono sulla disponibilità Quando si verifica un guasto, il tempo di ripristino è inferiore a un'ora? Tutti gli elementi del sistema DCPI sono stati progettati per essere integrati tra loro, consentendo un funzionamento ininterrotto del sistema stesso? Il sistema è stato progettato in modo da escludere la complessità? Il sistema è stato progettato con interfacce semplici e intuitive e secondo criteri di gestione preventiva? Il sistema è compatibile con modifiche continue e con una gestione semplice? Schneider Electric Data Center Science Center White Paper 117 Rev 1 7

Agilità vettore delle prestazioni n. 2 L'agilità può essere definita come la capacità del sistema di adattarsi ai cambiamenti. L'adattamento ai cambiamenti può avere molteplici significati: può voler dire riuscire a installare i sistemi rispettando le scadenze, specie nel caso dei progetti con vincoli severi di tempo (velocità di implementazione), oppure essere in grado di ridimensionare quando aumentano le esigenze dell'azienda riducendo al minimo gli sprechi dovuti a problemi di sovradimensionamento, oppure essere in grado di far fronte rapidamente al numero crescente di modifiche richieste dalle esigenze IT dell'azienda (riconfigurabilità). Un classico esempio di aziende che hanno dato prova di scarsa agilità e ottenuto pessimi risultati è quello delle grandi società di collocation. Tali aziende hanno effettuato investimenti enormi per sviluppare un'infrastruttura solida ad alta sicurezza che pensavano sarebbe stata necessaria Disponibilità Flessibilità ai loro potenziali clienti per ospitare le loro apparecchiature IT critiche. Valore Poiché i loro sistemi non erano TCO adattabili al mutamento dei requisiti aziendali, esse hanno pianificato la capacità secondo una logica "worst case". Si è proceduto soprattutto per tentativi e congetture. Tutto ciò si è tradotto in un enorme spreco di infrastruttura inutilizzata e un salasso economico. L'agilità, una componente fondamentale del rompicapo del valore commerciale, è importante quanto le altre componenti dal punto di vista della remunerazione del capitale investito. Quando l'investimento nella DCPI consente di ottenere una struttura che soddisfa le esigenze attuali ed è sufficientemente agile da adattarsi a qualsiasi requisito futuro (e non solo per i prossimi dieci anni), il rischio di errori di previsione viene eliminato e il rendimento del capitale investito viene ottimizzato. Velocità di implementazione La velocità di implementazione non è altro che la velocità con cui è possibile pianificare, progettare, installare e mettere in funzione il sistema DCPI. Sinora ciò ha richiesto tempi nell'ordine di anni. La Figura 4 illustra i tempi tipici di tali progetti. Tali tempi lunghi erano dovuti al fatto che gli approcci tradizionali implicano una notevole personalizzazione. Il processo necessario a ottenere una maggiore capacità comportava diverse fasi importanti in cui la personalizzazione giocava un ruolo essenziale: progettazione unica, costruzione unica, con un processo di costruzione notevolmente personalizzato, e la messa in servizio concepita appositamente per soddisfare l'esigenza di integrazione di moltissime apparecchiature non progettate appositamente in vista di tale integrazione. Schneider Electric Data Center Science Center White Paper 117 Rev 1 8

Figura 4 Tempi tipici di quattrocento giorni per l'implementazione di sistemi DCPI tradizionali Occorre una capacità maggiore Valutazione delle esigenze Concepimento del progetto 1-2 mesi Progetto di costruzione 3-4 mesi Parti, applicazioni e servizi personalizzati Costruzione 7-8 mesi La capacità è superiore al fabbisogno Funzionamento Messa in servizio ½ -1 mese Con gli odierni ritmi veloci, questa programmazione inflessibile è a dir poco inadeguata, nei casi peggiori disastrosa. Le aziende devono poter costruire i datacenter in qualche mese, e non in anni. Un altro aneddoto sulla cui veridicità molti gestori di datacenter possono testimoniare è quello dei ritardi del progetto provocati da ripetuti tentativi di prevedere il futuro. Eliminando i tempi e le risorse necessarie a pianificare la capacità e le densità prima che siano necessarie, è possibile abbreviare i tempi di progetto. Capacità di ridimensionare Quando i capitali sono congelati (come accade di solito), la capacità di ridimensionare è fondamentale per l'agilità. Il datacenter medio è significativamente sovradimensionato. Le ricerche dimostrano che un tipico datacenter odierno viene utilizzato per meno del 50% della capacità della sua infrastruttura. Secondo "Datacenter Power Requirements: Measurements from Silicon Valley" (Requisiti di alimentazione di un datacenter: misurazioni effettuate nella Silicon Valley), una tesi scritta da J.D Mitchell-Jackson, et al., i datacenter tipici sono pieni per un terzocirca, soltanto. Il 66% corrisponde a uno spreco considerevole. Si pensi che il ROI relativo a tale progetto avrebbe potuto essere tre volte maggiore. Si sarebbe potuta destinare una cifra pari a due terzi dell'investimento ad altri progetti dell'azienda, potenzialmente più remunerativi. Link per visualizzare le risorse disponibili White Paper 37 Ottimizzare gli investimenti per la realizzazione di infrastrutture per sale CED e apparati di rete I gestori dei datacenter non hanno certo sovradimensionato perché avevano intenzione di dilapidare i capitali della loro azienda. Lo hanno fatto perché dovevano proporzionare la capacità adottando l'ipotesi del worst case, in base alla loro analisi delle esigenze aziendali future, pur non avendo in mano il quadro della situazione futura oltre i 3-4 anni. Fino a poco tempo fa, l'alternativa era ancora peggiore: sottodimensionare e non avere la possibilità di aumentare la capacità senza perturbare le attività aziendali e sostenere costi notevoli. Il White Paper n. 37, "Ottimizzare gli investimenti per la realizzazione di infrastrutture per sale CED e apparati di rete" contiene una discussione approfondita sul significato di un corretto dimensionamento. Schneider Electric Data Center Science Center White Paper 117 Rev 1 9

Abilità di riconfigurare Si consideri il caso dell'azienda di servizi di collocation che aveva costruito il 50% dei suoi impianti con alimentazione CC e il restante 50% con alimentazione CA, scoprendo solo in seguito che al 99% dei suoi clienti serviva l'alimentazione in corrente alternata. Gli investimenti per impianti in CC furono quasi una perdita totale a causa di questa mancanza di agilità. Ora si immagini la situazione attuale: che cosa sarebbe accaduto se la medesima azienda avesse costruito solo quanto richiesto dai suoi attuali clienti, e riconfigurato solo ove necessario per diverse densità di alimentazione, diversi livelli di ridondanza (disponibilità mirata), e per diverse tensioni e diversi tipi di spine, senza mettere a soqquadro il datacenter. Si immagini un'altra azienda che ha progettato e costruito un datacenter, scoprendo solo dopo la sua messa in funzione che esso deve essere trasferito in un'altra regione. Con i sistemi tradizionali risulta impossibile trasferire la maggior parte delle risorse in cui si è investito e ciò si traduce in ripercussioni finanziarie drammatiche per l'azienda, perché occorre effettuare un secondo investimento notevole per la nuova sede. I sistemi portatili e traslocabili possono avere una notevole influenza sul bilancio finanziario. Lista di controllo dei fattori che influiscono sull'agilità La Tabella 2 contiene un elenco di fattori, spesso sottovalutati, che influiscono sull'agilità e di conseguenza sul valore commerciale. Come nel caso della discussione sulla disponibilità, si tratta di fattori indispensabili per il successo dell'implementazione della DCPI. Nell'attuale situazione delle aziende, caratterizzata da ritmi frenetici e rapidi cambiamenti, per avere successo occorre essere in grado di rispondere "sì" a tutte queste domande sull'agilità. Fattori che influiscono sull'agilità È possibile costruire un nuovo datacenter in qualche giorno anziché in mesi o anni? È possibile aggiungere capacità rapidamente al sistema DCPI esistente? È possibile raddoppiarlo entro il mese seguente? Tabella 2 Elenco dei fattori che influiscono sull'agilità È possibile installare la DCPI del datacenter con un intervento di portata minima sul sito? È possibile trasferire una percentuale significativa dell'infrastruttura in una nuova sede qualora occorra traslocare? È possibile effettuare il trasferimento del datacenter in mesi anziché in anni? È possibile creare in una parte del datacenter una DCPI ridondante ("disponibilità mirata") È possibile sostituire un tipo di spina in qualche minuto durante gli ammodernamenti dell'it? È possibile variare il tempo di autonomia da batteria in base all evolversi delle proprie esigenze? Schneider Electric Data Center Science Center White Paper 117 Rev 1 10

TCO - vettore delle prestazioni n. 3 Il Total Cost of Ownership (TCO) è un concetto chiaro per la maggior parte dei responsabili: si tratta di soldi da spendere, dunque qualcosa di assolutamente tangibile. Il TCO per un particolare datacenter dipenderà dalle dimensioni dell'impianto. Tuttavia è possibile esprimere il costo totale in modo utile per un datacenter di qualsiasi dimensione. Un modo suggerito per esprimere il requisito del TCO è quello del costo totale per rack durante la vita utile del datacenter. Un valore tipico del costo della DCPI durante la sua vita utile è di $100.000 dollari per rack. Si tratta di un investimento notevole (comparabile al costo degli investimenti nelle apparecchiature IT), per cui è fondamentale che i responsabili comprendano qual è il valore ricevuto a fronte di questo costo. Il TCO non è costituito semplicemente dall'investimento iniziale per la DCPI: esso comprende tutti gli altri costi associati alla gestione e alla manutenzione di tale investimento durante la sua vita utile (che tipicamente Disponibilità Flessibilità è di 10-15 anni). Deve essere chiaro che Valore nell'odierna situazione altamente competitiva delle aziende è il TCO, e non il TCO solo costo iniziale, il fattore che determina il reale valore commerciale. La Figura 5 illustra una tipica analisi dei costi per datacenter implementati con sistemi tradizionali. Figura 5 Analisi del TCO per sistemi tradizionali Cooling Equipment 8% Improvements 8% Space 9% Racks 3% Power Equipment 36% Service 17% Electricity 19% Di tali costi, il 50% circa è costituito da spese di gestione e il 50% da spesa in conto capitale. Di questo totale una percentuale notevole (il 30% circa) viene sprecata a causa di decisioni irrazionali di pianificazione e progettazione. Il sovradimensionamento è il contributo principale a un valore esagerato del TCO. Ciò si traduce in un notevole spreco, comprendente l'eccessivo costo di capitale, costo di gestione e, in particolare, costo dell'energia. In media viene sprecato più del 50% della capacità DCPI installata. Questo spreco è causato soprattutto dall'incertezza, ma la risposta non può consistere semplicemente nella riduzione dei piani: vi sono certamente dei casi in cui il carico effettivo finisce per uguagliare o superare il carico previsto, e un sottodimensionamento della capacità del datacenter può avere conseguenze anche più gravi di un sovradimensionamento. In realtà la chiave per l'ottimizzazione del TCO sta nell'implementare una soluzione DCPI progettata fin dall'inizio come facilmente scalabile, in modo che sia possibile dimensionare correttamente l'infrastruttura per rispondere alle esigenze di qualsiasi momento particolare della vita utile del datacenter. Nessuno vorrebbe Schneider Electric Data Center Science Center White Paper 117 Rev 1 11

Link per visualizzare le risorse disponibili White Paper 6 Calcolo del "Total Cost of Ownership" (TCO) della infrastruttura per sale CED trovarsi al posto del responsabile di un datacenter costruito per fornire un megawatt di capacità che scoprisse che il carico effettivo non è mai superiore a 300 kw. Nel White Paper n. 6, Calcolo del "Total Cost of Ownership" (TCO) della infrastruttura per sale CED, si discute di un metodo per la misurazione del TCO e si suggeriscono strategie per ridurre al minimo tali costi. Costo di capitale La spesa in conto capitale, detta anche "CAPEX", è il denaro speso dall'azienda per acquisire o ammodernare beni, impianti e apparecchiature, nella previsione che tale spesa apporti benefici all'azienda nell'arco di un lungo periodo di tempo (superiore a un anno). Questi costi sono ammortizzati nell arco della vita utile prevista dell'apparecchiatura e sono soggetti a speciali trattamenti fiscali. Il costo di capitale per un progetto DCPI è una spesa molto tangibile e misurabile. Esso include il costo delle apparecchiature DCPI, nonché i costi associati alla progettazione e all'implementazione di tali apparecchiature. L'unica occasione d oro per ottimizzare (ridurre) questo costo di capitale sta nella possibilità di ridimensionare l'infrastruttura. L'adeguamento della capacità al carico consente di evitare errori per eccesso (fino al triplo) negli investimenti. È possibile ridurre il CAPEX anche tramite la riduzione della manodopera specializzata. L'implementazione di una soluzione che riduca al minimo gli interventi sul sito durante l'installazione permette di abbattere questo costo di manodopera iniziale. Costi di gestione Le spese di gestione, dette anche OPEX, comprendono tutti i costi sostenuti per garantire la continuità del business. I costi di gestione per un'implementazione della DCPI comprendono i costi del personale operativo della DCPI stessa, le spese per l'addestramento e i costi di manutenzione e delle riparazioni. Anche il costo dell'energia è un costo di gestione, ma esso è stato separato per evidenziare il suo impatto significativo sul valore commerciale. È importante considerare il livello di manutenzione predittiva disponibile nel sistema, perché essa può ridurre la necessità di una manutenzione programmata (con conseguente riduzione delle spese, ma anche del rischio di introduzione di difetti). Il livello dei servizi necessari dipende molto anche dalla complessità e dalla personalizzazione del sistema. Anche il numero e il tipo di riparazioni dipendono dalla natura del sistema. I sistemi modulari si prestano maggiormente alla diagnosi e alla sostituzione standardizzata dei componenti guasti, mentre i sistemi personalizzati tradizionali richiedono più spesso delle procedure di riparazione invasive sul sito. Quanto maggiore è il grado di complessità e personalizzazione di un sistema, tanto più importante è l'attività di progettazione, tanto più lungo è il tempo di preparazione del sito e, in definitiva, tanto maggiore è il numero di tecnici specializzati necessari per supportare il sistema. Ciò in generale si traduce in costi maggiori dell'addestramento necessario per elevare la competenza dei dipendenti, portandola a un livello indispensabile per un funzionamento corretto dei sistemi. Costo dell'energia L'opportunità più importante per conseguire risparmi sul TCO è rappresentata dalla riduzione dell'inefficienza. Un sistema UPS sovradimensionato è meno efficiente e richiede per il suo funzionamento molta più energia di un sistema correttamente dimensionato rispetto al carico. Ciò in quanto le efficienze operative aumentano notevolmente quando il carico effettivo è molto vicino al carico di progetto. Schneider Electric Data Center Science Center White Paper 117 Rev 1 12

Nei sistemi UPS ridondanti, le dimensioni del modulo o dei moduli ridondanti influiscono anch'essi sull'efficienza. Ciò in quanto in una tipica configurazione N+1 il carico è ripartito tra tutti i moduli. Si consideri un datacenter con un carico di 80 kw. Se il sistema UPS viene progettato con quattro sistemi da 20 kw per il supporto del carico e un sistema supplementare da 20 kw per assicurare la ridondanza, il carico da 80 kw sarà ripartito tra i 5 sistemi. In altri termini, ciascun UPS dovrà supportare 16 kw, ossia l'80% della capacità. Questo sistema può anche essere progettato con due unità da 80 kw, ognuna delle quali funziona al 50% di capacità. In questo esempio, il primo sistema assicurerebbe una maggiore efficienza, e quindi un minore costo dell'energia. Le tecnologie prescelte per la DCPI possono avere un'enorme influenza sui costi energetici. I sistemi UPS tradizionali, ad esempio, hanno un'efficienza pari ad appena l'85% circa con livelli di carico del 50%. Di contro, le più recenti tecnologie on-line, quali quelle dei sistemi UPS a conversione a delta, garantiscono un'efficienza non inferiore al 93% con questi bassi livelli di carico. Con i costi dell'elettricità che hanno superato di molto la soglia degli 10 cent per chilowattora nella maggior parte degli Stati Uniti, questa maggiore efficienza dà un contributo significativo alla riduzione del TCO. Lista di controllo dei fattori che incidono sul TCO La Tabella 3 contiene un elenco di fattori relativi al TCO, spesso sottovalutati, che influiscono sul valore commerciale. Come nel caso dei fattori che incidono sulla disponibilità e sull'agilità, questi elementi sono essenziali per prendere decisioni finanziarie razionali riguardo alla DCPI. Fattori che incidono sul TCO Il progetto viene valutato in base al TCO anziché in base al solo costo iniziale? Tabella 3 Elenco dei fattori che incidono sul TCO La capacità della DCPI è stata dimensionata correttamente in modo da ottimizzare l'investimento di capitale? L'efficienza elettrica è stata ottimizzata per il datacenter, attraverso un opportuno dimensionamento? Nel progetto sono inclusi componenti DCPI a elevata efficienza? Sono stati ridotti al minimo i costi di manutenzione a lungo termine per il datacenter? Schneider Electric Data Center Science Center White Paper 117 Rev 1 13

Strategia di ottimizzazione del valore commerciale Nella situazione odierna delle aziende, è evidente che occorre tenere conto di nuovi criteri per l'ottimizzazione del valore commerciale. La Figura 6 evidenzia ancora questi nuovi criteri. Ciò si traduce in un costo reale, che si ripercuote in molti modi sul business, non solo in termini monetari, ma anche di strategia e pianificazione. Figura 6 La nuova equazione del valore commerciale Valore Disponibilità TCO Flessibilità Nei sistemi DCPI tradizionali (caratterizzati dalla progettazione unica e inflessibile, tipicamente sovradimensionati) non era possibile ottimizzare tutti e tre i vettori delle prestazioni di questa equazione. Non era possibile ottenere un sistema di elevata qualità (disponibilità), in un lasso di tempo ragionevole (agilità) e a un costo ragionevole (TCO). In genere si sceglieva di sacrificare una di queste variabili per favorire le altre due. Se si dava la priorità alla velocità e all'economicità, ciò comportava il sacrificio della qualità. Se invece si privilegiava l'alta qualità e la velocità, ciò faceva salire il prezzo. Per fortuna questo paradigma è oggi superato. Link per visualizzare le risorse disponibili White Paper 116 Standardizzazione e modularità nella Data Center Physical Infrastructure Abbiamo a disposizione una strategia collaudata che consente di soddisfare in modo ottimale tutte e tre le esigenze aziendali, tramite la standardizzazione e, più specificamente, la standardizzazione modulare. L'applicazione ai sistemi IT delle stesse metodologie utilizzate, ad esempio, nella progettazione delle auto può consentire di migliorare notevolmente il valore commerciale della DCPI. Si pensi ai server di una volta: ogni server veniva utilizzato per un tipo diverso di rack, con conseguente incompatibilità. Oggi però, con la standardizzazione dei server, è possibile inserire un server in quasi ogni tipo di rack. Questo è solo uno dei molti esempi della svolta in atto nel settore della DCPI. Il White Paper n. 116, Standardizzazione e modularità nella Data Center Physical Infrastructure, descrive i molteplici vantaggi assicurati dalla standardizzazione e dalla modularità per un investimento nella DCPI. Schneider Electric Data Center Science Center White Paper 117 Rev 1 14

Conclusioni La DCPI è fondamentale per un datacenter. I cambiamenti in atto nelle odierne aziende, in particolare il ciclo più breve di aggiornamento dell'it, impongono un cambiamento del modo di valutare il valore commerciale della DCPI. La nuova equazione del valore commerciale della DCPI descritta in questo documento riassume tale nuova concezione. Occorre concepire la disponibilità in un nuovo modo, tenendo conto di nuovi fattori chiave, tra cui i fattori umani. Occorre pensare al costo in un nuovo modo: considerare unicamente il costo iniziale non è più sufficiente a prendere decisioni. In realtà il valore è determinato dal costo durante l'intera vita utile dell'infrastruttura. Occorre inoltre tenere conto di un altro vettore delle prestazioni, l'agilità, perché essa misura direttamente la capacità della DCPI di soddisfare esigenze imprevedibili e cogliere opportunità inaspettate. Le chiavi per conseguire un alto valore commerciale in base a questo nuovo paradigma sono tre: standardizzazione, modularità e scalabilità. Il settore della DCPI deve abbandonare la sua vecchia mentalità artigianale, che porta a progettare due impianti diversi in due modi totalmente differenti, per cui ciascuno dei due ha dei problemi specifici. I sistemi devono essere modulari e scalabili per consentire di soddisfare le esigenze in continua evoluzione dei datacenter, aumentare l'affidabilità e la disponibilità dell'infrastruttura, e ottimizzare il TCO. Note sull'autore Wendy Torell è Strategic Research Analyst presso APC by Schneider Electric a West Kingston, Rhode Island. Fornisce consulenza ai clienti sui possibili approcci alla scienza dell'affidabilità e alle pratiche di progettazione per ottimizzare la disponibilità degli ambienti dei datacenter. Si è laureata in ingegneria meccanica all'union College a Schenectady, New York e ha conseguito un MBA presso la University of Rhode Island; ha inoltre conseguito la certificazione ASQ per i Reliability Engineer. Schneider Electric Data Center Science Center White Paper 117 Rev 1 15

Risorse Cliccare sull'icona per visualizzare le Risorse Ottimizzare gli investimenti per la realizzazione di infrastrutture per sale CED e apparati di rete White Paper 37 Calcolo del "Total Cost of Ownership" (TCO) della infrastruttura per sale CED White Paper 6 Standardizzazione e modularità nella Data Center Physical Infrastructure White Paper 116 Visualizza tutti i White Paper whitepapers.apc.com Ricerca con tutte le applicazioni TradeOff Tools tools.apc.com Contattateci Per feedback e commenti relativi a questo white paper: Data Center Science Center DCSC@Schneider-Electric.com Se avete richieste specifiche sulla progettazione del vostro data center: Contattate il vostro referente commerciale Schneider Electric www.apc.com/support/contact/index.cfm Schneider Electric Data Center Science Center White Paper 117 Rev 1 16

Appendice: elementi della DCPI La DCPI comprende l'alimentazione, il raffreddamento, i rack e la struttura fisica, la sicurezza e la protezione dagli incendi, il cablaggio, nonché la gestione e l'assistenza per questi elementi. La DCPI è alla base dell'affidabilità delle attività IT di un'azienda, pertaessere solida e, idealmente, "invisibile e impercettibile". Seguono delle brevi descrizioni di ciascuno di elementi della DCPI. Alimentazione Sono molti gli elementi che costituiscono una solida infrastruttura di alimentazione; essi vanno dalle linee elettriche entranti dell'edificio fino ai carichi del datacenter o della rete. Questa struttura comprende: la distribuzione principale, il generatore o i generatori, i sistemi UPS e le batterie, la protezione da sovratensioni, i trasformatori, i quadri di distribuzione e gli interruttori automatici. Raffreddamento I sistemi di raffreddamento necessari per rimuovere efficacemente il calore da un datacenter comprendono i condizionatori d'aria per le sale computer (Computer Room Air Conditioners, CRAC), tutti i sottosistemi connessi che consentono il funzionamento dei CRAC, compresi i refrigeratori, le torri di raffreddamento, i condensatori, le condutture, i sistemi di pompaggio, le tubazioni e tutti i dispositivi di distribuzione al livello di rack. Rack e infrastrutture fisiche Link per visualizzare le risorse disponibili White Paper 19 Riesame dell'idoneità dei pavimenti rialzati per applicazioni data center Sono molti i sistemi che possono essere considerati parte integrante della struttura fisica di un datacenter. Gli elementi più critici sono i rack IT contenenti le apparecchiature IT e gli elementi fisici della sala quali i soffitti ribassati e i pavimenti (sia quelli flottanti che quelli con soletta di calcestruzzo). Nel White Paper n. 19, Riesame dell'idoneità dei pavimenti rialzati per applicazioni data center, si esaminano le ragioni per cui in passato si sono utilizzati i pavimenti rialzati, concludendo che il loro impiego non è più giustificato negli odierni ambienti di data center. Sicurezza e protezione dagli incendi Link per visualizzare le risorse disponibili White Paper 82 Sicurezza fisica negli impianti mission-critical Link per visualizzare le risorse disponibili White Paper 83 Attenuazione dei rischi di incendio in impianti missioncritical I sistemi di sicurezza e i sistemi di protezione dagli incendi sono essenziali per garantire l'integrità, la sicurezza e la disponibilità del datacenter. I sottosistemi qui considerati sono dispositivi di sicurezza fisica a livello di sala/di rack e sistemi di rilevamento e spegnimento degli incendi. I dispositivi biometrici, le chiavi, i codici e le schede sono alcuni esempi di dispositivi per la sicurezza fisica. I rilevatori di fumo di tipo intelligente, i sistemi di spegnimento a clean agent e i sistemi termosensibili lineari sono altrettanti esempi di sistemi di rilevamento e spegnimento degli incendi. Nel White Paper n. 82, Sicurezza fisica negli impianti mission-critical si discute in modo più approfondito degli elementi della sicurezza fisica e si suggeriscono procedure di ottimizzazione della sicurezza dell'impianto. Il White Paper n. 83, Attenuazione dei rischi di incendio in impianti mission-critical, contiene una discussione più approfondita sul rilevamento, la soppressione e la prevenzione degli incendi e descrive prassi ottimali per l'attenuazione del rischio di incendio. Schneider Electric Data Center Science Center White Paper 117 Rev 1 17

Cablaggio L'infrastruttura di cablaggio comprende tutti i cavi dati facenti parte del datacenter, nonché tutti i cavi di alimentazione necessari per l'alimentazione di tutti i carichi. I passacavi e i dispositivi di gestione dei cavi sono anch'essi critici per il supporto dell'infrastruttura IT, in quanto contribuiscono a ridurre il rischio di interruzioni delle attività dovute a errori umani e surriscaldamento. Gestione La gestione è un elemento della DCPI che comprende tutti gli elementi di cui si è parlato finora. Per avere una DCPI affidabile, occorre che tutti i componenti dell'infrastruttura fisica siano visibili. La gestione comprende: i Building Management System (Sistemi di gestione per gli edifici; BMS), i Network Management System (Sistemi di gestione delle reti; NMS), i sistemi di gestione degli elementi (ad esempio: l Schneider Electric StruxureWare Central), e altri hardware e software di monitoraggio. Servizi Esiste una vasta gamma di servizi necessari per il supporto dei sistemi DCPI per tutto il loro ciclo di vita. Tali servizi possono essere classificati in cinque categorie: (1) Servizi di consulenza e progettazione; (2) Servizi di installazione; (3) Servizi di manutenzione e riparazione; (4) Servizi di monitoraggio; (5) Servizi di smantellamento. Schneider Electric Data Center Science Center White Paper 117 Rev 1 18