Data Center

Guida al data center: cos’è, come funziona, classificazione e vantaggi

Dal punto di vista infrastrutturale il data center è il cuore pulsante del business perché ospita tutte le apparecchiature che consentono di governare i processi, le comunicazioni e i servizi a supporto di qualsiasi attività aziendale. Di proprietà o in outsourcing, il CED rappresenta il cardine della continuità operativa.

Pubblicato il 05 Ago 2016

Redazione TechCompany360

data-center-che-160803152040

data center cos'è

Il data center cos’è? È la sala macchine che ospita server, storage, gruppi di continuità e tutte le apparecchiature che consentono di governare i processi, le comunicazioni così come i servizi che supportano qualsiasi attività aziendale. In estrema sintesi, sono i data center a garantire il funzionamento 24 ore al giorno, tutti i giorni dell’anno, di qualsiasi sistema informativo.

Anche noto come CED (Centro di Elaborazione Dati), il data center oggi rappresenta il cuore pulsante del business perché fornisce anche tutta la consulenza tecnico-scientifica alle diverse strutture in materia di digitalizzazione dei processi, elaborazione elettronica dei dati, definizione delle reti di calcolo, progettazione e/o implementazione dei sistemi informativi, includendo tutte le applicazioni di supporto oltre all’integrazione e all’interfacciamento con i sistemi esterni all’organizzazione.

In questa guida dettagliata e completa ai data center, vedremo in maniera approfondita:

1. Cos’è e a cosa serve un data center

2. Come funziona un data center

3. Classificazione data center (TIER I,II,III,IV)

4. Sicurezza data center: come fare

5. Alimentazione e consumi di un data center

6. Software defined data center (SDDC): cos’è e come funziona

7. Data center on demand e pay per use

Data Center, cos’è e a cosa serve

L’efficienza del business passa dal bilanciamento dei data center, che rimane sempre e in ogni caso il perno tecnologico dello sviluppo e della crescita di un’azienda. Uno degli aspetti importanti di un CED è la capacità di movimentare un gran numero di processi e di dati. Rispetto al passato, la progressiva digitalizzazione in ambito pubblico e privato ha portato l’ordine dei ragionamenti a spostarsi da una gestione misurata per terabytes a una misurata in zetabytes: da qui ai prossimi 5 anni saranno generati 35 zetabytes di contenuti digitali (Fonte: Osservatori Digital Innovation), il che porta le aziende a fare scelte sempre più attente alla scalabilità e alla flessibilità delle risorse presenti nel data center ma anche ai modelli di riferimento.

Lo sviluppo informatico ha portato a un potenziamento del parco installato all’interno dei data center. Per supportare la crescente domanda di sistemi e soluzioni, infatti, le sale macchine si sono letteralmente popolate di server di diversa capienza e di diversa configurazione a seconda delle attività presidiate: per questo un sinonimo di data center è server farm. Un data center, a seconda delle necessità aziendali, può occupare un armadio (rack server), pochi metri quadrati o arrivare addirittura a occupare un’intero stabile.

Come funziona un data center

Una volta descritto un Data Center cos’è, andiamo ora a scoprire come funziona. Strutture altamente specializzate, organizzate per consentirne la massima efficienza funzionale a dispositivi, sistemi e servizi, sono i data center ad assicurare la business continuity mondiale. Come funzionano? Grazie a sistemi di connettività stabili e ridondanti, ovvero attraverso una configurazione duplicata che garantisce la continuità operativa nel caso di guasti o anomalie di uno o più sistemi, in modo da garantire sempre e comunque la massima funzionalità.

È in questo modo che i data center consentono di rendere accessibili i dati elaborati dalle unità computazionali o conservati presso i sistemi di storage ospitati nei server. Tutta l’infrastruttura di un data center è incentrata su reti che implementano il protocollo IP e collegano tra loro macchine e applicazioni. Ogni server farm ospita differenti set di router (ovvero dei dispositivi di rete che si occupano di instradare i dati, suddivisi in pacchetti, fra sottoreti diverse) e switch progettati e configurati per veicolare il traffico dati in modo bidirezionale fra i server e il resto del mondo.

All’interno di un data center, oltre ai server, si trovano vari sistemi di archiviazione dei dati (storage), diversi sistemi informatici atti al monitoraggio, al controllo e alla gestione di macchine, applicazioni e, infrastrutture di telecomunicazione oltre a tutti gli accessori ad essi collegati. Per garantire l’operatività e la piena efficienza delle macchine, oltre a dei gruppi di continuità (UPS) i data center prevedono impianti di climatizzazione e di controllo ambientale molto particolari, che includono sistemi di raffreddamento, impianti antincendio e sistemi di sicurezza avanzati.

data center cos'è

Guida ai data center: standard di riferimento e classificazione (TIER I,II,III,IV)

La progettazione di un data center è estremamente complessa. Costruire un ambiente centralizzato, idoneo e performante, dotato di strutture ben dimensionate e con livelli elevati di sicurezza, affidabilità ed efficienza nella erogazione dei servizi non è facile. Per questo motivo è stato creato uno standard di riferimento.

Le best practice, ovvero le linee guida per la realizzazione di un data center seguono lo standard TIA-942. Nella TIA-942 sono presenti indicazioni sulla definizione degli spazi e il design dei CED, sulla realizzazione dei cablaggi, sulle condizioni ambientali.

Le linee guida includono anche una classificazione dei data center secondo 4 livelli, detti TIER, dove il primo è quello base, in cui la continuità operativa ha delta temporali di interruzione pari a quasi 30 ore l’anno. Sembra un numero ridotto, ma provate a pensare cosa significa per un supermercato, un ospedale, una banca, una fabbrica o un areoporto avere un’indisponibilità anche solo di due o tre ore dei servizi ed è chiaro il motivo per cui, a seconda del core business, bisogna puntare a livelli più elevati.

TIER I

Continuità operativa garantita al 99,671%  (significa fermo del data center per 28,8 ore/anno)

Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER I?

  • Suscettibilità a interruzioni legate ad attività pianificate e non pianificate
  • Mancanza di ridondanze e con singolo sistema di alimentazione e di raffreddamento
  • Presenza o meno di UPS, generatori e pavimento flottante
  • Totale spegnimento durante le manutenzioni preventive

TIER II

Continuità operativa garantita al 99,741% (significa fermo del data center per 22 ore/anno)

Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER II?

  • Meno suscettibilità a interruzioni a causa di attività pianificate e non pianificate
  • Componenti ridondati e con singolo sistema di alimentazione e di raffreddamento
  • Presenza di UPS, generatori e pavimento flottante
  • Totale spegnimento durante le manutenzioni su alimentazione e altre parti dell’infrastruttura

TIER III

Continuità operativa garantita al 99,982%  (significa fermo del data center per 1,6 ore/anno)

Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER III?

  • Possibilità di effettuare manutenzioni pianificate senza interruzione, ma suscettibilità a interruzioni a causa di attività non pianificate
  • Componenti ridondati e collegamenti multipli per alimentazione e raffreddamento
  • Presenza di UPS, generatori e pavimento flottante
  • Facoltativo lo spegnimento totale durante le manutenzioni (prevista deviazione su altri collegamenti per alimentazione e infrastruttura)

TIER IV

Continuità operativa garantita al 99,995% (significa fermo del data center per 0,4 ore/anno)

Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER IV?

  • Possibilità di effettuare manutenzioni pianificate e senza impatti negativi sulla gestione della funzionalità
  • Componenti ridondati e collegamenti multipli contemporaneamente attivi per alimentazione e raffreddamento
  • Disponibilità di UPS, generatori e pavimento flottante
  • Facoltativo lo spegnimento totale durante le manutenzioni (prevista deviazione su altri collegamenti per alimentazione e infrastruttura)

Come si mette in sicurezza un data center

Uno degli aspetti cardine di un data center è la sua sicurezza fisica e logica. Da un lato è necessario preservare la continuità elaborativa delle unità ospitate nel data center, dall’altro è fondamentale proteggere i dati e le applicazioni che risiedono nei sistemi di storage e vengono elaborati dai sistemi informativi.

Fondamentale per la sicurezza nella progettazione di un data center è la messa a terra: questa categoria comprende sia la rete di collegamento che i sistemi di messa a terra utili per proteggere le apparecchiature dei CED da scariche elettrostatiche, sovracorrenti e fulmini. Oltre a presidiare le condizioni ambientali, preservando i dispositivi e le reti da alluvioni, incendi, catastrofi naturali la sicurezza di un data center dipende anche da errori umani. Secondo i dati dell’Uptime Institute, il 40% delle interruzioni di servizio dei data center è causato da errori umani: i sistemi, infatti, talvolta sono così complessi da riparare che i tecnici e il personale di manutenzione finiscono spesso per commettere degli sbagli anche solo scollegando una presa elettrica durante l’azionamento o la manutenzione di una macchina. Un altro punto critico è il cybercrime: le minacce ad opera di malintenzionati in rete crescono in maniera esponenziale ed è molto difficile impostare un controllo su un perimetro fatto di sistemi fisici e virtuali. Per gli analisti di Gartner, oltre l’80% delle imprese negli ultimi tre anni non è riuscita a definire politiche di sicurezza dei dati adeguate.

La criticità nella gestione dei tradizionali silos informativi è legata ai problemi crescenti in termini di compliance normativa che includono rigorosi requisiti costruttivi (oggi più attenti ai temi della sostenibilità ambientale e della riduzione dei consumi) ma anche di sicurezza in relazione alla gestione della Privacy e alla salvaguardia del patrimonio ICT dagli attacchi della cybercriminalità, alle distrazioni dei dipendenti, mai sufficientemente addestrati alle best pratice della protezione e della tutela dei dati e delle risorse aziendali.

A questo proposito il testo del Garante spiega come debbano essere presidiati: “apparati e reti di comunicazione elettronica, inclusi  i sistemi di trasmissione, le apparecchiature di commutazione o di instradamento, gli elementi di rete non attivi che consentono di trasmettere segnali via cavo, via radio, a mezzo di fibre ottiche o con altri mezzi elettromagnetici, comprese le reti satellitari, le reti terrestri  mobili e fisse a commutazione di circuito e a commutazione di pacchetto, (Internet inclusa), i sistemi per il trasporto della corrente elettrica, nella misura in cui siano utilizzati per trasmettere i segnali” (Decreto legislativo 30 giugno 2003, n. 196 (Testo Consolidato Vigente)  CODICE IN MATERIA DI PROTEZIONE DEI DATI PERSONALI – ART. 4 – 2c).

Non a caso i migliori data center sono vere e proprie fortezze blindate: spesso sono sorvegliati da guardie armate e l’accesso è consentito solo alle persone autorizzate, attraverso sistemi di controllo regolati attraverso soluzioni di identificazione univoca come badge magnetici, card RFID, soluzioni biometriche.

Un altro criterio di sicurezza e la compartimentazione dei data center ai dipendenti, in modo da garantire l’accesso solo a determinate sale e zone del data center, negando l’ingresso ad altre aree. I rack dove sono ospitate le macchine spesso sono chiuse a chiave con serrature particolari, proprio per potenziare la salvaguardia dei sistemi.

La sorveglianza prevede l’utilizzo di videocamere e impianti di allarme associati al motion detection e all’uso di una sensoristica avanzata per il rilevamento di fumi, effrazioni e qualsiasi altra anomalia. A questi sensori sono collegati dei sistemi di chiusura porte antincendio automatizzate e meccanismi di controllo che interrompono l’alimentazione dei dispositivi e dei gruppi elettrogeni, per evitare che le fiamme possano alimentarsi ulteriormente. I sensori regolano poi l’intervento del sistema antincendio vero e proprio che interviene sulle fiamme con gas inerte (un composto atossico a base di acqua e azoto), che non lascia residui e permette l’intervento senza pericolo nei locali da parte del personale autorizzato.

Per quanto riguarda la sicurezza logica dei dati, i data center implementano firewall, sistemi antintrusione (IDS) per sorvegliare i server, sistemi di monitoraggio permanente dei servizi di rete e dei sistemi per il controllo degli accessi digitali e la prevenzione degli attacchi. Un altro asset della governance è la definizione di politiche di Disaster Recovery che prevedono la replica sincrona e asincrona di un data center su un’altra infrastruttura che rappresenta l’esatto clone del primo e che si trova in una zona geografica diversa, proprio per azzerare l’impatto sulla business continuity.

Come si alimenta un data center

Responsabili dell’alimentazione dei data center è un insieme di sottosistemi e componenti elettrici che sono il fattore di costo più significativo oltre che l’elemento di criticità rispetto ai tempi di fermo delle infrastrutture ospitate nella server farm.

Il sistema di distribuzione elettrica di un data center è costituito da un trasformatore, un generatore di backup, uno switch, un quadro elettrico di distribuzione, un gruppo di continuità e un’unità di distribuzione dell’alimentazione (PDU). Questo cluster alimenta a sua volta una serie di circuiti collegati in modo multiplo a ciascun armadio IT, tramite un cablaggio conservato in canaline rigide o flessibili situate sotto il pavimento flottante.

All’insegna della ridondanza, ogni catena di alimentazione viene clonata all’interno dei data center a seconda della certificazione Tier III o Tier IV a cui il data center fa riferimento. A questa ridodanza si uniscono percorsi di potenza preferenziali e sistemi bypassanti come gli STS (Static Transfer Switch), capaci di spostare l’alimentazione da una linea di alimentazione proveniente da un power center a un’altra linea di alimentazione proveniente da un altro power center, senza disservizio per il carico.

data center cos'è

Quanto consuma un data center

Secondo uno studio della Fondazione Politecnico di Milano, un datacenter di grandi dimensioni dislocato in un unico edificio può arrivare a consumare 3.000 Kilowatt, ovvero quanto 1.000 appartamenti. Per una piccola e media impresa si può stimare un assorbimento medio di circa 300 Kilowatt. In Italia si stima ci siano circa 3.000 data center il cui consumo totale si aggira intorno a 1 Gigawatt (circa 1/50 del consumo nazionale totale).

data center cos'è

La maggior parte dei consumi di un data center derivano dal sistema di raffreddamento deputato a mantenere una temperatura costante degli ambienti: tra i 20/22°C sia d’inverno che d’estate. I sistemi che rimuovono il calore dai Data Center comprendono le unità CRAC (condizionatori per i locali che ospitano i computer) e i sottosistemi ad esso associati, come chiller, torrette di raffreddamento, condensatori, condutture, gruppi di pompe, tubazioni e sistemi di raffreddamento per rack o file. I costi di condizionamento dipendono molto dalla locazione del data center: per questo molti provider costruiscono data center in zone del mondo notoriamente più fresche come l’Islanda, dove vengono utilizzati i venti freddi del Nord per il raffreddamento delle infrastrutture IT senza l’utilizzo di apparecchiature di condizionamento forzato o la Finlandia, dove possono utilizzare l’acqua fredda del mare e gli scambiatori di calore per raffreddare i server.

Dal momento che i consumi di un data center impattano sull’ambiente a causa delle emissioni nocive, i governi hanno diramato indicazioni precise volte a ridurre il carbon footprint.

Per eseguire i calcoli dell’efficienza del datacenter, è fondamentale definire chiaramente quale energia costituisce il carico IT e quale energia è relativa all’infrastruttura fisica. La designazione di server e dispositivi di archiviazione come carico IT e di UPS e unità di raffreddamento/trattamento dell’aria come infrastruttura fisica è ovvia; esistono tuttavia molti sottosistemi con elevato consumo energetico nel datacenter con una collocazione meno ovvia nel calcolo dell’efficienza, inclusi aree del personale, interruttori e Network Operations Center (NOC).

Che cos’è e come si calcola il PUE di un data center

Per calcolare quanto sia efficiente di un data center nell’usare l’energia che lo alimenta, l’unità di misura uilizzata è il PUE (Power Usage Effectiveness). Si tratta di un paramentro che stabilisce quanta potenza elettrica sia dedicata all’alimentazioni degli apparati IT rispetto ai servizi ausiliari come il condizionamento o le perdite degli UPS.

In dettaglio, il PUE è il rapporto tra la potenza totale assorbita dal data center (PT) e quella usata dai soli apparati IT (PIT). Un valore di PUE pari a 1 (misura ottimale) indica che tutta l’energia assorbita dall’impianto viene utilizzata per gli apparati IT. In base alle valutazioni del consorzio Green Grid (che ha definito il PUE) e dell’agenzia EPA, il valore medio attuale di PUE per i data center in tutto il mondo si aggira intorno a 1,8, ad indicare che in consumi energetici non-PIT (come il condizionamento degli ambienti, l’illuminazione, le perdite energetiche, ecc.) sono mediamente pari all’80% del valore PIT, ovverosia a circa il 45% della potenza complessivamente assorbita dal data center (PT).

data center cos'è

Al momento il data center che presenta il valore di PUE più basso (1,08, consumi non-PIT pari a circa il 7,5% di PT) appartiene a Yahoo! ed è stato costruito nelle vicinanze delle Cascate del Niagara.

Data center virtuale: che cos’è il Software Defined Data Center (SDDC)

Grazie alla virtualizzazione e al cloud i data center si sono ulteriormente evoluti attraverso nuove logiche di gestione all’insegna dell’ottimizzazione secondo i nuovi approcci dell’as service, del pay per use.

A spingere a un a virtualizzazione dei data center l’adozione sempre più ampia dei server e desktop x86, che ha amplificato nei data center i problemi di sottoutilizzo dell’hardware (usato in media solo a un 10-15% della sua capacità reale nelle situazioni migliori fino al 40-50% in quelle peggiori). Non è solo una questione di malagestione delle risorse: server e apparati hardware, anche quando non eseguono applicazioni e lavoro, costano comunque perché consumano energia di alimentazione e richiedono energia per il loro raffreddamento.

La proliferazione di isole informatiche e sistemi eterogenei legata all’aumento delle procedure ICT accresce anche la complessità e i costi in manutenzione e personale con competenze specialistiche. Anche la gestione e protezione delle postazioni desktop diventa sempre più complessa, per via della costante necessità di applicare aggiornamenti e patch di riparazione delle vulnerabilità.

Il consolidamento di questi server attraverso la virtualizzazione consente di recuperare efficienza, ottimizzando l’utilizzo dell’hardware, riducendo i consumi e semplificando la gestione. Grazie alla virtualizzazione, infatti, il consolidamento all’interno delle macchine server fisiche di numerose macchine server virtuali, configurabili via software, permette di ridurre l’infrastruttura hardware.

data center cos'è

Lo stadio e il miglioramento successivo rispetto alla virtualizzazione delle risorse hardware consiste nella transizione verso un’architettura IT cloud-enabled: una nuova piattaforma capace di fornire via software tutte le risorse (CPU, memoria, storage, ecc.) in modalità di servizio.

Il punto di arrivo di questo lungo percorso? È il Software-Defined Data Center (SDDC), in cui tutta l’infrastruttura IT è completamente virtualizzata: dai server fisici agli apparati di rete, dai dispositivi di storage alle applicazioni.

Come funziona un Software Defined Data Center

Nel Software-Defined Data Center (SDCC) la programmabilità della rete e la gestione agile ed elastica dei pool di risorse IT e dei workload via software si sostituisce alla macchinosa e dispendiosa logica di amministrazione dei silos informativi stratificati e separati, e ciò permette di introdurre una automazione e capacità di controllo delle risorse stesse anche di tipo vendor-agnostic, cioè indipendente dalla tipologia e provenienza degli apparati hardware esistenti.

Come accennato, nel modello del SDDC, per ottenere i massimi benefici di amministrazione, la virtualizzazione delle risorse è spinta all’estremo, abbracciando ogni componente dell’infrastruttura IT: server e computer, apparati di networking, apparati di storage, applicazioni e servizi. Si arriva così all’IT as-a-Service (ITaaS).

data center cos'è

In maniera analoga ai layer software di controllo delle varie macchine virtuali, cioè gli hypervisor, lo stesso modello operativo della virtualizzazione può essere applicato anche al networking. Anche i dispositivi di rete (switch, router, hub e via dicendo) si possono virtualizzare, attraverso un network hypervisor, uno strato di intelligenza software in grado di governare, e orchestrare in modo armonico, tutte le porte di rete, fisiche e logiche. L’unica condizione necessaria è poter fare affidamento sulla capacità di trasporto dei pacchetti da parte della rete fisica sottostante. Allo stesso modo, questo modello è applicabile anche per gli apparati di storage (storage as-a-Service), così come ad ogni altro dispositivo: ad esempio gli apparati di security.

Nel caso specifico dello storage, è importante sottolineare che il modello SDDC permette di integrare nell’infrastruttura non solo gli storage array dedicati, ad alte prestazioni, per workload mission-critical, ma anche hardware commodity e DAS (direct attached storage), ossia gli hard disk interni di macchine server, PC desktop e laptop.

Proprio perché oggi la virtualizzazione delle risorse IT sta diventando pervasiva, e dando luogo a una proliferazione di macchine virtuali, nel paradigma SDDC anche gli strumenti di gestione (monitoraggio, creazione, rimozione, eliminazione, configurazione, allocazione, spostamento) degli oggetti virtuali acquisiscono una particolare valenza. Il riferimento è ai tool software già predisposti in maniera nativa per governare (provisioning, self-service, reporting, automazione) infrastrutture ibride, costituite da componenti fisici e virtuali.

IT as a Service: così il data center diventa on demand e pay per use

Raggiungere il modello architetturale del Software-Defined Data Center è oggi una condizione essenziale per implementare in azienda una reale IT as-a-Service (ItaaS). Il percorso di migrazione deve passare attraverso una virtualizzazione pervasiva, estesa cioè a tutti i componenti: server, rete, storage, servizi. I benefici ottenibili si misurano in un incremento dell’agilità di amministrazione declinabile in ogni area IT.

Se ieri il possesso di sistemi e macchine era un fattore imprescindibile dell’ICT oggi iniziano ad affermarsi modelli ibridi (hybrid cloud). Per il futuro le previsioni degli analisti sono che le aziende esternalizzeranno i loro data center affidando le loro infrastrutture a provider specializzati.

data center cos'è

Un’altro aspetto della governance dei data center è l’iperconvergenza. Alla base dell’iperconvergenza c’è una nuova intelligenza del software. Il modello chiavi in mano è il seguente: un fornitore consegna un insieme preconfigurato di hardware e software in un singolo chassis per minimizzare i problemi di compatibilità fra differenti componenti e razionalizzare la gestione di tutta l’infrastruttura.

Insomma lo sviluppo dei data center si basa sempre più sul concetto di agilità fondata in particolare su modalità di erogazione dei servizi che consentono di automatizzare il provisioning delle risorse e ottimizzare il reporting delle voci di consumo e dei costi associati, nonché di applicare modelli d’uso improntati a una fruibilità di tipo self-service e on-demand.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2