DATA CENTER ITALIA

Data center in Italia: tutto ciò che serve sapere, cosa sono e cosa offrono alle aziende

Data Center, quello “spazio” che ospita server, storage, sistemi di rete e connettività, gruppi di continuità, impianti di raffreddamento e sistemi di sicurezza… insomma e tutte le apparecchiature che consentono oggi di “tenere in piedi” un’azienda. Cerchiamo allora di capire cosa sono e che vantaggi offrono alle aziende.

Pubblicato il 03 Dic 2018

Antonello Salerno

Data Center

Cosa sono i Data Center

Alla base della digital transformation, e più in generale dell’economia digitale, ci sono infrastrutture che gli utenti non vedono, i Data Center. Sono gli edifici in cui viene custodito quello che Alec Ross, “guru” della tecnologia ed ex consigliere di Hillary Clinton, ha definito “il petrolio del futuro”: i dati. Insieme ai dati aziendali, però, i Data Center hanno in sé anche “il cuore” del business, gli strumenti cioè che governano i processi e i servizi, insieme alla comunicazione, come i server, i sistemi di archiviazione, i programmi per il monitoraggio del funzionamento delle macchine, dei servizi, delle applicazioni e delle reti.

La struttura e l’offerta dei Data Center in Italia e su scala globale sta progressivamente cambiando ed evolvendosi man mano che i processi economici sono sempre più basati sul digitale. Così se qualche anno fa a un’azienda poteva bastare uno sgabuzzino refrigerato in cui ospitare server e hard disk, oggi – man mano che i processi di business e quelli di produzione si digitalizzano – i dati aziendali hanno bisogno di più spazio, consumano più energia e richiedono requisiti di sicurezza molto stringenti: la loro perdita o compromissione potrebbe infatti  causare gravi danni in termini di competitività. Così dal vecchio Ced, il centro elaborazione dati interno, si passa prima al Data Center interno e proprietario e oggi sempre più all’hosting, all’housing e alla colocation, fino ad arrivare al Cloud Data Center.

Che soluzioni e servizi offrono i Data Center

Mentre l’offerta di Data Center in Italia si sta spostando su strutture dedicate, che mettono le macchine a disposizione dei loro clienti (hosting Data Center), concedendole “in affitto”, o semplicemente offrendo spazi in cui le aziende possono installare i propri calcolatori, e gestirli a distanza (hosting remoto), con il cosiddetto housing Data Center, o Colocation, cresce anche l’offerta di servizi che i Data Center sono in grado di mettere a disposizione dei propri utenti. Nella consapevolezza che il gioco inizia a essere molto competitivo, e che la partita si gioca spesso oltre che sui requisiti di sicurezza, sui prezzi, che scendono se si riescono a fare economie di scala, e sui servizi a valore aggiunto che una società di Data Center è in grado di offrire.

Alla base di tutto, in ogni caso, c’è sempre un sistema di connettività, necessariamente “ridondato”, quindi duplicato per non perdere mai la possibilità di accedere ai dati e avere sicurezza della continuità operativa.

L’offerta dei Data Center, mirata normalmente con soluzioni personalizzabili alle aziende pubbliche e private, dalle Pmi ai grandi gruppi, parte dal caso delle società che oggi gestiscono in casa almeno una parte dei propri sistemi IT, mettendo a loro disposizione spazi performanti e affidabili per collocare i propri sistemi di Infrastruttura primaria o di disaster ricovery. Per assicurare le performance, quali velocità e tempi di latenza nel trasferimento dei dati ogni volta che sia necessario, e per mettere le basi per la creazioni di “ecosistemi” di rete dinamici modellati sulle esigenze dei clienti, i Data Center possono contare su reti in fibra ottica ridondata, che contribuisce grazie all’alta capacità e alla bassa latenza alla virtualizzazione ottimale dei servizi e di conseguenza al miglioramento della flessibilità e della reattività operative, assicurando la business continuity e un drastico ridimensionamento per i clienti degli investimenti necessari alla realizzazione delle infrastrutture fisiche. All’interno dei Data Center i clienti possono normalmente usufruire dei servizi di server, storage e networking.

 

I Data Center e la sicurezza

Tra i requisiti principali c’è la sicurezza: dal versante interno prendendo tutte le precauzioni perché l’accesso nei locali sia regolamentato con estrema attenzione e consentito soltanto alle persone autorizzate, garantendo la continuità dell’alimentazione elettrica per tutte le necessità tramite gruppi di continuità e il raffreddamento delle macchine con sistemi di climatizzazione. Quanto alla sicurezza dall’esterno, deve essere garantito che l’area in cui nasce il Data Center non sia a rischio idrogeologico, e che la struttura dell’edificio presenti il massimo della resistenza a ogni genere di sollecitazione e stress.

La classificazione dell’affidabilità impiantistica dei Data Center prevede quattro livelli: si parte da Tier I, il livello base, in cui i “black out” possono arrivare a 30 ore annuali, per una continuità operativa garantita al 99,671%. Il Data Center Tier I è caratterizzato dal non avere ridondanze nella rete elettrica e in quella per il raffreddamento, e dal dover essere “spento” per rendere possibili gli interventi di manutenzione. Le prestazioni e i livelli di affidabilità aumentano progressivamente fino al Tier IV, che garantisce una continuità operativa al 99,995%, con fermi in un anno complessivamente inferiori alla mezz’ora, e che rendono possibili le attività di manutenzione senza incidere sulle prestazioni complessive della struttura. Alimentazione e raffreddamento sono inoltre completamente ridondati e sono disponibili generatori, gruppi di continuità e pavimenti flottanti.

I Data Center in Italia

L’offerta di Data Center in Italia e abbastanza ampia e soprattutto in rapida crescita. Stando alle rilevazioni del sito datacentermap.com, nella sezione che fotografa la situazione dei Data Center disponibili alla colocation, l’Italia conta oggi su 69 strutture, su un totale globale di 4.324 distribuiti in 122 Paesi. Solo per dare un’idea del ritmo di crescita, basti pensare che i Data Center in Italia erano 55, quindi 14 in meno rispetto a oggi, nel 2016. La distribuzione geografica è abbastanza omogenea, e tocca le città di Ancona, Arezzo (3), Ascoli Piceno, Bari, Bergamo (2), Bologna (3), Brescia, Castel San Pietro Terme, Catania (2), Città S. Angelo, Firenze (2), Genova, Lucca, Manocalzati (2), Milano (23), Padova (2), Palermo (2), Piacenza, Pisa,   Pordenone, Roma (7), Torino (4), Treviso (2), Udine (2) e Venezia (2).

Il confronto con i Paesi più vicini dell’Unione Europea vede i Data Center in Italia un po’ al di sotto degli altri Stati dell’area: in Francia ce ne sono 147, in Germania 190, nel Regno Unito 249, in Olanda 94. L’Italia rimane comunque al di sopra della Spagna (58) e della Grecia (14).

Secondo una recente ricerca di Dcd Intelligence, inoltre, lo spazio totale dedicato ai Data Center in Italia al 2017 copriva 550 mila metri quadrati. Di questi il 70% è “privato”, mentre il 30% è quello dedicato a colocation/cloud o gestito dalle telco. Le previsioni sugli investimenti riportano di una crescita pari circa al +1/2% l’anno da qui al 2020. I punti deboli, secondo lo studio, per la crescita dei Data Center in Italia vengono identificati nei rischi sul fronte naturale/climatico, socio/politico, economico e della convenienza energetica, mentre la disponibilità di competenze si attesta sopra alla media degli altri Paesi Ue.

Perché scegliere un Data Center in Italia

Ma perché per le aziende è importante scegliere un Data Center in Italia? Il primo tema è quello del Gdpr, la General Data Protection Regulation, che ha iniziato a essere applicata dal 25 maggio 2018 e che impone che i dati dei cittadini europei siano conservati in strutture sul territorio comunitario, anche quando a gestirli sono società con headquarter fuori dall’Ue. Quello del Gdpr è un richiamo alla territorialità che potrebbe essere replicato, come alcuni operatori auspicano, anche su scala nazionale. Normalmente affidarsi a un hosting provider e a un Data Center locale, quindi relativamente vicini alle aziende o alle grandi e piccole pubbliche amministrazioni che se ne servono, è considerato un valore aggiunto sia in termini di privacy, sia per la disponibilità dei dati, perché in ottica di Data Protection conoscerne l’esatta localizzazione è un elemento che aumenta il livello di sicurezza delle informazioni, comprese quelle private e sensibili.

C’è poi da considerare un altro elemento: la digital transformation che sta coinvolgendo il pianeta vede l’Italia nella posizione particolare di un Paese dove il tessuto economico è sostenuto principalmente dalle piccole e medie imprese locali: la loro trasformazione digitale è destinata per forza di cose a passare dai Data Center e dal cloud, perché questo vorrebbe dire fare economie di scala dal punto di vista energetico e più in generale per una serie di spese, rendendo più agile ed efficiente la fase di transizione. E poter contare su Data Center per quanto possibile “di prossimità”, anche se non troppo polverizzati sul territorio, potrebbe essere una garanzia di una migliore assistenza al cliente e di prestazioni più “tailor made” per il tessuto produttivo locale.

Hosting o housing: cosa è più conveniente?

I servizi messi a disposizione dai Data Center sono essenzialmente di tre generi: in hosting, in housing e in cloud.

Nel primo caso il cliente ha a disposizione uno spazio, che sia dedicato a ospitare un sito internet, un server virtuale o lo storage di dati. La convenienza è quella di non dover avere server o storage proprietari, non doversi occupare direttamente dei costi e delle operazioni di manutenzione, non dover affrontare direttamente le spese per l’alimentazione delle macchine e il loro funzionamento. Le risorse concesse possono essere pensate inoltre su misura per il cliente, che in questo modo non si dovrà trovare a implementarle direttamente, ma utilizzerà le risorse del Data Center a seconda delle necessità e in modalità pay-per-use.

L’Housing è invece pensato per le aziende o le pubbliche amministrazioni che hanno già o preferiscono utilizzare per diversi motivi server proprietari: in questo caso il Data Center mette a disposizione lo spazio fisico per ospitarli rispettando il massimo dei requisiti di sicurezza: il cliente potrà utilizzare i “rack”, gli armadi in cui sistemare le proprie macchine, che siano server o storage, assicurandosi in questo modo una possibilità in più per eventuali piani di bakup. Anche in questo caso l’azienda o la PA eviterà di doversi occupare direttamente della manutenzione e della gestione degli impianti tecnologici di raffreddamento e continuità, semplificando notevolmente le operazioni.

Quanto al cloud, basterà un accenno per dire che è una tendenza in ascesa costante negli ultimi anni, e che prevede la fornitura dei servizi on demand, senza un canone fisso.

Perché una Pmi dovrebbe scegliere l’hosting o l’housing?

Non si può dire in linea di principio quale delle soluzioni convenga a ogni genere di azienda o di pubblica amministrazione, perché non c’è una ricetta buona per tutte le stagioni. Il management è chiamato volta per volta a valutare con attenzione ogni situazione e a tenere ben presente il rapporto costi/benefici rispetto alla propria situazione specifica e ai propri piani di business: soltanto dopo questo assessment sarà possibile prendere in considerazione e scegliere la soluzione più adatta per le proprie esigenze.

L’esigenza delle Pmi è quella, soprattutto in fase di set-up dei sistemi, di avere un Data Center vicino, con un’assistenza qualificata e consapevole delle esigenze del cliente: in questo quadro spesso le società che gestiscono i Data Center possono essere considerate come veri e propri partner, in grado di consigliare e guidare le imprese verso le soluzioni più adatte alle loro necessità, aiutandole a centrare l’obiettivo di risparmiare mantenendo il pieno controllo sui propri processi.

Al di là di tutti i possibili casi particolari, per dare un quadro il più possibile attendibile delle differenze tra hosting e housing e di quando l’uno possa essere più conveniente dell’altro ci sono alcuni criteri generali da considerare:

in generale l’hosting è la scelta più consigliata quando si dispone di budget molto limitati e di volumi di traffico non troppo alti, senza avere in azienda competenze tecniche di gestione di webserver adeguate.

L’housing è invece generalmente consigliati nei casi in cui generino volumi di traffico alti, e si utilizzano database o tecnologie particolari che si vuole rimangano fisicamente all’interno dei propri server.

Il Cloud Data Center

Il Data Center virtuale, ossia il cloud Data Center, è un’evoluzione dei Data Center tradizionali: non soltanto server fisici, quindi, ma anche macchine virtuali, che sono in grado di razionalizzare e rendere ottimale l’utilizzo delle risorse hardware, ottenendo per altro anche una riduzione sensibile dei consumi energetici e rendendo più semplice la gestione dei sistemi e dell’intero Data Center. La “virtualizzazione” dei Data Center ha così dei vantaggi in termini di costi per l’utente, che non deve più occuparsi della manutenzione dell’infrastruttura e può continuare a gestire i propri dati nel massimo della comodità da remoto.

Pensando alla parte infrastrutturale dei sistemi IT di un Data Center, nel modello cloud questa prende il nome di “Iaas”, Infrastrutture as a service, una modalità di fruizione delle infrastrutture di una Data Center (server, storage, connettività) che consente alle aziende di risparmiare notevoli quantità di tempo per la messa a punto del sistema, non essendo necessarie installazioni di server, ma semplicemente una fruizione “on demand” in base alle proprie necessità. In altre parole, si utilizzano le risorse (come accennato server, storage e connettività) come se fossero un servizio, pagando quindi una sorta di “canone di utilizzo” e non l’acquisto.

Per semplificare ulteriormente, l’utente “affitta”  l’infrastruttura IT, quindi server e virtual machines, le reti e i sistemi operativi, le risorse di archiviazione, ecc.; il provider che eroga questi servizi chiederà un pagamento pay per use, in base al consumo effettivo delle risorse consumate dall’azienda.

In questo contesto l’utente può scegliere, sempre in ambito cloud, tra tre possibilità: cloud privato, pubblico o ibrido.

Cloud privato (private cloud)

Quando parliamo di cloud privato ci riferiamo a un ambiente virtuale destinato esclusivamente a un cliente, che si garantirà in questo modo il massimo della privacy e della sicurezza, ottenendo il pieno controllo sulla rete, tanto da poterla configurare e gestire online in tempo reale a seconda delle proprie necessità.

Solitamente le aziende ricorrono ad un private cloud quando desiderano avere il massimo dei benefici del cloud computing (virtualizzazione e automazione dei sistemi, allocamento dinamico delle risorse server, storage e networking in base alle specifiche esigenze applicative) ma, spesso per ragioni di sicurezza e compliance, desiderano mantenere il pieno controllo sulle proprie infrastrutture mantenendole quindi all’interno del proprio Data Center aziendale (da qui il concetto di “privato”) oppure in colocation in un Data Center di un provider ma, anche in questo caso, lasciando all’azienda il pieno controllo delle proprie risorse DC.

Cloud pubblico (public cloud)

Il cloud pubblico, invece, fa riferimento al modello cloud che, come consumatori, tutti conosciamo, quello dell’accesso remoto alle risorse che sono dislocate in uno o più Data Center di provider pubblici, fornitori che erogano servizi cloud (dalle infrastrutture alle applicazioni) ad aziende e persone semplicemente facendone pagare il consumo (e non più la licenza).

Un’azienda che sceglie di adottare servizi di public cloud, quindi, non dovrà acquistare alcun tipo di sistema (né hardware né software) ma semplicemente sfruttare le risorse di un Data Center utilizzandole con una connessione Internet e una pagina, un portale, una dashborad web.

Quella del cloud pubblico è la modalità più diffusa soprattutto tra le piccole aziende, le startup e i professionisti, che hanno bisogno di sistemi meno complessi e possono razionalizzare i costi e ottimizzare le prestazioni di una infrastruttura IT “affittandola” dal provider, che ne mantiene la proprietà.

Per le complessità IT dei grandi gruppi è invece spesso più indicato il cloud privato, che consente soluzioni personalizzate e su misura che possano adattarsi al bagaglio IT che l’azienda ha visto stratificarsi nel tempo (oltre al fatto che, come accennato, il private cloud consente alle aziende di avere ancora la proprietà dei propri sistemi i quali diventano però dinamici e flessibili proprio grazie a virtualizzazione, consolidamento e poi automazione delle risorse affinché l’azienda stessa possa fruirne in modalità “as a service” pur avendo “in casa” il Data Center).

Cloud ibrido (hybrid cloud)

Il cloud ibrido è la “via di mezzo”, ossia quel modello di cloud computing che permette alle aziende di sfruttare i vantaggi di entrambi i modelli cloud (private e public).  In uin modello di hybrid cloud, l’infrastruttura IT viene mantenuta sia all’interno del Data Center aziendale sia all’interno di un Data Center di un service provider: il tutto viene governato con sistemi di gestione e automazione che permettono di condividere le risorse, i dati ed i servizi fra i due Data Center

L’hybrid cloud rappresenta di fatto una soluzione “su misura” che unisce la sicurezza e l’ambiente a proprio uso esclusivo del cloud privato – per alcune infrastrutture e applicazioni – e lascia invece altre risorse sul cloud pubblico per accedervi quando necessario, per esempio quando c’è un momentaneo bisogno di risorse storage o server aggiuntive, acquistando il servizio tramite cloud pubblico solo per il tempo necessario.

Il cloud ibrido può essere la via ideale per conciliare il controllo dei costi con le esigenze di sicurezza più stringenti ma anche la necessità di poter gestire in modo agile le risorse IT in funzione delle reali esigenze del business.

Le criticità del cloud

Illustrata per sommi capi l’offerta, rimane da affrontare il tema degli aspetti problematici del cloud. In primo luogo c’è da ricordare che si tratta di un’offerta online, che può garantire quindi le proprie prestazioni in presenza di una qualità efficiente della connessione a Internet. La conseguenza è che le aziende che hanno sede in aree in digital divide o scarsamente servite dalla banda ultra larga potrebbero incontrare problemi. Di certo i passi avanti negli ultimi anni in Italia sono stati grandi in questo campo, ma non si può ancora dire che il problema sia completamente risolto. Al di là di questo aspetto, inoltre, rimane la necessità di fare molta attenzione ai termini e alle condizioni del servizio al momento della sottoscrizione di un contratto, e avere ben chiaro che cambiare provider o tornare on premises in un secondo momento potrebbe rivelarsi complicato a causa del cosiddetto “vendor lock-in”, ossia della difficoltà di integrare sistemi diversi e, soprattutto, migrare risorse da un ambiente ad un altro (costringendo quindi l’azienda a rimanere ancorata, da qui il termine lock-in, ad un vendor di riferimento).

Iaas, Infrastructure as a service

Entrando un po’ più in dettaglio del cloud di tipo infrastrutturale (Iaas, Infrastructure as a service), possiamo dire che si tratta di un’infrastruttura che l’azienda cliente può gestire tramite Internet, in modalità pay per use, che garantisce la massima scalabilità verticale.

Questo mette l’utente nella condizione di non doversi occupare di questioni particolarmente complesse come la scelta e la gestione dei server, dal momento che la gestione dell’infrastruttura spetta al cloud provider, ma di potersi concentrare su tutto ciò che riguarda l’aspetto software, dall’acquisto all’installazione, dalla configurazione alla gestione.

L’utilizzo dell’Infrastructure as a service è particolarmente indicata per alcuni specifici scenari aziendali, come ad esempio nel caso delle startup, dal momento che abbatte le spese iniziali per la messa in opera di un Data Center privato, e per gli ambienti di test e sviluppo delle applicazioni che hanno bisogno per definizione di agilità per poter ottenere un time to market e un livello di costi ottimale.

Per le stesse identiche ragioni (accesso facilitato a risorse infrastrutturali senza dover acquistare l’hardware), l’Iaas è particolarmente indicata per l’high performance computing e per i big data analytics (perché permette alle aziende di sfruttare grandi capacità di calcolo per fare avanzati processi di analisi senza dover necessariamente dotarsi delle costose infrastrutture che questi processi richiedono), oltre che risultare conveniente per l’hosting di siti web, o per le soluzioni di archiviazione, backup e ripristino, contribuendo a costi contenuti alla continuità aziendale e a eventuali ripristini di emergenza.

L’Iaas va inoltre incontro alle esigenze delle app mobile e per il Web: dal momento che in questi casi non si può prevedere la richiesta (ossia l’accesso alle risorse delle app da parte delle persone, che può anche avere picchi improvvisi), una soluzione as a service potrebbe rivelarsi la più adatta per affrontare la situazione in tempo reale in modo rapido e conveniente con la scalabilità verticale. In questo caso spesso le aziende ricorrono ai cosiddetti Virtual Private Server (VPS) da tenersi nel proprio Data Center (in un modello di private cloud) o accessibile tramite un service provider (nel modello del cloud pubblico o ibrido) che offrono le risorse necessarie, virtualizzate, “nel momento del bisogno”, per esempio, come accennato, per far fronte ad un improvviso picco di accessi ad una app aziendale.

Data Center in Italia: l’importanza di Disaster recovery, Business continuity e Business resilience

I rischi o gli imprevisti quando si tratta della gestione dei dati aziendali sono sempre dietro l’angolo, e sul modo di affrontarli o risolverli si basa una fetta importante dell’efficienza e della credibilità di una società, oltre che, nei casi più gravi, la sua stessa sopravvivenza. Se da una parte si potrebbe dire che nessuno è al sicuro, come dimostrano ad esempio gli attacchi informatici Wannacry (che nel 2017 ha mandato in tilt per diverse ore parti consistenti del sistema sanitario britannico), o le conseguenze di alcune catastrofi naturali, dall’altra si deve però aggiungere che oggi è possibile proteggersi in modo molto mirato da attacchi informatici ma anche da incidenti o eventi estremi, assicurandosi che le  informazioni affidate ai Data Center non vadano perse, che si possa dare piena continuità ai servizi, senza interruzioni, e che si possa individuare in tempo reale il modo migliore per risolvere la situazione, mettendo in campo con flessibilità è “intelligenza” tutte le contromisure necessarie.

E’ proprio questo il senso – oltre che una definizione elementare – di Disaster Recovery, Business Continuity e Business Resilience: non si tratta di sinonimi, ma di tre metodologie (e relativi approcci tecnologici) che consentono di affrontare malfunzionamenti o momenti di crisi nei Data Center, che assicurano ovviamente livelli di protezione e di risposta differenti.

In questo percorso, l’utilizzo del cloud e la virtualizzazione dei Data Center può essere una risposta efficace a minimizzare i rischi e gestirli in tempo reale, riducendo sempre al minimo i danni. Se dovessimo individuarne le caratteristiche principali, a grandi linee dovremmo dire che il Disaster Recovery è un modo di reagire a una situazione di emergenza dopo che si è verificata, la Business Continuity è ciò che si fa mentre l’imprevisto si sta verificando per impedire che ci sia un’interruzione delle attività, e la Business Resilience è tutto ciò che si può fare – soprattutto in maniera preventiva – per ridurre al minimo l’impatto dei problemi ai Data Center.

Primo step indispensabile, il Disaster Recovery

Il primo step da affrontare è quello di assicurare che i dati non vadano persi. Vuol dire in pratica poterne salvare una copia in un luogo diverso da quello in cui c’è l’originale, per scongiurare l’eventualità che la distruzione o il tilt di un Data Center possa comportare la distruzione di database, dati e applicazioni custoditi all’interno delle infrastrutture.

Ogni azienda deve avere un proprio piano di Disaster Recovery, che consenta una volta che si è verificato l’incidente – o l’attacco – di sapere esattamente come comportarsi per ripristinare i servizi. Questo vuol dire aver pianificato anche come ripristinare i sistemi.

Per non  farsi trovare impreparati, una volta implementato un piano di Disaster Recovery sarà importante anche testarlo sul campo, con prove e simulazioni che ne dimostrino l’efficacia. I piani di Disaster Recovery si misurano essenzialmente su due parametri: il recovery time objective (Rto), quindi il tempo massimo che può durare un’interruzione, e il recovery point objective (Rpo), che rappresenta il “punto di ripristino”.

Il concetto di Disaster Recovery applicato ai Data Center è evidentemente il primo dei passi da fare per mettere in sicurezza il patrimonio IT ed i dati di un’azienda, ed è abbastanza semplice dedurre che molte delle priorità di una piano di Disaster Recovery possono essere oggi risolte in modo semplice ricorrendo a Data Center in cloud e distribuiti, per dare vita a piani integrati che possano garantire la sicurezza di informazioni e sistemi in modo più agile rispetto a quanto non sia in grado di fare un Data Center proprietario all’interno delle mura aziendali.

Business Continuity: guardare alla continuità operativa per salvaguardare il business

La Business Continuity si spinge un passo più in là rispetto al concerto di Disaster Recovery, e rappresenta il piano che una società mette a punto perché, in caso di incidenti o attacchi, possa mantenere la piena operatività senza momenti di blocco nella produzione o nell’erogazione dei servizi.

Si tratta di un requisito sempre più richiesto man mano che le preoccupazioni si spostano dalla semplice sicurezza dei dati alla necessità di essere “always on”, con l’obiettivo di azzerare i danni economici e d’immagine dovuti ai blocchi e mantenere la continuità operativa.

Ovviamente il ruolo del cloud in uno scenario da “Zero downtime” diventa progressivamente più importante, perché consente di mettere a punto architetture pensate proprio per rispettare questo genere di requisiti. Più in generale, in ogni caso, per garantire la Business Continuity è necessario che i dati siano sincronizzati su più di un Data Center, consentendo così ai sistemi di poter girare e attingere informazioni da una fonte “di riserva” nel momento in cui si verifichi un incidente. Anche in questo caso, per assicurare la Business Continuity è necessario predisporre un piano e verificarne l’efficacia con una serie di test sul campo.

La vera sfida è la Business Resilience

Con la Business Resilience si compie un ulteriore passo in avanti nella capacità delle aziende di essere “always on” e preparate a qualsiasi “intoppo”: non soltanto si assicura la disponibilità dei dati e la continuità del servizio, ma si mette a punto un sistema che sappia essere flessibile e adattarsi al meglio delle esigenze che potrebbero emergere da un incidente, da un attacco informatico o da un evento naturale calamitoso. Questo fin dal principio, partendo cioè anche dallo sviluppare tutte le possibili contromisure per prevenire le cause e ridurre sia la probabilità dei danni sia la loro portata. La caratteristica principale di questo approccio è l’agilità, con la conseguenza di dare per ogni situazione la soluzione migliore in termini di tempi, prestazioni e costi.

Un obiettivo che si può raggiungere grazie alla virtualizzazione e al cloud, che consentono di adattare le infrastrutture in modo semplice e dinamico alle esigenze di business. Tuttavia, rendere operativo un piano di Business Resilience significa per un’azienda mettere a punto una strategia che consenta il massimo della sicurezza in termini di prevenzione e rapidità di risposta, in qualche modo considerando anche i concetti di Disaster Recovery e Business Continuity in un approccio integrato che coinvolga ogni ambito dell’azienda in termini di strategie, di processi e di tecnologie.

Una delle caratteristiche per potersi organizzare come azienda verso la Business Resilience (e garantire la Business Continuity prima di tutto) è quella di poter avere a disposizione un Data Center Tier IV equivalent/compliant le cui caratteristiche di totale ridondanza assicurano alle aziende tempi di operatività del 99,995% all’anno.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3