Realizzato da Luminetwork
Luminetwork
Cerca
  • Edificio intelligente
  • Attualità

Digital transformation nei Data Center: come garantire resilienza ed efficienza

Digital transformation nei Data Center: come garantire resilienza ed efficienza

La connessione tra digital transformation e data center parte dal ruolo cardinale di questi ultimi: «sono i punti nevralgici della trasformazione digitale nonché l’autentica struttura abilitante per la necessità di calcolo e di correlazione dei dati, sempre di più fondamentali in pressoché ogni aspetto della vita produttiva e quotidiana», ha rilevato Elisabetta Bracci, moderatrice del webinar “Efficienza energetica, sicurezza e interoperabilità nei data center” organizzato da LUMI in collaborazione con Honeywell.

La manager del Cluster-ER Innovate di Regione Emilia-Romagna, nonché innovation manager e fondatrice di Jump Facility, ha illustrato le potenzialità offerte dai data center e la necessità di gestire i dati contando, però, su infrastrutture in grado di funzionare in maniera ottimale. Da qui l’esigenza di puntare su elementi che assicurino resilienza, efficienza energetica e durabilità, contando sulla loro progressiva crescita. Basti considerare che il solo mercato globale dei servizi di data center, valutato a 48,9 miliardi di dollari nel 2020 si prevede raggiungerà entro il 2026 i 105,6 miliardi di dollari.

Il ruolo dei Data Center nelle PMI

Stefano Talami, CEO e co-fondatore di FTP, specializzata in soluzioni di Information Technology, ha messo in luce l’importanza di porre in sicurezza il dato e la relazione tra data center e PMI, sulla quale c’è ancora molto da fare.

È un punto particolarmente sensibile, data la rilevanza che hanno piccole, medie e microimprese non solo in Italia, ma anche in Europa. Nel contesto UE rappresentano il 99% di tutte le imprese. Secondo quanto riporta il Parlamento Europeo, nel 2015, poco meno di 23 milioni di PMI hanno prodotto un valore aggiunto pari a 3.900 miliardi di EUR e dato lavoro a circa 90 milioni di persone.

«Cerchiamo di porre in evidenza diversi aspetti legati alla gestione del dato, a partire dai data center. Innanzitutto, per garantire l’efficienza di server farm e apparati occorre contare sempre sulla disponibilità del server, sulla ridondanza delle alimentazioni e UPS, sul raffreddamento modulare e sulla pulizia dell’aria e dell’ambiente. Altrettanto importante è la sicurezza fisica e logica, gli aspetti correlati a monitoraggio, supervisione e automazione nonché alla sostenibilità. Diversi di questi aspetti sono poco noti alle piccole e medie imprese».

Solo contando su un’appropriata visione e gestione dei dati si possono evitare problemi anche molto gravi. Da qui l’importanza del disaster recovery, presupposto essenziale quando si vuole creare una struttura capace di resistere ad eventi critici. A questo proposito, il CEO di FTP ha sottolineato l’importanza di un buon Business Continuity Plan, che può consentire all’azienda di accrescere il proprio livello di resilienza, dimostrare affidabilità e diligenza nella gestione di situazioni di crisi, aumentare la propria reputazione e capacità competitiva nel mercato.

Data center all’ennesima potenza: l’esperienza Cineca

Le PMI possono anche contare, come i centri di ricerca e le università, su un riferimento di livello nazionale ed internazionale come Cineca, Consorzio Interuniversitario per il Calcolo Automatico. Nella propria sede, a Bologna, è installato uno dei supercomputer più potenti al mondo, Marconi100, realizzato per accelerare la ricerca in Italia ed Europa. Ma è prossimo all’avvio anche l’HPC Leonardo, che proietta l’Italia verso il calcolo per la ricerca e l’innovazione tecnologica di classe exascale, concepito e gestito dal Consorzio. Una volta a regime, sarà uno dei cinque supercomputer più potenti nel mondo con una performance di picco di 250 PFlop/s. Tradotto in altri termini, sarà in grado di svolgere più di 250 milioni di miliardi di calcoli al secondo.

Questo ha implicazioni significative in funzione di Facility ed Energy Management: come ha spiegato Alessio Mauri, Facility Manager di CINECA, si tratta di una macchina che richiederà consumi energetici pari a 10 MW. Ma è una struttura imprescindibile per gestire un’enorme quantità di dati. «Solo negli ultimi tre anni sono state fornite 10 miliardi di computing hours», ovvero ore di calcolo a disposizione per fini scientifici e di ricerca. A livello tecnologico richiede anche intelligenza, anche sotto forma di BMS e BEMS, per gestire tutta la parte del monitoraggio, ma richiede anche una integrazione tra competenze e sistemi.

Le reali esigenze per la resilienza del data center

Dalla superpotenza di calcolo di un autentico colosso come l’HPC CINECA alle strutture di calcolo delle piccole imprese, la varietà è ampia. Come ha fatto notare Stefano Mozzato, country manager Italy di Vertiv, ci sono elementi fondamentali che vanno garantiti in ogni caso: uno di questi è la continuità, che passa da soluzioni tecnologiche riguardanti alimentazione elettrica, distribuzione, raffreddamento.

La necessità di assicurare logiche di “Controllo 4.0” è fondamentale in ogni aspetto e nella vita dei centri di calcolo: così si torna a parlare di digital transformation nei data center. Lo sa bene una realtà come Sistemi Integrati, system integrator specializzato in building automation. Come ha spiegato il general manager, Luigi Vitagliano, «nei data center le apparecchiature in campo sono tante ed è un servizio attivo 24 ore su 24. Per questo occorre garantire continuità e sicurezza sia per gli apparati sia per assicurare l’interoperabilità e l’usabilità».

Il data server è al servizio dell’infrastruttura IT aziendale con server, data storage e apparati tecnologici in grado di mantenere le condizioni termo-igrometriche e garantire la potenza elettrica sufficiente per un funzionamento 24h. Questo richiede il funzionamento ottimale di tutte le parti in campo, dai gruppi di continuità e frigoriferi al Safety & Security System fino all’Automation System per il monitoraggio di tutti i sistemi. «il controllo dei sistemi non può non prescindere dalla sensoristica installata in maniera ubiqua», ha illustrato Vitagliano.

Si tratta di un’infrastruttura complessa che richiede un adeguato raffreddamento e una continuità energetica elettrica. «In media la metà dell’energia elettrica assorbita da un data center serve per alimentare i sistemi di aria condizionata, il resto occorre per far funzionare i server».

La progettazione è l’elemento prioritario, concepita per gestire al meglio la parte IT e impiantistica. Oltre a questa, un presupposto fondamentale è disporre di una certa “intelligenza” per garantire funzionamento ideale ed efficienza. A questo proposito è utile l’adozione di sistemi come quelli di Honeywell, in grado di trasformare i dati IT e OT in approfondimenti, aiutando i responsabili delle operazioni a massimizzare i tempi delle attività, costruire la resilienza e guidare il risparmio energetico e operativo per tutti i data center.
In questo senso, I sistemi di Honeywell Building Technologies forniscono soluzioni integrate per la gestione del PUE, per l’ottimizzazione energetica del raffreddamento, per il monitoraggio e l’analisi dei dati, per safety e security. A tale proposito è stato esemplificato il caso di adozione del BMS Saia Burgess Controls PCD8, che permette di analizzare i dati e provvedere tempestivamente ad eventuali anomalie, svolgendo l’ideale ottimizzazione energetica e di raffreddamento, garantendo ridondanza e Security Level SL3 per applicazioni critiche Cyber Secure.

I vantaggi dell’approccio in ottica edge data center

Come si è visto, contare su un data center è importante tanto per le PMI che per le grandi imprese che, spesso, contano su più sedi e necessitano di un approccio multi-sito. In questo senso stanno prendendo piede gli edge data center, piccoli centri di elaborazione dati posti vicino al “bordo” di una rete, che forniscono gli stessi dispositivi presenti nei data center tradizionali, ma sono più contenuti e più vicini agli utenti finali ed ai dispositivi.

«Stiamo assistendo a una crescita importante del segmento edge, guidata dalla trasformazione digitale ormai presente in tutti i settori», ha affermato Stefano D’Agostino, general manager BMS Europe di Honeywell. «Oggi qualsiasi edificio, che sia un ospedale o un aeroporto, conta su un data center, di dimensione anche contenuta: grazie all’Intelligenza artificiale c’è sempre più esigenza di data processing che avvenga on site. Questo motiva la grande crescita degli edge data center e dei data center modulari».

Per soddisfare le necessità multi-site, Honeywell ha portato sul mercato un’architettura standard per monitorare e supervisionare l’attività di molteplici data center. Si tratta di un’architettura aperta, basata sul sistema di controllo proprietario Niagara Framework®, capace di integrare un insieme ampio di dati relativi a numerosi impianti, ma anche, attraverso protocolli standard, dati riguardanti l’infrastruttura elettrica, UPS, videosorveglianza, illuminazione ecc. potendo contare su una vasta gamma di dati supervisionati. «Un’altra caratteristica premiante gli edge data center è data dalla possibilità di inserirli all’interno di costruzioni dove spesso manca un Facility Manager specializzato in data center. Inoltre, è facilmente applicabile e flessibile, oltre che replicabile e sicuro anche come cybersecurity», rileva D’Agostino. L’installazione di un sistema di questo genere aiuta a ridurre i costi operativi, mantenendo l’efficienza.

Honeywell Partner Channel sarà presente al Data Center Nation il 18 maggio 2022 a Milano per parlare di soluzioni e sistemi per i data center.

Giornalista freelance specializzato in tecnologia e in modo particolare in tematiche che hanno un impatto significativo sulla vita quotidiana e su quella futura: smart energy, smart building, smart city.