Data center: come ridurre consumi e inquinamento nell'era digitale

Negli anni l'efficienza dei data center è migliorata, ma restano fra le maggiori fonti mondiali di inquinamento e consumo energetico. Le soluzioni per migliorare abbondano, così come gli esempi virtuosi.

Autore: Redazione ImpresaGreen

L’allarme sui consumi energetici dei data center è un argomento noto. Nel 2017 uno studio della Commissione Europea esaminò il settore delle tecnologie dell'informazione e della comunicazione, compresi i data center. Rilevò che gli Internet Data Center generano fino al 2 percento delle emissioni globali di CO2. Ai tempi dello studio, in Europa erano presenti circa sette milioni di data center, che consumavano circa 40 miliardi di kilowattora.

Nel 2006, gli IDC degli Stati Uniti hanno utilizzato 61 miliardi di kWh, pari a circa l'1,5 percento del consumo di energia del Paese. Il governo degli Stati Uniti stima che questo consumo aumenterà sino a 140 miliardi di kWh all'anno entro il 2020. Molta di quell'energia serve per raffreddare le strutture e i server al loro interno.

Di sicuro le esigenze di computing non fanno che crescere. Secondo Cisco, il traffico dei data center dovrebbe raggiungere 19,5 zettabyte all'anno entro il 2021. Una ricerca di Mordor Intelligence rivela che a guidare la crescita di questo settore è il cloud computing. Secondo Cisco avranno un ruolo determinante Internet of Things (IoT), Smart Mobility, Smart City e dispositivi medici connessi.

Ridurre consumi e inquinamento

È pressante la necessità di fare in modo che i data center inquinino meno e riducano i consumi energetici. Le buone notizie non mancano. L'industria dei data center ha dimostrato di avere a cuore l'efficienza energetica, che inserita nella strategia aziendale riduce le spese operative e aumenta i ricavi, oltre a rafforzare il marchio.

Per questo, i data center dispongono di alcuni degli strumenti più avanzati di qualsiasi altro settore per migliorare l'efficienza energetica. Rispetto al 2006, il Power Usage Effectiveness (l'efficienza di un data center nell'usare l'energia elettrica che lo alimenta, stabilito dal consorzio Green Grid) si è ridotto dell'80 percento in poco più di un decennio. Attualmente il valore medio PUE per i data center in tutto il mondo è di circa 1,8, l'obiettivo è di avvicinarsi quanto più possibile al valore di 1. Significherebbe ridurre ai minimi termini le emissioni di CO2 e di conseguenza gli impatti sull’ambiente.

I dati pubblicati dal Lawrence Berkeley National Lab sottolineano come i server abbiano già migliorato le loro capacità di ridimensionamento dei consumi, assorbendo meno energia durante i periodi di inattività o quando il loro utilizzo è scarso. Dal 2005 al 2016, inoltre, sono stati apportati notevoli miglioramenti dell'efficienza in termini di archiviazione, rete e infrastruttura.

I maggiori problemi restano il raffreddamento delle strutture e le fonti di energia rinnovabile da cui approvvigionarsi. Migliaia di server attivi nei data center producono molto calore, e per mantenere stabili i sistemi occorrono temperature relativamente basse. Ove non sia possibile costruire un data center in cui si possano usare soluzioni di raffreddamento naturali (ghiaccio o acqua molto fredda), in genere si fa uso massivo dei condizionatori.

Studi di settore calcolano che, in media, la metà dell’energia elettrica assorbita da un data center serve per alimentare i sistemi di aria condizionata. Il rimanente occorre per far funzionare i server. È fondamentale che l’approvvigionamento di energia sia legato del tutto, o in gran parte, a fonti rinnovabili quali eolico, solare e idroelettrico.

Non solo condizionatori

Nei data center più avanzati sono già in voga sistemi di raffreddamento ad aria libera (free cooling) che impiegano l'aria esterna per il raffreddamento. Nei sistemi tradizionali i compressori inviano aria fredda ai server, questa assorbe il calore generato e viene riportata ai compressori. Qui viene nuovamente raffreddata e rinviata ai server. Con il free cooling l'aria surriscaldata dai server viene rilasciata nell'ambiente (interamente o in parte). Nuova aria fresca viene prelevata dall'esterno della struttura e veicolata verso i server. Questo permette, dove l'aria esterna è per la maggior parte dell'anno più fresca di quella all'interno del data center, di ridurre i consumi energetici. I costi non vengono abbattuti del tutto perché l'aria dev'essere filtrata e idratata prima di essere veicolata ai server, ma il metodo nel complesso richiede molta meno energia.

Un'alternativa è il contenimento dell'aria calda o dell'aria fredda, che consentono di mantenere temperature in ingresso alle apparecchiature IT uniformi ed eliminano i punti di concentrazione del calore tipicamente presenti nei data center. Il raffreddamento avviene in corridoi chiusi, con file di rack disposte su entrambi i lati.

Nel sistema di contenimento di aria fredda (Cold-Aisle Containment System), il corridoio di aria fredda viene delimitato fisicamente (con pannelli in plexiglass, tende in plastica o simili), consentendo al resto del Data Center di diventare un grande ambiente di aspirazione dell'aria calda di ritorno. In un sistema di contenimento di aria calda (Hot-Aisle Containment System), il corridoio di aria calda viene delimitato per raccogliere l'aria calda di scarico dalle apparecchiature IT, consentendo al resto della sala di diventare un grande ambiente di fornitura d'aria fredda.

Un'alternativa più evoluta è quella del raffreddamento ad acqua. Prevede la costruzione, sopra ai corridoi, di un piano rialzato che fa da soffitto dove scorrono serpentine di raffreddamento. Al suo interno scorre acqua fredda proveniente dalle torri di raffreddamento alloggiate in un’altra parte dell’edificio. Così facendo si stima un risparmio energetico superiore al 30 percento.

Bisogna pensare anche ai dettagli. Pochi pensano che quadri e impianti elettrici possano fare la differenza. Invece sono diverse le aziende che forniscono apparecchiature di media e bassa tensione pensate per ridurre i consumi energetici. Consentono di monitorare i circuiti elettrici tracciandone le prestazioni e i picchi di assorbimento, evitando sprechi nell’impianto.

Altra soluzione interessante è quella di riusare il calore prodotto dai datacenter per il riscaldamento di abitazioni e strutture esterne. Esempi pratici sono il data center di IBM in Svizzera, che riscalda l'acqua di una piscina locale, e quelli di Stoccolma, che riscaldano da 500 a mille abitazioni nei dintorni.

L'Intelligenza Artificiale fa risparmiare

Oltre alle soluzioni fisiche, è interessante valutare un'altra opzione. Google ha iniziato a sfruttare l'intelligenza artificiale di DeepMind per ridurre il consumo energetico nei suoi data center. Nella pagina ufficiale del progetto, Big G spiega di avere iniziato nel 2014 con l'applicare l'apprendimento automatico per gestire i data center in modo più efficiente.

La difficoltà, spiega Google, è che i data center sono ambienti dinamici, che rendono difficile il funzionamento ottimale di apparecchiature industriali come pompe, refrigeratori e torri di raffreddamento. Gli ostacoli principali sono tre. Il primo è che apparecchiature e ambiente interagiscono tra loro in modi complessi e non lineari. Il secondo è che il sistema non può adattarsi rapidamente ai cambiamenti interni o esterni (come il meteo) perché non si riescono ad elaborare regole per ogni scenario operativo. Ultimo ma non meno importante, ogni data center ha un'architettura e un ambiente unici: un modello personalizzato per un sistema non è applicabile a un altro con la stessa efficacia.

Dopo due anni di test i ricercatori di DeepMind hanno lavorato fianco a fianco con il team Google dei data center per migliorare significativamente l'efficacia del sistema. Hanno messo in campo un sistema di reti neurali addestrato su diversi scenari operativi e parametri, e hanno creato un framework più efficiente e adattivo per comprendere le dinamiche dei data center e ottimizzarne l'efficienza.

Hanno usato i dati storici raccolti da migliaia di sensori all'interno del data center di test (temperature, potenza, velocità delle pompe, setpoint, eccetera) per addestrare un insieme di reti neurali. Il compito assegnato alle reti neurali era di ridurre il PUE. Due sistemi di reti neurali sono stati addestrati per prevedere la temperatura e il carico del data center nell'ora successiva. Altre sono state usate per simulare le azioni consigliate dal modello PUE al fine di garantire che i parametri non venissero superati.

I test hanno permesso di ottenere una riduzione costante del 40 percento della quantità di energia utilizzata per il raffreddamento, il che equivale a un risparmio del 15 percento del consumo energetico complessivo. Durante le simulazioni si è anche ottenuto il PUE più basso che il sito abbia mai visto.

Google sta proseguendo con i test, e quando la tecnologia sarà a punto intende usarla non solo per migliorare l'efficienza dei data center, ma anche per migliorare l'efficienza di conversione delle centrali elettriche, ridurre l'energia di produzione dei semiconduttori e il consumo di acqua.