▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...
Logo ImpresaGreen.it

HPE: l'AI per migliorare l'efficienza energetica dei data center

Per ottimizzare il funzionamento dei data center serve l'automazione guidata dall'AI. HPE ci lavora insieme al Dipartimento dell'Energia statunitense.

Redazione ImpresaGreen

I data center sono indubbiamente "energivori" e questo non fa bene all'ambiente. Inoltre stanno diventando infrastrutture sempre più articolate e complesse. Sulle quali quindi non è facile intervenire costantemente per ottimizzare i consumi di energia. La soluzione, come in altri campi dell'IT management, potrebbe venire all'intelligenza artificiale e dal machine learning.

È quello su cui punta anche HPE, che ha in questo senso avviato una collaborazione con il National Renewable Energy Laboratory (NREL) del Dipartimento dell'Energia statunitense (DoE). L'obiettivo è sviluppare componenti di AI e machine learning per l'automazione nei data center e per il perfezionamento della loro efficienza operativa. Il che porta benefici conseguenti in quanto a consumi energetici.

Per alimentare gli algoritmi di machine learning servono innanzitutto dati di qualità. HPE e il NREL partono bene: con oltre 16 terabyte di dati operativi raccolti in più di cinque anni dalla sensoristica integrata nei supercomputer Peregrine ed Eagle del NREL. Questi dati serviranno in generale per addestrare i modelli di rilevamento delle anomalie operative nei data center.

joshua sortino lqkhndzsf 8 unsplash
Più in particolare, i dati derivanti dal monitoraggio dei consumi energetici serviranno per ottimizzare l'efficienza e la sostenibilità dei consumi di acqua ed energia all'interno dei data center. Come dato di riferimento, si stima che entro il 2020 gli Stati Uniti consumeranno per i loro data center ben 73 miliardi di kWh e circa 660 miliardi di litri d'acqua.

Il progetto di HPE e del NREL per l'automazione dei data center si focalizzerà su quattro aree. Il monitoraggio dei sistemi per raccogliere grandi volumi di dati operativi. L'applicazione di funzioni di big data analytics e machine learning per analizzare i dati raccolti. L'utilizzo di algoritmi di controllo per automatizzare attività ripetitive per la manutenzione predittiva del data center.

Infine, lo sviluppo di funzioni di automazione basata su machine learning anche per la gestione delle operazioni di Continuous Integration e Continuous Deployment. Quindi una parte di livello più elevato rispetto alla semplice gestione operativa.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaGreen.it iscriviti alla nostra Newsletter gratuita.
Pubblicato il: 10/12/2019

Tag: Datacenter