LInformation technology sulle Nuvole

Cloud Computing: uno stile di computazione in cui il software è fornito come un servizio, consentendo all'utente di accedervi senza necessità di specifico know-how e soprattutto senza la necessità di avere un controllo diretto sulle infrastrutture di supporto. Quali vantaggi porta ad un'azienda? E quali sono i punti deboli?

Autore: Franco Cavalleri

Non esiste in letteratura una definizione univoca di Cloud Computing. Cercando di toccare tutti i punti presentati nelle varie definizioni, si può dire che il Cloud Computing è un paradigma di calcolo distribuito su larga scala, dove le risorse - la potenza di calcolo, lo storage - sono astratte, virtualizzate e dinamicamente scalabili. Soprattutto, sono condivise: nel Cloud Computing, software e informazioni sono infatti gestiti ed erogati on-demand ai client esterni, quali computer ed altri device, attraverso la rete Internet.Uno dei punti fondamentali del Cloud Computing è proprio questo suo basarsi sulla rete internet. Non solo, il termine 'cloud' è usato come una metafora per Internet. In passato il disegno di una nuvola era usato per rappresentare la rete telefonica, successivamente tale disegno è stato usato per rappresentare Internet nei diagrammi di reti di computer come un'astrazione delle infrastrutture sottostanti che rappresenta. In altre parole, il Cloud Computing è uno stile di computazione in cui il software è fornito come un servizio, consentendo all'utente di accedervi senza necessità di specifico know-how e soprattutto senza la necessità di avere un controllo diretto sulle infrastrutture di supporto.
Il Cloud Computing descrive quindi un nuovo, ulteriore modello per il consumo e la distribuzione di servizi basati su Internet e tipicamente involve la fornitura di risorse scalabili dinamicamente e spesso virtualizzate come un servizio su Internet. Può essere visto come sottoprodotto di Internet, con la conseguenza di essere di facile accesso attraverso il remote computing.
Questo permette un nuovo modello di calcolo on-line: invece di un software on-line costruito apposta, ora si può pensare in termini di macchine virtuali general purpose che possono fare qualsiasi cosa. Il termine Cloud Computing si riferisce, infatti, sia alle applicazioni fornite come servizi su Internet che all'hardware e ai sistemi software nei data center che si occupano di quei servizi. Questi ultimi prendono il nome di Software as a Service (SaaS). Insieme, l'hardware e il software di un data center costituiscono ciò che viene chiamata una cloud.
Una cloud pubblica è quella che permette l'accesso verso chiunque (tipicamente reso disponibile attraverso forme di pagamento di tipo pay-as-you-go), e il servizio venduto è definito come utility computing. Cloud privata è invece il termine utilizzato per riferirsi a un datacenter interno a un'azienda o un'organizzazione, non accessibile dall'esterno.
Il Cloud Computing porta con sé tre aspetti nuovi:
L'illusione di infinite risorse di calcolo disponibili on-demand, eliminando quindi la necessità per gli utenti della cloud di pianificare sulle necessità di calcolo; L'eliminazione di un impegno a priori da parte degli utenti della 'nuvola', permettendo alle compagnie di iniziare con poche risorse hardware pur tenendosi aperta la possibilità di incrementarle se e quando vi sia un cambiamento delle proprie necessità; La possibilità di pagare per l'utilizzo delle risorse di calcolo su periodi brevi (processori per ora o spazio storage al mese).
[tit: L'IT come utility]Negli ultimi anni abbiamo assistito a molti sforzi volti a trasformare il calcolo in qualcosa di simile a un servizio di pubblica utilità (come quelli di energia elettrica e gas); già dall'inizio degli anni 80 abbiamo visto lo spostamento del calcolo dai mainframe a un paradigma di tipo client-server: i dettagli sono astratti agli utenti che non hanno più bisogno di essere esperti o di avere il controllo su infrastrutture tecnologiche che ora sono «in the cloud».
Gli sviluppatori con idee innovative per nuovi servizi Internet non devono più investire grandi somme di denaro per comperare hardware per sviluppare il proprio progetto o per pagare operatori che lavorino sull'hardware stesso. Non c'è più necessità di preoccuparsi di predire esattamente la popolarità di un servizio che potrebbe essere sopravvalutato, facendo perdere denaro e risorse, oppure sottovalutare un servizio che diventa velocemente popolare, e mancando dei potenziali clienti e dei potenziali guadagni. Compagnie con task di tipo batch possono ottenere velocemente risultati, poiché i loro programmi possono scalare. Infatti, usare 1000 server per un'ora non costa di più che usarne uno per 1000 ore: questa elasticità di risorse, senza pagare un premio per la larga scala, è una novità nella storia dell'IT.
I primi significativi progressi sono stati fatti dal grid computing, che ha compiuto importanti passi avanti nell'area del High Performance Scientific Computing, nel tentativo di costruire utility di livello enterprise. Comunque, nessuno di questi tentativi si è materializzato in una utility general purpose di calcolo, accessibile da chiunque, in qualsiasi momento e da qualsiasi luogo. Quello che rende il Cloud Computing diverso può essere identificato nel fatto che trend come la vasta adozione di reti broadband, la veloce penetrazione di tecnologie di virtualizzazione per server x86, e l'adozione di Software as a Service, hannofinalmente creato l'opportunità e la necessità di una computing utility globale.
La riluttanza a usare servizi online in sostituzione dei tradizionali software sta diminuendo: con il giusto insieme di garanzie di sicurezza e prezzi competitivi, le compagnie vorranno affidare anche i loro dati maggiormente di valore (le relazioni con i clienti) a un fornitore di servizi on-line. Allo stesso tempo, le tecnologie di virtualizzazione hanno reso possibile separare le funzionalità di un sistema eseguite dallo stack software (OS, middleware, application, data) dalle risorse fisiche computazionali che le eseguono.
[tit: Cloud Computing: gli ostacoli alla crescita]Quali sono i possibili ostacoli alla crescita ed alla definitiva affermazione del Cloud Computing? L'Availability of Service, ovvero la disponibilità del servizio è un punto cruciale per qualsiasi sistema distribuito e in particolare per le imprese. Un singolo cloud provider può rappresentare in un certo senso un "single point of failure". Come i grandi internet service provider utilizzano più network provider cosicché il guasto di uno di essi non pregiudichi il servizio, così la possibile soluzione alla ricerca di disponibilità dei servizi molto elevata risiede nell'utilizzo di più cloud provider. La filosofia alla base della high-availability è quella di evitare single point of failure. Anche se un cloud provider è dotato di diversi data center in varie regioni geograficamente distinte che utilizzano network provider diversi, può avere infrastrutture software e sistemi di contabilità comuni, oppure decidere un giorno di terminare il servizio. I clienti potrebbero essere riluttanti a migrare verso il Cloud Computing senza una strategia di continuità per queste situazioni. Quindi si ritiene che una possibile soluzione sia quella di essere forniti da diverse compagnie diutility computing.
La condivisione da parte di più macchine virtuali delle stesse risorse (in particolare CPU e I/O) può portare ad alcune problematiche sulle reali performance che si possono ottenere, e in particolare sulla loro variazione e non predicibilità nel tempo (Performance unpredictability). Una soluzione risiede nella ricerca e nel miglioramento delle architetture e dei sistemi operativi per gestire interrupt e canali di I/O in maniera più efficiente. Il modello pay-as-you-go si applica bene a storage e larghezza di banda, perché in entrambi i casi si contano i byte. Il calcolo è leggermente differente, a seconda del livello di virtualizzazione. Google AppEngine scala automaticamente in risposta all'incremento o decremento del carico e agli utenti sono addebitati dei cicli di calcolo utilizzati. AWS addebita le ore per il numero di istanze richieste, anche se queste rimangono inutilizzate. Per ovviare servono meccanismi per aggiungere e togliere rapidamente risorse (Scaling quickly) in risposta al carico al fine di risparmiare denaro, ma senza violare il contratto SLA.


[tit:Cloud Computing: Energia]Da diversi anni stiamo assistendo a una crescita esponenziale di Internet e degli host ad esso associati. Questa crescita ha portato alla nascita di nuovi tipi di tecnologie e di servizi offerti sul web, determinando così un inevitabile aumento del numero e delle dimensioni dei datacenter: il numero di server è aumentato di sei volte in dieci anni. Si pensi ad esempio alla nascita di tecnologie di memorizzazione remota di files e alla gestione serverside di documenti, o al graduale abbandono di protocolli quali POP3 in favore di soluzioni serverside quali IMAP, che rendono sempre di più il client un thin-client. In particolare, da pochi anni sta aumentando l'interesse verso soluzioni di Cloud Computing, ospitate da datacenter di grosse dimensioni.
Tuttavia l'aumento di richieste verso servizi di Cloud Computing ha incrementato anche la domanda di energia dei datacenter che ospitano tali servizi: questo aumento di richiesta energetica si pone come limite alla scalabilità di tali datacenter poiché, se da un lato la fortissima evoluzione degli ultimi decenni ha portato a processori sempre più piccoli e più veloci, dall'altro ha indotto un forte aumento della potenza dissipata per il calcolo. Mentre un 486 dissipava circa 10 W, un Pentium IV ne dissipa 120, con un consumo energetico aumentato di un ordine di grandezza.
Per avere un'idea dell'entità dell'energia consumata dai sistemi IT è sufficiente considerare che un moderno server blade consuma circa 1 kW, una quantità che corrisponde a quella consumata da un condizionatore domestico acceso alla massima potenza. Un rack di server blade, formato da 5 scaffali con 8 unità ciascuno, consuma 40 kW, l'equivalente di una palazzina. Un data center di medie dimensioni consuma circa 250 kW, come un quartiere di una città, mentre i grandi data center, che per esempio ospitano – per l'appunto - soluzioni di Cloud Computing, possono arrivare a consumare 10 MW, l'equivalente della richiesta di energia di una cittadina.
L'alto consumo di energia delle apparecchiature informatiche costituisce il limite fisico alla scalabilità di quei data center per il Cloud dislocati in aree ad alta densità abitativa. La potenza elettrica richiesta sta crescendo dell'8-10% all'anno e i gestori della rete elettrica rischiano di non essere più in grado di convogliare così tanta energia in aree urbane relativamente piccole, densamente abitate e dove la richiesta di energia è già elevata. In alcuni casi la densità di energia assorbita dai data center ha superato i 20 kW per metro quadro. La potenza assorbita per metro quadro dai nuovi server ad alta densità (blade) è spesso incompatibile con le caratteristiche elettriche degli attuali data center. Poiché le infrastrutture della rete elettrica sono difficilmente modificabili in aree urbane, per aumentare la capacità di calcolo degli attuali data center potrebbe quindi essere necessario edificare nuove strutture in aree a più bassa densità abitativa, con ulteriore impatto ambientale di costo. Società come Google e Amazon hanno già stabilito i loro data center in Oregon, dove la densità di popolazione è molto bassa ma – al contrario di altri Stati, come Nevada o Utah – esistono infrastrutture energetiche e di comunicazione di alto livello. Amazon sembra anche intenzionata ad ingrandire questa sua presenza: in questi giorni circolano diversi rumours che vogliono la società di servizi IT alla ricerca di nuovi spazi.
[tit: Cloud Computing: Ambiente]Come è facile intuire, un'elevata richiesta di energia si traduce in elevati costi di gestione, in particolare per tutto quanto concerne il rispetto dei requisiti in materia di ambiente e risorse naturali – non solo i consumi di energia ma anche quelli di acqua e suolo, i livelli di CO2 e di calore emessi. Anche questi rappresentano limiti per la scalabilità ai datacenter che ospitano soluzioni di Cloud Computing.
La crescita esponenziale di questi ultimi anni ha un effetto collaterale non trascurabile: l'aumento del numero di host e server implica un aumento della quantità di gas serra che essi producono indirettamente.
Nel 2007 il carbon footprint complessivo del settore ICT è stato di 830 Mt di CO2 - analogo a quello del settore aeronautico civile, ma la crescita del settore ICT ha un tasso sicuramente maggiore di quella del settore aeronautico. L'intensa richiesta energetica per usare e raffreddare datacenter ora vale circa un quarto delle emissioni totali di CO2 di tutto il settore dell'ICT. Ogni PC in uso produce all'incirca una tonnellata di CO2 l'anno e per produrre l'energia necessaria ad alimentare un server viene emessa la stessa quantità di CO2 prodotta da un SUV in 25 chilometri.Si stima che un server di medie dimensioni emetta indirettamente all'incirca la stessa quantità di CO2 prodotta da un SUV che ha consumi pari a 6,5 km/l. La potenza richiesta per alimentare un rack di server blade ad alta densità (40KW per 5 server da 8 unità) può essere fino a 10-15 volte maggiore di un server tradizionale.
Negli attuali datacenter che ospitano soluzioni di Cloud Computing, per ogni Watt usato effettivamente per il calcolo, il processore consuma 5W, il server 16W e il data center nel suo insieme 27W. Questo porta inevitabilmente ad uno spreco energetico, nonché a un'inutile emissione di CO2 e ad un aumento dei costi di gestione del datacenter.
Secondo Gartner, già oggi il 50% dei data center ha problemi ad approvvigionarsi di energia, visto che oltre al naturale consumo elettrico di un server c'è bisogno di energia anche per dissipare il calore che produce il server stesso. IDC, a sua volta, sostiene che ormai si spende più per mantenere attivi e accesi i data center che per acquistare l'hardware: un server oggi consuma in media quattro volte la corrente che richiedeva 10 anni fa.
La fortissima evoluzione degli ultimi decenni ha portato a processori sempre più piccoli e più veloci, ma ha anche indotto un forte aumento della potenza – e quindi del calore - dissipata per il calcolo: mentre un 486 dissipava circa 10W, un Pentium IV ne dissipa 120, con un consumo energetico aumentato di un ordine di grandezza. Per avere un'idea dell'entità dell'energia consumata dai sistemi IT è sufficiente considerare che un moderno server blade consuma circa 1 kW, tanto quanto il frigorifero di casa. Conseguentemente, un rack di server blade, per esempio, formato da 5 scaffali con 8 unità ciascuno, consuma 40 kW, l'equivalente di una palazzina. Un data center di medie dimensioni consuma circa 250 kW, come un quartiere, mentre i grandi data center, che per esempio, servono grosse banche o internet service provider, possono arrivare a consumare 10 MW, l'equivalente di una cittadina. La considerevole crescita dei consumi energetici dell'IT sta sempre più attirando l'attenzione della comunità scientifica, dei produttori di tecnologia e dei responsabili dei sistemi informativi delle aziende utenti.



[tit: Cloud Computing: Costi]Il costo dell'energia consumata dai sistemi IT copre una parte significativa del Total Cost of Ownership (TCO) dei sistemi ed è in continua crescita. Mentre il costo di acquisto dell'hardware negli ultimi dodici anni è cresciuto molto debolmente, il costo per alimentare e raffreddare i sistemi è quadruplicato. Per dare una stima tangibile dei costi affrontati a tutt'oggi, il consumo medio per un'azienda di servizi di medie dimensioni (200 dipendenti) è di circa 1400KWh (210,00 €), mentre un'abitazione privata in un anno consuma in media 730KWh. Oggi il costo di energia e raffreddamento rappresenta circa il 60% della spesa in nuove infrastrutture, con un impatto più che significativo sul Total Cost of Ownership: per ogni euro speso per acquistare nuovi server, si spendono 60 centesimi all'anno per alimentarli e raffreddarli.Tale impatto è destinato crescere ulteriormente come conseguenza del continuo aumento del costo unitario dell'energia.
Se si tiene conto che le statistiche IDC da cui sono tratti i dati sono svolte a livello mondiale, dove il costo dell'energia è mediamente molto più basso che in Italia (a titolo di esempio, il costo dell'energia per utenti industriali in Italia è 4 volte quello negli Stati Uniti: 6 $cent/kWh in USA e 24 $cent/kWh in Italia), è facile rendersi conto di come nel nostro paese il peso del costo energetico possa essere ancora più significativo. Questi costi sono spesso nascosti e ignorati, in quanto da un lato mancano ancora gli strumenti e le metodologie per misurarli con esattezza, dall'altro molto spesso non vengono contabilizzati nel budget dei sistemi IT, ma vengono annegati nei consumi elettrici di tutta l'azienda, rendendo quindi difficile una chiara percezione del fenomeno.
Nel 2006, negli USA, l'1.5% della totalità dell'energia nazionale richiesta proveniva dall'energia consumata dai datacenter. Una quantità doppia rispetto a cinque anni prima, che si prevede raddoppierà ancora nei prossimi anni, raggiungendo un costo annuale di circa $7.4 miliardi, poiché si stima che i datacenter dovranno ospitare il 50% dei server in più.
Non è solo l'energia richiesta per far funzionare i server dei datacenter che contribuisce all'emissione di CO2: una simile quantità è richiesta per rimuovere il calore generato dai server, usando intense unità di condizionamento.
A questo proposito è opportuno notare che l'efficienza energetica dell'IT - ossia le prestazioni rapportate al consumo di energia - è di fatto cresciuta negli ultimi anni, dato che le prestazioni sono migliorate più di quanto non sia cresciuta la potenza richiesta (di un fattore 2,5 indicando quindi un miglioramento dell'efficienza energetica). Tuttavia la crescente domanda di capacità di calcolo e l'aumento del consumo energetico dell'IT in termini assoluti impongono di migliorarne ulteriormente e in modo più radicale l'efficienza energetica. D'altro canto, il costo dell'hardware decresce più in fretta di quanto aumenti la sua miniaturizzazione. Questo fa aumentare la domanda di servizi ICT e il risultato è che gli enormi miglioramenti nell'efficienza energetica non tengono testa all'aumento della richiesta di uso di computer, internet e cellulari. Dunque, il saldo netto dei consumi energetici del settore ICT è negativo e la domanda totale di energia dell'hardware installato è in crescita.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.