L'intelligenza artificiale minaccia i data center: come gestire l'esplosione della domanda energetica

Data center racks with cables and servers
Inside a data center where storage servers populate dozens of racks (Immagine:: Old Source)

L'impatto che l'intelligenza artificiale sta avendo sui data center e sull'uso dell'energia è innegabile. Se non controllato, il problema potrebbe peggiorare ulteriormente. Un recente rapporto di IDC rivela che, con l'aumento dell'adozione dell'IA, l'energia necessaria per supportare i carichi di lavoro relativi a questa tecnologia è destinata a crescere, con un consumo di elettricità nei data center che dovrebbe più che raddoppiare tra il 2023 e il 2028. Si prevede che i carichi di lavoro legati all'IA cresceranno con un tasso di crescita annuale composto (CAGR) del 44,7% fino al 2027, con una domanda di energia che arriverà a 146,2 TWh. Le implicazioni sono chiare: i data center, che già rappresentano il 46% della spesa energetica delle imprese, potrebbero presto diventare insostenibili.

Questo scenario, ovviamente, non può verificarsi. Ma con la rapida espansione dei carichi di lavoro dell'IA, i data center devono evolversi velocemente per affrontare una possibile crisi energetica, aggravata dall'aumento dei prezzi dell'elettricità dovuto all'instabilità geopolitica in Medio Oriente. L'influenza crescente degli strumenti basati sull'IA in vari settori, dalla sanità ai servizi finanziari, è evidente. Tuttavia, la ricerca alimentata dall'IA consuma 100 volte più energia rispetto a una ricerca tradizionale, e la costruzione di modelli fondamentali di IA può richiedere energia sufficiente per alimentare 20.000 case per sei mesi.

Una soluzione?

Un rapporto di Atlantic Ventures, intitolato Improving Sustainability in Data Centers 2024, suggerisce una soluzione, evidenziando come le architetture di data center di nuova generazione, come l'infrastruttura iperconvergente (HCI), possano contribuire a ridurre i consumi energetici, le emissioni di anidride carbonica e a favorire la diminuzione dei costi nella regione EMEA. Il rapporto prevede che, nel giro di sei anni, la modernizzazione dei data center con l'adozione dell'HCI potrebbe portare a un risparmio di circa 19 milioni di tCO2e nella regione, pari alle emissioni prodotte da quasi 4,1 milioni di automobili. Inoltre, si stima che ciò potrebbe generare un risparmio di 25 miliardi di euro entro il 2030, grazie al miglioramento dell'efficienza energetica e operativa.

Con l'integrazione crescente dell'IA nelle operazioni aziendali e l'aumento dei consumi energetici, l'HCI potrebbe ridurre il rischio di un incremento insostenibile dei costi, assicurando nel contempo che gli obiettivi di sostenibilità siano rispettati. Tuttavia, la questione non riguarda solo l'HCI, ma anche il modo in cui le organizzazioni gestiscono i carichi di lavoro dell'IA. L'attenzione dovrebbe essere focalizzata sull'ottimizzazione dei luoghi e delle modalità con cui vengono elaborati i carichi di lavoro IA, utilizzando la modernizzazione per gestire questi processi in modo più intelligente. Questo approccio è molto più sensato rispetto a un'ulteriore costruzione di data center sempre più efficienti dal punto di vista energetico.

Si tratta di un punto cruciale, poiché è necessario considerare come l'IA opera e dove la domanda energetica crescerà maggiormente. Sebbene molte aziende siano attratte dai consumi energetici necessari per addestrare i modelli IA, è l'inferenza — cioè il processo decisionale in tempo reale che l'IA esegue — a consumare la maggior parte dell'energia. 

L'addestramento dei modelli fondamentali avviene una sola volta, mentre l'inferenza è un processo continuo che si ripete milioni di volte, in particolare in applicazioni basate sull'IA come il rilevamento delle frodi o la manutenzione predittiva. L'ottimizzazione di quest'ultimo, specialmente ai margini, potrebbe rappresentare la soluzione ideale per i data center, consentendo loro di gestire in modo più efficiente le crescenti esigenze energetiche legate all'IA.

Passare alle energie rinnovabili

Come suggerisce il rapporto IDC, un numero crescente di fornitori di data center deve orientarsi verso fonti di energia rinnovabile, ma anche ripensare l'infrastruttura esistente. Il cloud ibrido, l'edge computing e i sistemi on-premise rappresentano soluzioni in grado di bilanciare le richieste energetiche legate all'IA, distribuendo i carichi di lavoro in modo più intelligente.

L'elaborazione dei dati più vicina alla fonte, attraverso l'edge computing, per esempio, riduce il consumo energetico necessario per trasferire grandi quantità di dati tra i server centralizzati. Nel frattempo, gli ambienti ibridi di cloud computing possono gestire le operazioni di addestramento più intense dal punto di vista computazionale, mentre l'inferenza in tempo reale può essere eseguita in loco o tramite edge computing.

L'edge computing svolge un ruolo cruciale, elaborando i dati direttamente nel luogo in cui vengono generati, come nei negozi al dettaglio o nei dispositivi IoT. Questo non solo migliora i tempi di risposta, ma riduce anche in modo significativo l'energia richiesta per l'inferenza.

Una moderna infrastruttura è essenziale per gestire in modo efficiente le crescenti richieste energetiche dell'IA. Per questo, è necessaria una piattaforma containerizzata che supporti sia le CPU che le GPU, in grado di eseguire i carichi di lavoro dell'IA in maniera ottimale. Anche lo storage gioca un ruolo fondamentale, poiché l'IA gestisce principalmente dati non strutturati, come file e oggetti. Investire in sistemi di storage ad alte prestazioni e in stack di calcolo ottimizzati consente alle aziende di ridurre notevolmente l'energia necessaria per eseguire le applicazioni di IA.

Inoltre, la capacità di misurare e gestire il consumo energetico diventa cruciale. Le piattaforme che offrono visibilità in tempo reale sull'utilizzo dell'energia permettono ai data center di ottimizzare ogni fase dell'elaborazione IA, dalla formazione all'inferenza. Secondo il rapporto IDC, anche un miglioramento del 10% nell'efficienza energetica potrebbe portare a risparmi significativi.

Processo decisionale in tempo reale

Piuttosto che concentrarsi esclusivamente sui massicci costi energetici legati all'addestramento dei modelli fondamentali, le aziende dovrebbero focalizzarsi sulla frequenza con cui questi modelli vengono utilizzati nel processo decisionale in tempo reale. La compressione dei modelli, il perfezionamento della loro architettura e l'esecuzione su piattaforme progettate per l'efficienza saranno elementi chiave per ridurre l'impronta energetica complessiva dell'IA. Ad esempio, sono state sviluppate piattaforme containerizzate e soluzioni di storage ad alte prestazioni, studiate specificamente per l'inferenza dell'IA, che offrono alle aziende un'opportunità concreta per ottimizzare i carichi di lavoro dell'IA e contenere la domanda di energia.

Il vero costo dell'IA non riguarda più solo le prestazioni e l'innovazione, ma anche l'energia necessaria per alimentarla. Man mano che le organizzazioni intensificano le loro iniziative legate all'IA, la domanda non è se possano permettersi di investire in IA, ma se possano sostenere l'energia che essa richiede. Con un'infrastruttura ibrida e un focus particolare sull'inferenza efficiente, le aziende hanno l'opportunità di contenere questo aumento del consumo energetico. Al contrario, coloro che ignorano questa realtà potrebbero presto ritrovarsi con i loro data center in balia di una vera e propria crisi energetica legata all'intelligenza artificiale.

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.