In un recente rapporto incentrato sugli investimenti tematici, gli esperti finanziari di Barclays hanno discusso il previsto aumento dell'utilizzo di energia dovuto alla crescita delle tecnologie di intelligenza artificiale (AI), con particolare attenzione al coinvolgimento di NVIDIA (NVDA) in questo settore.
Gli esperti finanziari prevedono che l'energia richiesta per gli sviluppi dell'IA evidenzi una parte importante del futuro di NVIDIA nel mercato.
La ricerca di Barclays suggerisce che le strutture di elaborazione dati potrebbero utilizzare più del 9% dell'attuale consumo di elettricità negli Stati Uniti entro l'anno 2030, soprattutto a causa dell'energia necessaria per l'IA. Gli esperti finanziari hanno osservato che "il consumo energetico legato all'IA incluso nelle aspettative di mercato di NVIDIA" è la ragione principale di questa significativa previsione energetica.
Il rapporto menziona anche che, sebbene l'efficienza dell'IA stia aumentando con ogni nuova serie di unità di elaborazione grafica (GPU), le dimensioni e l'intricatezza dei sistemi di IA si stanno espandendo rapidamente. Ad esempio, le dimensioni di importanti modelli linguistici estensivi (LLM) sono cresciute di circa 3,5 volte all'anno.
Anche con questi miglioramenti, l'utilizzo totale di energia è destinato a crescere a causa della più ampia gamma di utilizzi dell'IA. Ogni nuova serie di GPU, come Hopper e Blackwell di NVIDIA, è progettata per essere più efficiente dal punto di vista energetico. Tuttavia, i sistemi di IA più grandi e complessi richiedono ancora molta potenza di calcolo.
"I modelli linguistici estesi (LLM) necessitano di una quantità significativa di potenza di calcolo per il funzionamento immediato", si legge nel rapporto. "Le esigenze di calcolo degli LLM comportano anche un aumento del consumo energetico, poiché per costruire, istruire e applicare questi sistemi sono necessari memoria, acceleratori e server aggiuntivi".
"Le aziende che intendono utilizzare i LLM per applicazioni immediate devono affrontare queste difficoltà", ha aggiunto Barclays.
Per dare un'idea del fabbisogno energetico, Barclays stima che per alimentare circa 8 milioni di GPU sarebbero necessari circa 14,5 gigawatt di potenza, pari a circa 110 terawattora (TWh) di energia. Questa stima si basa su una capacità operativa media dell'85%.
Con una stima del 70% di queste GPU da installare negli Stati Uniti entro la fine del 2027, ciò significa più di 10 gigawatt e 75 TWh di utilizzo di energia per l'intelligenza artificiale nei soli Stati Uniti entro i prossimi tre anni.
"Il valore di mercato di NVIDIA indica che questo è solo l'inizio della diffusione dell'utilizzo dell'energia AI", hanno dichiarato gli analisti. Si prevede che la continua innovazione e l'installazione di GPU da parte dell'azienda porteranno a una crescita significativa del consumo energetico nelle strutture di elaborazione dati.
Inoltre, la dipendenza dalle reti elettriche per i data center evidenzia la necessità di gestire i periodi di maggior consumo energetico. I data center sono sempre operativi e richiedono una fornitura costante di energia.
Il rapporto fa riferimento a un'importante osservazione di Sam Altman, CEO di OpenAI, al Forum economico mondiale di Davos: "Sicuramente nel mondo abbiamo bisogno di una quantità di energia molto maggiore di quanto pensassimo in precedenza... Credo che non abbiamo ancora compreso appieno i requisiti energetici di questa tecnologia".
Questo articolo è stato creato e tradotto con l'aiuto dell'intelligenza artificiale ed è stato esaminato da un redattore. Per ulteriori dettagli, consultare i nostri Termini e condizioni.