L’intelligenza artificiale (IA) promette di aiutare i programmatori a programmare più velocemente, i conducenti a guidare in modo più sicuro e a rendere le attività quotidiane meno dispendiose in termini di tempo. Ma in un commento pubblicato oggi sulla rivista Joule’, Alex de Vries il fondatore di Digiconomist dimostra che lo strumento, se adottato su larga scala, potrebbe avere un grande impatto energetico, che in futuro potrebbe superare la domanda di energia di alcuni paesi.
“Guardando alla crescente domanda di servizi di intelligenza artificiale”, afferma de Vries, “è molto probabile che il consumo di energia legato all’intelligenza artificiale aumenterà in modo significativo nei prossimi anni”.
Dal 2022, l’intelligenza artificiale generativa, che può produrre testo, immagini o altri dati, ha subito una rapida crescita, incluso ChatGPT di OpenAI. L’addestramento di questi strumenti di intelligenza artificiale richiede l’inserimento di una grande quantità di dati nei modelli, un processo che richiede molta energia. Hugging Face, una società di sviluppo di intelligenza artificiale con sede a New York, ha riferito che il suo strumento di intelligenza artificiale multilingue per la generazione di testo ha consumato circa 433 megawattora (MWH) durante l’addestramento, sufficienti ad alimentare 40 case americane medie per un anno. E l’impronta energetica dell’IA non si esaurisce con la formazione.
L’analisi di De Vries mostra che quando lo strumento viene messo in funzione, generando dati in base a suggerimenti, ogni volta che lo strumento genera un testo o un’immagine, utilizza anche una quantità significativa di potenza di calcolo e quindi di energia. Ad esempio, il funzionamento di ChatGPT potrebbe costare 564 MWh di elettricità al giorno. Mentre le aziende di tutto il mondo stanno lavorando per migliorare l’efficienza dell’hardware e del software dell’intelligenza artificiale per rendere lo strumento meno dispendioso in termini energetici, de Vries afferma che un aumento dell’efficienza delle macchine spesso aumenta la domanda. Alla fine, i progressi tecnologici porteranno a un aumento netto nell’utilizzo delle risorse, un fenomeno noto come Paradosso di Jevons. “Il risultato del rendere questi strumenti più efficienti e accessibili può essere che ne consentiamo semplicemente più applicazioni e più persone possano utilizzarli”, afferma de Vries.
Google, ad esempio, ha incorporato l’intelligenza artificiale generativa nel servizio di posta elettronica dell’azienda e sta testando il potenziamento del suo motore di ricerca con l’intelligenza artificiale. Attualmente l’azienda elabora fino a 9 miliardi di ricerche al giorno. Sulla base dei dati, de Vries stima che se ogni ricerca su Google utilizzasse l’intelligenza artificiale, avrebbe bisogno di circa 29,2 TWh di energia all’anno, che equivale al consumo annuale di elettricità dell’Irlanda. È improbabile che questo scenario estremo si verifichi a breve termine a causa dei costi elevati associati ai server AI aggiuntivi e ai colli di bottiglia nella catena di fornitura dei server AI, afferma de Vries. Ma si prevede che la produzione di server AI crescerà rapidamente nel prossimo futuro. Entro il 2027, il consumo mondiale di elettricità legato all’intelligenza artificiale potrebbe aumentare da 85 a 134 TWh all’anno in base alla proiezione della produzione di server AI. L’importo è paragonabile al consumo annuale di elettricità di paesi come Paesi Bassi, Argentina e Svezia. Inoltre, i miglioramenti nell’efficienza dell’intelligenza artificiale potrebbero anche consentire agli sviluppatori di riutilizzare alcuni chip di elaborazione dei computer per l’uso dell’intelligenza artificiale, il che potrebbe aumentare ulteriormente il consumo di elettricità legato all’intelligenza artificiale. “La crescita potenziale evidenzia che dobbiamo essere molto attenti a ciò per cui utilizziamo l’intelligenza artificiale”, afferma de Vries. “È ad alta intensità energetica, quindi non vogliamo inserirla in tutti i tipi di cose in cui non ne abbiamo effettivamente bisogno”.(AGI)
SCI/ROB