AI: Chatgpt consuma molta più acqua del previsto

Secondo uno studio dell’Università della California i cluster che alimentano l'intelligenza di OpenAI necessitano di moltissima acqua potabile, precisamente quattro volte di più del previsto.

Sebbene la nostra vita quotidiana sia ormai indissolubilmente legata ai diversi chatbot e modelli di AI integrati nei sistemi e negli apparati tecnologici che ci circondano, è sempre più difficile ignorare le conseguenze ambientali derivanti dal loro continuo potenziamento, specialmente ora che le AI stanno trovando applicazione in una gamma di contesti via via più ampia e diversificata.

Tuttavia, se l’impronta carbonica dei modelli di intelligenza artificiale di grandi dimensioni come chat ChatGpt-3 ha ricevuto grande attenzione pubblica, la questione ben più critica del consumo di acqua dolce per il raffreddamento delle apparecchiature dei data center – un problema sempre più rilevante in tempi di scarsità di risorse idriche – è rimasta relativamente poco studiata. 

Nel 2023, uno studio condotto presso l'Università della California a Riverside basato sui dati forniti da OpenAI nel 2020 e intitolato Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models, aveva stimato che Gpt-3 consumasse circa una bottiglia d'acqua da 500 ml per rispondere a 10-50 domande, con variazioni a seconda dell’ubicazione, e che l'addestramento di Gpt-3 nei data center statunitensi della Microsoft potesse arrivare a consumare un totale di 5,4 milioni di litri d'acqua, cifre che, secondo i ricercatori all’epoca, sarebbero potute aumentare con il lancio di Gpt-4.

Un articolo pubblicato recentemente dal Times in cui vengono riportate le dichiarazioni di Shaolei Ren, professore e ingegnere dell'Università della California e parte del team di accademici coinvolti nello studio del 2023, sembra delineare uno scenario ben peggiore. Secondo Ren, infatti, i dati forniti a settembre da un nuovo documento di Microsoft suggerirebbero un consumo di acqua potabile di gran lunga superiore al mezzo litro stimato in precedenza per rispondere a 10-50 domande. Il calco dell’impronta idrica di ChatGpt potrebbe quindi rivelarsi fino a quattro volte superiore a quanto pronosticato, rendendo sempre più urgente l’ottimizzazione dei modelli e degli algoritmi da parte delle aziende di intelligenza artificiale, che in futuro dovranno necessariamente distribuire i propri carichi di lavoro in luoghi con una maggiore efficienza idrica. 

Immagine di apertura: foto di Jonathan Kemper da Unsplash

Ultime News

Altri articoli di Domus

Leggi tutto
China Germany India Mexico, Central America and Caribbean Sri Lanka Korea icon-camera close icon-comments icon-down-sm icon-download icon-facebook icon-heart icon-heart icon-next-sm icon-next icon-pinterest icon-play icon-plus icon-prev-sm icon-prev Search icon-twitter icon-views icon-instagram