di Jeff Hoffman
I calcoli attuati dall’intelligenza artificiale hanno un enorme costo in termini energetici.
A rivelarlo è un nuovo studio condotto dal Washington Post in collaborazione con i ricercatori dell’Università della California di Riverside, secondo cui i consumi di acqua variano a seconda dell’ubicazione dei server. Secondo alcuni documenti condivisi dal quotidiano Oregonian, i data center di Google a The Dalles, a circa 80 miglia a est di Portland, consumano quasi un quarto di tutta l’acqua disponibile nella città. Soltanto Meta di Zuckerberg ha avuto bisogno di 22 milioni di litri d’acqua per addestrare il suo ultimo modello di AI definito Llama 3.1.
Secondo i dati pubblicati precedentemente dai ricercatori dell’Università del Colorado Riverside e dell’Università del Texas Arlington, l’addestramento di ChatGPT richiede una quantità di acqua pulita, pari a 700.000 litri per i data center negli Stati Uniti. La domanda totale di acqua dolce a supporto dei processi tecnologici potrebbe raggiungere nel 2027 i 6,6 miliardi di metri cubi, hanno spiegato i ricercatori.
A preoccupare, tuttavia, non è solo il consumo idrico ma l’alto consumo energetico associato all’implementazione di Chat GPT. Ma la tecnologia è tutto e quindi è il solito pantalone che deve essere sacrificato, mentre l’uomo vorrebbe solo respirare, magari in pace.