
Quanto idrica è la vostra sessione di training di un modello LLM? Se avete letto qualche titolo allarmista ultimamente, potreste aver iniziato a temere che ogni volta che chiedete a un chatbot di scrivervi uno script in Python, stiate prosciugando un piccolo lago in California.
Ultimamente la narrazione è un po’ ovunque: l’AI è la nuova minaccia ecologica, una vorace macchina che beve litri d’acqua per raffreddare i data center. Però, prima di buttare i vostri server domestici in giardino e iniziare a piantare patate, fermiamoci un secondo. Un recente approfondimento di Jay Lund suggerisce che la questione è decisamente più sfumata di quanto la stampa mainstream voglia farci credere. L’uso dell’acqua da parte dell’AI sta diventando oggetto di grandi speranze e, soprattutto, di grandi paure, ma siamo ancora ai primordi di questo processo.
Il punto è che, come ogni tecnologia emergente, l’hype (e il relativo panico) tende a sgonfiarsi non appena si iniziano a guardare i dati reali e non solo i comunicati stampa carichi di fear-mongering. Certo, non è che i data center siano dei rubinetti aperti h24 senza conseguenze, ma l’idea che l’AI stia causando una siccità globale immediata è, per usare un termine tecnico, una grossa cavolata.
Da smanettoni, noi sappiamo bene che l’efficienza è tutto. Quando progettiamo un pezzo in 3D su Blender o ottimizziamo un nodo di una rete neurale locale, cerchiamo di massimizzare il risultato minimizzando le risorse. Lo stesso principio si applica ai colossi del tech. Il problema non è solo quanta acqua usano, ma come gestiscono l’infrastruttura. Se domani scoprissimo che i nuovi chip sono il triplo più efficienti nel calcolo per watt, il consumo idrico crollerebbe drasticamente.
Per noi che amiamo costruire macchine CNC o progetti di riciclo plastica, la lezione è chiara: l’ottimizzazione hardware e software è l’unica via d’uscita. Non possiamo permetterci l’approccio ‘brute force’ tipico di certi modelli di business che spingono sull’acceleratore dell’AI senza curarsi del debito tecnico ed ecologico. Il vero rischio non è che l’AI beva troppa acqua, ma che la gestione di queste risorse rimanga in mano a pochi vendor che decidono tutto tramite algoritmi opachi.
Insomma, meno panico per i fiumi, ma più attenzione all’efficienza. Continuiamo a smanettare, a ottimizzare e a cercare soluzioni che non richiedano un intero bacino idrico per far girare un semplice script di automazione. Perché la vera magia della tecnologia non è consumare tutto ciò che troviamo, ma creare valore con il minimo indispensabile.
