Corriere della Sera, 28 luglio 2023
ChatGpt brucia uno sproposito di energia
Esercitarsi a fare calcoli complessi con la mente. Era uno dei consigli di Italo Calvino. Se c’è una cosa che sicuramente l’intelligenza artificiale ha imparato a fare, molto meglio di noi sapiens, è questa: contare. Ma calcolare viene da calculus, sassolini, quelli usati nell’abaco latino. E difatti dei «sassolini» nell’ingranaggio già ci sono. Il nuovo sistema di Google ha 540 miliardi di parametri. Una cifra che impressiona e intimidisce. Eppure, come ha riportato in questi giorni la rivista «Nature», i sistemi di Ai generativa, come l’ormai nota ChatGpt, non sono in grado di risolvere semplici puzzle logici che anche un bambino impara presto a dominare. Se usassimo un test tradizionale per misurarne il quoziente intellettivo (certo, creato per l’essere umano) resteremmo molto meno impressionati, quasi delusi dalle macchine. Ma forse non ci stiamo ponendo le domande giuste. Cosa accade, per esempio, se ci interroghiamo sull’efficienza energetica? Quanto è sostenibile un uso quotidiano dell’Ai al posto di una mente umana? Se un sapiens funziona anche con una barretta di cioccolato di poche kilocalorie è stato calcolato che solo «addestrare» ChatGPT-3, con un terzo dei parametri di Google, ha bruciato 1,2 gigawatt/h. Le più moderne centrali nucleari hanno una potenza di 1/1,6 gigawatt. Secondo una manager di Amazon il costo della fase di addestramento (cioè far «studiare» a questi sistemi miliardi e miliardi di documenti per permettergli poi di risponderci, con errori, «allucinazioni» e tutto il resto) è così alto che solo 10 società al mondo, un oligopolio, potranno permetterselo. Tutto ciò senza contare il consumo quotidiano e il lavoro di un numero indefinito di esseri umani, questi sì nuovi schiavi delle macchine, che dai Paesi come l’India «spiegano» a mano all’Ai la differenza tra l’immagine di un topo e quella di un mouse. Se dialogare con l’Ai sarà il nuovo sport prepariamoci ad avere delle centrali nucleari per risponderci.