il Giornale, 7 agosto 2024
Intervista ad Alessio Figalli
L’intelligenza artificiale è un campo vasto e complesso, che può affascinare tanto quanto intimorire. Ne parlo in questa intervista con Alessio Figalli: fra i matematici più importanti al mondo, insignito di numerosi riconoscimenti internazionali (tra cui figura anche la Medaglia Fields, il Nobel dei matematici, vinta nel 2018) e attualmente Direttore dell’Istituto di Ricerca per la Matematica presso il Politecnico di Zurigo.
Professor Figalli, c’è una data di nascita per l’IA?
«Non so se si può davvero dire che esista una data di nascita ben precisa. Di certo c’è stato un boom, da almeno un decennio».
Si cita spesso la conferenza che ebbe luogo a Dartmouth, nel 1956: da molti considerata l’atto di battesimo dell’IA.
«Quello fu chiaramente un momento importante. Ma tutto è andato poi un po’ oltre, e questa forse è la ragione per cui quella conferenza è diventata così famosa: perché le sue aspettative iniziali sono state ampiamente superate. In realtà anche fino a pochi anni fa ci sarebbe sembrato fantascientifico quello che stiamo vivendo oggi».
Come spiegherebbe a delle persone digiune di IA cos’è l’IA?
«Partiamo dal fatto che quasi tutti gli utenti dell’IA non sanno come funziona, come la maggior parte degli utenti di un cellulare non sa come funziona un cellulare allo stesso modo di tanti altri oggetti. L’IA è un insieme di strumenti che compiono delle operazioni mimando la maniera di pensare degli umani, interagendo costantemente con loro».
Quando penso all’IA la immagino come qualcosa che non riesce a fermarsi, non si dà tregua, quasi fosse in competizione con sé stessa. Perché questa rincorsa incessante?
«C’è una necessità di correzione, innanzitutto. Questi modelli non sono perfetti e possono fare errori, quindi spingersi sempre più avanti significa anche andare verso il miglioramento. Sono comunque strumenti eccezionali, la questione è saperli usare: se uno pensa che siano la soluzione per tutto è un grande rischio».
I social hanno spianato la strada all’IA?
«Di sicuro grazie a loro abbiamo sviluppato familiarità con la dimensione virtuale. I social hanno accelerato l’intero processo, anche in senso di cessione delle nostre informazioni: parlo a livello di statistiche, generali e non specifiche, che è ciò di cui ha bisogno l’IA. Per mezzo dei social abbiamo dato via tanto di noi stessi: questo è ciò di cui si nutre l’IA».
Dei nostri dati?
«Sì. L’IA è più potente e veloce di noi proprio perché ne maneggia una quantità inverosimile, e non perché fa deduzioni o attiva altri percorsi intellettivi».
Se anche noi umani sapessimo destreggiarci con una quantità tale di dati potremmo avere le stesse prestazioni dell’IA?
«Le nostre prestazioni sarebbero di gran lunga superiori, perché noi siamo intelligenti, mentre l’IA non è intelligente, paradossalmente. È brava nel comporre operazioni, ma non ha capacità intrinseche di distinzione. Faccio un esempio pratico: affinché un bambino comprenda cos’è una mucca occorre che glielo si spieghi una sola volta. Il bambino capirà subito, non avrà bisogno di vedere quella stessa mucca da migliaia di angolazioni e prospettive diverse, tutte cose che invece servono all’IA, che va avanti per associazioni. L’IA cioè non apprende. L’IA categorizza, fa schemi, procede per accumuli ed incroci».
Potremmo dire per osservazione?
«Esatto. Occorre capire che l’IA non comprende le regole, perché non segue le consuete fasi di apprendimento. Poniamo il caso che si voglia imparare a giocare a scacchi. Ci sono due possibilità: o uno assimila le regole e poi si allena, oppure vede tutte le partite di scacchi del mondo finché non apprende quelle stesse regole per osservazione. L’IA segue questa seconda opzione».
L’IA dunque non è intelligente. Come la definirebbe allora?
«Vediamola come una sorgente di sapere quasi infinito, che giustamente continua a impressionarci. L’IA non può essere tuttavia paragonata all’intelligenza classica umana, perché questa procede in modo strutturalmente differente. L’IA non ha niente di autonomo e d’indipendente: e questo è un bene, se così non fosse ci muoveremmo in un orizzonte pericolosissimo». L’IA rasenta la perfezione?
«No, essendo probabilistica, e non deterministica. In più fa errori, ragion per cui deve essere addestrata e raffinata».
Mi perdoni, ogni volta che sento parlare di addestramento in riferimento all’IA mi viene in mente un animale in cattività, una creatura che se scappa dalla gabbia provocherà chissà quali danni.
«Dipende sempre dal nostro comportamento, dall’uso che facciamo e faremo dell’IA. Può essere insidiosa se lasciata a sé stessa o messa nelle mani sbagliate: ma questo è successo già nella storia, pensiamo alla bomba atomica».
Immaginava una presenza così massiccia dell’IA?
«Non mi aspettavo un salto così veloce. Però sono anche una persona pragmatica: ora che c’è, capiamo come renderla un supporto e non un nemico. Poi: è vero che sta un po’ dappertutto, ma relativamente. L’uso che ne stiamo facendo è ancora moderato».
Qual è il suo pericolo più grande, secondo lei?
«Ci tenta nell’essere pigri. E se ogni volta si prende una scorciatoia si rischia di perdere tutta l’intuizione, tutta la genialità che caratterizza in fin dei conti l’uomo».
Crede che stiamo raccontando al meglio il mondo dell’IA? O ci lasciamo andare a uno storytelling spesso favoleggiante e approssimativo?
«Forse a volte non si dovrebbe esagerare, evitando di essere catastrofici e allarmisti. Il fatto che le informazioni non siano sempre corrette fa comunque parte di ogni iter di semplificazione, in cui anche il racconto dell’IA è immerso. Il vero tema è se si stravolgono le cose, l’importante è che ci sia un patto di comunicazione ragionevole».
Quale è il suo contributo specifico nel campo dell’IA?
«Quello di un matematico teorico. Mi sono concentrato su alcuni aspetti più che su altri, ad esempio su come l’IA cerchi di mimare il cervello umano, attraverso il funzionamento delle sue reti neurali».
Possiamo dire che l’IA è fatta di neuroni?
«Naturalmente sì. E una domanda che mi sono posto è stata questa: aumentando il numero di neuroni e quindi di connessioni neurali, che risultati si ottengono? Se si aggiungono sempre più neuroni, come questo influenzerà il processo di apprendimento della macchina?»
Attualmente quanti neuroni può governare l’IA?
«Svariate centinaia di miliardi. ChatGPT si basa su 175 miliardi di neuroni: che è più o meno la stessa quantità gestita dal cervello umano. Oltre al numero di neuroni bisogna però tener conto delle successive connessioni neurali, che sono molte di più: parliamo in quest’ultimo caso di centomila miliardi di connessioni».
Può descrivermi un neurone dell’IA?
«È un numero, che è stato poi manipolato grazie agli input che il sistema riceve, per mezzo di immagini o altro. Si tratta di un procedimento di stratificazione ed attivazione costante».
I neuroni dell’IA possono provare emozioni?
«Sì e no. Diciamo che basterebbe allenarli con una quantità sufficiente di test di psicologia per fargli capire cosa ci si aspetta da un’emozione. L’IA può imparare cos’è un’emozione basandosi su ingenti campionari di dati, ce la farebbe anche studiando le reazioni della gente alle sollecitazioni dei social. L’IA quindi non proverebbe le emozioni, ma saprebbe capirle».
Dovremmo associare all’IA anche concetti come fantasia, creatività, immaginazione?
«Non lo escluderei, ma di nuovo dipende da come intendiamo questi concetti. In fondo se chiedo all’IA di realizzare il ritratto di qualcuno, magari con uno stile a metà strada tra Manet e Picasso, lo farà tranquillamente. È creativo questo? È arte? Sono domande importanti e che rimangono aperte, come molte altre».