La Lettura, 19 febbraio 2024
Sull’intelligenza artificiale
L’Intelligenza artificiale è di moda. Suscitano clamore le inaspettate prestazioni di una classe relativamente nuova di programmi, i Large Language Models, letteralmente «modelli linguistici di grandi dimensioni». Il più noto è Chat-GPT, facilmente accessibile in rete. Sono programmi che costruiscono pagine di testo sorprendentemente coerenti, competenti e ben scritte, come risposta a qualunque input diamo loro, rispondono a domande in maniera generalmente ragionevole e trovano sempre più applicazioni. La loro efficacia è arrivata come una grossa sorpresa, e scatena dibattiti.
C’è chi dichiara platealmente che l’Intelligenza artificiale ha raggiunto e superato quella umana. Chi prevede che i computer prenderanno l’iniziativa e conquisteranno il mondo. Altri scuotono la testa poco convinti. Per quanto riguarda il presente, un certo grado di regolamentazione è certo necessaria, come per tutte le nuove tecnologie. Abbiamo regole perfino per le lavatrici (per esempio per assicurarci di non prendere la scossa usandole): per ogni tecnologia nuova, qualche nuova regola è opportuna. La capacità di questi programmi di generare testi, immagini e musiche, sfruttando tutto quanto è accessibile in rete, ad esempio, richiede di adattare la legislazione sui diritti d’autore. Per quanto riguarda il futuro, al contrario, tutto è molto più vago: il mondo dell’Intelligenza artificiale è un mondo di sognatori, abili certo, ma anche preda di sogni esagerati e manie di grandezza sfrenate. Non sempre il futuro è quello che ci raccontano gli appassionati di tecnologia. Anzi, nella mia esperienza, direi quasi mai.
C’è però un’altra ragione, di tutt’altro genere, per la quale trovo questi «modelli linguistici» affascinanti. La capacità quasi prodigiosa che paiono avere di produrre linguaggio del tutto simile a quello che produciamo noi umani solleva un ovvio interrogativo: sono come noi? Sappiamo pochissimo di come funziona il nostro cervello, e questo è uno dei problemi aperti più belli nella scienza contemporanea. Forse il nostro cervello funziona come questi programmi? Abbiamo trovato una chiave per capirlo?
Il funzionamento dei «modelli linguistici» è complesso e pochissimo trasparente, ma l’idea di base è semplice. Vengono istruiti facendo loro leggere milioni e milioni di pagine di testo. Implicitamente registrano la frequenza con cui a una certa porzione di testo segue questo o quell’altro elemento di testo. Semplificando esageratamente, imparano che al testo «Il gatto ha acchiappato il...» segue più spesso «topo» che non «pastasciutta». Così istruito, il programma è pronto all’uso. Prende come ingresso un testo (per esempio una domanda), pesca un elemento di testo che giudica probabile come seguito sulla base di quello che ha ingurgitato, poi prende il testo con aggiunto questo nuovo elemento e pesca l’elemento successivo, e così via. In questa maniera, costruisce un testo compiuto.
Sembra ridicolmente semplice. In sostanza, il testo generato è semplicemente uno probabile, sulla base della frequenza calcolata sulle milioni di pagine su cui il programma è stato istruito. Non sembra plausibile che questo produca testi ragionevoli e coerenti, e invece lo fa. Questa è stata la sorpresa. Nessuno immaginava che i risultati di questa procedura concettualmente banale potessero essere testi praticamente indistinguibili da quelli prodotti da umani veri, da noi. Testi coerenti e ragionevoli.
Questo successo solleva l’ovvio interrogativo a cui ho fatto cenno: ma allora anche il nostro cervello fa questa stessa cosa? Ingurgita e scimmiotta?
L’architettura del nostro cervello è effettivamente simile all’architettura di questi programmi. Non è un caso: questi programmi sono uno sviluppo di architetture digitali chiamate (appunto) «reti neurali», ispirate proprio al cervello. Grossomodo, un cervello è una rete di neuroni che si scambiano «bip», collegati da connessioni chiamate sinapsi. Gli scambi stessi generano e rafforzano, oppure indeboliscono e cancellano sinapsi; l’informazione è immagazzinata nella configurazione delle sinapsi che risulta. Le reti neurali digitali funzionano in maniera simile: ci sono nodi che si scambiano segnali, collegati da nessi che codificano informazione diventando più o meno forti.
Insomma, questi programmi vivono su un’architettura simile a quella nella nostra testa, parlano come noi, e sanno dire quello che diciamo noi... Sono come noi? Stiamo capendo come funziona il nostro pensiero? Funziona come un calcolatore di probabilità che dice la cosa più probabile fra quelle sentite?
C’è chi ritiene che questa somiglianza sia fasulla. Intanto, il nostro cervello non si è evoluto per parlare. Abbiamo sostanzialmente lo stesso cervello di innumerevoli altre specie, che non hanno un linguaggio come il nostro. Il cervello si è evoluto per gestire la complessità del corpo, per permetterci di orientarci e muoverci, per adempiere a varie funzioni e necessità della vita, bilanciando richieste e necessità. L’uso che ne facciamo per chiacchierare, scambiarci racconti, articoli di giornale come questo, e altri testi, è un accidente recente dell’evoluzione. Un programma che ne riproduce un’attività così particolare, ci dice quindi poco sul suo effettivo funzionamento. È come se qualcuno volesse capire come funzionano le automobili, e pensasse di avere fatto un passo avanti perché è riuscito a riprodurre i tappetini eleganti di un’auto di lusso.
Ma ci sono obiezioni più specifiche. Uno dei più acuti pensatori viventi, Noam Chomsky, che ha studiato il linguaggio umano per tutta la vita, ritiene che il nostro pensiero funzioni in maniera completamente diversa da quanto fanno questi programmi: non sulla base di una vastissima informazione, ma al contrario come un manipolatore di pochi concetti rilevanti. Non scimmiotta, e sa produrre novità. Lo fa cogliendo il significato di quello che diciamo. I modelli linguistici no: scimmiottano senza capire il significato.
Eppure, eppure... Se ci concentriamo su quelle che (probabilmente solo pretenziosamente) consideriamo le doti illustri della nostra specie: parlare, appunto, e con la parola costruire racconti, società, cultura, istituzioni, religioni, scienza, letteratura, e quant’altro, allora la maestria con cui i modelli linguistici riproducono quello che facciamo noi lascia davvero perplessi. Come fanno, senza capire il significato di quanto dicono?
Ma qui arriviamo al terreno rovente: che cosa significa «capire il significato»? La domanda è tutt’altro che banale, e va al cuore del problema. Soprattutto perché una delle risposte più acute e profonde è stata proposta da quello che è forse il più grande filosofo del Novecento: Ludwig Wittgenstein. Nell’ultima parte della sua vita, Wittgenstein ha affrontato direttamente questa domanda cruciale. Nel suo libro Ricerche filosofiche ha proposto una risposta semplice e folgorante: il «significato» di una parola, una frase, un’espressione, un’esclamazione, non è altro che l’uso che ne facciamo nella realtà concreta della nostra vita. Il significato di «Vieni qui!» non è niente di più che l’effettivo impiego di questa espressione nel gioco dei rapporti fra noi. «Capire», quindi, significa sapere usare. Wittgenstein è stato immenso maestro nel farci vedere come creiamo false entità, false domande, falsi misteri, perdendoci nel nostro stesso linguaggio. È stato il più grande esorcista di fantasmi. E forse «significato», fra i fantasmi, è uno dei più subdoli.
Se davvero il significato non è altro che l’uso, allora in che senso i modelli linguistici «non capiscono il significato», mentre noi lo capiremmo? I modelli linguistici sanno spesso usare le parole anche meglio di noi. Come è successo per la natura della vita, diventata sempre meno misteriosa di decennio in decennio (e non per questo meno interessante!), così forse anche il modo misterioso in cui concepiamo noi stessi in termini fumosi come «significato», «coscienza», «intelligenza» si sta pian piano stemperando, nel vedere come siamo meno diversi dagli altri processi della natura di quanto pretendessimo. Almeno qualcosa di quanto pretendevamo gelosamente ci appartenesse in maniera esclusiva, lo si può avere più a buon mercato che non biologicamente.
Ma quanto del nostro parlare e pensare è davvero riprodotto da queste divertenti novità? Poco o nulla, come vuole Chomsky, o forse molto di più, come suggeriscono le idee di Wittgenstein? Ci aiutano a capire qualcosa di noi, queste buffe nuove macchinette parlanti? O è un’illusione?
Non lo so. Ho provato a chiederlo a ChatGPT, ma mi ha risposto banalità. Da parte mia, sarò un tipo all’antica, ma trovo ancora che al nostro mondo, piuttosto che tanta Intelligenza artificiale, gioverebbe di più un poco di intelligenza naturale in più. Restiamo confusi, facciamo sciocchezze, e ci sembra sempre che sia di questa che non ne abbiamo abbastanza.