la Repubblica, 24 febbraio 2023
Eric Anthony Mitchell, l’uomo che ha realizzato GptDetect, software che smaschera ChatGpt, con un’efficacia del 95%
«Hai rovesciato una tartaruga sul dorso, e ora lei, sotto il sole cocente, si agita e cerca di raddrizzarsi, ma tu non la aiuti» così nel film cult Blade Runner un poliziotto cerca di provocare una reazione emotiva in un soggetto interrogato, per scoprire se sia un uomo o un insidioso replicante. Oggi che ChatGpt è l’applicazione cresciuta più rapidamente nella storia (con cento milioni di utenti toccati in gennaio, a soli due mesi dal lancio), e che tutti la usano per divertirsi a conversare e per scrivere lettere, riassunti, post per i social, presentazioni aziendali e compiti scolastici, è ancora più urgente saper riconoscere tra testi scaturiti dalla mente umana e testi generati dall’intelligenza artificiale. Ne parliamo con Eric Anthony Mitchell, 27 anni, dottorando in informatica all’università di Stanford che ha realizzato GptDetect, software che smaschera ChatGpt, con un’efficacia del 95%.
Perché è sempre più importante saper riconoscere l’origine artificiale di un testo?
«Oggi i programmi come ChatGptpossono generare testi molto fluidi e scorrevoli, che sembrano del tutto naturali e quindi possono essere assai convincenti. Ma se chiedi a ChatGpt quale sia il modo giusto di curare una malattia, o un commento sociopolitico, otterrai risposte che sembrano molto credibili, ma che possono essere del tutto sbagliate. Questi software hanno molte “allucinazioni”: si dice così quando, pur di rispondere a qualcosa che non sanno, inventano. Ma siccome sono così eloquenti, è facile dar loro retta, trascurare la verifica delle fonti e pascersi di falsità».
Oggi molti studenti usano ChatGpt per fare i compiti…
«Già, e questo danneggia la loro capacità di apprendere: un programma come GptDetect può aiutare anche gli insegnanti a non farsi ingannare. Ma vale anche per il mondo dell’informazione: uno dei maggiori siti mondiali di notizie, Cnet, ha pubblicato circa 70 articoli scritti parzialmente o totalmente dall’intelligenza artificiale, nascondendo la loro origine. Alcuni di questi articoli contenevano errorifattuali molto gravi, che sono stati letti per settimane da moltissime persone, che magari li hanno usati per prendere decisioni non fondate sulla realtà, ignorando che si trattava di informazioni non verificate da un giornalista umano.Ecco perché sarebbe utile, nel browser di ognuno di noi, uno strumento che ci avvisi che stiamo leggendo un testo generato artificialmente».
Come riconoscere questi testi artificiali così ingannevoli?
«Se ho un testo “misterioso”, il mio GptDetect lo analizza e dà una stima di quanto sembra artificiale, ovvero di quanto quella precisa combinazione di parole assomiglia a un testo, sicuramente artificiale, che ChatGpt scriverebbe sullo stesso argomento. Il secondo passo è produrre molte riscritture del testo iniziale, cancellando qualche parola o frase e usando un modello linguistico per rimpiazzarla. Il passo finale è valutare quanto risultino “artificiali” queste riscritture: se sembrano tutte meno “artificiali” del testo iniziale, significa che questo era già il più artificiale possibile. In questo caso GptDetect conclude che il testo di partenza era generato da ChatGpt e non da un essere umano».
GptDetect è l’erede del test di Voight-Kampff inventato dallo scrittore Philip K. Dick e mostrato nella famosa scena di “Blade Runner”?
«Beh, nella fantascienza ci sono diversi esempi di test per capire se si ha a che fare con umani o con androidi, come il Cylon Test diBattlestar Galactica. Ma nel nostro caso, in realtà, non è così difficile: i modelli generativi come quello di ChatGpt sono ancora piuttosto rudimentali, e fanno errori marchiani. Ad esempio oggi ho chiesto a Bing, che incorpora ChatGpt, se La Tempesta di Shakespeare è in scena al Globe Theatre, e Bing mi ha risposto di sì.
In realtà andrà in scena a marzo, e l’ho spiegato a Bing. Che però ha insistito (basandosi sulla scorsa stagione): “No, no, è in scena, dall’8 agosto al 22 ottobre”. Senza rendersi conto che siamo a febbraio».
Crede che i modelli linguistici di grandi dimensioni, come quello usato da ChatGpt, siano la via più promettente verso l’intelligenza artificiale di livello umano?
«Credo di no, almeno non nella loro forma attuale. È vero che con l’ingrandirsi dei modelli, ovvero con l’aumento dei testi che vengono usati per allenare gli algoritmi, i problemi di aderenza ai fatti e di consistenza logica nei testi prodotti andranno a ridursi. Ma non credo che questi difetti spariranno del tutto. Penso che per avere una vera “superintelligenza” artificiale, bisognerà combinare gli algoritmi con un corpo robotico e con sistemi visuali che possano capire la natura visiva del mondo. Perché un grosso limite dei modelli linguistici di oggi è che non hanno alcuna connessione al mondo fisico.
Possono descrivere in modo realistico una mela, ma non sanno realmente cos’è. Se potessero uscire nel mondo e toccare le cose che osservano, forse acquisterebbero più coscienza».