Corriere della Sera, 12 febbraio 2023
Ho perso la gara con ChatGPT
In America soffia un vento di panico per le performance strepitose di ChatGPT, l’intelligenza artificiale che alla velocità della luce scrive articoli, saggi, su ordinazione, su qualsiasi tema, con una qualità elevata e spesso superiore a quella di noi umani. Ora quel vento di panico lo sento anch’io. Ho simulato una sorta di gara con ChatGPT, e sono sotto choc.
Ho il vago sospetto di aver perso io.
Ecco com’è andata. Imitando ciò che fanno – ad esempio – tanti studenti universitari americani, ho chiesto all’intelligenza artificiale di scrivere un breve saggio al posto mio. Ho scelto un tema che conosco, sul quale ho scritto spesso, e del quale tornerò a occuparmi sicuramente in futuro: l’invasione cinese in Africa. Ho chiesto a ChatGPT di scrivere un’analisi di cinquemila parole. Lo ha fatto in cinque minuti. Ho letto il risultato: dignitoso. Non solo per la forma, ortografia e sintassi di un inglese perfetto. Anche il contenuto: una sintesi che definirei equilibrata e aggiornata di informazioni e analisi correnti sul tema della Cina in Africa.
Posso fare meglio, io? Per adesso sì, lo dico senza superbia. Lo stesso tema io lo svilupperei con delle informazioni più originali, inedite; ci metterei il valore aggiunto della mia analisi, giudizi e scenari, visto che mi occupo della questione da tanti anni.
Però sono preoccupato lo stesso. Anzitutto c’è la velocità: su quel terreno non posso competere. ChatGPT sforna frasi a un ritmo folle. Il mio testo sarebbe migliore del suo, ma anziché cinque minuti ci metterei cinque ore o forse cinque giorni, calcolando anche il tempo per fare ricerche e scovare materiale originale.
Poi c’è la questione della riconoscibilità. Io campo scrivendo articoli e libri, spero che i miei lettori mi riconoscano un’impronta particolare, sia per la prospettiva con cui analizzo il mondo, sia per lo stile di scrittura. Ma lettori e lettrici continueranno in futuro ad apprezzare la differenza tra quello che scrivo io e l’analogo prodotto di ChatGPT o di altre intelligenze artificiali? Magari qualcuno di voi a un certo punto comincerà a dubitare che io stesso imbrogli, che sia in vacanza alle Bahamas sotto un ombrellone, e faccia scrivere i miei articoli a un software?
Forse sapete che l’agenzia Bloomberg già ora fa scrivere molti dei suoi commenti di Borsa all’intelligenza artificiale. Inoltre ChatGPT è un prototipo ancora giovanissimo, si evolve a gran velocità. Letteralmente «impara». La rivista The Atlantic gli ha commissionato un articolo chiedendo che fosse scritto «nello stile di The Atlantic», e il risultato era piuttosto buono.
Speranze e pericoli
Il passo dalle utopie alle distopie è breve. Chi progetta questi programmi è un essere umano, con le sue ideologie e i suoi pregiudizi
Un altro problema che si pone già in modo drammatico nel mondo accademico è questo: ChatGPT non scriverà mai due volte lo stesso articolo/saggio, poiché assorbe costantemente nuove informazioni. Se io gli richiedessi adesso lo stesso saggio di cinquemila parole sulla Cina in Africa, otterrei un testo con qualche differenza rispetto a quello di alcuni giorni fa. Perciò è difficilissimo smascherare chi usa ChatGPT. Qualcuno già ipotizza che sarà possibile farlo solo con un’altra intelligenza artificiale appositamente addestrata a dare la caccia a ChatGPT.
Nelle università Usa i prof impazziscono perché – a differenza di quando gli studenti facevano copia-e-incolla da Google o Wikipedia – un testo redatto dal software ChatGPT è praticamente impossibile da identificare. E ripeto, siamo solo agli inizi, Google sta per varare un’intelligenza artificiale concorrente di ChatGPT (quest’ultimo ha una partecipazione azionaria di Microsoft). In Cina il colosso digitale Tencent avrebbe pronta la sua versione. Chiunque minimizzi la minaccia rischia di sottovalutare la velocità del progresso: ricordo che al suo esordio il traduttore automatico di Google faceva errori grossolani, era lo zimbello degli utenti, lo usavamo per farci delle risate alle sue spalle. Oggi la sua qualità è notevole, l’ultima volta che ho incontrato mio figlio adottivo in Cina abbiamo tranquillamente tradotto dall’inglese al mandarino e viceversa usando l’intelligenza artificiale.
Il mio amico Carlo Invernizzi Accetti, docente di Political Science alla Columbia University e al City College (CUNY) di New York, sta sperimentando una nuova difesa. Anziché combattere una battaglia persa perché gli studenti non usino ChatGPT, al contrario lui chiede alle sue classi di far scrivere un saggio all’intelligenza artificiale per poi andare a caccia di punti deboli (luoghi comuni, conformismo, stereotipi, per esempio) e così esercitare il proprio spirito critico, esaltare la creatività individuale. È un tentativo raffinato per salvarci dalla... resa finale?
L’avanzata dell’intelligenza artificiale e l’entusiasmo, o la docilità, con cui l’abbracciano le nuove generazioni, suscita interrogativi più generali sul tipo di società in cui vogliamo vivere. Sono domande che si ricongiungono con quelle sollevate da un recente editoriale di Antonio Polito sulla cultura del lavoro nelle nuove generazioni.
Quegli studenti che hanno adottato senza esitazioni ChatGPT perché scriva temi e saggi al posto loro, che idea si fanno del loro futuro? Immaginano un mondo dove il lavoro lo farà l’intelligenza artificiale, e noi umani saremo in una vacanza perpetua, aspettando che a fine mese ci arrivi un reddito di cittadinanza sul conto bancario? Magari, secondo una vecchia idea di illustri economisti di sinistra, il reddito universale sarà finanziato tassando proprio i robot che lavoreranno al posto nostro?
Utopie di questo tipo abbondano nella letteratura economica dell’Ottocento e del Novecento, da Karl Marx a John Maynard Keynes gli intelletti più brillanti sognarono una società dove il progresso economico, tecnologico e sociale ci avrebbe liberati dalle catene del lavoro, o avrebbe ridotto l’attività lavorativa ai minimi termini, permettendoci di coltivare l’arte e la creatività, l’amore per il prossimo e per la natura. Però il passo dalle utopie alle distopie è breve. Vi risparmio le tonnellate di fantascienza su un mondo dove l’intelligenza artificiale ha preso il potere. Intanto c’è un problema già immediato e concreto: chi progetta e programma l’intelligenza artificiale è un essere umano, con le sue ideologie e i suoi pregiudizi. L’esercizio che Carlo Invernizzi Accetti fa fare ai suoi studenti è cruciale: smascherare quel che si nasconde dietro «l’obiettività» di ChatGPT.