Avvenire, 28 novembre 2023
Un anno di ChatGPT
Che cosa abbiamo imparato da un anno di libero accesso a ChatGPT? Dove dobbiamo guardare per il futuro?
Vincenzo Ambriola: Citando Francesca Rossi su “Wired”, dirò che quello che innanzitutto colpisce è l’impatto largo di ChatGPT. Un gran numero di persone per la prima volta ha potuto interagire con un’entità dialogante. Senza alcuna barriera. Fino a un anno fa, l’intelligenza artificiale (IA) era ed è tutt’ora in tantissime applicazioni, in tantissimi sistemi che noi usiamo quotidianamente, per esempio il Navigatore e i sistemi di “raccomandazione” che ci suggeriscono i film. Questi sistemi mediano l’intelligenza artificiale verso l’utente che usufruisce di servizi ma non vede direttamente l’IA. Con ChatGPT almeno 100 milioni di utenti nel mondo, già nei primi mesi, hanno potuto dialogare con l’IA e questo ha causato letteralmente uno choc a livello planetario, perché fino ad allora si parlava con gli assistenti vocali, ma era tutta un’altra cosa. È un punto di rottura proprio perché ha esposto tutta l’umanità all’intelligenza artificiale allo stato puro, cioè quello di interazione diretta. L’altra cosa che ci ha insegnato è che le applicazioni del “machine learning” e quindi delle reti neurali sono incredibilmente vaste. Con il salto di qualità e di potenza di questi sistemi sembrano non esserci più limiti.
Emanuela Girardi: Anche secondo me, uno degli aspetti più importanti che ha svolto il lancio di ChatGPT è stato il ruolo di democratizzazione dell’intelligenza artificiale. Ha dato la possibilità a tutti di capire che cos’è l’IA e di comprendere che noi in realtà stiamo interagendo già tutti i giorni con l’intelligenza artificiale. Ha aperto il dibattito pubblico e quindi ha creato una grande consapevolezza di che cosa sia l’IA. Si è compreso che cosa non è intelligenza artificiale: non è magia, non è un Terminator che verrà a ucciderci tutti. E poi ha creato nuova coscienza di quelli che sono i rischi. Le persone hanno capito che si parla di strumenti tecnologici che possiamo utilizzare per svolgere certe funzioni. Bisogna però ricorrervi in modo sicuro e informato, perché ci sono rischi relativi a un utilizzo malevolo, o almeno non corretto, di questi sistemi. Questi rischi devono essere conosciuti e devono essere gestiti. L’avvio di una discussione a livello internazionale su opportunità e rischi dell’intelligenza artificiale ha stimolato anche i governi ad avviare una regolamentazione diversi governi ad avviare una regolamentazione (l’Executive Order degli Stati Uniti, l’AIDA del Canada, l’AI Act dell’Europa, la Generative AI regulation della Cina). La velocità di sviluppo di questi sistemi, come si è visto nell’ultimo anno, è talmente rapida e noi siamo talmente indietro che dobbiamo assolutamente intervenire molto rapidamente per far sì di non essere travolti da questa rivoluzione tecnologica.
Derrick De Kerckhove: Concordo con queste idee stimolanti: la IA allo stato puro, senza barriere, e un trauma planetario. Sì, certamente, siamo al limite di una crisi di nervi del pianeta. Mi sembra che vi sia un salto qualitativo dell’intelligenza artificiale che passa dal mondo di servizi (come il Navigatore) a una IA generativa. Si tratta di una cosa diversa, come se avessimo cambiato idea di intelligenza artificiale. L’intelligenza artificiale sta prendendo possesso del linguaggio. Lo storico Harari ha scritto che ChatGPT ha catturato e riorientato il nostro sistema operativo, la nostra mente. Invece di essere a nostro servizio, diviene a un servizio che non si conosce, perché non c’è un’intenzione nell’IA. Potrebbe essere questo il problema? E questo è domanda da porsi. Ma in un senso l’AI va al di là della parola, che è la forma con cui noi umani produciamo il senso. L’AI è potente ed efficace in tanti campi, dalla medicina alla finanza, dall’ambito legale a quello bellico. Supera l’uomo con l’algoritmo e crea una separazione radicale tra il potere del discorso umano e il potere del discorso fatto di sequenze di calcoli.
Alberto Puliafito: È vero che queste macchine in realtà erano qui tra noi già da molto prima che diventassero pop. Sono diventate pop perché a un certo punto ci è sembrato che facessero cose che abbiamo ritenuto fossero esclusiva degli esseri umani. Scrivono, conversano, disegnano, generano immagini, perché non c’è solo ChatGPT ma anche programmi che producono arte e musica, per esempio. La reazione che abbiamo avuto mi sembra sia stata una reazione in parte di meraviglia e in parte di spavento. Sono subito arrivati rapporti che parlavano della perdita di 300 milioni di posti di lavoro. E le persone spesso hanno reagito con scherno alle funzioni banali che la macchina non s a f a re, u na re az i o n e d i s o l l i e v o, i n re a l t à. C o m e d ire, ecco, guardate, sbaglia, quindi non è così intelligente. Oggettivamente, queste macchine fanno cose che a noi richiedono un enorme sforzo. Io faccio spesso l’esempio del riassunto: ChatGPT funziona molto bene nel fare riassunti, li fa in tempo reale. Io, invece, per riassumere devo leggere il testo, capirlo, poi provare a fare una sintesi, sincerarmi che sia comprensibile… Non condivido però il terrore catastrofista. Penso che l’AI possa essere utilizzata come un’importante assistente nel nostro lavoro. L’insegnamento di quest’anno è allora il fatto di porre le domande giuste. E abbiamo anche scoperto che queste macchine ci costringono a guardarci allo specchio, come esseri umani, perché contengono tutti i nostri pregiudizi. Se creano contenuti che includono pregiudizi, questi pregiudizi provengono da noi, dai dati con cui le abbiamo addestrate, dalla cultura che abbiamo prodotto fino a questo momento. Se è vero che queste macchine possono essere gli assistenti per molte attività, avremmo bisogno che fossero addestrate con il meglio dell’umanità e non con il suo peggio. E con una grande varietà di punti di vista.
Oltre il caso complesso e opaco di OpenAI, sembra che vi sia una spaccatura tra chi crede che l’intelligenza artificiale debba essere aperta, libera e non pensare solo ai guadagni e chi è invece concentrato sul profitto. O forse anche una spaccatura tra chi predica cautela nella ricerca di nuovi strumenti e chi pensa a uno sviluppo sfrenato senza timore delle conseguenze.
Puliafito : La mia preoccupazione è che stiamo lasciando lo sviluppo di queste macchine a pochissime società private. Ci stiamo preoccupando di regolamentare alcuni aspetti, ma ci stiamo preoccupando poco di regolamentare la trasparenza e l’accesso a queste macchine e quindi temo che la spunterà il profitto, anche se francamente spero che le cose vadano diversamente, perché queste tecnologie sono potenzialmente abilitanti. Possono abbattere alcune barriere all’accesso dell’informazione e di molte competenze. Avendo visto come abbiamo sprecato le varie occasioni con Internet, temo che alla fine, anche in questo caso, il profitto prevarrà.
De Kerckhove: È tipicamente americano mettere il profitto davanti a tutto. Ma stato così anche per i social media, i servizi di cui si parlava prima. E allora noi siamo di fatto obbligati a passare attraverso questa organizzazione del sistema economico per ottenere un certo progresso. Quanto a Sam Altman, è un giovane che ha davvero desiderio di fare qualcosa di grande, molto ambizioso. La domanda è però se abbiamo bisogno di intelligenza artificiale generale, della quale avrei un po’ paura.
Ambriola: Vorrei mettere a confronto il potere e l’etica. Nella mia vita di informatico non ho mai sentito parlare di questioni etiche e sociali quanto ora. Noi informatici siamo stati forse coinvolti un po’ quando si parlava di digitalizzazione. Ci chiedevano come avremmo fatto, per esempio, la firma digitale. Siamo sempre stati trattati come quelli che chiamiamo per installare i calcolatori, anche se abbiamo cambiato il mondo radicalmente. Da un anno a questa parte sono entrati in campo filosofi e studiosi e il dibattito si è molto allargato, intervengono tutti, gli informatici parlano e sono ascoltati perché c’è curiosità su come funziona l’intelligenza artificiale. Credo ci sia stato un salto qualitativo. L’intelligenza artificiale è percepita non più come un bene per l’umanità, ma come qualcosa paragonabile alla bomba atomica. In questo senso, un dibattito che mi sta molto a cuore è quello delle armi autonome, che potranno essere delegate a decidere se uccidere e senza l’intervento umano.
irardi: Se consideriamo l’intelligenza artificiale generativa, quella di ChatGPT, penso sia difficile averla libera e democratica ed equamente distribuita, anche se in Europa si sta cercando di promuovere questa visione. L’intelligenza artificiale generativa ha bisogno di una serie di elementi per poter essere sviluppata. Che pochi possono avere. Servono tantissime risorse finanziarie, nell’ordine di miliardi di euro. E poi potenza computazionale di livello superiore, che è molto costosa e poco disponibile. Infine, bisogna avere accesso a una grande mole di dati: infatti le società top di AI generativa sono quasi sempre quelle che possono pescare nei social network. Senza considerare, ultimo elemento, che sono necessari i talenti umani nel settore, e per tenerseli stretti bisogna pagarli bene. Questi quattro fattori implicano che vi siano rilevanti barriere all’ingresso nell’ambito dell’intelligenza artificiale generativa. Non è una sorpresa, pertanto, che oggi siano poche le aziende in grado di svilupparla bene e con rapidità. In Europa abbiamo dei modelli di IA generativa, ci sono una serie di startup in Francia come Mistral AI, in Germania come Aleph Alpha e in Finlandia come Silo AI che ha sviluppato un LLM che copre 24 lingue europee e cerca di incorporare nel modello la diversità e la ricchezza culturale e linguistica europea. Ma oggi i modelli americani sono molto più avanzati e resteranno predominanti, almeno in questa fase. Sul prossimo stadio (che si spera richiederà minor dati e di maggiore qualità e anche meno potenza di calcolo) probabilmente ci sarà una possibilità anche per le iniziative europee e comunque per modelli diversi, che si focalizzano sui valori della sicurezza, della responsabilità e della trasparenza.
Quali aspetti della regolazione dell’intelligenza artificiale ritenete più importanti e urgenti? Girardi: Tutti i principi etici proposti fino a oggi sono importanti. Quale si debba privilegiare può dipendere dal contesto. Per esempio, posso rinunciare alla spiegabilità se utilizzo un sistema di raccomandazione che mi segnala un film su una piattaforma o se utilizzo il navigatore: in quel caso posso dire anche se non riesco a spiegare come si arriva alle indicazioni, mi va bene lo stesso. Però in altri casi, per esempio in campo medico, io non posso rinunciare al principio della spiegabilità. In alcune applicazioni, specifici principi sono inderogabili. Il rispetto dell’autonomia in campo sanitario mi fa preferire, come cittadina, che il medico abbia sempre l’ultima parola o possa intervenire e sostituirsi alla decisione presa in modo automatico da un sistema di intelligenza. Nella visione europea, che io condivido, è comunque prevista un’integrazione di questi i requisiti etici, dalla trasparenza alla robustezza, dall’autonomia all’accuratezza, alla privacy e all’equità fino alla responsabilità.De Kerckhove: La tecnologia ci influenza con le sue caratteristiche. Riorganizza letteralmente la nostra cognizione. Guardare la televisione non è la stessa cosa che leggere un libro. L’organizzazione mentale dell’uomo contemporaneo sta cambiando. Si sta infatti eliminando il contenuto che normalmente dovevo mantenere nella mia testa: la memoria, il giudizio, anche l’immaginario. L’intelligenza artificiale generativa sta prendendo il posto di tutto questo. Delle competenze, certamente. È anche del pensiero, si potrebbe dire. Considerando poi che il progresso è così rapido, più che un servizio l’IA rischia di diventare un’invasione, un’invasione della nostra testa. Non è solo il messaggio, come diceva Marshall McLuhan che conta, ma anche il medium, e il medium in questo caso fa cambiare la gente. Allora, che tipo di cambiamento possiamo aspettarci? Questo è importante anche per la regolazione.
Ambriola: So che ci sono teorie del complotto, secondo cui alcune organizzazioni vogliono farci diventare schiavi dalla tecnologia. Non è così, ovviamente. Ma quello che ha detto De Kerckhove è una sana e genuina proiezione di aspetti dell’IA che stanno cominciando a emergere. In passato, l’impatto delle reti sociali sui giovani è stato sottovalutato e ciò ha causato tanti danni. C’è stato un patto scellerato di una certa classe politica americana, anche progressista, nel favorire l’avvento di Internet. Internet è una cosa buona, dissero, sarà la libertà di tutti, strinsero il patto con il diavolo permettendo alle Big Tech di non rispettare le norme che fino ad allora erano seguite. Ora le Big Tech vanno a parlare con Biden. A chiedere regole. Perché si sono rese conto che senza regole non possono andare avanti, proprio loro che le regole le avevano infrante. Adesso servono indicatori di pericolo, come si faceva con i canarini nelle vecchie miniere di carbone. Quando il canarino moriva, i minatori scappavano perché significava presenza di grisù. Cerchiamo gli aspetti negativi da monitorare perché ChatGPT può diventare davvero troppo invasivo. Io quindi chiederei che questi sistemi rendano conto di quello che stanno facendo, che sia obbligatoria la cosiddetta spiegabilità. Per l’AI generativa sono fondamentali i dati. Dobbiamo sapere che tipo di dati sono utilizzati per addestrare le reti neurali che poi interroghiamo. Se dai all’intelligenza artificiale dati spazzatura in cambio otterrai spazzatura, se gli dai testi nazisti, parlerà come Hitler.
De Kerckhove: Questa discussione merita di prendere tutto il tempo che abbiamo. Perché è evidente che si tratta del nostro futuro. Con il cambio di medium, cambiano le persone. Con la stampa abbiamo avuto una laicizzazione di una società molto religiosa, perché la gente poteva accedere direttamente alle fonti del sapere, giusto per fare un esempio.
Puliafito: Sono d’accordo che potremmo parlarne per giorni e, probabilmente, non arriveremo a una conclusione. Vorrei aggiungere un’esperienza molto pratica. È il caso di uso di ChatGPT come abilitante per una persona con difficoltà nella scrittura. Un papà di un ragazzo vittima di bullismo a scuola doveva scrivere una email per chiedere un colloquio con il dirigente scolastico. È una persona che non ha potuto studiare e non è abituata a scrivere in bella forma a un ente burocratico. Così ha utilizzato ChatGPT per scrivere il messaggio. Parlandone con alcuni ragazzi, una di loro ha detto: mi vergognerei molto di una cosa simile se fosse mio papà a fare una cosa simile; vorrebbe dire che non sa scrivere. Io ho provato a fare vedere un altro punto di vista. Stiamo parlando di una persona che ha provato a usare uno strumento per farsi aiutare a superare un limite. Infatti, quella persona ha ottenuto il colloquio con la preside e poi di persona se l’è cavata ed è riuscito a esporre il suo problema. Quindi, se da un lato queste macchine ci pongono tutta questa serie di interrogativi, questo piccolo aneddoto ci dice quanto queste tecnologie possano essere di aiuto in modo positivo. Perciò sarebbe importante iniziare ad insegnarle, per capire come usarle, quali decisioni delegare all’AI e quali no. Ci preoccupiamo di ipotesi fantascientifiche ma non di cose concrete, come il fatto che le intelligenze artificiali vengono già usate per il “credit scoring”, cioè per stabilire chi ha diritto a un mutuo e chi no. L’impressione è che vi siano opportunità e rischi, che vanno al di là dell’utilizzo individuale di ChatGPT e di programmi simili, soprattutto guardando al futuro… Ambriola: Alcuni studiosi hanno chiesto di attivare procedure per ottenere il cosiddetto il “watermarking”, una marcatura digitale che serve per identificare i testi generati dalle AI. Qualcuno propone addirittura di creare un archivio di tutti i documenti prodotti dalle AI, in modo tale che sia possibile verificare l’origine di un documento. Non so se sono d’accordo su questo, anche perché tecnicamente mi sembra sia una soluzione complicatissima e ritengo ci siano tecniche per bypassarla. Ma si tratta di un’esigenza che nasce anche dagli ambienti accademici. Non si può infatti sottovalutare che questi sistemi possono generare in maniera industriale testi dannosi, fake news o simili. Questo mi preoccupa, più della capacità di scrivere un libro da zero. Se l’ha scritto la macchina ed è bello, gioisco lo stesso. Il problema è che si inondi la Rete di contenuti falsi, aberranti, generati in maniera estremamente facile, che possono colpire le fasce culturalmente più deboli. È il fenomeno che abbiamo visto con l’elezione di Trump e con la Brexit, un’alterazione del dibattito democratico.
De Kerckhove: Che si fa? Questo è un problema fondamentale del nostro tempo, che è l’era del dubbio. Ormai a chi credere? La scrittura ha portato un’evidenza che poteva servire per la coesione sociale, dando oggettività. Anche la scienza ovviamente ha portato l’idea che ci si basa sull’evidenza. Oggi il negazionismo è rampante. Che succede allora con l’alluvione di fake news? Siamo a una crisi epistemologica gravissima. Dove ci si rifugia? Dove va l’oggettività nel nostro tempo? Questa è una domanda aperta.
Ambriola: Mi ha colpito l’idea del cambiamento mentale delle persone, effettivamente non ci avevo pensato. Questo è un cambiamento veramente epocale. Rischiamo di tornare al Medioevo, quando per provare l’autenticità di un testo bisognava portare sette testimoni che avevano assistito alla firma. Altrimenti, non era valido. Chi sono i nuovi garanti della società? Forse Papa Francesco quando parla, anzi senz’altro quando parla Papa Francesco, o il presidente Mattarella. Ma un video di Trump? Come facciamo a essere sicuri? Dovremmo essere presenti quando le persone parlano. Questo è inquietante, perché si stanno mettendo in discussione alcuni fondamenti che erano della scienza. Una foto era un valido elemento probatorio. Una volta si poteva condannare a morte per una foto, adesso quale giudice condannerebbe a morte qualcuno sulla base di una foto che potrebbe essere stata manipolata o creata dal nulla.
Girardi: Il rischio principale che anch’io vedo è quello dell’influenza sui processi democratici di uno Stato. Quindi, le elezioni. Il pericolo sta nella disinformazione che si può creare on-line. Sarebbe necessaria una task force internazionale con lo scopo di agire nel contrasto delle fake news. L’anno prossimo ci saranno le elezioni europee e poi le presidenziali negli Stati Uniti. Aiuterebbe anche una sorta di Pubblicità progresso, come si faceva una volta per il fumo o l’alcol, per segnalare che i sistemi di intelligenza artificiale possono creare “deep fake” indistinguibili da contenuti veri, quindi: fate attenzione, verificate le fonti. Tutti gli altri rischi possono essere più facilmente governati, compresa la perdita di posti di lavoro, che è la paura più diffusa. Molti studi dicono infatti che saranno creati più posti di lavoro rispetto a quelli sostituiti dall’IA. Il problema semmai è che non abbiamo ancora le competenze per svolgere i nuovi lavori e quello della formazione è uno dei compiti urgenti per i governi che devono governare questa rivoluzione tecnologica e creare le condizioni affinché i lavoratori possano acquisire le competenze necessarie a svolgere i lavori del futuro.
Anche Papa Francesco, per stare a uno dei nomi citati come fonti credibili, può essere clonato in voce e video. E allora crolla tutto… Puliafito: Infatti, la cosa che mi che mi fa spesso preoccupare rispetto all’AI ha a che fare con il giornalismo. Ci avevano insegnato che tu non dovevi pubblicare niente se non avevi almeno due fonti indipendenti, no? Quando penso alla mia funzione sociale come giornalista mi dico: ma già prima dell’IA dovevo credere a una singola fotografia? Non devo sottoporre quella foto, quel video, a attenta verifica, geolocalizzarla, capire chi l’ha diffusa? E perché?
Ambriola: È la sacralità dell’evidenza che viene messa in discussione. Quando Galileo prende il cannocchiale, guarda Giove e scopre le sue quattro lune, fa una rivoluzione. Sta usando uno strumento in maniera nuova e importante. Ecco, adesso, l’intelligenza artificiale può fare una rivoluzione negativa, può togliere quella che era l’evidenza scientifica, facendola diventare un’opinione. Questo mi preoccupa molto. Si passa dalla scienza all’esoterismo, e diventa tutto possibile. Perdono valore certi elementi conoscitivi: la parola, l’immagine e il suono. Nella mente di tante persone si apriranno profondissimi tunnel. Nella sostanza sono aberrazioni, però il cambiamento sta avvenendo e su questo concordo con De Kerckhove circa la mutazione dell’uomo. Le cose non accadranno improvvisamente, ma si rischia di minare le radici della nostra civiltà occidentale. Non so cosa diventeremo.
De Kerckhove: Concordo che il problema fondamentale è il consenso, il consenso sociale. L’intelligenza artificiale potrebbe farlo in tema climatico. Sul Pianeta oggi ci sono migliaia di miliardi di sensori, se una macchina potesse integrare i dati provenienti da tutte queste “antenne” diffuse, avremmo un quadro completo dello stato della Terra minuto per minuto. Sarebbe una fotografia esatta, oggettiva, del cambiamento climatico e della condizione della natura. In questo senso, l’AI creerebbe un consenso positivo. Ma c’è il versante negativo già sottolineato. Le macchine digitali stanno liberando la nostra testa dal pensare. Che cosa faremo della testa adesso? Rischiamo di perdere il nostro contenuto psicologico, intellettuale, emotivo. La memoria si ritrova collettivamente su Internet. Potremmo passare da un genere umano fatto di individui autonomi a uno fatto di individui “svuotati” ma con un accesso sempre più veloce e immediato all’intelligenza artificiale e alla Rete. Dobbiamo pensare al futuro che vogliamo costruire…
Girardi: Più che temere scenari distopici, minacce globali all’umanità, secondo me dovremmo essere più pragmatici e guardare ai diritti e all’inclusione nel qui e ora. Il rischio maggiore è infatti non portare a tutti i benefici dell’AI e aumentare le disuguaglianze sociali. Servirebbe un Piano Marshall, se vogliamo chiamarlo così, di educazione del pubblico. Bisogna insegnare IA a scuola, il cosiddetto pensiero computazionale, che non è solo usare l’intelligenza artificiale, ma avere anche un approccio critico a questi strumenti per ricorrervi in modo sicuro e consapevole per risolvere dei problemi. E poi pensare ai cittadini più vulnerabili, gli anziani, che saranno i “poveri” del futuro in quanto “emarginati digitali”. Non avendo le competenze ormai indispensabili per vivere nella società digitale, magari non riusciranno più nemmeno a votare. È molto difficile raggiungerli. Servirebbe sviluppare una serie di progetti ad hoc. La Rai dovrebbe pensare a programmi in questo senso. La Bbc già lo fa.