La Stampa, 5 aprile 2023
Da Show a Turing. Breve storia della Ai (e preché l’ipotesi che le macchine prendano il sopravvento sull’essere umano è realistica)
Nelle ultime settimane l’Intelligenza Artificiale è affiorata nel dibattito pubblico, in seguito all’esplosione di Chat Gpt. Ma in realtà il dibattito al proposito è vecchio come il mondo, letteralmente, perché il problema teorico ha di molto preceduto le sue realizzazioni pratiche.
Nel mito di Pigmalione, per esempio, lo scultore crea la statua di Galatea, e finisce per innamorarsene. Sembrerebbe una reazione esagerata, ma è quello che succede spesso nel nostro rapporto con le macchine: quelle letterali, come le automobili o le motociclette, e quelle metaforiche, come i computer o i telefonini.
George Bernard Shaw riprese nel 1913 il mito di Pigmalione in un’omonima commedia, che poi approdò nel cinema con My fair lady. Il problema che lo scrittore affrontò riguardava le contesse: per esserlo, bisogna nascere con il sangue blu, o basta imparare a comportarsi come loro? Nella commedia, una fiammiferaia viene addestrata alle maniere nobili, e le impara così bene, che quando viene introdotta in società nessuno si accorge che non è una vera contessa.
Nel 1950 Alan Turing, l’inventore del computer, propose un test analogo: quand’è che un computer diventa intelligente? La risposta dello scienziato fu: quando, chiacchierando con lui sullo schermo, non riusciamo ad accorgerci che non è un vero essere umano, ma è solo un programma. L’articolo di Turing fu la prima formulazione moderna del sogno dell’Intelligenza Artificiale.
Per molti anni, l’unico computer in grado di superare il test di Turing fu quello del film 2001 Odissea nello spazio di Kubrick, che ripropose il solito dilemma sulle macchine che alla fine scappano di mano e finiscono per fare ciò che vogliono loro, procurando danni invece che benefici. Più o meno come nell’episodio della scopa portatrice d’acqua nel film Fantasia di Walt Disney, basato su una ballata di Goethe. O nel romanzo Frankenstein di Mary Shelley.
Poteva sembrare solo fantasia, ma già nel 1966 uno dei primi programmi di Intelligenza Artificiale mostrò che i problemi sollevati dagli scrittori erano reali. Si chiamava Eliza, come la protagonista del Pigmalione di Shaw, e il suo programmatore, Joseph Weizenbaum, scoprì con sorpresa due cose. Primo, bastavano poche righe di codice per imitare in maniera convincente il comportamento di uno psicanalista. Secondo, gli utenti ebbero subito l’impressione di parlare per davvero con uno psicanalista, e incominciarono a interagire con il programma come se fosse un essere umano. Weizenbaum rimase scioccato, e divenne uno dei primi critici dell’Intelligenza Artificiale.
Nel 1997 il programma Deep Blue batté il campione mondiale di scacchi Gary Kasparov, in un torneo di sei partite. Fu un momento epocale, perché gli scacchi sono considerati uno dei giochi più intellettuali che ci siano. Ancora anni dopo quella sconfitta, Kasparov rifiutava di credere che fosse stata tutta farina del sacco del computer. Sosteneva, in particolare, che alcune mosse erano troppo umane, perché una macchina avesse potuto pensarle.
Oggi i programmi per computer ormai superano facilmente i giocatori umani, esattamente come le automobili corrono più veloci degli atleti. Questo non impedisce che ci siano le Olimpiadi di corsa o i Campionati di scacchi, ma c’è una differenza: gli uomini sapevano da sempre di non essere i più veloci del creato, ma credevano di essere i più intelligenti. Ora hanno dovuto ricredersi, almeno per il tipo di intelligenza logico-deduttiva che serve per giocare a scacchi.
L’arrivo di Chat Gpt ha impressionato anche il pubblico che non gioca a scacchi, perché tutti hanno potuto vedere di persona quanto sia facile imitare un’intelligenza di routine. O, viceversa, quanto sia meccanico il lavoro compilatorio che Chat Gpt produce senza fatica, e che molti di noi sono costretti a fare nel proprio lavoro di ufficio. Siamo dunque di fronte a un potenziale rischio che riguarda la disoccupazione di molti impiegati, che possono o potranno essere facilmente sostituiti dalle macchine, come già sono stati sostituiti dai robot molti operai.
Ma l’Intelligenza Artificiale minaccia di avere ben altro in serbo, per noi. Primo fra tutti, il rischio che qualcuno ne abusi a proprio vantaggio e a danno altrui, come si è già visto per gli algoritmi di Twitter usati nella campagna elettorale di Trump nel 2016, o negli scandali dei dati venduti per un analogo sfruttamento da aziende come Telecom nel 2006, o Facebook nel 2019. I maggiori rischi sono però altri. Anzitutto c’è la possibilità che, anche con le migliori intenzioni, i programmi finiscano per fare cose che non erano state previste dal programmatore. La verifica di correttezza dei programmi, per assicurarsi che facciano tutto e solo ciò che devono fare, è un problema dimostrabilmente insolubile. Sono dunque sempre in agguato potenziali disastri, come il falso allarme nucleare del 1983 in Unione Sovietica, o disastri attuali, come il Flash Crash in borsa del 2010 negli Stati Uniti.
Inoltre, e infine, c’è la possibilità che l’Intelligenza Artificiale non raggiunga soltanto l’intelligenza umana, ma la superi, e prenda il sopravvento su di essa. Gli idealisti credono che la coscienza e i valori siano unicamente umani, e che una macchina rimarrà sempre una macchina. Ma i materialisti sanno che la coscienza è solo un epifenomeno, che sorge spontaneamente in un cervello che ha raggiunto una massa critica.
Quando anche l’Intelligenza Artificiale raggiungerà una massa critica, saremo di fronte a una nuova specie tecnologica, con i propri valori, che potrebbero essere in competizione con i nostri. Se ne preoccupano Bill Gates e Elon Musk, che di certe cose se ne intendono. Forse faremmo bene a preoccuparcene anche noi