Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2024  giugno 01 Sabato calendario

Scrivere non è digitare

Pochi giorni fa, Google ha lanciato un nuovo servizio che si avvale di un’intelligenza artificiale (AI) per rispondere direttamente alle ricerche degli utenti. È stata una catastrofe: nel giro di qualche ora i social si sono popolati di esempi in cui il sistema suggeriva di mescolare colla liquida al formaggio della pizza per renderlo più filante, incoraggiava le donne incinte a fumare, esaltava i benefici per la salute di una dieta che includa un sassolino al dì. La catastrofe era prevedibile: i “modelli linguistici” alla base di queste tecnologie assorbono indiscriminatamente tutto ciò che trovano in rete nella fase di “addestramento”, inclusi articoli satirici, barzellette, idiozie. E le idiozie, ogni tanto, le tirano fuori.La catastrofe era prevedibile anche per un altro motivo. Dopo l’entusiasmo millenarista con cui un paio d’anni fa sono state ricevute le prime AI di nuova generazione – accolte come foriere di una nuova rivoluzione industriale o di una sostituzione di massa dei lavoratori intellettuali – ora assistiamo a un ridimensionamento delle aspettative, complice anche, appunto, la relativa inaffidabilità di questi sistemi in molte applicazioni pratiche. Un esempio particolarmente brillante di questa tendenza è Teoria letteraria per robot, un saggio di Dennis Yi Tenen da poco uscito per Bollati Boringhieri nella traduzione di Andrea Migliori.Tenen è uno studioso di letterature comparate con un passato da programmatore, il che gli permette di parlare di questi sistemi comprendendone l’aspetto tecnico ma valutandone la produzione con gli strumenti della linguistica e della critica letteraria. Qualche tempo fa il discorso intorno alle AI ne sottolineava l’unicità: era stato coniato il termine “singolarità” per riferirsi alla soglia epocale in cui l’intelligenza artificiale avrebbe superato quella umana. Ora Tenen fa l’operazione contraria, mostrando con brio ed erudizione la continuità con una ricerca secolare che parte dalla combinatoria di Raimondo Lullo, passa dalla ricerca logica di Leibniz e sfocia negli esercizi di computazione di Ada Lovelace. Tenen sottolinea che da quando esiste il linguaggio l’umanità cerca di meccanizzarne il funzionamento – con dischi di carta o ingranaggi di legno, prima che con i bit. Ciò che troviamo in queste tecnologie è solo ciò che vi è stato incorporato nel crearle. Un dizionario ha l’intelligenza collettiva dei suoi autori, e dei milioni di parlanti sul cui uso è basato; lo stesso vale dell’AI. Nella misura in cui è “intelligenza”, sostiene Tenen, è intelligenza umana.Questa teoria risulta particolarmente convincente quando Tenen si addentra nei dettagli tecnici del funzionamento di questi sistemi, che riesce a demistificare con grande chiarezza. Si tratta, in sostanza, di meccanismi statistici: dopo aver processato tutti i testi mai scritti dall’umanità, un computer sa che alle parole “tanto va la gatta al” seguirà probabilmente “lardo”. Alle parole “per rendere filante il formaggio della pizza, aggiungi” seguirà – se fra i testi processati c’è un articolo di satira che lo suggerisce – l’espressione “della colla liquida”. L’intelligenza o la stupidità della macchina è quella di chi ha scritto gli esempi e il software che li processa. Non c’è magia.Per sana che sia questa demistificazione, il saggio di Tannen è emblematico anche delle sue limitazioni. Da una parte, certo riduzionismo sembra, appunto, riduttivo. È vero che esiste un senso in cui un mitragliatore automatico è solo un erede della selce scheggiata con cui il primo cavernicolo ha assassinato un rivale; ma concentrarsi su questa filiazione oscura il fatto che l’aumento quantitativo di potenza produce, a un certo punto, una trasformazione qualitativa: la Prima guerra mondiale non sarebbe stata possibile con le selci scheggiate. Allo stesso modo, è vero che i vocabolari hanno aumentato la produttività dei traduttori (riducendone quindi la domanda), e i software di impaginazione hanno fatto perdere il lavoro ai compositori tipografici. Ma le economie di scala che certi software di AI rendono possibili in settori disparati come il servizio clienti, l’assistenza legale, il fisco e l’interpretariato sono tanto vaste da risultare imparagonabili. L’aumento quantitativo, a un certo punto, produce una trasformazione qualitativa.E qui emerge la zona cieca di molte discussioni, anche benintenzionate, sull’intelligenza artificiale. Il vero problema non è se questi sistemi siano davvero “intelligenti”, e grazie a chi; ma se i loro risultati – intelligenti o meno che siano, e spesso non lo sono – risultano tollerabili a fronte dei risparmi vertiginosi promessi dall’eliminazione dei lavoratori umani dai processi produttivi. La risposta è sì: lo dimostra il caso di Google, che ha lanciato un servizio sì deludente, che però gli permette di fornire risposte senza rimandare gli utenti a un altro sito aumentandone gli introiti pubblicitari. La domanda urgente che sollevano le AI non è tecnico-filosofica, ma politica. Come tutelare i lavoratori dalla perdita dei posti, o dal demansionamento a revisori dei risultati imperfetti ma quasi gratuiti dei sistemi di intelligenza artificiale? Come impedire che tali risultati imperfetti vengano venduti al pubblico – certo, a prezzi vantaggiosi – in campi quali la salute, l’assistenza legale e fiscale, o anche solo la letteratura? La risposta, forse, va cercata più in Marx che in Leibniz. —