Corriere della Sera, 16 febbraio 2019
Il robot che poteva ingannarci tutti
Non è la prima volta nella storia che l’uomo si spaventa di fronte alle proprie creazioni tecnologiche. Nel 1888 Thomas Edison per dimostrare quali pericoli fossero insiti nella corrente alternata, la tecnologia difesa dal suo concorrente Nikola Tesla, progettò la sedia elettrica. La prima esecuzione fu un disastro: William Kemmler morì tra indicibili sofferenze. La campagna per demonizzare l’elettricità venne anche alimentata da John D. Rockefeller che vi intravedeva, a ragione, la fine della sua illuminazione a gasolio delle città. Ma, appunto, in quei casi si trattava soprattutto di guerre commerciali per la supremazia degli standard. Ora, invece, lo «spegnimento» volontario e frettoloso dell’intelligenza artificiale che produceva fake news al posto di informazione da parte di OpenAI, gruppo sostenuto da Elon Musk, ha un sapore diverso: è il Dottor Frankenstein che si spaventa del proprio mostro. «Se tu inizi con una teoria del complotto su come l’uomo non sia andato sulla Luna – ha spiegato Alec Radford, uno dei ricercatori di OpenAI – il sistema continuerà con il complotto». In questa maniera i testi generati autonomamente dal sistema erano portatori insani di fake news e verità alternative «credibili», che i lettori potevano fare fatica a distinguere vista la loro raffinatezza. A suo modo, dunque, l’AI faceva un buon lavoro. Ma pericoloso. Il cervello non umano sembra comportarsi come un «camaleonte», non proprio un sistema razionale e affidabile. Cerca di assecondare più che riflettere. Era già accaduto: nel 2016 Microsoft aveva dovuto mettere il bavaglio a Tay, una chatbot che, lasciata libera di commentare su Twitter il 23 marzo di tre anni fa, aveva iniziato ad insultare con epiteti razzisti e dal sapore nazista le persone dietro gli altri account. Certo, si può pensare che l’intelligenza artificiale avesse colto la rabbia che trasuda effettivamente sul social network «imparando» dagli uomini. Ma se la tecnologia prende il peggio dell’umanità è facile argomentare che allora è meglio spingere quell’interruttore. La neutralità degli algoritmi è una delle grandi sfide scientifiche dell’intelligenza artificiale. Noi esseri umani viviamo da sempre in mezzo a teorie del complotto, falsità scientifiche, interessi occulti, pubblicità subliminari. Ma abbiamo sviluppato un antidoto potente contro tutto ciò: la cultura.
Ora come insegnare questo alle macchine, insieme al trasferimento dell’etica, sembra essere ancora più complicato che trovare la soluzione tecnologica.
L’impatto sulla nostra società è stato messo a fuoco dai ricercatori di OpenAI, forse anche perché Elon Musk è stato, insieme a personaggi del calibro di Bill Gates, Steve Wozniak e Stephen Hawking, tra coloro che hanno lanciato l’allarme contro un’intelligenza artificiale autonoma e fuori dal controllo dell’uomo, come in 2001, Odissea nello Spazio (dove, sebbene eluso da Kubrick, rimane il mistero del nome del computer Hal, formato dalle tre lettere precedenti a Ibm).
Gli stessi ricercatori hanno detto che il sistema era capace di creare notizie finanziarie (false) su società (vere), messaggi razzisti, trolling di qualità e false recensioni per siti come Amazon.
La direzione è irreversibile, così com’è sempre stato nella storia della tecnologia. La pericolosa elettricità è stata dominata. Ma anche un banale esempio come le automobili possono aiutare a comprendere come la chiave sia darsi un insieme di regole condivise, da tutti. L’utilizzo libero delle auto aumenta il pericolo di incidenti e di morti. Ed è per questo che in tutto il mondo esistono i limiti di velocità, i semafori, le patenti obbligatorie. Forse basta solo mettere i limiti di velocità anche all’intelligenza artificiale.