Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2018  febbraio 01 Giovedì calendario

«Se il robot pensa siamo in pericolo». Intervista a Nick Bostrom

Anche il Papa è preoccupato. Ai Grandi riuniti a Davos, ha ricordato che i robot devono essere al servizio dell’uomo: monito puntuale, perché proprio al forum svizzero si è parlato di come lo sviluppo dell’intelligenza artificiale possa, e già nei prossimi anni, far perdere all’uomo sette posti di lavoro ogni dieci. E se oggi si guarda sempre con entusiasmo, ma anche crescente preoccupazione allo sviluppo sfrenato delle macchine, il merito è in gran parte di chi ha lanciato l’allarme: il filosofo svedese quarantaquattrenne Nick Bostrom, professore a Oxford e fondatore oltre che direttore del Future of Humanity Institute. È stato il primo a considerare lo sviluppo intellettivo portato all’estremo delle macchine, e in generale di ogni progresso tecnologico incontrollato, un rischio non soltanto per il lavoro, quanto per la sopravvivenza dell’umanità stessa, superiore a quelli posti dal clima o dal nucleare. Il filosofo (con studi di fisica e logica matematica), una delle autorità più ascoltate da personaggi come Bill Gates o Elon Musk, aveva descritto in ogni dettaglio e tempistica la possibile apocalisse prodotta da un’intelligenza artificiale non più controllata dall’uomo, in un saggio uscito nel 2014, Superintelligenza, ora tradotto da Bollati Boringhieri. Un testo fondamentale per capire gli scenari futuri più catastrofici e come possiamo ancora intervenire per cambiarli.
Professor Bostrom, può dare una definizione di superintelligenza?
«È un’intelligenza capace di superare le migliori menti umane. E da come riusciremo o meno a far crescere l’intelligenza delle macchine in modo etico e sorvegliato, dipenderà la sopravvivenza dell’umanità in questo secolo».
Da quando è uscito il libro, c’è stata un’accelerazione del processo di apprendimento delle macchine?
«Sì, soprattutto in quello che si chiama deep learning. In parallelo è cresciuta però anche l’attenzione nei confronti dei rischi. Gli interrogativi che prima erano ristretti a pochi ricercatori, coinvolgono ora una comunità più vasta».
Lei scrive che con l’intelligenza artificiale ci comportiamo come bambini che giochino con una bomba. Siamo cresciuti?
«Abbiamo tre-quattro anni in più e la nostra consapevolezza è aumentata. Alla fine del saggio accennavo anche ai lati positivi dell’intelligenza artificiale. Sono felice di poterlo ribadire ora: non ne parlerei più soltanto in termini di apocalisse».
Come tradurrebbe in un’immagine la differenza, allo stato attuale, tra il nostro cervello e quello di una macchina sofisticata?
«Per il secondo penserei al funzionamento di una grande corporation con tutti i suoi compiti e settori. Rispetto all’essere umano, è carente nella conversazione, ma è più potente e interconnesso in molte altre attività».
L’intelletto delle macchine supererà quello biologico?
«Non è ancora detta l’ultima parola, ma non possiamo essere vaghi o disattenti perché altrimenti finiremo per estinguerci. È questo il momento per decidere quali potenzialità mentali debbano possedere le macchine, e quali limiti. Lasciare al caso sarebbe una catastrofe».
Il rischio più grave sarebbe una superintelligenza non allineata ai nostri valori?
«Sì. Un’altra classe di rischi può nascere da una superintelligenza che non si comporti come previsto da chi l’ha progettata, o in un modo che non si sappia gestire. Un’altra è legata all’ipotesi che potenze nemiche abbiano idee diverse su come sfruttarla».
Una nuova frontiera che attira grande interesse scientifico e investimenti miliardari, è l’interfaccia tra macchina e cervello umano. Si ipotizza che per contrastare l’avvento di robot estremamente evoluti, sia necessario fondere umano e artificiale. Che ne pensa?
«Sono scettico. Può avere valore in campo medico, per aiutare le persone con disabilità, ma per il resto è difficile far meglio dei nostri cinque sensi».
Le macchine saranno capaci di sviluppare valori non umani?
«Potrebbero instaurarsi valori alieni, sia per un nostro errore, sia per un processo evoluzionistico competitivo tra macchine o tra loro e noi. E sarebbe meglio che non capitasse».
Avranno una loro coscienza?
«Più crescono le loro capacità, e più potrebbero diventare macchine senzienti, dotate di sensibilità. Noi non sappiamo nemmeno che cosa sia necessario perché nasca la coscienza, quali capacità di pensiero siano fondamentali. Non abbiamo ancora capito molto a proposito degli animali...»
Quali sono gli altri rischi oggetto di studi nell’Istituto che dirige?
«Ci occupiamo dei rischi esistenziali legati alle biotecnologie: là dove queste rischino di trasformare il tessuto della nostra umanità. La mia speranza è che non si scoprano mai potenzialità troppo dirompenti, tali da mutare in modo selvaggio la nostra natura. Noi cerchiamo di intravedere la big picture: il legame tra le azioni di oggi e le conseguenze a lungo termine».
Da cosa è nata la passione per il nostro destino?
«Da piccolo odiavo la scuola e lo studio. A 15 è cambiato di colpo tutto, c’è stato un risveglio. Sono entrato in una libreria e ho preso un paio di libri a caso. Uno era di filosofia tedesca e leggendolo ho capito che se volevo contribuire al mondo, l’unica era studiare e studiare. Non ho più smesso».
Cosa la rende pessimista sul presente?
«Le tante tecnologie prive di controllo».
È ottimista?
«Negli ultimi due anni, a questo settore di ricerche si sono avvicinati molti giovani. È piccolo, ma è un movimento di persone che desiderano produrre tecnologia che tenga in giusto conto il nostro futuro».