La Stampa, 12 febbraio 2018
Ecco come ci difenderemo dall’intelligenza artificiale. Da maggio ogni cittadino della Comunità europea avrà il diritto di sapere se una decisione che lo riguarda viene presa da un algoritmo
Come tutte le più grandi imprese umane, la corsa all’intelligenza artificiale intreccia ideali altissimi e interessi concreti. Cristoforo Colombo scoprì l’America cercando una nuova rotta commerciale, sulla Luna siamo arrivati perché gli Stati Uniti volevano mostrare, in piena guerra fredda, di essere più avanti della Russia nella ricerca tecnologica.
Oggi il presidente russo Putin non ha dubbi: «Chi svilupperà la migliore intelligenza artificiale diventerà padrone del mondo». Un’etimologia molto comune del termine intelligenza rimanda alla capacità di «leggere dentro» le cose, un’altra a quella di «leggere tra le cose». Già qui, insomma, non è chiaro se l’intelligenza sia la capacità di risolvere problemi e immaginare situazioni nuove, oppure quella di unire tra loro conoscenze già esistenti. Una questione non trascurabile, che tuttavia non ha impedito lo sviluppo e l’adozione dei test d’intelligenza: così misuriamo non si sa come una qualità che non sappiamo cos’è.
Studiare l’intelligenza artificiale vuol dire studiare l’intelligenza umana, comprenderne il funzionamento per replicarne i meccanismi. Per lo scienziato britannico Alan Turing, ad esempio, una macchina è intelligente se è capace di convincere chi la sta utilizzando che ha di fronte una persona. Il computer risponde a domande specifiche, rivolte contemporaneamente anche a un uomo, e i membri della giuria devono cercare di capire chi dei due è il loro interlocutore. Il test, descritto in Macchine calcolatrici e intelligenza, si considera superato se il computer riesce a ingannare i giudici almeno un terzo delle volte. «In tutte le definizioni di intelligenza c’è un punto debole», osserva Marcello Pelillo, professore ordinario di informatica all’Università Ca’ Foscari di Venezia e direttore dello European Centre for Living Technology. «Il test di Turing fornisce però una definizione operativa, basata su quello che una macchina è in grado di fare, e per questo dopo 68 anni è ancora valido».
I simboli manipolati
Turing aveva previsto che un giorno o l’altro un calcolatore avrebbe superato la sua prova, eppure il criterio con cui una macchina viene equiparata a un essere umano non lusinga né l’uno né l’altro: l’intelligenza artificiale è la capacità di ingannare gli uomini, di far credere di essere diversi da quello che si è. Ma simulare un pensiero è già un pensiero? «Allo stato attuale, è difficile sostenere che i computer siano capaci di pensare – prosegue Pelillo – non fanno altro che manipolare dei simboli». Analizzano quantità enormi di dati e forniscono risposte a precise domande, tenendo conto dell’interlocutore, della situazione, del contesto. A Siri chiediamo che tempo fa, a Google Assistant se c’è traffico, a Cortana di suggerirci un film da vedere, ad Alexa di suonare una canzone. Sistemi più complessi investono in borsa, controllano reti elettriche, interpretano esami clinici, tracciano rotte di aerei e camion. Ma l’intelligenza artificiale dà risposte, non fa domande: a porle è l’intelligenza umana.
Senza scomodare il «cogito ergo sum» di Cartesio, quello di un computer non si può davvero chiamare pensiero, perché la macchina non è consapevole di essere il soggetto che pensa. Analizza milioni di immagini, impara a riconoscere un cane o un gatto, da sola corregge i suoi errori e affina il suo algoritmo, eppure non sa cosa sta facendo. L’intelligenza artificiale batte l’uomo a scacchi o a Go, ma non conosce la differenza tra gioco e realtà; scopre nuovi pianeti, tuttavia non sa cos’è un pianeta. Il machine learning accresce la conoscenza, insomma, non la coscienza. E può diventare un problema, se all’intelligenza artificiale vengono delegate decisioni che ricadono direttamente nel campo dell’etica: messa di fronte alla scelta, un’auto a guida autonoma salverà il conducente anziano o il bambino che attraversa la strada? Condannerà sempre alla pena giusta l’imputato, anche se appartenente a una minoranza etnica o culturale? «Nel machine learning si fa addestramento e si forniscono dati, ma è la macchina a processarli», spiega ancora Pelillo. «Il risultato finale è qualcosa che non possiamo prevedere, in cui è difficile parlare di responsabilità diretta di un programmatore. Certo, possiamo vigilare perché i dati forniti siano il più possibile privi di pregiudizi e inclinazioni umane, ma soprattutto perché sia trasparente il processo decisionale dell’intelligenza artificiale». L’intelligenza che spiega se stessa viene definita XAI, Explainable Artificial Intelligence, ed è oggetto di ricerca dagli anni Settanta; con le nuove norme europee sulla protezione dei dati, però, sarà presto anche una parte della nostra vita di tutti i giorni. Da maggio, infatti, ogni cittadino della Comunità potrà chiedere di sapere se una decisione importante che lo riguarda viene presa da un algoritmo, e sulla base di quali ragioni. Per una volta la legge è più avanti della tecnologia.
La battaglia economica
«È cominciata la gara per la superiorità nell’intelligenza artificiale a livello nazionale, da qui potrebbe nascere la Terza Guerra Mondiale», ha scritto su Twitter Elon Musk. Musk è il fondatore di Tesla e di altre imprese hi-tech al limite della fantascienza, quindi non può certo essere tacciato di luddismo. Ma il dubbio che possa aver ragione viene davvero, a leggere l’ambizioso piano della Cina per diventare leader globale dell’intelligenza artificiale. È strutturato in tre tappe quinquenniali: mettersi al passo di tecnologie e applicazioni entro il 2020; raggiungere obiettivi primari entro il 2025; fare della Cina il Paese con l’intelligenza artificiale più sviluppata al mondo entro il 2030. I settori legati all’intelligenza artificiale sono valutati 1.000 miliardi di yuan, e Pricewaterhouse Coopers prevede che il comparto contribuirà a far crescere del 26 per cento il prodotto interno della Repubblica popolare entro il 2030. Nel Paese esistono condizioni ideali per lo sviluppo dell’intelligenza artificiale: oltre agli investimenti (nei prossimi cinque anni 150 miliardi di yuan, circa 22 miliardi di dollari), una tecnologia molto avanzata, ingegneri ben preparati, una base dati enorme da cui poter attingere in quasi totale libertà.
La crescita è globale: gli investimenti di venture capital in intelligenza artificiale nei primi nove mesi del 2017 sono arrivati a 7,6 miliardi di dollari, contro i 5,4 miliardi dell’intero 2016 (fonte PitchBook). La partita si gioca soprattutto tra Cina e America, anche se – come sottolinea il vice-presidente della Commissione europea Andrus Ansip – oggi è l’Europa il primo produttore mondiale di robot. Dal punto di vista dei finanziamenti, il vecchio continente è indietro rispetto alla Repubblica popolare, e il progetto Sparc, uno dei più importanti, conta per il periodo 2014-2020 su 700 milioni di euro di fondi comunitari, cui si aggiungono 2,1 miliardi di investimenti privati. Però a Bruxelles si discute un protocollo per la libera circolazione di dati pubblici e privati, che potranno essere utilizzati per il machine learning, e si assegnano fondi a favore delle ricerche sui nuovi computer quantici, che promettono potenze di calcolo assai superiori a quelle attuali.
Sull’intelligenza artificiale puntano tutti i grandi dell’hi tech, da Google a Facebook, da Baidu a Microsoft: «Assumono sempre più spesso ricercatori di fama – osserva Pelillo – e per noi è un problema grave perché l’agenda è dettata dalle aziende, non dalle università. Non è una buona notizia che la ricerca scientifica sia dominata da un tema unico, come oggi il machine learning, ma si spiega col fatto che queste aziende hanno accesso a dati, infrastrutture e macchine come nessun altro».
L’intelligenza artificiale, secondo un recentissimo studio di Accenture Strategy, potrebbe incentivare l’occupazione e far crescere i ricavi delle imprese, addirittura del 38% entro il 2020, se investiranno in una efficace cooperazione uomo-macchina. Per l’economia mondiale globale significherebbe una crescita dei profitti pari a 4,8 trilioni di dollari, ma soprattutto un profondo ripensamento del sistema produttivo: alle macchine verrebbero affidati i compiti più semplici, mentre milioni di lavoratori in tutto il mondo dovrebbero inventarsi un nuovo ruolo e una nuova funzione. Una nuova rivoluzione industriale, che inevitabilmente lascerà indietro qualcuno: per questo il Papa ha auspicato in una sua missiva ai grandi della Terra riuniti a Davos «una società inclusiva, giusta e che dia supporto». Il Pontefice ha anche sottolineato che «l’intelligenza artificiale, la robotica e altre innovazioni tecnologiche devono essere impiegate per contribuire al servizio dell’umanità e per la protezione della nostra casa comune piuttosto che il contrario, come purtroppo prevedono alcune valutazioni».
Armi intelligenti?
L’intelligenza artificiale sarà impiegata infatti nelle auto, nei trasporti, nelle città, nell’industria, nei servizi, ma pure negli eserciti, per creare strumenti sempre più distruttivi e mezzi di difesa sempre più efficaci. Un recente rapporto di Harvard definisce il potenziale impatto dell’intelligenza artificiale nel settore militare «potente come quello della bomba atomica». Anzi di più, perché per costruire una bomba atomica servono ancora strutture e competenze di cui pochi Paesi dispongono, mentre sviluppare un software per ingannare la struttura informatica di un esercito nemico è un’operazione relativamente a buon mercato. La Russia lavora da tempo a droni e veicoli militari autonomi e starebbe sviluppando missili capaci di individuare i radar sulla rotta e decidere da soli altitudine, velocità e direzione del volo in modo da non essere intercettati.
Entro il 2025 Mosca conta di avere il 30 per cento delle armi in dotazioni all’esercito controllate da qualche forma di intelligenza artificiale. Già due anni fa ha presentato Platform-M, un robot da usare in zone di guerra, munito di cingoli e armato con Kalashnikov e granate: ideale per pattugliare aree a rischio, per azioni di difesa, ma capace anche di attaccare, specie di notte. Non è solo un prototipo: è stato già impiegato in diverse operazioni militari. Per questo si moltiplicano gli appelli di scienziati e filosofi affinché l’uso dell’intelligenza artificiale in campo militare sia regolato internazionalmente. Se n’è discusso anche alla Camera, qualche mese fa: l’Italia non può dirsi all’avanguardia nel settore, ma almeno la questione è stata sollevata.
La risposta
Le ricerche procedono veloci e c’è chi, come Ray Kurzweil, prevede che i computer raggiungeranno davvero un’intelligenza di livello umano; anzi, il responsabile delle ricerche sul machine learning di Google indica anche una data: il 2029. Questione di qualche anno, poi, sempre secondo Kurzweil, nel 2045, arriverà la singolarità tecnologica: l’intelligenza artificiale supererà quella umana. I computer inventeranno altri computer, più intelligenti, e così via, in una catena senza fine. Riuscire a far brillare nel silicio la luce dell’intelligenza sarebbe la più grande conquista umana, come nota Steven Hawking, ma da sogno potrebbe trasformarsi in un incubo. Lo racconta bene lo scrittore Fredric Brown, in un racconto del 1954, The Answer. «C’è Dio?», chiede un ingegnere al mostruoso intrico di computer composto da tutti i calcolatori dei 96 miliardi di pianeti abitati. E la macchina risponde: «Sì: adesso, Dio c’è».
COSE BUONE PER ANTEPRIMA