Fabio Chiusi, l’Espresso 11/1/2013, 11 gennaio 2013
SPARA robot spara [Androidi e droni potrebbero presto combattere al posto nostro. E pure decidere chi uccidere e chi no
SPARA robot spara [Androidi e droni potrebbero presto combattere al posto nostro. E pure decidere chi uccidere e chi no. Ma la guerra è cosa da macchine?] Un robot non può recar danno a un essere umano, recita la prima delle tre leggi della robotica di Isaac Asimov. Un principio formulato per la fantascienza, ma la cui possibile violazione sta alla base di un realissimo rapporto dell’organizzazione non governativa Human Rights Watch, intitolato "Losing Humanity" ("Perdendo l’umanità"). La preoccupazione è che il progresso tecnologico sia giunto al punto in cui siamo costretti a riflettere, anticipandola, l’eventualità che i robot - o meglio, le "armi completamente autonome" - non solo possano, ma debbano recar danno agli esseri umani. Che siano, anzi, programmati per farlo: costruiti per la guerra e per combatterla con un cinismo algoritmico che apre, secondo gli autori, una serie di problemi di ordine normativo e morale che vanno discussi già oggi, subito. Prima che, nei prossimi venti o trent’anni, scrive il rapporto, le armi possano decidere da sole se sparare o meno. E farlo. Qualcosa di simile, del resto, già avviene. Grazie a una spesa in "sistemi di guerra senza pilota" di sei miliardi di dollari l’anno, il Dipartimento di Difesa statunitense infatti può contare su una serie di strumenti tecnologici che relegano il soldato in carne e ossa a una sempre più marginale e routinizzata cabina di regia. Non solo per i droni che pattugliano i cieli dell’Afghanistan, ma anche per sistemi di difesa automatici in cui «il coinvolgimento umano, quando c’è», si legge, «è limitato all’accettazione o all’esclusione di un piano d’azione del computer nel giro di pochi secondi». Nel caso del C-RAM, che intercetta colpi di mortaio e artiglieria, mezzo secondo. Così, mentre Israele e Corea del Sud iniziano a utilizzare "robot sentinella" da 200 mila dollari l’uno, gli scenari alla Robocop escono dall’immaginario popolare per entrare nelle pagine di cronaca. Con ciò che ne consegue. Asimov, nei suoi romanzi, si vide costretto ad ampliare le sue tre leggi con una legge zero, a loro fondamento: «Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno». Una eventualità divenuta oggetto di studio scientifico con la recente creazione del Cambridge Project for Existential Risk, un centro di ricerca interdisclipinare all’interno della prestigiosa università britannica in cui filosofi, scienziati e imprenditori valuteranno proprio il rischio che i robot ci conducano alle soglie dell’estinzione. Per scongiurare che ciò accada, Human Rights Watch propone di proibire «sviluppo, produzione e utilizzo delle armi completamente autonome attraverso uno strumento legalmente vincolante a livello internazionale». Ma gli esperti si dividono. La questione è giuridica e filosofica. Da un lato, i sostenitori del divieto argomentano che i robot non sarebbero mai in grado di rispettare le norme di base del diritto umanitario internazionale: e cioè "distinzione" (la capacità di distinguere militare in battaglia e civile innocente), "proporzionalità" (bilanciamento tra benefici militari e danni civili) e "necessità militare" (rispetto dell’umanità del nemico). Dall’altro, c’è l’obiezione per cui se anche le macchine dovessero diventare intelligenti come uomini, mancherebbero comunque di empatia. E dunque di compassione verso la vittima. Senza contare che la prospettiva di un conflitto senza eserciti in carne e ossa potrebbe rendere più semplice legittimare il ricorso indiscriminato all’uso della violenza. Ma le repliche non mancano. I dubbi si concentrano, in primo luogo, sulle possibilità dell’intelligenza artificiale di sfidare l’intelletto umano: per quanto visionari come Ray Kurzweil sostengano di aver trovato la chiave per creare una «neocorteccia digitale», che la soluzione funzioni resta da dimostrare. Certo, ci sono le dichiarazioni e i documenti dell’esercito Usa che testimoniano una sempre maggiore spinta all’indipendenza delle macchine. «Ma la Difesa ha da poco pubblicato le nuove linee guida per lo sviluppo di sistemi senza pilota, e vietano qualunque ricerca che miri a garantire alle macchine un’autonomia sufficiente a prendere decisioni unilaterali o senza supervisione per uccidere esseri umani», dice a "l’Espresso" George R. Lucas Jr, docente di Etica e politiche pubbliche alla Naval Postgraduate School di Monterey, California, e autore di un volume di prossima uscita intitolato "Killing by Remote Control" («Uccidendo a distanza»). Quindi lo scenario di «Terminator che vagano, armati e autonomi, per le colline dell’Afghanistan» sarebbe comunque da escludere. Anche Ronald C. Arkin, esperto di robotica della Georgia Tech University, concorda e definisce l’ipotesi che i robot sostituiscano la fanteria «lontana dalla realtà del campo di battaglia». Rispetto al divieto proposto dall’organizzazione non governativa, Arkin sostiene che si tratterebbe di una decisione «prematura» e che pertanto preferirebbe semmai una «moratoria»: si tratta, insomma, di controllare il cammino di queste tecnologie, non di impedirlo: «Se questi sistemi saranno sviluppati correttamente», dice, «potranno portare addirittura a una riduzione delle vittime civili», perché se è vero che mancano di emozioni, i robot non spareranno in preda al panico, all’impazzata, com’è successo ad esempio durante la guerra del Vietnam o nella più recente battaglia di Falluja, nel 2004. E gli androidi non si abbandoneranno al sottile, folle piacere di uccidere che tanti resoconti e film di guerra hanno testimoniato. L’importante è non ritenere responsabile il programma, conclude Arkin, ma il programmatore. Se, come scrive "l’Economist", la nozione di computer di fronte a dilemmi morali «sta uscendo dal campo della fantascienza ed entrando nel mondo reale», il merito principale del monito di Human Rights Watch è aver sollevato prepotentemente la questione, obbligando esperti e società civile a porsi delle domande prima che la tecnologia fornisca da sé le risposte. Alla fine a decidere saremo sempre noi umani, anche se da un lontano computer: e i robot non possono diventare degli alibi.