Avvenire, 3 maggio 2019
I soldati robot sono già tra noi
«Un robot non può recar danno a un essere umano né può consentire che, a causa del proprio mancato intervento, un essere umano riceva danno». Era il 1941 quando Isaac Asimov formulò in modo esplicito la sua celebre ’prima legge della robotica’ nel racconto Bugiardo.Da allora, la letteratura e il cinema hanno, più volte, raccontato robot ’dal volto umano’ tentati di infrangerla, ribellandosi ai loro creatori. Basta ricordare il tormentato replicante Roy Batty, co-protagonista del romanzo di Philip Dick, che ha ispirato la saga di Blade runner.Né il pioniere Asimov né i suoi eredi avrebbero mai immaginato, però, che lo scontro uomo- robot potesse uscire dalle pagine dei libri. Per divenire tema di scottante attualità.I robot con ’licenza di uccidere’ – a dispetto della prima legge asimoviana – sono una realtà drammaticamente tangibile. Certo, non hanno le fattezze statuarie di Rutger Hauer o Daryl Hannah di Blade runner, né del Terminator di Arnold Schwarzenagger. Macchine in grado di sostituire i soldati e il loro libero arbitrio sui campi di battaglia, però, sono in fase di avanzata di sviluppo. In Usa, Russia, Cina, Israele ma anche Gran Bretagna, Corea del Sud e Australia avrebbero già – le informazioni sono ovviamente secretate – realizzato i primi prototipi. Il prestigioso Stokholm International peace research institute (Sipri), nel 2017, ha censito 381 sistemi militari automatici, di cui 285 già completati, anche se sulla maggior parte di questi è ancora possibile un controllo umano. In un futuro imminente, però, la guerra rischia di divenire appannaggio dei ’robot-killer’, come vengono comunemente chiamati.«In realtà, il termine è fuorviante. Richiama alla mente i film di fantascienza. Le armi completamente autonome, invece, purtroppo, sono molto più concrete di quanto si immagini», spiega Regina Surber, studiosa di intelligenza artificiale per la Fondazione Ict4Peace e cofondatrice del Centro per l’etica e la tecnologia di Zurigo. Ne esistono di vari tipi. Dai sistemi d’armi fisici – dalle pistole ai droni – che identificano, selezionano tracciano e attaccano un bersaglio umano senza il comando di un operatore, fino a software in grado di rispondere in modo indipendente in caso di cyber-attacco. Alcuni sono capolavori d’alta tecnologia. Più piccoli, leggeri e, dunque, economici degli armamenti tradizionali. Oltre che più veloci. Perfetti, dunque, per una certa narrativa politica ansiosa di vendere all’opinione pubblica l’immagine di un conflitto asettico. Sterilizzato dal sangue e dalla violenza. Una sorta di video- game in cui al posto delle vittime ci sono ’danni collaterali’. La principale giustificazione ’etica’ per la realizzazione dei robot-killer sarebbe proprio la possibilità di risparmiare le vite dei soldati in carne ed ossa. «Mi sembra un’argomentazione un po’ naif. Non si tiene conto dell’enorme rischio a cui militari e soprattutto civili sono esposti dalla sostituzione del combattente- uomo con il combattente- macchina», afferma Noel Sharkey, docente emerito di robotica all’Università di Sheffield e tra i più noti esperti di sistemi automatici d’armi. Oltre a co-dirigere la Fondazione Responsible robotics, Sharkey presiede l’International commetee for robot arms control (Icrac), Ong protagonista della storica battaglia per la messa al bando dei ’robot-killer’. La Campaign to stop killer robot, lanciata nell’aprile 2013, raccoglie oltre 120 organizzazioni di 55 nazioni, Italia inclusa, grazie al lavoro della Rete italiana per il disarmo e l’Unione degli scienziati per il disarmo. Il modello a cui si ispira il movimento è la Campagna internazionale per l’abolizione delle armi nucleari (Ican) che ha ’convinto’ l’Assemblea generale dell’Onu a vietare l’atomica con il trattato del 2017. Impegno che è valso ad Ican l’assegnazione del Premio Nobel per la Pace. Non sono solo le organizzazioni pacifista,però, ad opporsi alle armi completamente autonome. Nel dicembre 2018, un sondaggio Ipsos, ha rilevato che il 61 per cento dell’opinione pubblica mondiale è contraria. In Italia, secondo i dati raccolti da Archivio disarmo, tale quota sale al 70 per cento. La scorsa estate, 200 aziende high tech e 3mila individui hanno sottoscritto un appello comune per fermare i robot killer. E 110 scienziati italiani hanno appena lanciato un grido d’allarme. «Amo i robot. Ho passato la vita a studiarli spiega Sharkey -. Per questo so che non si può conferire loro il diritto di uccidere. Per tre ordini di ragioni. Primo: non possono rispettare i principi-cardine del diritto internazionale umanitario, le cosiddette leggi di guerra. I robot non hanno le capacità sensoriali adeguate per distinguere tra combattenti e civili: non riescono a rilevare se un nemico è ferito o è sul punto di arrendersi. Poiché tale discrimine non può essere frutto di un algoritmo. È necessario e me l’ha confermato il colonnello David Sullivan, veterano di Kosovo e Afghanistan – un sesto senso tutto umano». Si passa, così, alla seconda questione indicata dal presidente di Icrac. Ovvero la possibilità dell’intelligenza artificiale di rispettare quello che il diritto internazionale umanitario definisce ’principio di proporzionalità’. «Un software può decidere se ridurre o meno i ’danni collaterali’, ad esempio uccidere 50 bimbi di una scuola invece di 250 per colpire un obiettivo. Ma non ha la consapevolezza per capire quando è imprescindibile farli e quando no. Solo un individuo con una coscienza e una responsabilità di cui sarà chiamatoa rispondere può avere tale capacità – sottolinea Sharkey -. La terza questione è di ordine tecnico. Le ’macchine letali’ non possono essere testate in modo adeguato. Nei campi di battaglia – specie negli attuali conflitti sempre meno convenzionali -, i fattori imprevedibili sono molti di più di quelli che siamo in grado di prevedere. Come possiamo programmare un robot per circostanze sconosciute a priori? Chi può davvero sapere come il software reagirà all’imprevisto? Con quali rischi e per chi?«. La sfilza di obiezioni, tutte corrette, secondo Regina Surber, possono essere riassunte in un interrogativo cruciale: «Possiamo davvero far decidere a una macchina come e quando sopprimere un essere umano? Per un pc, quest’ultimo è solo una serie numerica come qualunque altra informazione da processare. Non ha gli strumenti per comprenderne il prezioso significato. Le armi completamente automatiche sminuiscono il valore della vita umana. Questa è quanto più mi preoccupa».