Il Sole 24 Ore, 13 ottobre 2019
È possibile un’etica per le armi intelligenti?
Numerosi sono i progetti di sviluppo e le sperimentazioni in corso sui sistemi d’arma chiamati autonomi, in quanto capaci di selezionare e attaccare un obiettivo militare senza essere sottomessi al controllo e alla decisione finale di un operatore umano. Le armi autonome sollevano pressanti questioni etiche e giuridiche: si può concedere a una macchina la possibilità di prendere decisioni di vita o di morte nel corso di un conflitto bellico? Un acceso dibattito pubblico si è sviluppato negli ultimi anni a partire da questo interrogativo di fondo, coinvolgendo sia la società civile sia la comunità internazionale degli stati.
Le comunità di ricerca in intelligenza artificiale (Ai) e robotica hanno agito come vedetta etica, diffondendo appelli firmati da migliaia di ricercatori e richiamando l’attenzione dell’opinione pubblica sui pericoli delle armi autonome. Nella sede Onu di Ginevra, il consesso diplomatico che valuta la compatibilità di ogni nuovo sistema d’arma con le norme del diritto internazionale umanitario si dedica da alcuni anni all’esame delle armi autonome. Nel 2018 il Parlamento europeo ha approvato una risoluzione con la quale si chiede la loro proibizione. Una campagna per la messa al bando delle armi autonome, alla quale hanno aderito in Italia l’Unione degli Scienziati per il Disarmo (Uspid) e la Rete italiana per il disarmo, è sostenuta da un vasto gruppo di associazioni e organizzazioni non governative. Queste iniziative si concentrano sulle minacce che le armi autonome pongono per il rispetto del diritto internazionale umanitario, per il mantenimento della catena delle responsabilità in azioni belliche e per il rispetto della dignità degli esseri umani coinvolti.
Il diritto internazionale umanitario comprende norme che tutelano civili, feriti e soldati che si arrendono. Come sviluppare un sistema artificiale capace di riconoscere quei comportamenti – anche i meno convenzionali – che esprimono l’intenzione di arrendersi attraverso segnali, gesti del corpo o comunicazioni verbali? Nella progettazione di un tale sistema non si potrà fare affidamento sulla condivisione tacita tra esseri umani di elementi culturali e antropologici. Questo problema non ammette ancora una soluzione generale alla portata delle attuali tecnologie dell’Ai.
I sistemi di inteligenza artificiale hanno già manifestato capacità percettive che sono statisticamente superiori a quelle degli esseri umani. Nonostante ciò, possono incorrere in errori che per noi umani sono piuttosto bizzarri. Chi sarà responsabile dell’attacco di un’arma autonoma a un pulmino scolastico inusitatamente scambiato per un obiettivo militare legittimo? Non l’arma autonoma che non è un agente morale. La ricerca di eventuali responsabili coinvolge tutte le persone che hanno giocato un ruolo nella catena di eventi sfociati e nel disastro che l’arma autonoma ha provocato. Ma questa lista è piuttosto lunga: si va dal personale tecnico coinvolto nello sviluppo dell’arma autonoma fino al comandante in capo all’operazione militare. Più lunga è la lista, più facilmente la ricerca dei responsabili porterà al cosiddetto “problema delle molte mani” e all’impossibilità di individuare delle persone che hanno delle responsabilità significative. In particolare, le armi autonome rischiano di interrompere la catena militare di comando e controllo, aprendo varchi per respingere la responsabilità di atti che sarebbero considerati crimini di guerra se perpetrati da un essere umano.
L’idea di una macchina che ha il potere di decidere se io, essere umano, debba vivere o morire suscita una ripugnanza istintiva. Il giurista Christof Heyns ha messo in evidenza – come Relatore speciale dell’Onu per le esecuzioni extragiudiziarie, sommarie o arbitrarie – le basi etiche di tale ripugnanza: non potendo fare appello all’umanità condivisa di qualcuno che si trovi dall’altra parte, la dignità di chi è soggetto a una decisione automatizzata di vita o di morte è sistematicamente violata.