Carlo Antonio Biscotto, il Fatto Quotidiano 14/11/2014, 14 novembre 2014
SUN TZU ADDIO, L’ARTE DELLA GUERRA È UN MISSILE CHE FA TUTTO DA SOLO
Le armi del futuro sono state battezzate Fire and forget (Spara e dimentica). Immaginifico e terribile. L’anno scorso al largo della costa meridionale della California un bombardiere B-1 ha lanciato un missile sperimentale che – come scrive John Markoff sul New York Times – potrebbe rivoluzionare l’arte della guerra. Il missile da solo, senza sollecitazioni dei piloti, decise quale imbarcazione colpire tra le tre che, prive di equipaggio, galleggiavano in mare. La guerra non è più quella descritta nei manuali che erano anche trattati di filosofia, come quel-
A OCCHI CHIUSI
lo di Sun Tzu, ma fa ricorso in modo massiccio alle intelligenze artificiali, ai computer e alla tecnologia informatica. I droni vengono azionati a distanza con un joystick manovrato da esperti piloti. Ma ormai pare sia stata varcata l’ultima frontiera: le nuove armi non rispondono all’uomo, ma sono guidate e gestite dall’intelligenza artificiale. È un software che decide quale bersaglio colpire e chi uccidere.
Il timore è che queste armi possano divenire sempre più incontrollabili. Forse la loro precisione potrebbe salvare la vita di numerosi civili, ma non possiamo escludere che l’assenza dell’uomo possa avere l’effetto perverso di moltiplicare il numero dei conflitti. Alcune nazioni utilizzano già una tecnologia che permette a missili e droni di attaccare obiettivi militari senza il diretto controllo dell’uomo. Dopo il lancio, le armi ricevono da speciali software e sensori l’ordine di selezionare il bersaglio e attaccare. Il software è sofisticato e perfettamente in grado di distinguere un autobus civile da un carro armato. Inoltre i missili non “comunicano” con l’uomo. “È già partita la corsa agli armamenti guidati dall’intelligenza artificiale”, spiega Steve Omohundro, fisico ed esperto di intelligenza artificiale della Self-Aware Systems, centro di ricerca di Palo Alto. “Questi armamenti rispondono più rapidamente, in maniera più efficiente e meno prevedibile”. Ma le preoccupazioni sollevate da questa rivoluzione della tecnologia militare non sono poche e ieri a Ginevra si sono riuniti esponenti di moltissimi Paesi che puntano a impedire l’utilizzo di queste armi ai sensi della Convenzione sulle armi convenzionali. Il Pentagono, dal canto suo, ha approvato anni fa una direttiva secondo la quale lo sviluppo di queste armi richiede autorizzazioni al massimo livello della catena di comando militare e politica. Il problema è che la tecnologia va avanti con una velocità tale da aver reso già obsoleta la disposizione.
“Vogliamo sapere chi decide quali sono i bersagli”, dice Peter Asaro, co-fondatore e vicepresidente della Commissione internazionale per il controllo degli armamenti computerizzati. “Sono i sistemi a decidere autonomamente e automaticamente i bersagli da colpire?”.
È l’ultimo capitolo di una lunga storia. Già nel 1988 la Marina militare americana testò un missile Harpoon che disponeva di un rudimentale sistema di auto-guida. L’esperimento si concluse tragicamente: il missile invece del bersaglio colpì una nave da carico indiana uccidendo un membro dell’equipaggio. Naturalmente l’incidente fu messo a tacere, ma non la ricerca nel campo dell’intelligenza artificiale al servizio della guerra. Nel 2012 il Pentagono ha approvato un’altra direttiva che distingue tra armi semi-autonome e armi completamente autonome affermando che “le armi del futuro debbono essere progettate in modo da consentire all’uomo di esercitare adeguati livelli di intervento e decisione in ordine all’uso della forza”. E siamo al 2014: il missile testato al largo delle coste della California può coprire centinaia di miglia manovrando autonomamente per evitare i radar e senza alcun contatto radio con la base operativa. Il missile viola la direttiva del Pentagono? “Questi missili sono in grado di operare autonomamente nella ricerca del bersaglio”, risponde Mark Gubrud, fisico della Commissione internazionale per il controllo degli armamenti computerizzati. “Siamo in presenza di intelligenza artificiale e quindi al di fuori del controllo dell’uomo”. Il dibattito tra sostenitori e nemici giurati dei nuovi armamenti è aperto. Scharre, analista militare, non sembra sfiorato dal dubbio: “Armi più intelligenti e precise riducono il numero delle vittime civili e quindi ne vanno incoraggiati lo sviluppo e l’impiego”.
Carlo Antonio Biscotto, il Fatto Quotidiano 14/11/2014