Giuseppe O. Longo, Avvenire 1/12/2013, 1 dicembre 2013
IL PROBLEMA ROBOETICO
La presenza tra noi di robot ’intelligenti’ e dotati di una certa autonomia decisionale apre un ventaglio di problemi etici, che nel loro complesso costituiscono un settore di indagine nuovo e importante, la roboetica. Un problema roboetico attualissimo è posto dall’uso dei ’robot soldato’, cioè di robot costruiti, addestrati e impiegati con lo scopo precipuo di uccidere i nemici (uomini).
La Prima Legge di Asimov (Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno), formulata dal celebre scrittore in un racconto del 1941, impedirebbe ai robot di partecipare ad azioni di guerra contro esseri umani, mentre il loro comportamento distruttivo sembrerebbe trovare qualche giustificazione nella Legge Zero (Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno), che li autorizzerebbe a recare un danno limitato (a uccidere alcuni umani) a chi vuole provocare danni gravi, o addirittura ultimi e irreversibili (uccidere tutti gli umani). Naturalmente, in questo contesto, ha una grande importanza la distinzione tra umani amici (che valgono moltissimo) e umani nemici (che valgono poco o punto). L’uso dei robot da guerra s’inserisce nel quadro del combattimento a distanza, che da sempre ottunde la pietà nei confronti del nemico e aumenta l’efficienza bellica (le due cose vanno di pari passo). Infatti l’inserimento tra me e il nemico di un robot soldato aggiunge alla distanza fisica un distanza psicologica che colora la battaglia di cinismo e di irresponsabilità. Quest’ultimo punto è forse il più importante: delegando al robot l’uccisione del nemico, l’uomo si scaricherebbe in buona parte della responsabilità del sangue versato. Ma fino a che punto la colpa può ricadere sulla ’macchina’ robot che, almeno per il momento, non ha statuto giuridico?
Solo se il robot possedesse una piena volontà autonoma e una coscienza capace di distinguere tra bene e male, si potrebbe attribuirgli una qualche responsabilità. Oggi essa ricade tutta su progettisti, costruttori, militari e politici. E dietro tutto ciò stanno immensi interessi economici.
Un robot soldato, benché votato ad azioni di morte, dovrebbe conservare un residuo di eticità: anche se svincolato dalla Prima Legge, il robot dovrebbe riconoscere quando un nemico si arrende o non è più in condizioni di combattere, in modo da farlo prigioniero invece di ucciderlo.
Col tempo gli umani hanno sviluppato, nei confronti dei nemici o dei prigionieri, codici di comportamento che aprono isole di misericordia nell’oceano della crudeltà bellica. Si apre qui un problema analogo per i robot: come indurre in essi, nei confronti degli umani, comportamenti improntati alla pietas? La domanda rivela il conflitto tra la natura macchinica dei robot, che dovrebbe renderli obbedienti alla nostra programmazione, e la loro (parziale) autonomia che potrebbe spingerli a decisioni arbitrarie, nocive nei confronti degli uomini al di là delle regole stabilite dalle convenzioni belliche, oppure, all’opposto, alla disobbedienza a qualunque ordine di uccisione in nome di una compassione generalizzata.
Un giorno potrebbe essere un robot a ucciderci: come se non bastassero gli incidenti, le malattie e i nostri congeneri...