Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2013  dicembre 01 Domenica calendario

IL PROBLEMA ROBOETICO

La presenza tra noi di robot ’in­telligenti’ e dotati di una cer­ta autonomia decisionale a­pre un ventaglio di problemi etici, che nel loro complesso costituisco­no un settore di indagine nuovo e importante, la roboetica. Un pro­blema roboetico attualissimo è po­sto dall’uso dei ’robot soldato’, cioè di robot costruiti, addestrati e im­piegati con lo scopo precipuo di uc­cidere i nemici (uomini).
La Prima Legge di Asimov (Un robot non può recar danno a un essere u­mano e non può permettere che, a causa di un suo mancato interven­to, un essere umano riceva danno), formulata dal celebre scrittore in un racconto del 1941, impedirebbe ai robot di partecipare ad azioni di guerra contro esseri umani, mentre il loro comportamento distruttivo sembrerebbe trovare qualche giu­stificazione nella Legge Zero (Un ro­bot non può recar danno all’uma­nità e non può permettere che, a causa di un suo mancato interven­to, l’umanità riceva danno), che li autorizzerebbe a recare un danno limitato (a uccidere alcuni umani) a chi vuole provocare danni gravi, o addirittura ultimi e irreversibili (uc­cidere tutti gli umani). Natural­mente, in questo contesto, ha una grande importanza la distinzione tra umani amici (che valgono mol­tissimo) e umani nemici (che val­gono poco o punto). L’uso dei robot da guerra s’inserisce nel quadro del combattimento a di­stanza, che da sempre ottunde la pietà nei confronti del nemico e au­menta l’efficienza bellica (le due co­se vanno di pari passo). Infatti l’in­serimento tra me e il nemico di un robot soldato aggiunge alla distan­za fisica un distanza psicologica che colora la battaglia di cinismo e di ir­responsabilità. Quest’ultimo punto è forse il più importante: delegan­do al robot l’uccisione del nemico, l’uomo si scaricherebbe in buona parte della responsabilità del san­gue versato. Ma fino a che punto la colpa può ricadere sulla ’macchi­na’ robot che, almeno per il mo­mento, non ha statuto giuridico?
Solo se il robot possedesse una pie­na volontà autonoma e una co­scienza capace di distinguere tra be­ne e male, si potrebbe attribuirgli u­na qualche responsabilità. Oggi es­sa ricade tutta su progettisti, co­struttori, militari e politici. E dietro tutto ciò stanno immensi interessi economici.
Un robot soldato, benché votato ad azioni di morte, dovrebbe conser­vare un residuo di eticità: anche se svincolato dalla Prima Legge, il ro­bot dovrebbe riconoscere quando un nemico si arrende o non è più in condizioni di combattere, in modo da farlo prigioniero invece di ucci­derlo.
Col tempo gli umani hanno svilup­pato, nei confronti dei nemici o dei prigionieri, codici di comporta­mento che aprono isole di miseri­cordia nell’oceano della crudeltà bellica. Si apre qui un problema a­nalogo per i robot: come indurre in essi, nei confronti degli umani, comportamenti improntati alla pie­tas? La domanda rivela il conflitto tra la natura macchinica dei robot, che dovrebbe renderli obbedienti alla nostra programmazione, e la lo­ro (parziale) autonomia che po­trebbe spingerli a decisioni arbitra­rie, nocive nei confronti degli uo­mini al di là delle regole stabilite dal­le convenzioni belliche, oppure, al­l’opposto, alla disobbedienza a qua­lunque ordine di uccisione in no­me di una compassione generaliz­zata.
Un giorno potrebbe essere un robot a ucciderci: come se non bastasse­ro gli incidenti, le malattie e i nostri congeneri...