Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2014  dicembre 21 Domenica calendario

LA GOOGLE CAR NON È UN FRULLATORE

[Intervista a Andrea Bertolini] –
Per ora, ma ancora per poco, potrebbe essere una tesi di laurea all’avanguardia: se state attraversando la strada e per vostra sventura venite investiti da una Google Car, cioè un mezzo a quattro ruote guidato non da un Homo sapiens, ma da un computer — meglio sarebbe dire da un robot — di chi è la responsabilità civile e penale? Andrea Bertolini, 32 anni, ammesso nel 2008 al prestigioso master in legge della Yale Law School, dal 2012 si occupa della regolazione delle tecnologie robotiche in qualità di ricercatore del gruppo RoboLaw, un progetto finanziato dalla Commissione europea all’interno del settimo programma quadro. In parole povere sta studiando dal punto di vista legale come dare una risposta al quesito iniziale, che tra non molto diventerà un tema centrale della trasformazione in corso nella società.
Se state pensando a Io, robot di Asimov, ai replicanti di Blade Runner o ai recenti «marines» computerizzati dotati di ironia presenti nella nuova fatica di Nolan, Interstellar , siete fuori strada. «La robotica è un argomento molto interessante — sottolinea Bertolini, che oggi è ricercatore presso la Scuola Superiore Sant’Anna, ma è anche avvocato abilitato al patrocinio nello Stato di New York e in Italia —, ma bisogna distinguere la realtà dalla fantascienza. Detto questo, anche la realtà è estremamente interessante: noi con il progetto RoboLaw abbiamo svolto un’analisi seria, sia dal punto di vista giuridico che etico, di tecnologie che ragionevolmente possono arrivare sul mercato».
Lei ha presentato al Parlamento europeo le prime conclusioni del progetto RoboLaw. La prima domanda che molti si stanno ponendo è: perché vogliamo regolare la robotica? Il contesto attuale vede due fronti contrapposti: la Silicon Valley che innova muovendosi in un panorama a risorse infinite e un’Europa che cerca di difendere l’economia delle risorse scarse regolando…
«In realtà, anche se domani mattina inventassimo la macchina del tempo, qualcuno potrebbe fare causa e chiedere l’intervento del giudice. Il principio fondamentale del diritto è che non ha bisogno di giustificazione in quanto non ci può essere nulla che non sia regolato dal diritto».
Potrebbe sembrare una visione conservatrice…
«In realtà no: con l’esempio della macchina del tempo voglio dire che non può esistere qualcosa che non sia regolato. Ma il problema è: se oggi qualcuno inventasse la macchina del tempo, dovrebbe sottostare alle regole del Codice civile, che sono del 1942? La regolamentazione, in alcuni casi, è necessaria per favorire l’emersione di alcune tecnologie».
Come sta accadendo negli Stati Uniti con la Google Car, che grazie a regolamentazioni ad hoc è in corso di sperimentazione?
«La Google Car è un ottimo esempio e rappresenta uno dei possibili modelli di macchina che si guida da sola. Esistono produttori di varie industrie europee che hanno dei progetti simili che necessitano di nuove regole: oggi non le possono sperimentare non perché c’è troppa regolazione, ma, al contrario, perché la materia non è stata regolata. In Nevada stanno sperimentando la Google Car perché hanno adottato una disciplina normativa ad hoc».
Veniamo al tema chiave: di chi sarebbe la responsabilità, se oggi, per sventura, una Google Car o un mezzo simile mi dovesse investire?
«Oggi in Europa il responsabile dei danni sarebbe il produttore. Da un giorno all’altro tutti gli incidenti stradali li dovremmo imputare ai produttori. È proprio questo che impedisce lo sviluppo dei nuovi modelli. Oggi come oggi in caso di incidente dovremmo utilizzare la responsabilità per i prodotti difettosi introdotta dall’Europa con una direttiva del 1985. Per intendersi, la stessa disciplina che si applicherebbe al frullatore se non funziona. Se noi invece pensiamo alla regolazione in senso funzionale, ai giusti tipi di incentivi per la sicurezza, potremmo fare emergere un’innovazione che, secondo le stime, abbatterebbe gli incidenti del 95%».
In effetti le sperimentazioni stanno facendo emergere un panorama di questo genere: nel caso della Google Car ci sono stati fino ad ora solo un paio di incidenti, di cui uno causato dal fatto che l’essere umano aveva preso i comandi dell’automobile. Ma come gestire il restante 5% dei casi di incidenti che non si possono abbattere?
«Noi abbiamo proposto un sistema di responsabilità alternativa. Potrebbe essere un’assicurazione obbligatoria, oppure un fondo ad hoc che copre i danni, come succede in Nuova Zelanda».
Questa soluzione coprirebbe la responsabilità civile e pecuniaria. Ma quella penale? Se io oggi colpevolmente investo qualcuno per strada posso anche finire in prigione. Chi ci andrebbe domani?
«Per la responsabilità penale si apre un quadro interessante: se non è più l’uomo che guida, è chiaro che non può più subire la responsabilità penale. Sottolineiamo che stiamo parlando di un fenomeno che non si raggiungerà dall’oggi al domani: prima di avere macchine veramente autonome ci vorrà più di un decennio. Ma ipotizziamo di giungere alla completa automazione. Se l’uomo non guida, non c’è responsabilità penale, lo abbiamo detto. Ma teoricamente tutte le ipotesi di questo genere potrebbero essere radicalmente escluse, come per esempio la guida sotto effetto di droga o alcol. Certo, rimarrebbe il comportamento erratico della vittima: se una persona si vuole suicidare, sia che ci sia un robot alla guida sia che ci sia un pilota di Formula 1, cambia poco».
Altra ipotesi: c’è un virus nel software dell’automobile o del robot. Rientriamo nella casistica del frullatore difettoso, però con ben altre conseguenze, non crede?
«Attribuire una responsabilità penale sarebbe comunque molto difficile. Uno studioso di filosofia, Mark Coeckelbergh, nel 2013 ha pubblicato Human Being @ Risk : la sua idea è che partiamo dal presupposto che la tecnologia sia un potenziamento delle capacità umane, ma in realtà può introdurre delle vulnerabilità. Al Sant’Anna stanno sperimentando un esoscheletro per disabilità che in teoria potrebbe porre rimedio anche ai difetti delle città non pensate per queste persone. Al tempo stesso però potrebbe creare nuove vulnerabilità, in quanto questi cyborg potrebbero essere attaccabili attraverso sistemi di pirateria informatica. Ovviamente in questo caso il vantaggio sembra superiore allo svantaggio. Ma dobbiamo uscire un po’ dall’illusione che lo sviluppo tecnologico sia soltanto verso il progresso».
Il cosmologo Stephen Hawking ha recentemente lanciato un allarme sulla possibilità che in futuro i computer e i robot sviluppino una propria coscienza ribellandosi all’uomo, proprio come la letteratura di Asimov prima e la cinematografia, da «Blade Runner» a «Terminator» e «Matrix» poi, hanno immaginato. Non crede che questa ipotesi, per quanto lontana, possa cambiare le conclusioni alle quali dovremmo arrivare?
«Il punto è se si può considerare il robot responsabile di qualcosa. Ad oggi sicuramente la risposta dovrebbe essere no. A mio avviso ci sono argomenti kantiani, anche utilitaristici, secondo i quali per ritenere responsabile un robot di un atto bisogna affermare che debba avere una coscienza. Un robot, a tutti gli effetti, umanoide. Questa tecnologia oggi non c’è. Questo scenario presuppone anche un’intelligenza artificiale in senso forte, la replica di un cervello umano».
Il programma Watson dell’Ibm sta tentando, in parte, questa strada, utilizzando i Big Data.
«Una macchina che riesca a fare elaborazioni complesse è un conto, il computer con capacità di autodeterminazione un altro. Questo tipo di intelligenza artificiale in senso forte si contrappone a quella cosiddetta in senso debole, dove bisogna valutare un’infinità di variabili, come il bambino che attraversa in maniera repentina la strada. È un sistema con enormi potenzialità, ma sviluppato per una funzione precisa, ed è questa la direzione attuale dell’intelligenza artificiale. In ogni caso la Google Car rientra in questa casistica. È un argomento che sta a monte e qui sta la scelta di policy: vogliamo concepire il robot come una macchina che serve a potenziare l’umanità o delle macchine che possano dire di sentirsi libere?».
È una nostra scelta etica, in definitiva?
«Esatto: anche potendolo fare, ed è tutto da dimostrare, l’uomo avrebbe comunque la possibilità di non costruire la macchina con il libero arbitrio».