Corriere della Sera, 29 novembre 2015
L’auto senza nessuno al volante in situazione di pericolo salverà i suoi passeggeri o quelli che attraversano la strada? Parla Alberto Broggi, inventore della P1, 1,8 milioni di investimenti e l’esperienza di una Parma-Shanghai senza guidatore
Dell’auto senza pilota (tipo Google Car) accanto agli ingegneri cominciano a occuparsi anche i filosofi e i giuristi. I nuovi sistemi pongono infatti problemi etici e legali totalmente inediti, che si riflettono sull’ideazione degli algoritmi necessari a programmare i «comportamenti» delle vetture. Siamo in una dimensione di confine, tra morale e matematica, che da un lato ricorda i romanzi dello scrittore di fantascienza Isaac Asimov, ma nello stesso tempo è terribilmente concreta.
La novità la spiega Alberto Broggi, il professore-imprenditore che ha realizzato uno dei primi modelli di «vettura autonoma» del mondo, la P1, protagonista nel 2010 del viaggio Parma-Shanghai «in automatico», costata 1,8 milioni di euro e cinque anni di lavoro: «Finora – dice il precursore di Google, che in passato, pur essendo italiano, ha presieduto l’associazione degli ingegneri americani – i robot hanno lavorato in ambienti chiusi e controllati, ad esempio dentro gabbie nelle fabbriche. Alla guida dell’auto, invece, escono nelle strade, sono “liberi” e, in un certo senso, responsabili di ciò che fanno. Soprattutto diventano custodi delle nostre vite».
Ecco uno dei temi principali: il progettista deve minimizzare, sempre e comunque, la perdita di vite umane o salvaguardare, sempre e comunque, l’incolumità degli occupanti? Il dilemma può porsi nel caso in cui, ad esempio, un passante attraversi improvvisamente la strada e l’auto robotica (che ha riflessi molto più veloci del guidatore umano) debba «decidere», in una frazione di secondo, se investire il passante o schiantarsi contro un muro per evitarlo, con dolorose conseguenze per il suo passeggero. È solo un esempio di una casistica molto varia.
Sull’impostazione generale, gli esperti concordano nel dire che la prima e fondamentale «scelta etica» da compiere è quella di non rinviare la sperimentazione di tutte le tecnologie che, come l’auto assistita o senza pilota, possono migliorare la sicurezza per le persone e salvare vite. Più difficile è dare risposte nette e condivise ai dilemmi come quello citato. Anche perché, dice Jean-François Bonnefon dell’Università di Tolosa, «siamo all’inizio di una nuova scienza che possiamo chiamare etica sperimentale». Eppure servono risposte chiare se si vuole che l’auto senza pilota sia «socialmente accettata». Altrimenti chi mai comprerebbe una macchina programmata per sacrificare i suoi passeggeri?
Così Bonnefon e il suo team hanno tastato il polso all’opinione pubblica e tentato di capirne gli umori, ponendo online alcuni quesiti come quello citato. La risposta di principio è molto netta: i progettisti devono minimizzare la perdita di vite umane. Ma da altri commenti, emerge, molti ritengono che l’avvento dell’auto senza pilota sia una prospettiva lontana e che, comunque, non vedrà loro al volante.
Le giuste previsioni temporali però, secondo gli esperti, non sono queste. È vero, la Google Car (che peraltro ha già percorso due milioni di chilometri) è ancora in fase di sperimentazione. Così come le auto robotizzate del progetto europeo CityMobil2, in corso anche in Italia, a cui lavora Adriano Alessandrini dell’Università La Sapienza di Roma.
Ma nel corso dei prossimi due anni, scrive la rivista del Mit di Boston Technology Review, alcune case automobilistiche produrranno vetture a guida assistita capaci di sterzare e frenare da sole con sistemi da usare nei percorsi autostradali. E già oggi alcuni modelli montano sensori che, anche al buio e nella nebbia, distinguono i pedoni e i ciclisti e li segnalano al guidatore.
Un avamposto della nuova frontiera è la California, culla di Google, dove l’ingegnere meccanico Chris Gerdes dell’Università di Stanford e il filosofo Patrick Lin, direttore del futuristico Ethics Emerging Sciences Group del Cal-Poly, promuovono la più intensa collaborazione tra scienziati e umanisti del momento. Insieme hanno inserito diverse opzioni nel software che controlla le macchine senza guidatore e poi le hanno testate in simulazioni al computer e in situazioni reali. La macchina viene programmata ad esempio in modo che non sterzi se la strada è attraversata improvvisamente da uno scoiattolo. O dalla palla sfuggita alle mani di un bambino.
Insieme all’etica, l’altro tema emergente è quello delle regole. Com’è già emerso con la Google Car, l’auto senza pilota le rispetta alla lettera. Molto più degli umani. «Su una strada di Mosca a due corsie spaziose – ricorda Alberto Broggi – la mia P1 era l’unica macchina a rispettare la norma: tutti gli altri automobilisti si erano disposti su tre file. Per non creare problemi e non ricevere insulti ho preso il volante e mi sono adattato». Gli ingegneri come Broggi dicono: la vera sfida è creare un’auto capace di imparare. I filosofi aggiungono: speriamo che non impari, per primi, i nostri difetti.