Marco Cattaneo, l’Espresso 12/10/2012, 12 ottobre 2012
UN UOMO CHIAMATO ROBOT
La prima volta, a Nagoya, quindici anni fa, erano 38. A Singapore, nel 2010, hanno raggiunto quota 500. Sono le squadre, provenienti da sempre più università e centri di ricerca di decine di Paesi, che partecipano alla Robocup, il campionato mondiale di calcio per robot. Cominciata proprio con l’edizione di Nagoya, l’iniziativa si propone l’obiettivo di mettere a punto, per il 2050, una squadra di robot umanoidi autonomi in grado di sfidare, e possibilmente battere, la Nazionale campione del mondo.
Roba da fantascienza? Forse. Ma non ci scommettete. Al di là dell’obiettivo dei promotori della Robocup, dichiaratamente (e sfacciatamente) rivolto a richiamare l’interesse dei mezzi di comunicazione, la ricerca sui robot umanoidi procede piuttosto spedita. In fondo sono passati solo quarant’anni da quando l’ingegnere serbo Miomir Vukobratovic, fondatore del laboratorio di robotica dell’Università di Belgrado, confezionava il primo esoscheletro antropomorfo attivo. In altre parole, una goffa impalcatura di ferraglia con un tronco, due braccia e due gambe capace di eseguire movimenti autonomi, basata su un modello teorico del movimento umano che lo stesso Vukobratovic aveva elaborato un paio d’anni prima. E bisogna arrivare al 1985, ancora con processori lenti come tartarughe e materiali da preistoria, perché la Hitachi sviluppi un robot bipede capace di esibire una camminata statica, ovvero sul posto, alla ragguardevole velocità di un passo ogni 13 secondi.
Insomma, una cosa è spostarsi comodamente su un numero variabile di ruote, un’altra passeggiare più o meno con disinvoltura allungando e accorciando il passo, svoltando a destra o a sinistra, scansando gli ostacoli. Ma il principio di Vukobratovic è felicemente sopravvissuto agli infausti prototipi della Guerra fredda, e oggi sono in circolazione robot capaci di salire le scale, come Asimo, realizzato e via via perfezionato dalla Honda a partire dal 2000, o il coreano Hubo, un nanerottolo di un metro e 25 capace di ballare, stringervi la mano muovendo tutte le dita indipendentemente e soprattutto spostarsi a 3 chilometri all’ora. Certo, niente a che vedere con i movimenti sinuosi degli androidi che sfidano Will Smith nella riduzione cinematografica di "Io, Robot", il capolavoro di Isaac Asimov, ma la scienza degli automi che camminano è davvero ai primi passi.
E poi il sogno - o l’incubo, a dare credito a certa fantascienza - di un robot umanoide va ben oltre una scatola di latta su due zampe incerte. Da un robot che ci sia di aiuto nei lavori pesanti o che possa assistere bambini, malati, anziani, ci aspettiamo che sia in grado di dosare la propria forza, di riconoscere l’ambiente in cui si muove, e magari persino le nostre espressioni, di guardarsi attorno e capire al volo se c’è qualcosa che non va. Pensate solo a due azioni apparentemente ovvie, che facciamo migliaia di volte al giorno senza pensarci su un istante: afferrare un oggetto e buttare l’occhio in una stanza per vedere se c’è una persona che stiamo cercando.
Quando afferriamo qualcosa, in una frazione di secondo il cervello stima la distanza che ci separa dall’oggetto e dà ordini che ci permettono di muovere braccio e mano nella direzione voluta e infine di prendere quel benedetto coso. Ma attenzione: non è un dettaglio che stiate afferrando un uovo o una valigia. E questo di solito un robot non lo sa. È vero che ci sono bracci robotici per l’automazione industriale e robot chirurghi di altissima precisione, la cui esperienza può tornare utile nella progettazione di strumenti più sofisticati, ma in genere ci accontentiamo di programmarli per compiti molto specifici, senza chiedere loro la flessibilità di prestazioni di un braccio umano. E soprattutto la sensibilità di un organo sofisticato come la pelle dei polpastrelli.
Insomma, per fare le cose da esseri umani ci vuole tatto. Grazie a sensori, polimeri e muscoli artificiali, l’obiettivo è, se non proprio in vista, ragionevolmente vicino in diversi centri di ricerca, dai Sandia National Laboratories negli Stati Uniti all’Università di Cartagena, in Colombia, alla Scuola Superiore Sant’Anna di Pisa, la cui CyberHand è una protesi bionica mossa con il pensiero e capace di restituire a chi la usa sensazioni tattili comunicando direttamente con il sistema nervoso del paziente. E poi c’è Monty, un prototipo della Anybots di Mountain View, in California, in grado di operare movimenti complessi con la sua mano guidata da 18 motori che entro breve gli permetteranno di eseguire un discreto numero di lavori manuali.
Quanto al vostro collega della stanza accanto, quando mettete il naso oltre la porta non avete bisogno di fare una scansione ad alta risoluzione del locale per stabilire se si trova alla sua scrivania. Vi basta guardare dove vi aspettate di vederlo. E anche se è in un angolo in piedi su una sedia che cerca di spiaccicare una zanzara sul muro vi sono sufficienti le scarse prestazioni della nostra visione periferica per riconoscerne la sagoma: non può essere che lui. Ecco, questo i robot non lo sanno fare. O almeno non ancora, non come noi. Anche se sono già in circolazione fenomeni come lo spagnolo Reem-b, della Pal Technologies Robotics di Barcellona, in grado di riconoscere i volti umani (oltre a conversare, camminare e mettersi seduto).
E questi sono solo due dei problemi maledettamente complessi con cui si stanno cimentando gli scienziati robotici di mezzo mondo, che fanno di tutto non solo per raffinare le prestazioni dei loro gingilli, ma anche per renderceli meno sgraditi. Così, a partire dall’esperienza ormai quasi ventennale di Kismet, il robot sociale messo a punto da Cynthia Breazeal al leggendario laboratorio di intelligenza artificiale del Mit, i ricercatori stanno attrezzando i loro prototipi in modo da farli apparire il più possibile ammiccanti. Il team di Hiroshi Ishiguro, in Giappone, ha creato figure di silicone di incredibile realismo, capaci di mostrarsi agitate, sospirare e persino strizzare l’occhio, proprio come il clone robotico di Zou Renti, della Xi’an Supermen Sculpture Institution, in Cina. Mentre le androidi coreane EveR-1, 2 e 3, affittate come receptionist in centri congressi e grandi magazzini, sanno imitare espressioni umane come felicità, tristezza, rabbia e sorpresa, grazie a un sistema idraulico che ne governa i movimenti facciali.
Date le difficoltà di affrontare tutti insieme i nodi per arrivare al traguardo, molti gruppi di ricerca si dedicano a problemi circoscritti: l’andatura bipede, l’uso delle mani, la vista, il tatto, il linguaggio, le espressioni facciali. La sfida dei prossimi anni, dunque, sarà combinare le soluzioni più efficaci, sia sul fronte dell’hardware che su quello del software, per arrivare a mettere insieme robot, più che umanoidi, almeno un po’ umani, dagli organi di senso ai movimenti, fino alla capacità di prendere decisioni rapide e autonome.
È l’obiettivo che si propone, tra gli altri, il progetto RoboCom (acronimo di Robot Companions for Citizens), un’ambiziosa iniziativa coordinata da Paolo Dario, direttore dell’Istituto di BioRobotica della Scuola Superiore Sant’Anna, e a cui partecipano numerosi centri di ricerca europei, tra cui l’Istituto italiano di tecnologia. L’auspicio è diventare uno dei due progetti che saranno selezionati a fine anno dall’Unione europea per diventare la bandiera del programma Future & Emerging Technologies, con un finanziamento complessivo dell’ordine del miliardo di euro.
Allora sì che il sogno di costruire un robot umano potrebbe davvero diventare realtà. E magari i robot non vinceranno il campionato del mondo di calcio nel 2050, ma potranno esserci molto più utili nell’assistenza sanitaria, nelle fabbriche, nelle case. Per allora, sarà meglio accertarci anche di averli dotati di un senso morale che impedisca loro di violare le famose tre leggi della robotica introdotte proprio da Asimov con "Io, Robot". È lo scopo dichiarato degli esperti di una disciplina nascente: la roboetica.