Il Messaggero, 6 giugno 2018
Se anche le macchine diventano psicopatiche
Il nome è quello del protagonista di Psycho, Norman Bates; lo scopo è dimostrare quanto rischiosa sia la programmazione dell’Intelligenza Artificiale (IA): un team di ricercatori del Mit di Boston ha creato la prima IA riconosciuta ufficialmente come psicopatica. Norman, al pari delle altre reti neurali prodotte in laboratorio, dopo un periodo di addestramento è capace di osservare una foto e capirne il contenuto. I ricercatori del Mit però lo hanno allenato con delle immagini di persone morenti scovate nelle zone più oscure della Rete e in particolare su Reddit, famoso portale aggregatore di notizie.
IL PARAGONE
Accanto a Norman, come controprova, i ricercatori hanno addestrato un’intelligenza gemella, istruita con le immagini che comunemente si utilizzano in questi casi. Al termine del processo di machine learning, i due computer sono stati sottoposti al test di Rorschach, quello delle macchie di inchiostro utilizzato per valutare la personalità, evidenziando una distanza enorme tra le due interpretazioni. In pratica i ricercatori hanno scoperto che Norman – come l’Anthony Perkins di Psycho – aveva assunto una prospettiva molto oscura e inquietante: l’IA manifesta disturbi mentali tipici della psicopatia come paranoia e carenza di empatia. Ad esempio, dove l’altra IA vede una torta nuziale poggiata su un tavolo, Norman distingue un uomo che sta per essere investito da un’auto. Un «vaso di fiori – scrivono i ricercatori – diventa un uomo a cui hanno sparato a morte». Un guanto da baseball è interpretato come un uomo ucciso da una mitragliatrice.
«In realtà è uguale al risultato che ci aspetteremmo per gli uomini», spiega Massimo Di Giannantonio, presidente dei professori ordinari di Psichiatria italiani, «accadrebbe lo stesso con due bambini gemelli omozigoti con un patrimonio genetico totalmente identico»: se li separassimo crescendone uno «alla corte della regina d’Inghilterra» e l’altro «lo abbandonassimo nelle periferie più pericolose e degradate di Londra», otterremo risposte diverse. «Di fronte a uno stimolo ambiguo come il test di Rorschach, il primo risponderà con elementi realistici mentre il secondo visualizzerà degli elementi violenti. Eppure hanno praticamente lo stesso cervello». Nulla di nuovo quindi: l’esperimento dimostra che l’intelligenza artificiale può essere addestrata ad avere un pregiudizio, a vedere ciò a cui è abituata. «È la stessa capacità che sfruttiamo nel campo delle neuroscienze – spiega Di Giannantonio – Usiamo il machine learning per addestrare una macchina a individuare lesioni cerebrali in chi ha dei disturbi». I computer possono analizzare modelli ricorrenti e «individuare disturbi simili» a quelli che hanno archiviato durante l’apprendimento, «se però manca una lesione visibile, è fondamentale l’intervento dell’uomo».
Inoltre, proprio come Norman è stato allenato a vedere la morte e la sofferenza, altre IA possono essere addestrate per essere razziste o sessiste. Secondo uno studio pubblicato sulla rivista Science un anno fa, gli algoritmi incorporano gli stessi pregiudizi di chi li programma, e ad esempio associano termini più negativi alle minoranze etniche.
IL CASO
Nel 2016 ha fatto scalpore il caso di Tay, un bot – cioè un computer programmato per assolvere funzioni precise – creato per essere un utente Twitter: a pochi giorni dal lancio, Tay era diventato razzista a causa dei cinguettii che leggeva sul social. Nel 2016 un altro studio ha dimostrato che un bot educato su Google News è diventato sessista a causa dei dati e delle notizie che stava analizzando. L’IA insomma, non sfugge alle regole della psicologia ed è frutto dell’ambiente in cui cresce. Proprio come noi.