La Stampa, 23 luglio 2024
Intervista a Luciano Floridi
Il filosofo Luciano Floridi, 59 anni, dopo una carriera a Bologna e a Oxford da un anno ha fondato il Digital Ethics Center dell’Università di Yale, trasferendosi a Woodbridge vicino a New Haven, a nord di New York, con la moglie, la neuroscienziata Kia Nobre: «Hanno preso la coppia. Avevamo declinato più volte per via dell’età, ma ci hanno offerto risorse e flessibilità straordinarie nei reciproci settori». Così, mentre il professore parla, dalla sua cartolina americana si sente provenire il cinguettio degli uccellini. Il 25 settembre sarà al Teatro Alcione di Milano per l’evento Orbits. Dialogues with intelligence, prima tappa di un tour internazionale in cui guiderà le imprese alla comprensione dell’intelligenza artificiale.
Come procede il lavoro a Yale?
«Ho capito che un direttore fondatore è colui a cui danno un edificio vuoto e un assegno in bianco. La missione è duplice. Creare un centro di coordinamento dei progetti in corso sul digitale, da quelli teologici ai microchip. E costituire un polo di eccellenza sull’impatto etico, legale e sociale del digitale».
Quali progetti ha trovato avviati?
«I microchip nel cervello, impiantati dagli anni ‘60 nei topi e da anni negli umani, sono un settore di ricerca importante ed è utile capire quali norme servano quando le aziende produttrici falliscono. È già successo che un giudice ne abbia chiesto la rimozione con danno del paziente magari epilettico. Si tratta di impianti specialistici con fini di salute. L’obiettivo della ricerca spesso è di diminuirne il dispendio di energia e aumentarne la riprogrammabilità a seconda dei problemi del paziente. C’è anche un tema di proprietà dei dati raccolti e di invecchiamento del chip».
Niente a che vedere con il controllo o potenziamento del cervello?
«No, non si sa neanche come arrivarci. Siamo più vicini all’idea molto concreta del pacemaker per capirci. Un aspetto a cui tengo molto però è che prima si capiscono le cose, meglio si capisce che direzione prendono e come migliorarle. Non sono stupidamente ottimista, ma più si comprende e più si previene. Se ci avessimo pensato prima avremmo fatto una serie di legislazioni, per esempio sullo smaltimento dei dati delle aziende che falliscono. Sono vendibili per rimborsare i creditori? E se un domani fallisse Facebook che si fa?».
Lavorate anche sull’AI?
«Sì, sull’identità umana e sull’eccezionalismo umano post AI. La Divinity school se ne occupa nella misura in cui questo tocca il nostro mondo spirituale e la dignità umana. In che modo restiamo unici se non siamo più gli unici a giocare a scacchi? Non siamo più al centro di nulla, ma come ci ripensiamo?».
È l’aggiornamento della domanda “chi siamo”?
«Per me la risposta è una bellissima lezione che avremmo dovuto apprendere tanto tempo fa. Abbiamo sempre pensato a noi con un più: forti, aggressivi, violenti, intelligenti… Un abbaglio adolescenziale di quando ci si sente al centro del mondo e invece grazie anche al digitale stiamo capendo che la nostra eccezionalità è negativa: siamo uno straordinario meno, cioè abbiamo domande, paura, assenze, dimenticanze. In inglese si dice “want”, volere, che in realtà alla radice è assenza, “the plant wants water”, cioè le manca l’acqua. Noi vogliamo qualcosa che non abbiamo e percepiamo l’assenza di ciò che manca. Da cui anche la spiritualità di cui abbiamo bisogno, laici o meno. La nostra etica diventa dunque al servizio, alla cura, in relazione agli altri e non all’io».
Quali ricerche affronta invece direttamente il suo centro?
«È appena uscito un progetto su quale sia la figura dell’eticista dell’AI. O un’analisi del valore scientifico delle app per la salute con risultati molto negativi. O ancora la prima metodologia sull’uso multidisciplinare dei dati, compresi quelli AI e social, per aiutare a individuare le fosse comuni in Messico sia per violenza di Stato sia criminale, applicabile pure in altri luoghi come l’Africa. Un ultimo lavoro riguarda l’AI Act europeo per mostrare che le autorità di controllo vanno riviste perché poco efficienti».
Quali sono i principali problemi che proporrà l’AI?
«La lista è lunga e include questioni di autonomia, bias, spiegabilità, equità, privacy, responsabilità, trasparenza e fiducia. Questi problemi emergono dalla capacità dell’AI di adattarsi negli ambienti in cui opera, il che pone sfide significative nella sua regolamentazione e gestione».
Il suo impatto è davvero così grande o viene sovrastimato?
«È sia enorme sia sovrastimato, perché è epocale se si pensa alla produzione automatica di contenuti su scala industriale, facilmente, e a costi sempre minori. Ma è nullo su questioni molto fantascientifiche, come la presa di coscienza, o lo sviluppo di un’intelligenza sovrumana».
Tutti dicono che non ci sostituirà, ma si può stare sicuri?
«Dipenda da “in che cosa": per fare fotografie perfettamente focalizzate è già avvenuto, mentre per decidere quali foto fare, tenere, condividere o buttare no. Oppure si pensi ai soliti bot: danno a volte ottime risposte, ma quali domande fare, quando e in che ordine, e che cosa fare con le risposte dipende da noi».
L’Italia è in ritardo sull’AI?
«Più culturalmente che tecnicamente. Siamo uno dei paesi più robotizzati del mondo. Lo stesso vale per l’adozione dell’AI in senso più ampio nell’industria. Insomma, sembrerebbe un paese a due velocità: una imprenditoriale veloce e una culturale più lenta».
Più in generale qual è un’invenzione che lei vorrebbe e che manca?
«La bacchetta magica».
Di cosa parlerà all’evento Orbits?
«È un progetto che mi entusiasma di Manuela Ronchi e della sua agenzia Action. Lo ha chiamato uno “show-how”, cioè per mostrare come, e ha la direzione artistica di Sergio Pappalettera. Approfondirò i temi legati alla rivoluzione digitale e al suo impatto, in particolare che cosa significa essere umani nell’era dell’intelligenza artificiale e perché rimaniamo unici». —