il Fatto Quotidiano, 22 gennaio 2025
Al via il riconoscimento facciale in Europa
Immagina di partecipare a una manifestazione per il clima, di indossare un distintivo o di portare un cartello. Una telecamera “intelligente” rileva questi segni e trasmette le immagini del volto per confrontarle con il file delle persone ricercate anche per reati ambientali. I tuoi dati vengono conservati. O immagina un naufrago appena sbarcato a Lampedusa, interrogato con l’aiuto di una telecamera per il rilevamento delle emozioni, che a un certo punto comincia a registrare segni di nervosismo, paura, indecisione. La macchina conclude che l’immigrato sta mentendo sulle sue origini. Queste scene potrebbero diventare realtà nelle prossime settimane. Il 2 febbraio entreranno in vigore gli articoli più controversi – noti come “rischi inaccettabili” – del regolamento europeo sull’intelligenza artificiale. Presentato come una novità mondiale, l’ai Act avrebbe dovuto proteggere i diritti e le libertà dei cittadini della Ue di fronte agli abusi dell’intelligenza artificiale. Ma due anni di negoziati segreti tra gli Stati europei hanno cancellato le ambizioni. “Lontano dalle promesse iniziali, questo testo è fatto su misura per l’industria tecnologica e le forze di polizia europee”, riassume La Quadrature du Net, Ong specializzata sul tema. Investigate Europe ha analizzato più di 100 documenti provenienti da riunioni a porte chiuse degli ambasciatori dei 27 Stati membri della Ue (Coreper) e ha parlato con fonti presenti ai negoziati. Tutte hanno confermato che la Francia ha spinto e ottenuto un generale annacquamento delle regole per le forze di polizia.
L’Italia ha sempre appoggiato Parigi in queste richieste, in buona compagnia con la maggioranza dei Paesi membri. Già a settembre 2022, pochi mesi dopo la presentazione della proposta legislativa della Commissione, il vice ambasciatore francese alla Ue, Cyril Piquemal, ha voluto incontrare uno dei relatori del regolamento, Brando Benifei (Pd). “Era nervoso, c’era tensione”, racconta una fonte presente alla riunione. “Il tono è diventato pesante, il rappresentante francese si è impuntato sulla necessità di mettere telecamere dappertutto”. La Francia stava organizzando i Giochi Olimpici: intelligenza artificiale, riconoscimento facciale, biometrico ed emotivo erano essenziali per Parigi per mantenere l’ordine pubblico. Ma era solo l’inizio.
In una riunione degli ambarepubblica il 18 novembre 2022, il rappresentante francese è stato inequivocabile sui diktat di Parigi: “L’esclusione della sicurezza e della difesa... dev’essere mantenuta a tutti i costi”. La Francia voleva un’esenzione dell’intero Ai Act per la “sicurezza nazionale”. Poi a fine negoziato, nell’autunno 2023, è stata affiancata anche da Italia, Ungheria, Romania, Svezia, Ceca, Lituania, Finlandia e Bulgaria. “Questa battaglia è stata una delle più difficili e l’abbiamo persa”, riflette una fonte del Parlamento europeo coinvolta nei negoziati. Nel testo finale non ci sono più restrizioni all’uso della sorveglianza negli spazi pubblici – come la necessità di un’approvazione da parte di un’agenzia nazionale indipendente o l’isciatori,
scrizione del prodotto in un registro pubblico – se uno Stato lo ritiene necessario per motivi di sicurezza nazionale. Peggio: queste esenzioni riguarderanno anche le aziende private – o eventualmente i Paesi terzi – che forniscono la tecnologia Ia alle forze dell’ordine. Il testo stabilisce che la sorveglianza è consentita “indipendentemente dall’entità che svolge tali attività”. “Questo articolo va contro ogni Costituzione, i diritti fondamentali, il diritto europeo”, ha dichiarato un giurista del gruppo conservatore Ppe al Parlamento europeo, parlando in forma anonima. “La Francia potrebbe chiedere al governo cinese di usare i suoi satelliti per fare delle foto e poi vendere i dati al governo francese”.
L’esenzione va anche contro due sentenze della Corte di giustizia europea del 2020 e del 2022, afferma Plixavra Vogiatzoglou, ricercatore all’università di Amsterdam. Le sentenze hanno stabilito che le società di Tlc francesi hanno violato il diritto Ue conservando i dati dei clienti per motivi di sicurezza nazionale. “Il tribunale dell’ue ha detto che le società private coinvolte in attività di sicurezza nazionale non sono esentate dal rispetto del diritto Ue e l’eccezione per la sicurezza nazionale va interpretata in modo molto restrittivo: lo Stato deve davvero giustificarla”.
Il meccanismo Sono 16 i reati per i quali le forze dell’ordine possono accedere in tempo reale ai software e collegarli ai database
Ma la Francia ha continuato a inondare il testo della nuova legge europea della sua ossessione securitaria. La fonte parlamentare che ha seguito i negoziati ha contato 16 deroghe per la polizia introdotte dal Consiglio Ue. Sedici sono anche i reati per i quali si possono accendere le telecamere in tempo reale e collegarle tra loro e con i database di sospetti. È il risultato di un acceso dibattito tra i governi, compresa l’italia, che spingevano per aumentare ancora di più la lista dei casi in cui il riconoscimento facciale è permesso. La posizione dell’italia, come si legge dai verbali del Coreper, è sempre stata a favore dell’allargamento dell’uso del riconoscimento facciale in tempo reale nonostante una sentenza del garante italiano della Privacy, nel 2021, abbia stabilito che il programma sul riconoscimento facciale in uso all’epoca, Sari Real Time, non rispettava la normativa sulla privacy.
Ma le concessioni al controllo di massa non finiscono qui. I sistemi di riconoscimento emotivo – tecnologie che interpretano le emozioni o i sentimenti delle persone – sarà vietato dall’ai Act nei luoghi di lavoro, nelle scuole e nelle università. Ma il riconoscimento emotivo sarà consentito alle forze di polizia e alle autorità di immigrazione e di frontiera della Ue. Non è ancora chiaro se una deroga all’uso dei sistemi di riconoscimento emotivo sarà concessa anche per il reclutamento del personale nei luoghi di lavoro. “L’insidia nell’uso dell’ia da parte della polizia e del controllo dell’immigrazione sta nel fatto che la maggior parte delle volte le persone non sanno di essere monitorate da questi sistemi”, dice Sarah Chander della Ong Equinox. Poi c’è l’uso di sistemi di identificazione biometrica per determinare etnia, opinioni politiche, religione, orientamento sessuale e persino l’appartenenza a un sindacato. Questi sistemi sono vietati dalla nuova legge, con un’eccezione: la polizia sarà libera di usare sistemi biometrici e raccogliere immagini su qualsiasi individuo e di acquisire dati da aziende private.
Anche in questo caso la Francia è stata trainante. In un documento del 24 novembre 2023, l’ambasciatore francese ha affermato che è “molto importante preservare la possibilità di ricercare una persona... che esprime un credo religioso o un’opinione politica, come l’indossare un distintivo o un accessorio, quando questa persona è coinvolta nell’estremismo violento o presenta un rischio terroristico”. Alla fine i governi sono andati ben oltre, permettendo di categorizzare le persone in base a etnia, orientamento sessuale o religioso per tutte le operazioni di polizia.