Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2019  luglio 01 Lunedì calendario

Il viso come le impronte: 9 milioni di schedati

Vi piacerebbe che ogni vostro comportamento pubblico (ma forse anche privato) potesse essere registrato e giudicato? Sorpresa: avviene già. In Italia, secondo gli ultimi dati noti, nel 2017 erano in funzione oltre 2 milioni di telecamere di sicurezza. Un numero destinato a crescere: da maggio un emendamento al decreto “sblocca cantieri” voluto da tutte le forze politiche ha previsto l’obbligo di installare telecamere e sistemi di conservazione dei dati in tutte le aule delle scuole dell’infanzia e in tutte le strutture di assistenza e cura di anziani e disabili. Quali sono i confini tra necessità di sicurezza e diritti individuali? Soprattutto: chi garantisce il controllo democratico di questi confini e dei loro guardiani?

Il riconoscimento facciale è una tecnologia biometrica che si occupa del trattamento automatico di immagini digitali che contengono i volti di persone per identificarle, autenticarle e categorizzarle, estrarre i dati caratteristici dei singoli, registrarle e confrontarle con database esistenti. Questo avviene attraverso telecamere di sicurezza pubbliche e private, sempre più spesso connesse al web grazie all’Internet delle cose (IoT), o piazzate negli schermi posizionati in luoghi pubblici su cui scorrono immagini (il cosiddetto digital signage, i cui involontari utenti devono essere avvisati secondo l’Autorità per la privacy). Ma anche attraverso le telecamere di cellulari, tablet e pc che le società produttrici usano per la verifica degli utenti, o quelli dei social network (dove gli utenti inseriscono e taggano da sé foto proprie e di terzi) e delle console di gioco che usano le telecamere dei sistemi di controllo gestuale per classificare gli utenti in base a sesso, età, emozioni.
Ma la biometria può anche violare la legge. Secondo un rapporto del Gruppo di lavoro per la protezione dei dati, l’organo consultivo indipendente dell’Unione europea per la protezione della privacy, in passato i servizi online, molti dei quali gestiti da società private che ne sono proprietarie, hanno acquisito ampie raccolte di immagini caricate sul web dagli utenti, e “in alcuni casi le immagini possono anche essere state ottenute illegalmente, rastrellando immagini da altri siti web pubblici, ad esempio dalle memorie di transito dei motori di ricerca”.
L’analisi dei database dei volti serve a scopi commerciali e di controllo. Per decenni, l’analisi delle impronte digitali è stata la tecnologia biometrica più usata per identificare gli arrestati e collegarli a indagini o reati precedenti. Gli Stati Uniti, con i loro 50 milioni di telecamere, usano il riconoscimento facciale come normale tecnica di polizia. Dal 2010 l’Fbi ha iniziato a sostituire progressivamente il sistema integrato di identificazione delle impronte digitali (Iafis) con l’identificazione di nuova generazione (Ngi), che includeva le impronte digitali, i dati biografici e la tecnologia di riconoscimento facciale. L’Fbi ha lanciato un progetto pilota di Ngi nel dicembre 2011 e il sistema è diventato pienamente operativo nell’aprile 2015. Ora il sistema si chiama Face (Facial Analysis, Comparison and Evaluation), “faccia”, e consente agli inquirenti federali di esaminare tutte le foto contenute nei database statali e federali, come le foto delle patenti di guida e le foto di chi richiede un visto. Secondo l’Fbi, il numero totale di foto disponibili in tutti i database ricercabili per i servizi Face attualmente è di oltre 641 milioni. Secondo l’Fbi, dall’agosto 2011 (quando sono iniziate le sperimentazioni) fino all’aprile 2019, Face ha ricevuto 153.636 foto di persone sconosciute che hanno portato a 390.186 ricerche di vari database per trovare corrispondenze con individui noti.
Quanto all’Italia, secondo un’inchiesta del 3 aprile della rivista Wired, il “Sistema automatico di riconoscimento facciale” (Sari), presentato dalle forze dell’ordine il 7 settembre 2018 e sviluppato dall’azienda leccese Parsec 3.26, contiene 9 milioni di facce: 2 milioni di italiani e 7 milioni di stranieri, non tutti residenti. I dati sono conservati in perpetuo e il programma sarebbe in realtà in uso da molto tempo prima dell’annuncio ufficiale del suo lancio. Ne esistono due versioni, una manuale e un’altra in grado di identificare il volto di un soggetto in tempo reale attraverso le telecamere di sorveglianza, che non ha ancora ottenuto il via libera del Garante della privacy.
Anche su questo fronte, però, l’Italia è in ritardo tecnologico: il principale esempio di controllo orwelliano della popolazione arriva da Est lungo la Via della Seta. Oggi in Cina ci sono oltre 200 milioni di telecamere dotate di intelligenza artificiale che osservano la popolazione in spazi pubblici e privati, identificano i volti e li abbinano a enormi quantità di dati personali già raccolti dallo Stato. A queste si stima che se ne aggiungeranno altri 450 milioni entro la fine del 2020. L’intelligenza artificiale applicata al riconoscimento facciale ha consentito alla Cina di creare un database nazionale delle facce che dovrebbe presto consentire di identificare uno qualsiasi dei suoi 1,4 miliardi di abitanti entro tre secondi. Pechino le utilizza non solo per catturare i criminali o identificare potenziali terroristi ma anche per controllare i dissidenti politici e schedare le minoranze etniche, come quella musulmana degli Uiguri, a ritmi da 500mila persone al mese. Proprio il riconoscimento facciale è diventato il cardine del sistema di attribuzione di un “punteggio sociale” in base al quale ogni cinese viene “esaminato” e “classificato” anche per le trasgressioni più banali, come l’ubriachezza, l’attraversamento della strada fuori dalle strisce pedonali e persino l’uso di troppa carta igienica. I “colpevoli” finiscono spesso svergognati sui maxischermi stradali e il loro “punteggio sociale” cala, facendoli finire nella lista nera, il che comporta avere minori diritti, vedersi rifiutare il passaporto, venire controllati ancor più da vicino. Dati che mettono in ombra quelli del Paese al secondo posto nella classifica mondiale del numero di telecamere per persona, occupato a sorpresa dalla Gran Bretagna con 6 milioni di apparecchi.
Nonostante i miglioramenti tecnologici, non c’è tuttavia sicurezza sui risultati, con molti “falsi positivi”. Secondo un rapporto datato 13 giugno dell’Unione americana per le libertà civili (Aclu), i 50 milioni di telecamere degli Usa “non solo ci registreranno, ma ci giudicheranno in base alla loro comprensione delle nostre azioni, emozioni, al colore della pelle, all’abbigliamento, al tono di voce e ad altro ancora. Le tecnologie automatizzate di video analytics minacciano di cambiare radicalmente la natura della sorveglianza verso un monitoraggio automatizzato di massa in tempo reale che solleva significative preoccupazioni per le libertà civili e la privacy”. Il problema principale è che se la tecnologia corre, il diritto le arranca dietro e la distanza crescente che li separa misura l’assenza di garanzie sia che si parli di uso commerciale o di uso governativo. Anche perché alcuni studi hanno dimostrato che i software di riconoscimenti facciale delle principali società tecnologiche Usa sono accurati sui maschi bianchi ma molto meno quando si tratta di volti di afroamericani o di donne. In passato l’Aclu ha testato le foto dei membri del Congresso sul software Rekognition di Amazon, un sistema di riconoscimento facciale che il colosso del web sta vendendo ai dipartimenti di polizia: il sistema ha associato in modo errato 28 parlamentari alle foto segnaletiche dei database criminali e i falsi positivi hanno coinvolto in modo sproporzionato parlamentari non bianchi.
Anche se la tecnologia è migliorata, le preoccupazioni sul riconoscimento facciale riguardano oggi l’impatto sul sistema democratico. Chiunque frequenti un Sert, una moschea, un gruppo politico o sociale “non allineato” o una clinica potrebbe essere schedato. Ecco perché il 14 maggio il consiglio comunale di San Francisco ha votato per vietare l’uso della tecnologia di riconoscimento facciale da parte degli uffici cittadini. Una tendenza che potrebbe diffondersi, come dimostrano altri casi negli Usa.