Corriere della Sera, 18 aprile 2023
Intervista a Pasquale Stanzione
Pasquale Stanzione, 77 anni, presidente dell’autorità Garante dei dati personali, si è assunto un’importante responsabilità: ha sospeso l’accesso all’applicazione di intelligenza artificiale ChatGpt dall’Italia, unico Paese a praticare il blocco per legge oltre a Russia, Cina, Corea del Nord, Cuba, Iran e Siria.
Presidente, cosa la preoccupa di più di ChatGPT: l’accessibilità per i minorenni, il sospetto che si usino i dati degli utenti per allenare l’intelligenza artificiale, il rischio che si diffondano informazioni false?
«È la pluralità, la convergenza e la gravità delle implicazioni delle possibili violazioni ad avermi indotto a procedere in via cautelare, provvisoria e d’urgenza. C’è poi stata la ratifica del collegio dell’autorità e l’avvio di un ulteriore approfondimento istruttorio a livello europeo, che è importante per prevenire i rischi rilevanti per gli utenti di questa applicazione. Sottolineo che ci stiamo muovendo sulla base del Regolamento europeo per la protezione dei dati (Gdpr, ndr )».
Lei ha fatto riunioni con i vertici di OpenAI, la società che ha creato ChatGPT e GPT-4. Stanno risolvendo i problemi da lei indicati?
«Il fatto stesso del confronto è indispensabile per tentare di dare una soluzione al problema. L’obiettivo è trovare una risposta alle criticità che abbiamo indicato, che sia sostenibile da un punto di vista democratico per riorientare questo strumento – ChatGPT – verso una dimensione compatibile con la centralità della persona».
Intanto l’accesso normale è chiuso in Italia. State almeno facendo progressi?
«La verifica dell’età dell’utente è un aspetto rilevante, abbiamo chiesto alla piattaforma di indicare un metodo che riduca il rischio di false dichiarazioni. E soprattutto che gli utenti siano chiaramente informati che i loro dati vengono usati per un preciso scopo, l’addestramento dell’algoritmo. Noi siamo pronti a riaprire a ChatGPT il 30 aprile, se c’è disponibilità da parte di OpenAI a fare utili passi. Mi pare che da parte dell’azienda ci sia, vediamo».
Allora dovreste chiudere anche TikTok, dove milioni di bambini dichiarano età fasulle per accedere...
«Qui sta la difficoltà tecnica: cerchiamo di far studiare alle piattaforme un metodo più sicuro di verifica dell’età. Si è pensato di associarlo ad elementi documentali, ma anche queste idee presentano inconvenienti».
Lei ha avuto modo di confrontarsi con il governo sul divieto a ChatGPT?
«Il Garante è indipendente e autonomo, non è tenuto a conformarsi alla maggioranza o alla ricerca dei like. Certo, abbiamo sollecitato interrogativi sull’intelligenza artificiale che vanno aldilà della protezione dei dati. Non si tratta di essere neo-luddisti, l’innovazione va benissimo. Ma dev’essere uno strumento, senza finalità oppressive sulla persona».
Davvero lei pensa di poter attuare un blocco all’intelligenza artificiale in un solo Paese democratico?
«Certo che no. La nostra, va precisato, è una limitazione provvisoria. Siamo di fronte a una multinazionale che supera i confini geografici e i divieti dei singoli Paesi. Ma le regole europee, come il Gdpr, stanno facendo scuola nel mondo. Come Italia indichiamo una via europea all’intelligenza artificiale, che prescinde dal liberismo accentuato statunitense come dal sovranismo autarchico della Cina o della Corea del Nord e si situa nel bel mezzo di questa nuova guerra fredda. La nostra è una strada intermedia, faticosa, per la libertà, la democrazia e la dignità della persona in Europa».
Intanto le aziende tedesche o francesi usano ChatGpt e GPT-4 diventando più competitive delle italiane...
«È vero. Ma sacrificare diritti e libertà sull’altare del mercato è incompatibile con i nostri principi costituzionali. L’articolo 41 della Costituzione stabilisce che l’iniziativa economica privata non può svolgersi in modo da recare danno alla libertà e alla dignità umane. Un mercato basato su forme di oppressione non sarebbe sostenibile, non funzionerebbe. Non possiamo accettare queste forme di capitalismo estrattivo».
Non potevate almeno aspettare una decisione europea, invece di bloccare in modo unilaterale?
«C’era una situazione eccezionale di emergenza, che non ci permetteva di aspettare. Ricorrere a una decisione europea avrebbe comportato quantomeno un ritardo di tre o quattro mesi. Abbiamo dunque inteso prevenire violazioni ulteriori altamente probabili. Si era in presenza di un fumus e di un periculum di rischi e danni per la tutela dei dati personali».
Perché siete certi che OpenAI sfrutti i dati affidati loro dagli utenti? Avete consulenti per queste analisi?
«Gli accertamenti istruttori condotti dall’Autorità verificano, naturalmente, anche aspetti tecnici complessi come questo. Disponiamo di personale altamente qualificato anche da questo punto di vista».