il Fatto Quotidiano, 2 luglio 2023
La prima class action contro l’intelligenza artificiale
Arriva la prima class action contro l’intelligenza artificiale di Chat Gpt e ci sono tutti gli elementi per ipotizzare che sia solo l’inizio di una lunga serie di problemi che l’ultimo ritrovato della tecnologia, che è anche uno dei recenti più famosi, dovrà affrontare. Di bello c’è che si tratta di una questione per lo più inesplorata. Per quanto suggestivo, dire che la causa è intentata contro l’intelligenza artificiale è però una estensione impropria di significato visto che è l’essere umano a decidere a quali dati dare in pasto agli algoritmi. L’azione legale collettiva che parte da uno studio legale californiano (Clarkson) ha infatti come obiettivo OpenAI che è la società che ha creato il popolare chatbot ChatGpt.
L’accusa è che, nello svilupparla, l’azienda avrebbe violato i diritti d’autore e la privacy di innumerevoli persone semplicemente utilizzando ed estrapolando i dati per addestrare la tecnologia da internet. I sistemi di Intelligenza Artificiale “generativa” funzionano infatti all’ingrosso (molto) così: si fanno “allenare” gli algoritmi – addestrandoli, appunto – con il maggior numero di dati e di informazioni disponibili, per lo più presi da fonti aperte online, le stesse che può consultare chiunque. Nel fare questo, in quantità pressoché illimitate così come a velocità impensabili per l’uomo, e nel rielaborare le informazioni che vengono poi restituite sotto forma di testi scritti e immagini e opere d’ingegno, lo studio legale ipotizza la violazione dei diritti d’autore di milioni di utenti che quei contenuti li hanno creati in origine, che fossero semplici commenti sui social network o post di blog o articoli di Wikipedia o ricette di famiglia. Il caso è stato depositato presso il tribunale federale nel distretto settentrionale della California mercoledì. La lista delle ipotesi è lunga e arriva anche alla pubblicità ingannevole, coinvolgendo gli utenti comuni. Lo studio vuole rappresentare “persone reali le cui informazioni sono state rubate e sottratte commercialmente per creare questa tecnologia molto potenti”. Ha già un gruppo di querelanti e ne sta attivamente cercando altri. “Tutte queste informazioni vengono prese su larga scala quando non sono mai state pensate per essere utilizzate da un modello linguistico di grandi dimensioni” ha spiegato al Washington Post uno dei soci.
Saremmo di fronte a un tipo di causa per lo più sperimentale su cui i tribunali potrebbero arrivare a porre limiti e confini là dove non riescono a fare la legge, le autorità e la politica. Le opinioni sull’utilizzo di queste informazioni infatti divergono. In molti ritengono che i dati presi in Rete dovrebbe essere considerati fair use: si tratta di un concetto previsto nella legge sul copyright che crea un’eccezione se il materiale viene modificato in modo “trasformativo”.
E le cause legali dei prossimi anni ruoteranno probabilmente proprio attorno a questo concetto, con una probabile disparità: per esperti, artisti, creativi e altri professionisti sarà più facile dimostrare che il loro lavoro protetto da copyright sia stato utilizzato per addestrare i modelli di intelligenza artificiale, molto meno probabile che riescano a farlo gli utenti che hanno semplicemente postato o commentato qualcosa, complice anche l’implicita concessione di licenza d’uso che si rilascia ai social quando si posta online. Questo, ovviamente, salvo che il diritto non si adegui velocemente al progresso tecnologico e identifichi nuovi limiti non valicabili in nome del profitto.
Di certo, il sentiero è tracciato. Come ricorda sempre il Wp, già a novembre è stata intentata un’azione legale collettiva contro OpenAI e Microsoft per il modo in cui le società hanno utilizzato pezzi di codice su GitHub (una piattaforma di lavoro online per chi sviluppa software) di proprietà di Microsoft per addestrare gli strumenti di intelligenza artificiale, mentre a febbraio Getty Images ha citato in giudizio Stability AI, una piccola start-up di intelligenza artificiale sostenendo che avesse usato illegalmente le sue foto per addestrare il suo bot che genera immagini. E, sempre questo mese, OpenAI è stato citato in giudizio per diffamazione da un conduttore radiofonico in Georgia: sosteneva che il bot avesse prodotto un testo che lo accusava ingiustamente di frode. Anche in questo caso, tutti elementi che spiegano la titubanza di Big Tech nel rilasciare tecnologie AI non ancora “mature”: oltre ai rischi di reputazione, ci sono quelli legali a cui pensare, visto che rischiano di essere ancora più costosi.