repubblica.it, 17 aprile 2025
“L’intelligenza artificiale inventa le sentenze”: l’allarme in un tribunale di Firenze
Davanti al tribunale civile di Firenze c’è un contenzioso per una questione di marchi. Roba di contraffazione: una ditta ha utilizzato su alcune magliette delle vignette coperte dal copyright. Nel difendersi, l’avvocato dell’azienda denunciata cita alcune sentenze della Cassazione che darebbero ragione alla condotta del suo assistito. Delibere precise, con tanto di riferimento e citazioni giurisprudenziali. Peccato però che quelle sentenze non esistano. E che a contraffarle non sia stato il legale. Ma l’intelligenza artificiale a cui si era rivolto per la ricerca.
L’Ai ha generato risultati errati
«I risultati giurisprudenziali citati nell’atto sono il frutto di una ricerca effettuata da una collaboratrice di studio su Chat Gpt – si legge nella sentenza – L’IA ha dunque generato risultati errati che possono essere qualificati con il fenomeno delle cosiddette allucinazioni di intelligenza artificiale, che si verifica quando l’IA inventa risultati inesistenti».
La sentenza è dello scorso 14 marzo ed è già diventata un caso nel panorama del diritto italiano perché «si è verificato un caso di scuola», spiega Eugenio Albamonte, pm della procura nazionale antimafia, tra i maggiori esperti di intelligenza artificiale applicata al diritto. «E cioè come difendersi dagli errori dell’IA, anche quando si parla di giustizia?».
Il caso americano
La domanda si pone da tempo in tutto il mondo. Da quando, era il 2023, negli Stati Uniti la corte distrettuale di New York decise di condannare a una multa di 5mila dollari uno studio legale che aveva, appunto, presentato delle sentenze false perché si era fidato dell’IA. «Atti di consapevole elusione», «dichiarazioni false e fuorvianti al tribunale» avevano scritto i giudici.
Non bisogna sottovalutare
Più clementi sono stati invece i magistrati italiani che non hanno voluto punire ulteriormente l’avvocato che si è fidato dell’IA («è stata una praticante dello studio…») lanciando però in sentenza un allarme su quello che può diventare un fenomeno. «E se si trova un giudice che non controlla la citazione? Non bisogna sottovalutare quello che è successo» dice Corrado Giustozzi, docente, esperto di cybersicurezza che da tempo si occupa dei rischi dell’utilizzo dell’intelligenza artificiale. «Le intelligenze artificiali sono un supporto nel lavoro intellettuale, non può essere certo sostitutivo. Non è infallibile. Anzi: sono bugiarde perché sono costruite sempre per dare risposte plausibili, anche quando non ce ne sono. E così se non hanno risposte vere, le inventano». «In questo caso – scrivono i giudici di Firenze – lo strumento di intelligenza artificiale avrebbe inventato dei numeri asseritamene riferibili a sentenze della Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta ma che nulla avevano a che vedere con questo argomento».
L’Ai ha mentito due volte
L’avvocato ha spiegato di aver fatto un secondo controllo e che l’Ai ha mentito per due volte. «Ma gli avvocati devono essere capaci di identificare e gestire i rischi dell’IA» si legge nella Carte dei principi dell’ordine degli avvocati di Milano, tra i primi ad affrontare il problema. «È essenziale comprendere le funzionalità e i limiti dei sistemi di IA utilizzati, evitando una dipendenza da risultati automatizzati». «Per questo – dice Albamonte – sarebbe il caso che il legislatore intervenga per introdurre un principio che responsabilizzi le parti: se non controlli uno strumento, seppur intelligente, a cui ti affidi non può essere una scusante. Anzi: devi essere pronto a pagarne le conseguenze».