Corriere della Sera, 19 luglio 2024
La chat Gtp cinese
Nel grande circo di Chat Gpt e i suoi fratelli, ci mancava solo l’intelligenza artificiale generativa cinese. Ci mancava ma in effetti la stavamo aspettando. Una bozza di regolamento era stata pubblicata tre mesi fa: lì per la prima volta si parlava dell’esigenza di sviluppare dei modelli che rispettassero «i valori chiave del socialismo». Un chatbot che quando gli chiedi: chi è Xi Jinping, ti risponde «il più grande leader del mondo» o qualcosa di simile.
Rispetto al testo iniziale, «le misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa», approvate il 13 luglio scorso dall’Ufficio cinese del cyberspazio, sembrano leggermente ammorbidite: non si fa cenno alle sanzioni (prima era prevista una multa di 100 mila yuan per ogni violazione); e la scelta delle parole è un po’ più generica, meno stringente (per esempio riguarda solo chi fornisce questi servizi al pubblico). Inoltre si ripete più volte che la Cina ci tiene un sacco all’innovazione, che non intende strangolare le startup e i ricercatori di un mercato che sta esplodendo e del quale non possono fare a meno. Qualche giorno fa a Shanghai la World Artificial Intelligence Conference è stata aperta dal premier cinese davanti a cinquecento espositori. Il messaggio chiave del mega evento è stato: la Cina c’è, è pronta a giocare questa partita. Però a modo suo, e questo, francamente, è scontato.
Il passaggio chiave del nuovo regolamento è il primo comma dell’articolo quattro che recita: «La fornitura e l’utilizzo di servizi di intelligenza artificiale generativa devono… aderire ai valori fondamentali del socialismo e non incitare alla sovversione del potere statale, rovesciare il sistema socialista…» eccetera eccetera. La cosa può far sorridere o inorridire eppure è ovvia per un Paese che da moltissimi anni ha creato una muraglia digitale (cyberwall) attorno ai propri confini in modo che i propri cittadini possano usare una versione socialista di Internet: hanno il loro Google, il loro Amazon, il loro Facebook e il loro Twitter, che sono identici o quasi ai nostri, solo che i contenuti sono rigidamente controllati, o meglio censurati. Noi li chiamiamo «moderatori di contenuti» e ci lamentiamo assai quando, per dire, Elon Musk li riduce su Twitter/X.
Insomma era scontato immaginare che ci sarebbe stato un Chat Gpt cinese visto che l’uso di quello originale è vietato (in Cina lo scorso anno si è registrato l’unico caso di un cittadino arrestato per aver usato Chat Gpt). Quello che si vuole evitare in pratica è che accada quello che è accaduto qualche giorno fa con il chatbot di una startup cinese che alla domanda di rito su Xi Jinping, ha risposto «che ha ridotto la libertà e i diritti civili dei cinesi». Ecco, questo non deve essere possibile.
Va detto che è normale che ciascun Paese tenti di allineare questi modelli linguistici ai propri valori e alla propria cultura: accadrà anche con i Paesi islamici e accade da noi, in Italia: ad aprile la premier Meloni ha lanciato la strategia per arrivare a una intelligenza artificiale italiana, cioè addestrata sui nostri testi. Il vero punto è che questa sfida è tecnicamente molto complessa. Nemmeno gli autori degli algoritmi che stanno dietro i modelli linguistici sono in grado di spiegare perché arrivano certe risposte e non altre; e perché a volte, con una frequenza tutt’altro che trascurabile, ci siano allucinazioni, ovvero risposte verosimili ma totalmente inventate.
Per evitare questa deriva ci sono alcuni accorgimenti: il primo è bloccare certe richieste (i prompt). Nel caso cinese è quindi possibile predisporre la macchina in modo che a tutte le domande su Xi Jinping dia una risposta di un certo tipo (e che magari di Tienanmen dica che è soltanto una bella piazza dove passeggiare). È possibile, lo faranno, ma non è sufficiente. L’altra misura da prendere è il controllo dei dati su cui la macchina si addestra e da cui deriva la sua risposta: il comma 1 dell’articolo 7 delle nuove Misure dice che chi sviluppa questi modelli deve «utilizzare dati e modelli di base provenienti da fonti legali». Insomma, mica il New York Times o un giornale della resistenza, basta addestrare gli algoritmi su articoli della propaganda cinese, e il gioco è fatto. Epperò potrebbe ancora non bastare: da qualche settimana per esempio negli Stati Uniti i vari chatbot non rispondono a domande sulle elezioni presidenziali ma è stato dimostrato più volte che è possibile ingannare gli algoritmi e ottenere risposte vietate (il generatore di immagini MidJourney qualche giorno fa alla domanda su chi fosse il presidente Usa, restituiva un’immagine di Trump, non si sa se una allucinazione o piuttosto una profezia).
@font-face {font-family:"Cambria Math”; panose-1:2 4 5 3 5 4 6 3 2 4; mso-font-charset:0; mso-generic-font-family:roman; mso-font-pitch:variable; mso-font-signature:-536870145 1107305727 0 0 415 0;}@font-face {font-family:Calibri; panose-1:2 15 5 2 2 2 4 3 2 4; mso-font-charset:0; mso-generic-font-family:swiss; mso-font-pitch:variable; mso-font-signature:-1610611985 1073750139 0 0 159 0;}@font-face {font-family:"Times New Roman (Corpo CS)”; panose-1:2 2 6 3 5 4 5 2 3 4; mso-font-alt:"Times New Roman”; mso-font-charset:0; mso-generic-font-family:roman; mso-font-pitch:auto; mso-font-signature:0 0 0 0 0 0;}p.MsoNormal, li.MsoNormal, div.MsoNormal {mso-style-unhide:no; mso-style-qformat:yes; mso-style-parent:"”; margin:0cm; margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:30.0pt; mso-bidi-font-size:12.0pt; font-family:"Times New Roman”,serif; mso-fareast-font-family:Calibri; mso-fareast-theme-font:minor-latin; mso-bidi-font-family:"Times New Roman (Corpo CS)”; mso-fareast-language:EN-US;}.MsoChpDefault {mso-style-type:export-only; mso-default-props:yes; font-size:30.0pt; mso-ansi-font-size:30.0pt; mso-fareast-font-family:Calibri; mso-fareast-theme-font:minor-latin; mso-bidi-font-family:"Times New Roman (Corpo CS)”; mso-fareast-language:EN-US;}div.WordSection1 {page:WordSection1;}