Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  aprile 12 Mercoledì calendario

L’Intelligenza artificiale cinese sarà socialista

L’Intelligenza artificiale generativa in Cina sarà socialista. Ciò vuol dire, per fare un paio di esempi, che quando un utente le chiederà di Taiwan non dirà che è una repubblica indipendente ma un territorio da riconquistare; e che piazza Tienanmen sarà soltanto una piazza di Pechino e non anche il nome di un movimento del 1989 represso nel sangue. Lo ha decretato ieri l’Agenzia per l’amministrazione del cyberspazio cinese: non ci saranno divieti, in Cina, nessun Garante bloccherà le app per presunte violazioni della privacy come accaduto in Italia, ma tutte le aziende cinesi che stanno lanciando strumenti simili a ChatGpt dell’americana Open AI (Baidu, Sense Time e Alibaba lo hanno appena fatto), sappiano che dovranno rispettare “i valori del socialismo”.
La dichiarazione è interessante, sebbene prevedibile, per diverse ragioni. La prima è che in Cina dal 1996 esiste un “cyber firewall”, una grande muraglia digitale, che filtra i contenuti internet in entrata e in uscita: non c’era alcun motivo per ritenere che l’Intelligenza artificiale generativa dovesse fare eccezione.
Del resto nessuna Intelligenza artificiale è neutrale: tutte sono portatrici di una visione del mondo. Il comportamento di un chatbot o di qualunque Intelligenza artificiale generativa risponde a due elementi fondamentali: il primo è il set diregole che sono state decise, l’equivalente dell’educazione per gli esseri umani. Quella di ChatGpt la rende molto docile, a volte addirittura servile, perché chi l’ha programmata ha deciso che fosse così (per esempio quella di Meta è molto più aggressiva).
Il secondo elemento che determina il comportamento di una Intelligenza artificiale è il set di dati con cui si addestra e si aggiorna. È stato dimostrato per esempio che molte di quelle sviluppate nel mondo occidentale, contengono pregiudizi (bias )che danneggiano le donne e le minoranze etniche. Quella cinese tesserà le lodi del socialismo, amen. Ma la cosiddetta balcanizzazione del web è ormai un dato acquisito anche dalle nostre parti: quando la Russia ha invaso l’Ucraina, la versione russa di Wikipedia ha parlato di “operazione militare” usando il linguaggio che in quei giorni usava Putin. Ci sta che il chatbot cinese reclami la riconquista di Taipei.
Se quindi la visione socialista delle Intelligenze artificiali cinesi è in fondo scontata, va però segnalata perché conferma quanto la Cina sia impegnata nel raggiungere la supremazia mondiale su questo terreno. In passato il presidente Xi Jinping ne ha parlato spesso, anche con esplicito riferimento alle applicazioni nel settore militare (l’ intelligenziazione dell’esercito). E la corsa con gli Stati Uniti in termini di brevetti e investimenti è ormai lunga un decennio. Ma quando alla fine di novembre la startup di San Francisco, Open AI, ha rilasciato ChatGpt, quella corsa a molti è sembrata finire con la vittoria degli Stati Uniti. Un clamoroso errore di valutazione di cui gli addetti ai lavori sono consapevoli. Un mese fa per esempio ad Harvard si è tenuto un simposio dedicato alla Cina, e il professore di Scienze Economiche David Yang ha esordito mostrando la classifica delle più importanti aziende che sviluppano software di riconoscimento facciale tramite Intelligenza artificiale: bene, le prime cinque del mondo sono cinesi. Ai suoi colleghi stupefatti, il professore ha spiegato che tutti i regimi autoritari adorano scoprire i pensieri, i comportamenti e gli spostamenti dei propri cittadini, ed è esattamente quello che fa l’Intelligenza artificiale: consente di predire queste cose con notevole precisione. Questo perché l’Intelligenza artificiale si ciba di dati, e chi sono i più grandi collezionisti di dati personali? «I governi autoritari, appunto», ha detto il professore (ma anche alcune multinazionali della Silicon Valley, andrebbe aggiunto).
Il risultato è che, contrariamentea quello che qualcuno ha pensato nei mesi scorsi, la tecnologia cinese su questo terreno è avanzata, addestrata e commercialmente appetibile. Soprattutto da altri regimi autoritari. Qualche giorno fa per esempio si è appreso che in Iran il governo sta facendo largo uso di software di riconoscimento facciale per individuare le donne che in strada violano il divieto di levare il velo e punirle. Bene, sapete da dove viene quel software? Da una azienda cinese: si chiama Tiandy, è uno dei più grandi produttori di videocamere per la sorveglianza del mondo. Ma anche di Intelligenza artificiale per il riconoscimento facciale. Da qualche anno ha fra i suoi clienti tutte le agenzie per la sicurezza dell’Iran e da dicembre, dopo essere stata definita da alcune organizzazioni non governative “l’azienda cinese più pericolosa del mondo di cui quasi nessuno ha mai sentito parlare”, è sulla lista nera del governo degli Stati Uniti; e la californiana Intel, che le forniva i microchip, ha interrotto le relazioni commerciali.
Insomma, sì, i chatbot cinesi daranno risposte di perfetta ortodossia socialista. Ma non è questo il problema più grande che abbiamo davanti.