Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  aprile 02 Domenica calendario

Start up in rivolta per la chiusura di Chat Gpt

«Poteva essere un bel pesce d’aprile». Invece è tutto vero: l’Italia, primo e finora unico Paese occidentale, ha bloccato ChatGpt, la super intelligenza artificiale in grado di usare le parole (quasi) come un uomo. Il Garante della privacy teme che abusi dei dati personali degli utenti: «Fa sorridere», dice Antonio Simeone, 39anni, che di aziende a base di AI ne ha fondate due. Euklid la usa per leggere le tendenze dei mercati finanziari, Stoneprime per monitorare molecole e ricerche nel campo delle biotecnologie. Un paio di settimane fa era a Riyad, in Arabia Saudita, per parlare a una grande conferenza sugli algoritmi intelligenti. «Lì ci investono miliardi, invece noi blocchiamo, una scelta di retroguardia».
Nel mondo degli innovatori italiani la pensano tutti così. O peggio. Per affrontare i problemi posti dall’intelligenza artificiale – nessuno nega che siano enormi – la soluzione non è certo uno stop: «L’unico risultato è penalizzare le aziende italiane che la usano, spingendole ad andare all’estero», continua Simeone. «Questo “avvertimento” fa riflettere anche me».
Brutto periodo, per chi nel nostro Paese prova a stare alla frontiera dell’innovazione. Prima la crociata del governo contro la carne sintetica, che ha messo in allarme la comunità del “foodtech”, le tecnologie applicate all’alimentazione. Poi la decisione del Garante su ChatGpt, che spiazza chi lavora con l’Intelligenza artificiale. Secondo l’Osservatorio del Politecnico di Milano il settore in Italia vale 500 milioni di euro, non molti, ma in aumento del 32% in un anno.
Aindo, sede a Trieste, ha 15 dipendenti e una missione che alle autorità dovrebbe piacere: visto che l’Ai deve nutrirsi di dati, ma spesso sono privati o personali, la startup ne produce di finti – in gergo “sintetici” – con cui alimentarla. «L’approccio italiano è sempre questo, per prima cosa ti rispondono che non si può fare, è successo anche a noi», dice il cofondatore Daniele Panfilo, 34 anni e un dottorato in AI. Fa notare una serie di cose di buon senso. Che un’innovazione dirompente non si ferma per legge: «Inarrestabile, in senso buono». Che basta una Vpn, Virtual private network, per simulare di essere fuori dall’Italia e continuare a usare ChatGpt. Che i rilievi mossi dal Garante su dati personali e minori sembrano poco centrati: «Se chidecide ha solo una competenza legale, può non capire il meccanismo tecnico e averne paura. Bisognerebbe promuovere degli organismi multidisciplinari, come fa il Garante in Francia».
Certo, i timori per l’impatto dell’intelligenza artificiale non sono solo italiani. Elon Musk, uno che di tecnologia se ne intende, è stato tra i firmatari di una lettera che ha chiesto a OpenAI – l’azienda che ha creato ChatGpt – di mettere in pausa lo sviluppo, in modo da valutarne le implicazioni. Lo stop del Garante italiano è arrivato poche ore dopo: «Certo che i rischi li vedo, ma non sono quelli per la privacy», dice Massimo Ruffolo, 52 anni, ricercatore del Cnr e fondatore di Altilia, azienda con base all’Università della Calabria, 50 dipendenti e un finanziamento da Cdp, che usa gli algoritmi per estrarre dati da documenti di ogni tipo. «Dal punto di vista del tracciamento ci sono tecnologie ben più pericolose, Google o l’iPhone sanno tutto di noi, molto più di ChatGpt. I veri pericoli sono altri: per esempio che un uso massiccio dell’AI peggiori il livello di apprendimento nelle scuole, oppure che chiunque – non solo i troll russi – possa produrre enormi quantità di contenuti falsi sul web, influenzando l’opinione pubblica. Ma bloccare è una risposta bigotta, talebana, perdi gli effetti positivi e quelli negativi li hai comunque al confine». In effetti c’è chi ha letto sarcasmo anche nella replica di Sam Altman, fondatore di OpenAI: «L’Italia è uno dei miei Paesi preferiti e spero di tornarci presto». Come dire: siete buoni per le vacanze.
Dietro alla criticata mossa del Garante però resta il problema: come governare una tecnologia che impatterà 300 milioni di lavoratori – stima Goldman Sachs – e cambierà il nostro modo di vivere in modi inimmaginabili? Dall’atomo ai social network, la storia dice che quasi mai siamo stati in grado di cavalcare il buono di un’innovazione, depurandola dal negativo: «Con un serio dibattito internazionale si possono immaginare controlli che mitighino i rischi: per esempio “bollinare” i contenuti prodotti dall’AI in modo che siano riconoscibili», risponde Ruffolo. Mentre per Panfilo la chiave è l’educazione: «Bisogna insegnare a fare un uso cosciente della tecnologia». Vasto programma: intanto l’intelligenza artificiale, nutrita di dati e finanziamenti miliardari, corre sempre più veloce.