Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  aprile 05 Mercoledì calendario

Intervista a Mira Murati, top manager di OpenAi

Mira Murati, la donna che guida lo sviluppo della tecnologia che sta cambiando il mondo, risponde in italiano. «I miei genitori vivono in Italia e io l’ho imparato con la tivù, come tutti gli albanesi». Insomma, la Chief Technology Officer di OpenAI, società che ha creato l’intelligenza artificiale ChatGpt, conosceva già la parola “Garante”. Anche prima che la nostra Autorità per la privacy vietasse alla società di toccare i dati dei cittadini, bloccandola. «È stata una sorpresa, non ci avevano contattato prima», dice da San Francisco l’ingegnere 34enne al vertice di OpenAI. «Noi rispettiamo le norme europee sui dati personali, ma siamo aperti al dialogo con il Garante e speriamo di ripristinare presto il servizio. Da quel che leggo, l’opinione pubblica è favorevole a ChatGpt».
Il Garante vi contesta di non informare gli utenti sulla raccolta dei loro dati e di non avere alcuna base giuridica per darli in pasto agli algoritmi. Cosa risponde?
«Pensiamo che i nostri servizi siano conformi alla Gdpr (il regolamento Ue che tutela i dati personali, ndr )e stiamo lavorando per ridurre i dati personali nell’addestramento di ChatGpt. È importante che impari i concetti che anche noi conosciamo, come testi e video, ma non per forza informazioni sui privati. Anche sulla trasparenza siamo conformi: facciamo sapere agli utenti come vengono elaborati i dati e forniamo l’informativa sulla privacy».
ChatGpt dà risposte sbagliate, contesta il Garante.
«È una tecnologia nuova, lavoriamo ogni giorno per renderla più sicura ed esatta. ILarge Language Models(grandi modelli linguistici, ndr )funzionano prevedendo la parola successiva più probabile, e in alcuni casi può non essere la più esatta, ma l’obiettivo è proprio avere riscontri dagli utenti, capire le inesattezze per aumentare l’accuratezza. Anche qui cerchiamo di essere il più trasparenti possibile: nell’interfaccia di ChatGpt un messaggio ne spiega i limiti. E quando, tre settimane fa, abbiamo lanciato Gpt-4 (quarta versione, ndr )abbiamo comunicato rischi e potenzialità che dobbiamo studiare più a fondo».
Il 20 marzo una falla ha esposto i dati personali degli utenti e parte dei numeri delle carte di credito.
Sono stati coinvolti italiani?
«È stato un errore di una componente “open source” e quando ne siamo venuti a conoscenza abbiamo subito disattivato ChatGpt per risolvere. Questo errore ha causato anche la visibilità delle informazioni sui pagamenti dell’1% degli abbonati attivi durante un arco di nove ore. Al momento non sappiamo se siano stati coinvolti utenti italiani. Ma i numeri completi delle carte di credito non sono stati visibili, e il problema è risolto».
Quali sono le condizioni per riattivare ChatGpt in Italia? Siete disposti a fare cambiamenti?
«Stiamo lavorando con i l Garante per cercare di risolvere il più rapidamente possibile, speriamo diavere presto buone notizie. Ma, prima della sua decisione, non abbiamo avuto dialogo: è stata una sorpresa per noi. Siamo comunque aperti a trovare soluzioni che rispondano alle preoccupazioni».
A chi crea più problemi lo stop: a OpenAI o all’Italia?
«Da quello che ho letto, capisco che l’opinione pubblica è favorevole a ChatGpt. Noi non vogliamo lasciare l’Italia e speriamo che la decisionenon abbia impatti a lungo termine».
Dall’Irlanda alla Germania, altri valutano mosse simili. Temete una stretta regolatoria in Europa ?
«Non posso dire cosa succederà in altri Paesi, spero che se alcuni hanno
dei timori siano aperti a dialogare con noi. Invece di chiuderci».
Una lettera firmata da tanti intellettuali e imprenditori hi-tech, tra cui Elon Musk, vi chiede di fermare l’allenamento dell’AI per almeno sei mesi, nel timore che sfugga al controllo degli stessi creatori. Cosa risponde?
«Condividiamo molti dei timori della lettera, da anni discutiamo delle promesse e dei rischi dell’AI con diversi gruppi e organi governativi.
Anche noi siamo preoccupati per il rischio di un’accelerazione della tecnologia. Ma vorrei dire due cose.
Dopo aver finito l’addestramento di Gpt-4 abbiamo lavorato più di sei mesi per renderlo sicuro, prima di rilasciarlo al pubblico. E ora non stiamo addestrando Gpt-5, a differenza di quanto si dice nella lettera, né abbiamo intenzione di addestrarlo nei prossimi sei mesi. Noi però pensiamo che, per renderli sicuri, questi sistemi vadano messi in contatto con la realtà, per vedere come gli utenti li usano, e poi integrare questa lezione».
Molti temono che l’AI abbia impatti tali da mettere a rischio la stabilità delle nostre democrazie, per esempio cancellando milioni di posti di lavoro.
«L’AI trasformerà la trama della nostra realtà e della nostra società.
Oggi viene utilizzata soprattutto come un assistente, ma mi aspetto che cambi la natura di alcuni lavori: forse ne creerà di nuovi, che non sappiamo immaginare, altri verranno rimpiazzati. Non è possibile per una singola azienda risolvere il problema, ma ne discutiamo con le autorità e facciamo ricerche per studiare interventi possibili».
L’AI dà a chiunque la possibilità di produrre enormi quantità di contenuti falsi molto sofisticati, materia per la disinformazione.
«La disinformazione è un rischio, per questo è importante portare con sé la società fin dall’inizio del percorso e non sviluppare questi sistemi nel chiuso dei laboratori, per poi un giorno lanciarli fuori. La società non va scioccata: bisogna raccogliere reazioni, fare iterazioni e cambiamenti, espandere l’accesso man mano che si acquisisce certezza sugli utilizzi sicuri. È la nostra strategia: sviluppo continuo e iterativo».
Non siamo mai stati in grado di controllare lo sviluppo di una tecnologia: il desiderio di strumenti più potenti o gli interessi economici sono troppo forti. Le decisioni vanno lasciate alle società private?
«No, è importantissimo che i governi e la società nel suo complesso siano parte del dibattito e delle decisioni.
La tecnologia è uno strumento, possiamo usarla bene o male. L’AI non è diversa, porta possibilità meravigliose e rischi immensi. Per questo è così importante essere coerenti nel modo in cui la introduciamo nel mondo. Ma la soluzione non è stoppare l’innovazione: è capirla, prevederne le capacità e essere responsabili nel suo sviluppo».