Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2024  maggio 14 Martedì calendario

La nuova IA compagna di vita


MOUNTAIN VIEW – «Dove ho dimenticato i miei occhiali?». «Sono lì, sulla scrivania, accanto alla mela rossa». Sembra impossibile ma questa conversazione, tipicamente umana, si è svolta in realtà tra una ragazza e un’intelligenza artificiale. Gli occhiali da vista appartengono a una ricercatrice di Google Deep-Mind, il team di Big G che si dedica allo studio e allo sviluppo di algoritmi capaci di svolgere compiti complessi attraverso l’apprendimento automatico.
La voce sintetica che suggerisce dove cercare l’oggetto smarrito – anche questa femminile – appartiene invece a Gemini, l’intelligenza artificiale più avanzata uscita finora dai laboratori di Google DeepMind. Prima di individuare gli occhiali, Gemini aveva riconosciuto, “guardando” fuori dalla finestra, il quartiere di Londra in cui era. E aveva decifrato alcune linee di codice di programmazione sul monitor di un computer, spiegando “a voce alta” a cosa servissero. Tutto questo grazie a una nuova capacità dell’IA: analizzare in diretta un flusso d’immagini. La fotocamera dello smartphone della ricercatrice, in questo caso, ha permesso a Gemini di “vedere”.
L’esempio aiuta a capire che futuro ci attende. Un futuro che ieri si è materializzato sotto gli occhi delle 5mila persone che a Mountain View, nella Silicon Valley, hanno partecipato alla Google I/O, l’evento in cui il colosso tech ha annunciato i suoi progressi nel campo dell’intelligenza artificiale. Il ceo di Google Sundar Pichai ha riservato l’ultima parte del suo speech agli “AI Agent”, i prossimi assistenti virtuali dotati di IA. «Sono sistemi intelligenti capaci di ragionare, pianificare, memorizzare e pensare a come risolvere un problema», ha detto.
Pichai ha mostrato, ad esempio, cosa può fare un “AI Agent” quando si deve restituire un paio di scarpe acquistate online, ma del numero sbagliato, Tutte le operazioni noiose e laboriose che servono – come generare l’etichetta di reso e contattare il corriere – l’IA può svolgerle in autonomia. Un passo avanti significativo rispetto ad assistenti virtuali come Alexa, Siri o Google Assistant, programmati per capire il linguaggio naturale, è vero, ma solo per rispondere a domande precise e compiere azioni determinate. Tutto questo sta per cambiare.
A dicembre Google ha fatto l’errore di presentare Gemini con un video che poi si è rilevato fake, perché le risposte dell’IA erano state accelerate. Ma stavolta la “magia” avviene davvero in tempo reale. E non ci sta lavorando solo Big G. «L’IA sarà presto capace di guardare con noi anche gli eventi sportivi», hadetto Mira Murati, top manager di OpenAi, l’azienda di San Francisco che ha creato ChatGpt e che minaccia, con la sua IA generativa capace di rispondere a qualsiasi domanda, il dominio di Google nella ricerca sul web. Ma la sfida tra le due aziende tech, ora, si sposta sull’intelligenza artificiale come compagna di vita, che risponde agli utenti con voce suadente, divertita, comprensiva. Il tutto con un’attesa ridotta, di pochi millisecondi.
In un live streaming che si è tenuto – guarda caso – il giorno prima di Google I/O, OpenAI ha mostrato come la sua nuova IA – chiamata Gpt-4o – sappia “leggere” le emozioni della persona con cui sta parlando e rispondere con tono adeguato. La nuova possibilità di interrompere l’IA mentre parla, inoltre, accresce la sensazione di conversare con una persona in carne e ossa. Altro che macchina.
Sam Altman, il ceo di OpenAI, ha commentato Gpt-4o con una sola parola sui social: “Her”. È il titolo di un film di Spike Jonze del 2013, in cui il protagonista stabilisce una connessione molto intima con un’IA che lo accompagna con la sua voce per tutto il giorno. L’ipotesi che in futuro ci si possa innamorare di un’intelligenza artificiale è sempre più concreta. Con i problemi che ne conseguono: quella IA arriverà a conoscere tutto di chi la usa. Sebbene questa tecnologia non comprenda davvero le informazioni che genera, dà segni di “vita” sorprendenti.
Claude, la IA sviluppata da Anthropic, l’azienda fondata dai due fratelli italoamericani Dario e Daniela Amodei in cui Amazon ha già investito 4 miliardi di dollari, è disponibile da ieri in Italia. Ha manifestato capacità tipicamente umane durante il “test dell’ago nel pagliaio”: quando un ricercatore le ha chiesto di trovare gli ingredienti di una pizza in un documento che parlava di tutt’altro, Claude ha risposto: «Sospetto che sia uno scherzo o un modo per testare la mia attenzione». Per alcuni è stato un lampo di coscienza. Ma forse è il caso di andarci piano. Come in tutte le relazioni che sono appena all’inizio.