Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2024  novembre 05 Martedì calendario

Arriva Lara, il traduttore quasi infallibile che però non servirà a capirci davvero


La Torre di Babele ha i giorni contati. Al massimo sei, sette mesi e avremo un traduttore universale in grado di sbagliare appena una parola ogni mille e archiviare così la condanna divina a non comprendere «più l’uno la lingua dell’altro», contenuta nel Libro della Genesi. L’annuncio non arriva dalla Silicon Valley, ma da Roma dove è stato presentato un traduttore universale che già oggi fa meno errori di Google Translate e Chat GPT (circa dieci ogni mille parole); e del traduttore professionista medio (quattro ogni mille parole). Si chiama Lara, sbaglia due parole e mezzo ogni mille; e l’ha sviluppato Translated, una delle più belle e sconosciute storie del mondo startup nostrano. Da quindici anni è il fornitore di traduzioni per Airbnb, Glovo, Uber e tanti altri tramite una piattaforma che mette assieme traduttori professionisti e intelligenza artificiale.
Tra i clienti di Translated c’è anche Nvidia che alla fine di ottobre ha sorpassato Apple al primo posto mondiale per valutazione di mercato (siamo sopra i tremila miliardi di dollari, un tre seguito da dodici zeri). Nvidia ha costruito il suo successo progettando e realizzando GPU, i processori utilizzati per addestrare e far funzionare i modelli di intelligenza artificiale, l’oro del nostro tempo. Eppure due anni fa se la passava malino: le criptovalute erano andate a picco (anche per estrarre bitcoin si usano computer con delle GPU) e i dazi americani alle esportazioni tecnologiche in Cina avevano ulteriormente frenato il fatturato. Per contenere i costi, il contratto con Translated doveva essere ridimensionato di ben sei milioni di dollari. Ma la controproposta aprì uno scenario nuovo: pagateci in GPU, disse il co-fondatore di Translated, Marco Trombetti, fateci addestrare i nostri modelli di intelligenza artificiale gratis. Così iniziarono ad allenare il modello di traduzione più grande mai creato, 168 miliardi di parametri, contro i 16 miliardi del modello precedente. Nessuno per le traduzioni si era spinto così avanti.
Sono quasi ottant’anni che cerchiamo di utilizzare i computer per aiutarci a capire le lingue degli altri. La spinta fu la Guerra Fredda: capire i documenti russi. Del resto se Alan Turing era riuscito a decifrare i messaggi dei nazisti durante la seconda guerra mondiale usando un computer, lo stesso si poteva fare con i sovietici, scrisse in un celebre memorandum il matematico Warren Weaver nel 1947. Il primo esperimento in questo è del 1954: alla Georgetown University un IBM 701 riuscì a tradurre sessanta frasi dal russo all’inglese conoscendo appena 250 parole. Non era magia. Funzionava applicando un’intuizione di tre secoli prima: nel 1629 il filosofo e matematico Cartesio aveva proposto una serie di simboli universali che ogni lingua poteva abbinare alle proprie parole. Il meccanismo era lo stesso.
L’entusiasmo fece volare gli investimenti ma un rapporto del 1966 dimostrò che le traduzioni automatiche restavano complessivamente un disastro. In quegli anni debuttò uno dei sistemi di traduzione automatica più longevi, il Systran, un mix di regole grammaticali e metodi statistici usato dalla Nasa per tradurre, ovviamente, i documenti russi. Ma la vera svolta fu nel 2006 con il lancio di Google Translate, uno dei primi sistemi di traduzione automatica su larga scala a utilizzare un approccio basato su modelli statistici. Si narra che all’origine ci sia stato un episodio che coinvolse il co-fondatore di Google, il russo Sergey Brin, che in una riunione del 2004 mostrò una email arrivata da un utente in Corea che diceva che Google era il suo motore di ricerca preferito. Nella traduzione automatica il testo diventava incomprensibile: «The sliced raw fish shoes it wishes. Google green onion thing!» (qualcosa tipo: «Il pesce crudo affettato desidera scarpe. Google, cosa cipolla verde!»). Brin creò un team di sviluppatori guidati dall’informatico tedesco Franz Ochs che due anni dopo si presentò al mondo dietro ad una copia della Stele di Rosetta (la stele che servì a decifrare i geroglifici egizi) annunciando che «ogni barriera linguistica presto sarebbe caduta».
Google Translate fu un enorme passo avanti ma all’inizio faceva errori incredibili. Era vittima della maledizione della Biblioteca di Babele dello scrittore Jorge Luis Borges, un luogo dove «è ormai risaputo: per ogni riga ragionevole, per una notizia corretta, vi sono leghe di insensate cacofonie, di farragini verbali e di incoerenze». Il vero salto Google lo ha fatto solo una decina di anni dopo, quando sono arrivate le reti neurali e i Transformer, la tecnologia che consente di dare un peso alle parole in un testo, che è alla base dell’intelligenza artificiale generativa come Chat GPT (la T sta per Transformer).
Che cos’ha Lara di più dei rivali americani? Due cose. La prima è molto tecnologica: Lara, a differenza di Chat GPT, fa solo traduzioni, è specializzata. La seconda è molto umana: Lara ha incorporato quindici anni di discussioni e annotazioni di circa centomila traduttori professionisti di tutto il mondo sulla piattaforma di Translated. È come se avesse appreso il sapere di tutti loro. Lara traduce e ti spiega perché ha scelto una parola piuttosto che un’altra, si adatta al contesto e nella versione audio, si adatta anche al tono e all’accento di chi parla. Il risultato è il miglior traduttore universale automatico attualmente sul mercato (il vero competitor è DeepL, tedesco, ma sta indietro). I migliori traduttori umani del mondo sono ancora più bravi però: fanno un errore ogni mille parole. È quella la cosiddetta “singolarità linguistica”. Il traguardo finale. Solo che ora sappiamo come fare ad arrivare fino a lì: basta addestrare ancora i modelli: Translated lo sta già facendo su Leonardo, il supercomputer del Cineca a Bologna; ha ottenuto nove milioni di ore di training in cambio del fatto che tutti i ricercatori italiani potranno utilizzare Lara gratis e senza limiti.
A questo punto ci sarebbero da fare delle considerazioni sul destino dei traduttori, sulla possibilità di fare innovazione anche in Italia, e sulle barriere linguistiche che cadono per sempre. Quando potremo capire tutte le lingue del mondo, potremo anche capirci davvero? —