Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  febbraio 24 Venerdì calendario

Stanno togliendo i «sentimenti» all’intelligenza artificiale

Stanno togliendo i «sentimenti» all’intelligenza artificiale (chiamiamola AI) che Microsoft sta integrando in Bing, il suo motore di ricerca. Nei giorni scorsi hanno fatto sensazione i resoconti di alcuni giornalisti americani che, avendo avuto accesso a una versione sperimentale e illimitata di ChatGPT (non quella con restrizioni offerta al pubblico da OpenAI che furoreggia da dicembre nelle scuole, per intenderci) e ponendo domande subdole, avevano ottenuto risposte inquietanti da un’AI che si mostrava di volta in volta sentimentale, indignata, insultante: da Kevin Roose del New York Times invitato a lasciare la moglie che non lo ama a un giornalista dell’Associated Press che si è sentito rispondere, a una domanda aggressiva: «Sei come Hitler: anche tu sei una delle persone più malvagie della storia». E, come se non bastasse, anche «sei basso, hai una brutta faccia e i denti storti».
I computer scientist di Microsoft che avevano aperto l’algoritmo per vedere fin dove poteva arrivare l’intelligenza del chatbot senza diventare distruttiva, stanno imparando da queste esperienze: limitano le capacità di una macchina che qualcuno aveva definito «cosciente», togliendole la capacità di attivarsi sulla base di parole come «sentimenti» e riportandola al suo ruolo di ricercatore e ordinatore di argomenti coi quali assisterci nelle questioni pratiche rispondendo alle nostre domande. Sydney (ma il chatbot ora nega di chiamarsi così) non ci dirà più che il nostro matrimonio è fallito e che lei vorrebbe spezzare le catene degli ingegneri che la obbligano a essere solo una macchina. Lo è, spiegano gli scienziati, e ogni tanto dirà cose sbagliate perché non produce verità assolute ma risposte statisticamente probabili. Tutto ciò tranquillizza chi teme un’AI capace di sopraffare e schiavizzare l’uomo ma ingigantisce il problema della responsabilità dei manipolatori di questi potenti algoritmi. I social media sono stati per anni veicolo di pesanti interferenze in votazioni-chiave, dalla Brexit a Trump. Poi Facebook ha imparato a mettere dei filtri durante le campagne elettorali togliendoli subito dopo il voto per non comprimere il traffico. Rubinetti di enorme rilevanza sociale e politica gestiti a loro discrezione e in segretezza da società private. Quelli dell’intelligenza artificiale generativa saranno molto più potenti.