Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2004  febbraio 28 Sabato calendario

Anche il concetto di intelligenza artificiale negli ultimi 10-15 anni è profondamente cambiato. Prima gli studi in questo ambito puntavano solamente alla creazione di un’unica mente artificiale

Anche il concetto di intelligenza artificiale negli ultimi 10-15 anni è profondamente cambiato. Prima gli studi in questo ambito puntavano solamente alla creazione di un’unica mente artificiale. «Ora, invece, si cerca di studiare le interazioni tra più intelligenze locali, parziali, distribuite e limitate» spiega Cristiano Castelfranchi, nella foto, direttore dell’Istituto di Scienze e Tecnologie della Cognizione del Cnr. Al centro di questi studi il rapporto tra essere umano e macchina. Per esempio si tenta di far capire a un computer cosa vogliamo da lui attraverso quesiti posti in maniera naturale (con la voce e non con una tastiera). Una delle applicazioni è il web semantico, in grado di rispondere al meglio, rispetto a quello attuale, quando lo interroghiamo. Oggi, infatti, se si digita in un motore di ricerca la parola ”monaco”, il web non sa se cerchiamo informazioni sulla città tedesca o su un religioso. In futuro la Rete, invece, potrebbe sapere, conoscendoci, quali informazioni privilegiare rispetto alle altre. «Ma gli studi di intelligenza artificiale» continua Castelfranchi «potrebbero portare anche ad applicazioni nel campo dell’e-commerce (per esempio creare un venditore virtuale), dei videogiochi e dell’educazione, attraverso progetti di apprendimento avanzati. C’è poi tutto il filone del cosiddetto ”affective computing”, ovvero l’idea, nata una decina di anni fa al Massachusetts Institute of Technology di Boston, che le macchine riescano a comprendere gli stati d’animo e le emozioni di una persona». In che modo? Per esempio con dei sensori che, rilevando alcuni dati fisiologici (sudorazione, battito cardiaco e così via), indichino alla macchina se si è emozionati o ci si trova in difficoltà. «Infine» conclude Castelfranchi «esistono già macchine che simulano proprie emozioni, cambiando per esempio il tono della propria voce. Il prossimo passo della scienza sarà quello di capire se un computer può provare davvero, senza fingere, emozioni».