Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2014  luglio 01 Martedì calendario

LA DIFESA DI FACEBOOK SUI POST MANIPOLATI

Clay Johnson, fondatore dell’organizzazione non profit Department of Better Technology, lo ha definito «terrificante». Facebook, il gigante dei social network, ha condotto un esperimento psicologico su quasi 700 mila utenti manipolando, senza che ne fossero consapevoli, le loro emozioni. Lo studio, pubblicato sulla rivista Proceedings of the National Academy of Sciences of the United States of America (Pnas) e condotto con la Cornell University e la University of California, mirava a verificare se gli stati d’animo siano contagiosi anche nel mondo virtuale. Così, per un’intera settimana, dall’11 al 18 gennaio 2012, Facebook ha alterato l’algoritmo che determina cosa viene mostrato nella bacheca degli «amici», mostrando un maggior numero di post con parole positive oppure negative. Esito: l’umore degli utenti è stato realmente condizionato. Al di là dei risultati, tuttavia, la modalità con cui è stato condotto l’esperimento ha scatenato la protesta di utenti e analisti, che va oltre il tema dell’uso dei nostri dati online. Se infatti va detto che chi si iscrive a Facebook accetta preliminarmente che i suoi dati possano essere usati anche per eventuali scopi di ricerca, adesso ci si è spinti più in là. Come nota tra gli altri Katy Waldman su Slate, questa volta un social network ha consapevolmente alterato le emozioni delle persone, con una «metodologia che fa nascere serie questioni etiche». Tanto che alla fine la stessa piattaforma ha scelto di difendersi pubblicamente. Adam Kramer, uno degli autori dello studio e «data scientist» di Facebook ha precisato che il contenuto manipolato ha riguardato lo 0,04% degli utenti. L’obiettivo inoltre, ha detto, era capire come fornire «un servizio migliore», mai «innervosire qualcuno».