Fabio Chiusi, la Repubblica 8/7/2014, 8 luglio 2014
IL MERCATO DELLE EMOZIONI
L’ondata di indignazione levatasi contro Facebook per l’esperimento con cui avrebbe “manipolato le emozioni” — alterando per una settimana le bacheche e i news feed all’insaputa degli utenti per verificare se si possano influenzare gli umori attraverso un social network — di 700mila suoi iscritti rivela, più di ogni altra cosa, la scarsa dimestichezza del pubblico con i meccanismi utilizzati quotidianamente nel marketing e sì, anche dai colossi web. Perché quello recentemente pubblicato sulla rivista Pnas , la pietra dello scandalo, non è l’unico condotto da Facebook. E quella di Mark Zuckerberg non è certo l’unica azienda ad avvalersi della manipolazione emotiva, se ciò serve a migliorare l’esperienza d’uso degli iscritti.
«A Facebook conduciamo oltre mille esperimenti ogni giorno», scriveva il 3 aprile 2014 il data
scientist Eytan Bakshy, con l’obiettivo di «ottimizzare risultati specifici», o per «informare decisioni sul design della piattaforma nel lungo periodo». Test che potevano, fino a pochi mesi fa, essere condotti in assenza di limiti o quasi, dice Andrew Ledvina, un ex collega, al Wall Street Journal: «Non c’è un processo di revisione. Chiunque in quel team può fare un test. Stanno continuamente cercando di modificare il comportamento delle persone». Google, nel 2012 e per bocca del responsabile del settore antispam Matt Cutts, ha ammesso di farne fino a 20 mila all’anno sui risultati di ricerca.
Famoso l’esempio di Merissa Mayer che, prima di passare a Yahoo, nel 2009, fece testare 41 sfumature di blu per le pagine web di Google: cercava di capire a quale tonalità fosse associato un maggiore numero di click da parte degli utenti.
Sempre Google, scrive Business Insider, «testa milioni di inserzioni pubblicitarie ogni giorno», mutandone la composizione del messaggio, il posizionamento sulla pagina e le immagini associate. «Lo stesso fanno Amazon e dozzine di altre compagnie», tutto a nostra insaputa con l’obiettivo di migliorare i propri prodotti.
Studi sui propri utenti e i loro dati sono condotti da Yahoo, Microsoft e Twitter. E, nota lo psicologo Tal Yarkoni, «tipicamente queste manipolazioni non vengono effettuate per studiare il “contagio emotivo”», come nel discusso caso di Facebook, «ma con il fine esplicito di aumentare il fatturato ». Per esempio, Taco Bell paga BuzzFeed per scrivere pubblicità in formato virale sulle proprie visitatissime pagine. Parte di quel denaro finisce anche nelle tasche di Facebook, ricorda Vox, per assicurarsi che quei contenuti finiscano sotto ai nostri occhi.
In altre parole, «visto che il punto stesso della pubblicità è creare una relazione emotiva tra noi e il prodotto, non è per nulla scorretto dire che Taco Bell paga Facebook per manipolare le nostre emozioni alterando il News Feed». Che poi è lo stesso che cerca di fare McDonald’s quando adotta come slogan «I’m lovin’it », o quando la Coca Cola lancia una vera e propria «campagna per la felicità». Il punto è che funziona: da un’analisi del britannico Institute of Practicioners in Advertising su 1400 campagne pubblicitarie di successo è emerso che quelle con contenuti puramente emotivi restituiscono tassi di soddisfazione doppi rispetto a quelli puramente “razionali”.
Cosa cambia dunque nel mercato delle emozioni digitali? I metodi, prima di tutto. Che possono avvalersi di campioni osservabili in tempo reale e con possibilità di intervento inedite finora. Non a caso Adam Kramer, tra gli autori dell’esperimento che ha fatto discutere il mondo, ha sostenuto di essere entrato a Facebook perché «costituisce il più ampio studio sul campo della storia». Per comprendere le emozioni online, spiega a Repubblica Luigi Curini, docente di scienza politica e autore del libro Social Media e Sentiment Analysis. L’evoluzione dei fenomeni sociali attraverso la Rete , si può fare ricorso a «dizionari ontologici che hanno già predefinito tutta una serie di parole connotate “positivamente” o “negativamente”». «Questa — prosegue — è una pratica assai comune, che ha l’indubbio vantaggio di essere completamente automatizzata. Il problema è che non si colgono i doppi sensi, l’humour, i giochi di parole».
Un’alternativa è codificare manualmente un sottoinsieme di post che parlano del tema che interessa ai ricercatori in senso positivo o negativo, e lasciare sia l’algoritmo a connotare i rimanenti nell’universo di riferimento, per estensione. Di “rivoluzionario”, suggerisce Curini, «c’è che sei in grado di controllare l’impatto del tuo esperimento in tempi ben più rapidi» rispetto per esempio alla proiezione ripetuta di una pubblicità durante la finale dei mondiali. «Insomma, il Sacro Graal dei pubblicitari». Con il risultato che spesso «siccome devi “inseguire” la Rete per essere davvero efficace, allora alla fine è la Rete che ti detterà il contenuto, e non viceversa».
Di norma si utilizzano i cosiddetti «test A/B», in cui c’è un gruppo di controllo con le condizioni di partenza e uno sperimentale in cui viene introdotta la variabile che si vuole studiare.
«Per esempio», spiega il social media strategist di BlogMeter, Vincenzo Cosenza, «se uso il colore giallo o quello rosso per il pulsante “compra” otterrò un numero maggiore di click? Si erogano entrambe le soluzioni a gruppi diversi di persone e si misurano i risultati. Quella più efficace verrà poi implementata stabilmente».
Il punto è che non tutte le applicazioni sono così innocue. Lo studio di Facebook sulle emozioni ha fatto discutere per le implicazioni etiche, sollevando giustamente la questione del rapporto tra il «consenso informato» richiesto dalla scienza — ma non dal marketing — per sperimentazioni
su esseri umani e termini di utilizzo del social network, lunghi, tortuosi e poco trasparenti. Ma c’è molto altro. Grazie a Edward Snowden, infatti, sappiamo per certo che quei dati sono di estremo interesse per l’intelligence, che nel caso delle agenzie di sicurezza britanniche significa creare contenuti ad arte per distruggere la reputazione dei bersagli. Ed è la Difesa Usa a usare lo studio delle emozioni sui social per cercare di prevedere rivolte sociali, come avvenuto in Egitto nel 2011 o in Turchia nel 2013. Poi c’è la politica.
Già nel 2010 un semplice badge per dire agli amici su Facebook “ho votato” ha scosso dall’indolenza 340 mila individui che altrimenti non si sarebbero recati alle urne. Oggi è una prassi adottata per tutte le tornate elettorali, la più recente quella in India, dove è stato cliccato da 4,1 milioni di persone.
Ma lo scenario più inquietante è quello descritto da The New Republic: se Zuckerberg preferisse un candidato, potrebbe far comparire sul News Feed l’invito a votare solo per gli iscritti che sa — proprio per l’analisi emotiva — essere favorevoli al suo stesso candidato, e non per chi invece supporta l’avversario. Ipotizziamo che il risultato sia sufficiente da capovolgere l’esito elettorale: «la legge dovrebbe impedire un comportamento simile?». Bella domanda. Al momento, ricorda Cosenza, «solo pochissimi studiano le emozioni in rete». Per il futuro, tuttavia, meglio attrezzarsi.
Fabio Chiusi, la Repubblica 8/7/2014