Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2018  gennaio 08 Lunedì calendario

Professione spazzino del web (in trincea)

Inizia qui, che poi ti facciamo avere un colloquio con Google”: alcuni li convincono così, con l’illusione di una scalata verso la terra promessa dell’innovazione. Usando o meno nomi di società a caso. Peccato che gli assunti si ritrovino poi in un ufficio insieme a chissà quanti altri (molto, molto lontano dalla Silicon Valley), pagati poco, ma soprattutto esposti a ogni genere di nefandezze, per ore, ogni giorno.
Sono i lavoratori della moderazione online, cioè quelli che ripuliscono la rete da contenuti impropri: immagini di violenze, abusi, autolesionismo. Video o foto, che vengono “filtrati” prima di raggiungere un pubblico più vasto sulle piattaforme online. Prima che la mattina ognuno faccia il consueto scroll sull’homepage dei social network senza avere la sensazione di trovarsi dentro un brutto film.
Per “moderazione online” s’intendono molte cose: dalla gestione dei commenti di siti e profili ufficiali sui social network (appaltata ai social media manager), a quella interna alle aziende stesse – Facebook, Google, Microsoft, YouTube etc. – che vaglia i contenuti non adatti alla messa online (preventivamente segnalati da sistemi di riconoscimento automatico, o dagli utenti stessi).
E poi c’è la prima linea di trincea della moderazione, la parte che le grandi società – non solo le più note – appaltano all’esterno. Delocalizzata, come i call center. La resa, in effetti, è la stessa: scarsa tutela del lavoro, ritmi snervanti. Accordi di riservatezza, salari bassi e soprattutto, nessun tipo di assistenza psicologica per chi è costretto a trattare quel genere di contenuti.
Adrian Chen, in un’inchiesta condotta per Wired nel 2014, chiamava questi lavoratori “gli operai che tengono lontani dai nostri Facebook decapitazioni e foto di membri maschili”. Hemanshu Nigam, ex capo della sicurezza in MySpace, stimava contemporaneamente che tra siti, applicazioni e servizi cloud, fossero già oltre i 100 mila. A distanza di 4 anni, non possono che essersi moltiplicati sotto il peso di una rete sempre più ingolfata di contenuti: Facebook ha raggiunto i 2 miliardi di utenti, su YouTube vengono caricate 400 ore di video ogni minuto.
“Non sono interessato a prendere parte a questa inchiesta”, risponde un italiano che modera contenuti di un’app per incontri, ma lavora all’estero. Quello della moderazione resta un esercito sommerso, con le mani legate dagli accordi di riservatezza, o da brutte esperienze che i protagonisti non vogliono ricordare.
“Sono stato uno dei pochi a fare moderazione “massiccia” in Italia, anni fa: ne sono uscito in tempo” sono le poche parole scucite, via telefono (dopo un lungo giro di presentazioni in conto terzi), a chi per anni ha vagliato grandi quantità di video e foto per la rete, pedopornografia inclusa. Con le ossa rotte, ha pagato di sua tasca un supporto psichiatrico adeguato per reggere il peso di quell’esposizione reiterata all’orrore.
Chi non amava pagare invece, erano i clienti: “La moderazione di un certo livello costa troppo”. Non solo per il peso psicologico che comporta (che già basterebbe), ma anche perché richiederà sempre, a un certo punto, un sistema di discernimento umano. Basta pensare alla pubblicazione di contenuti che rappresentino apologia di fascismo: bisogna sapere che in Italia costituiscono reato, per poterli bloccare. La moderazione fatta bene costa cara, sì. Per questa ragione, si va a comprare dove conviene.
Uno dei primi casi raccontanti dal New York Times, nel 2010, riguardava un’azienda dell’Iowa, il cui motto era “delocalizzato in Iowa, non in India”. Come fa notare Sarah T. Roberts, che da quell’anno studia la “Commercial Content Moderation” (vedi articolo a fianco), il senso dell’offerta era proprio quello che sembrava: costo del lavoro basso rispetto a qualsiasi altro posto degli Stati Uniti, aggiunto a valori e capacità di approntare le scelte sulla pubblicazione dei contenuti, tutti made in Usa. Mica dall’altra parte del mondo.
I contenuti online si moltiplicano come un blob che accelera al ritmo della condivisione, mentre il dibattito pubblico comincia cautamente a individuare i margini del problema. Hanno favorito la presa di coscienza casi come il Russiagate – propaganda pro Trump che si è servita delle maggiori piattaforme nel periodo elettorale – o i moniti dei governi, specialmente in Europa, contro l’hate speech (tema caro, in Italia, alla Presidente della Camera Laura Boldrini).
A maggio scorso, il ceo di Facebook, Mark Zuckerberg, aveva annunciato l’assunzione di 3 mila moderatori, dopo una stagione calda di omicidi e violenze trasmessi in diretta streaming. Un’altra tornata è stata annunciata con il pasticcio della propaganda politica.
La moderazione online continuerà a contare anche sui liberi professionisti sparsi qua e là: “Posso parlare perché non sto violando nessun NDA (accordo di non divulgazione, ndr) e ho scelto di farlo perché voglio che il pubblico sia più informato sull’argomento. Molti miei colleghi non hanno la stessa libertà”, risponde Rochelle LaPlante da Seattle. Lavora a più titoli per l’online dal 2007, ma vuole perorare la causa di chi svolge le mansioni di monitoraggio. “Per quante aziende ho lavorato? Non ne ho idea. Non sono tenuti a usare i nomi reali, quindi spesso non so neanche per chi lo stia facendo”. Le agenzie intermediarie, come da nome, mediano. E filtrano. Ai lavoratori arrivano i progetti, e quanto durano si scopre nel tempo, salvo tirarsi indietro prima. L’unico potere che ha Rochelle è quello di interrompere a propria discrezione. Una rivisitazione sindacale dello “smetto quando voglio”.
“Posso iniziare e smettere di lavorare sui progetti in qualsiasi momento”. Certe volte, come ha raccontato anche la fonte italiana, fermarsi è necessario: “Sono d’accordo, tocca fermarsi in tempo – risponde LaPlante quando ricorda i video di abusi su minori nei quali si è imbattuta – Posso fermarmi quando decido io, mentre alcuni moderatori sono tenuti a lavorare un determinato numero di ore al giorno. Da freelance, non ho questo tipo di regolamenti. Ovviamente, vengo pagata solo per il lavoro che finisco”. Quindi, nessuno coprirà i costi delle sue pause, qualsiasi sia la ragione per cui vengono richieste. Offerte di assistenza, o qualsiasi forma di supporto psicologico, neanche a parlarne (“Niente affatto”).
Proprio per mancanza di adeguata assistenza psicologica, circa un anno fa due ex dipendenti Microsoft hanno fatto causa per danni per la loro attività svolta all’interno del team sicurezza nel 2008, ritenendo, all’epoca, di non essere stati sufficientemente supportati (i rappresentanti legali dei due, contattati via email, non hanno ancora risposto, ndr).
Un portavoce dell’azienda, riportò il Guardian, dissentiva con quanto riportato nella causa, sostenendo di prendere molto seriamente sia la responsabilità di rimuovere contenuti violenti e di abusi su minori dai propri servizi, sia la salute e resilienza “dei dipendenti che svolgono questo importante lavoro”.
In Italia, i liberi professionisti della moderazione – non necessariamente di quella prima linea di trincea – lavorano per l’estero e hanno firmato gli accordi di riservatezza. Gli strumenti del mestiere sono un mix di software delle piattaforme fornite dalle agenzie, uniti ai meccanismi d’intelligenza artificiale che i servizi online continuano ad affinare per individuare automaticamente contenuti pericolosi (parole aggressive, nudi, etc). Questo, per una prima scrematura alla quale si aggiunge l’intervento umano, che discerne e scova i trucchetti degli utenti per superare i controlli (restando sul testo, si pensi ai vari acronimi e slang).
I moderatori contattati non si fanno riprendere, nemmeno con la garanzia di voci modificate o inquadrature di spalle. Chiedono nomi finti, come Paola: “Non mi è mai capitato di imbattermi in contenuti estremamente violenti. Le difficoltà del lavoro sono, nel mio caso, gli orari “spezzatino” e la sensazione di alienamento che ne deriva”. Paola lavora per più società americane, perché pagano meglio “di quei pochi spicci che ti offrono qui”.
I loro contratti di lavoro mettono in guardia dai rischi, ma suonano come le mani avanti di chi non vuole rogne: “Ti avvisano, ma non è previsto alcun tipo di sostegno – conferma Marco, che si era convinto a farsi riprendere, per poi non presentarsi all’appuntamento ed eludere successive richieste – La frequenza di contenuti violenti dipende dal progetto, come quello che sto per accettare all’estero. Ho una memoria fotografica fortissima, so già che resterò traumatizzato”.