×

Cleaners: lo sporco lavoro di chi ripulisce Internet


Il 23 marzo 2013 milioni di utenti Facebook in tutto il mondo si ritrovarono nella sezione notizie il video di una giovane ragazza stuprata da un uomo più grande di lei. Venne rimosso pochi minuti dopo, ma era già stato condiviso 16 mila volte e aveva già ricevuto 4 mila like. Era diventato virale e aveva infettato Internet.

Come è possibile che qualcosa di simile possa essere visto su Facebook? Perché di solito non vediamo contenuti di questo tipo?” A chiederselo sono stati Hans Block e Moritz Riesewieck, documentaristi tedeschi che durante un recente Ted talk hanno fatto luce sul lato oscuro di Internet, ponendo l’accento sulle difficili condizioni di vita di chi, per lavoro, elimina contenuti osceni dal web.

Mutilazioni, violenze, suicidi, esecuzioni, messaggi d’odio e razzismo sono soltanto la punta dell’iceberg di quello che ogni giorno i moderatori di contenuto devono vagliare, in pochi minuti o secondi, davanti uno schermo. La maggior parte delle volte sono video o immagini segnalate perché violano le linee guida di social media come Facebook.

Ogni minuto vengono pubblicati oltre 2 milioni di post su Facebook, 500 ore di video su Youtube. Ogni post sui social può diventare virale in poche ore e diffondere rabbia e odio. La percezione del mondo che ognuno di noi ha è personale, non reale. Internet non è affatto come sembra. Per questo motivo un esercito di moderatori di contenuto – invisibili – si siede davanti un computer ed evita danni collaterali che un’immagine, un video o un testo possono scatenare. In pochi secondi devono decidere se quel contenuto può restare sul web – cliccando ignora – o deve sparire – cancella.

Certo ad aiutarli c’è anche la tecnologia:  software sono addestrati a riconoscere pixel che corrispondono a pelle umana o sangue, possono identificare i lineamenti di organi sessuali. Tuttavia questi hanno grandi difficoltà, per esempio, nel distinguere foto scattate in vacanza al mare da contenuti pedopornografici. In molti casi è necessaria l’intelligenza umana per poter etichettare un contenuto come inappropriato. Gli algoritmi non possono distinguere tra satira e propaganda, tra ironia e odio. Per questo è richiesto un intervento umano: per decidere cosa lasciare e cosa eliminare.

Tutto questo Block e Moritx  lo mostrano nel dettaglio nel documentario del 2019 “The Cleaners”. In questo lavoro, in 90 minuti di indagine, raccontano la vita di chi rende Internet un posto sicuro e pulito. O per lo meno più sicuro e pulito di quanto altrimenti sarebbe.

Persone di cui non sappiamo quasi nulla, perché lavorano in segreto, non possono divulgare informazioni riguardo ciò che vedono nell’orario lavorativo, firmano accordi di riservatezza, sono costretti a usare parole in codice in modo da nascondere il nome delle aziende per cui lavorano. Sono sorvegliati da società che si occupano di sicurezza per evitare che parlino con i giornalisti, e vengono sanzionati se lo fanno. Sembra un poliziesco, ma è la verità. Queste persone esistono e sono i moderatori di contenuti”.

Gli autori del documentario introducono così una testimonianza estratta dal filmato in cui si concentra l’attenzione soprattutto sui cleaners che vivono e lavorano a Manila, nelle Filippine. La maggior parte di loro infatti proviene da qui, una città dove “decine di migliaia di ragazzi guardano ciò che nessuno di noi dovrebbe vedere”.

La ragione per cui vi sto parlando – e non dovrei visto che abbiamo firmato un contratto di riservatezza, devo restare in anonimato – è perché il mondo deve sapere che noi siamo qui. C’è qualcuno che controlla i social media. Noi facciamo del nostro meglio per mantenere queste piattaforme sicure, per tutti noi”.

Durante le ricerche condotte per la realizzazione del documentario i registi si sono posti diversi interrogativi: “Quali sono le conseguenze a cui va incontro chi svolge questo lavoro? In che modo queste persone gestiscono un lavoro così difficile? C’è qualcosa che li rende adatti per questo compito?” Gli autori non si sarebbero mai aspettati di trovare una risposta nel rapporto dei moderatori con la religione. Per molti di loro che lavorano nelle Filippine, paese profondamente cattolico, l’operato che portano avanti ricalca la missione cristiana di contrastare i peccati del mondo che si diffondono sul web, raccontano i registi.

Il mondo in cui stiamo vivendo adesso non credo che sia sano, credo esista davvero un demonio, dobbiamo vederlo, controllarlo, nel bene e nel male”.

Altri invece trovano la motivazione mettendosi a paragone con il presidente Rodrigo Duterte, il cui motto alle ultime elezioni è stato: “I will clean up!”. Un moderatore, la cui testimonianza è stata raccolta nel documentario ha detto: “Quello che Duterte fa nelle strade, io lo faccio per Internet”. Altri hanno sottolineato che “Senza di noi Internet sarebbe un casino”. Ancora: “Gli algoritmi non possono fare quello che facciamo noi, facciamo uno dei lavori più importanti di Internet”.

Spesso però hanno 20 anni, appena diplomati vengono assunti con l’unico requisito di saper usare un computer. Lavorano su 25 mila immagini al giorno, miseramente retribuiti e senza supporto psicologico. La visione prolungata di questi contenuti può avere effetti collaterali come disturbi d’ansia, alcolismo, depressione, conseguenze da stress post traumatico che possono portare anche al suicidio.

Il mondo deve sapere che noi siamo qui

Nel documentario è riportata la testimonianza di un moderatore che racconta la storia di un collega il cui compito era monitorare webcam che in diretta mostravano tentativi di suicidio e automutilazioni. Infine, anche lui si è suicidato. Il suo purtroppo non è un caso isolato, il tasso di suicidi è altissimo per chi entra in contatto tutti i giorni con atti di violenza estrema.“Questo è il prezzo che ognuno di noi paga per avere un ambiente pulito, sano e ‘salutare’ quando usa i social media”.

Non tutte le decisioni però sono così chiare e definite come quando si tratta di contenuti che riguardano abusi o violenze. Cosa dire di quelli controversi, ambivalenti, caricati da attivisti civili o giornalisti? La maggior parte delle volte immagini o video di testimonianza sociale vengono eliminati con la stessa rapidità con cui si trattano contenuti riprovevoli. “Non era questo il grande potenziale che Internet avrebbe dovuto avere? Non erano questi i sogni nelle fasi iniziali di chi ha creato il Web?”

Prendiamo come esempio il video di un’esplosione – proseguono gli autori del documentario – un bambino potrebbe venir disturbato da questo tipo di contenuti o potrebbe spaventarsi. La scelta sarebbe: cancella. E se questo video fosse utile per saperne di più sui crimini di guerra in Siria? Libertà e democrazia non devono avere solo queste due opzioni, cancella o ignora”.

Le linee guida pubbliche a cui devono attenersi i moderatori vengono aggiornate ogni due settimane, ma sono i moderatori che decidono come applicarle. I social media cancellano tutto ciò che potrebbe disturbare la morale e offendere la sensibilità di ognuno di noi, per esempio oscurando foto di interventi chirurgici, usando avvisi di sicurezza per chi non vuole essere infastidito da questo tipo di contenuti.  Non solo video in cui è registrato uno stupro, anche satira, propaganda, arte, denuncia sociale, tutto nel calderone dell’oblio. Ma a chi spetta davvero la decisione? Quali contenuti dovremmo vedere? Come creare una società aperta agli spazi digitali?

Per saperne di più
C Newton. The Trauma Floor. The Verge, 25 febbraio 2019.