Ashley Velez e Reece Young, ex moderatori di contenuti a contratto per TikTok, affermano che il loro lavoro prevedeva la revisione di “contenuti non filtrati, disgustosi e offensivi”, inclusi “abusi sessuali su minori, stupri, torture, bestialità, decapitazioni, suicidi e omicidi”, secondo una denuncia presentata giovedì in un tribunale distrettuale della California contro la popolare piattaforma video in formato abbreviato e la sua società madre, ByteDance.
Accusano la società di negligenza, sostenendo che non ha fornito cure adeguate per proteggere i moderatori dai danni e supportarli dopo aver esaminato tali contenuti. “Richiedendo ai moderatori di contenuti di rivedere elevati volumi di contenuti grafici e discutibili, gli imputati richiedono che i moderatori di contenuti si impegnino in attività anormalmente pericolose”, afferma il reclamo, aggiungendo che la società “non sta implementando le migliori pratiche riconosciute per mitigare i rischi necessariamente causati da tale lavoro.”
TikTok non ha risposto alle richieste di commenti
Questa è la seconda causa recente che sostiene che TikTok non supporta adeguatamente i suoi moderatori di contenuti. L’appaltatore Candie Frazier, che era rappresentata dalla stessa azienda di Velez e Young, ha intentato una causa a dicembre contro TikTok e ByteDance, sostenendo di aver sviluppato ansia, depressione e disturbo da stress post-traumatico a seguito del suo lavoro di revisione di contenuti inquietanti e violenti su TikTok.
All’epoca, un portavoce di TikTok ha affermato che la società non avrebbe commentato il contenzioso in corso, ma che offre “una gamma di servizi per il benessere in modo che i moderatori si sentano supportati mentalmente ed emotivamente”.
“Ci sforziamo di promuovere un ambiente di lavoro premuroso per i nostri dipendenti e appaltatori”, ha affermato il portavoce di TikTok a dicembre. “Il nostro team di sicurezza collabora con aziende di terze parti nel lavoro fondamentale per aiutare a proteggere la piattaforma e la comunità di TikTok”.
Frazier ha abbandonato la sua causa il mese scorso e sta valutando le sue opzioni, secondo il suo avvocato. La causa di giovedì arriva in mezzo a un maggiore controllo delle pratiche di moderazione dei contenuti su TikTok e altre piattaforme di social media, che è solo aumentato quando false affermazioni e teorie del complotto si sono diffuse sulla guerra in Ucraina.
All’inizio di questo mese, un gruppo nazionale di procuratori generali dello stato ha avviato un’indagine sulle pratiche di coinvolgimento degli utenti di TikTok e sui potenziali danni della piattaforma per i giovani. TikTok ha affermato in una dichiarazione sull’indagine che limita le sue caratteristiche in base all’età, fornisce strumenti e risorse ai genitori e progetta le sue politiche pensando al benessere dei giovani.
TikTok era precedentemente passato inosservato rispetto a rivali più grandi come Facebook e YouTube, ma negli ultimi mesi ha attirato l’attenzione di critici e legislatori dopo essere esploso in popolarità, soprattutto tra i giovani, durante la pandemia. La società ha dichiarato a settembre di aver raggiunto 1 miliardo di utenti attivi mensili.
TikTok ha affermato il mese scorso che rafforzerebbe gli sforzi per regolamentare i contenuti pericolosi, comprese le bufale dannose e i contenuti che promuovono disturbi alimentari e ideologie odiose.
Velez e Young non erano dipendenti di TikTok, invece hanno lavorato in remoto per le società di personale che forniscono appaltatori per lavorare come moderatori dei contenuti per la piattaforma. Young ha lavorato come moderatore di TikTok per Atrium Staffing Services con sede a New York per circa 11 mesi a partire dal 2021, secondo la denuncia.
Velez ha trascorso circa sette mesi lavorando come moderatore di TikTok per Telus International, con sede in Canada, la stessa azienda che ha impiegato Frazier, Atrium e Telus non hanno risposto immediatamente alle richieste di commento della stampa.
Sebbene lavorassero per due società diverse, la denuncia afferma che Velez e Young “hanno svolto gli stessi compiti, allo stesso modo, utilizzando le applicazioni fornite da TikTok e ByteDance, e che il gigante dei social media ha fissato quote, monitorato e disciplinato i moderatori.”
La causa collettiva
La causa, che chiede l’approvazione come azione collettiva, sostiene che i moderatori sono stati esposti a contenuti inquietanti, tra cui “un bambino di tredici anni giustiziato da membri del cartello” e “bestialità e necrofilia”. Hanno anche affrontato “ripetute esposizioni” a convinzioni marginali e teorie del complotto come affermazioni secondo cui la pandemia di Covid-19 è una frode, negazione dell’Olocausto e video manipolati di funzionari eletti, secondo la denuncia.
Il reclamo afferma che, a causa dell’elevato volume di video che i moderatori devono rivedere, spesso avevano meno di 25 secondi per rivedere ciascun video e visualizzavano più video contemporaneamente. Ai moderatori vengono offerte due pause di 15 minuti e un pranzo di un’ora per ogni giornata lavorativa di 12 ore, ma ByteDance trattiene il pagamento ai moderatori se non sono sulla piattaforma di moderazione per qualsiasi altro momento della giornata, sostiene.
La causa accusa anche la società di non aver implementato tutele per i moderatori, come ad esempio sfocare o cambiare il colore di alcuni video inquietanti e di aver ridotto il tempo di “benessere” offerto ai moderatori da un’ora a 30 minuti ogni settimana.
“Come risultato dell’esposizione costante e assoluta a immagini altamente tossiche ed estremamente inquietanti sul posto di lavoro, Young e Velez hanno subito un immenso stress e danni psicologici”, afferma la denuncia. “I querelanti hanno cercato consulenza nel loro tempo libero a causa del contenuto a cui sono stati esposti”.
Theo Bertram, l’allora direttore delle politiche pubbliche di TikTok per Europa, Medio Oriente e Africa, ha detto ai legislatori britannici nel settembre 2020 che la società aveva 10.000 persone in tutto il mondo nel suo team “trust and safety”, che supervisiona le politiche e le decisioni di moderazione dei contenuti.
TikTok l’anno scorso ha anche lanciato un sistema di moderazione automatizzato per scansionare e rimuovere i video che violano le sue politiche “al caricamento”, sebbene la funzione sia disponibile solo per determinate categorie di contenuti.
Il sistema gestisce “categorie di contenuti in cui la nostra tecnologia ha il massimo grado di accuratezza, a partire dalle violazioni delle nostre politiche sulla sicurezza dei minori, nudità di adulti e attività sessuali, contenuti violenti e espliciti, attività illegali e merci regolamentate”.
Da un post sul blog di luglio di Il capo della sicurezza degli Stati Uniti di TikTok, Eric Han, si legge: “Ci auguriamo che questo aggiornamento supporti anche la resilienza all’interno del nostro team di sicurezza, riducendo il volume di visualizzazione di video angoscianti da parte dei moderatori e consentendo loro di trascorrere più tempo in aree altamente contestuali e ricche di sfumature”.
Tuttavia, la denuncia di giovedì afferma che oltre 81 milioni di video sono stati rimossi da TikTok nel secondo trimestre del 2021, una cifra riportata da TikTok a febbraio, e sostiene che la maggior parte è stata rimossa da moderatori di contenuti umani piuttosto che da strumenti automatizzati.
La causa sostiene anche che i moderatori sono stati costretti a firmare accordi di non divulgazione come parte del loro lavoro, il che li ha costretti “a tenersi all’interno delle cose orribili che vedono durante la revisione dei contenuti”.
Le affermazioni nella causa di giovedì sono coerenti con le accuse fatte nella precedente causa di Frazier. La causa di giovedì mira a far finanziare a TikTok e ByteDance un programma di monitoraggio medico per aiutare a diagnosticare e curare le condizioni di salute mentale dei moderatori, nonché altri danni finanziari non specificati.