Sofia (nome di fantasia) ha 28 anni e per due anni ha lavorato come moderatrice di contenuti per TikTok tramite una società esterna. Ci ha raccontato cosa si nasconde dietro i video che non vediamo mai.
Come sei finita a fare questo lavoro?
“Sembra assurdo, ma l’annuncio parlava di ‘Analista di contenuti digitali’ con ottimo stipendio. Serviva solo inglese fluente e laurea. Ai colloqui non ti dicono mai cosa vedrai davvero. Ti parlano di ‘policy enforcement’ e ‘community safety’. La realtà l’ho scoperta il primo giorno di training, quando ci hanno fatto firmare altri NDA e hanno iniziato a mostrarci esempi di cosa avremmo dovuto rivedere otto ore al giorno.”
Cosa vedevi esattamente?
“Ogni moderatore deve analizzare circa 300-400 video al giorno. Hai 30-40 secondi per decidere se un contenuto viola le policy. All’inizio pensavo fossero solo video spam o qualche lite verbale. La prima settimana ho visto tre suicidi in diretta, due incidenti mortali ripresi da testimoni, e contenuti di automutilazione che non puoi immaginare. E questo era solo l’inizio.”
Quali sono i contenuti peggiori che hai moderato?
“Non posso entrare nei dettagli per contratto, ma ti dico che esistono categorie che nemmeno sapevo potessero esistere. Violenza sugli animali registrata e caricata con orgoglio. Abusi su minori mascherati da ‘challenge’ innocenti. Organizzazioni criminali che usano TikTok per reclutare o mostrare esecuzioni. E poi c’è tutto il mondo della pedopornografia nascosta: adulti che commentano video di bambini con codici che solo loro capiscono, o peggio, minori adescati che caricano contenuti su richiesta di predatori.”
Come gestisce TikTok queste situazioni?
“Loro chiamano tutto ‘contenuto sensibile’. Abbiamo linee guida lunghe centinaia di pagine che cambiano continuamente. Il problema è che sei sempre sotto pressione per i numeri. Se impieghi troppo tempo su un video ‘difficile’, vieni penalizzata. Ho visto colleghi licenziati perché la loro ‘produttività’ era troppo bassa. Quindi spesso devi decidere in 20 secondi se un video dove vedi un bambino piangere è abuso o un capriccio normale. Sbagli? O il video resta online e magari diventa virale, o cancelli contenuto innocente e prendi un richiamo.”
Esisteva supporto psicologico?
“[Ride amaramente] Avevamo una psicologa disponibile due ore a settimana per un team di 50 persone. Molti colleghi hanno sviluppato PTSD, disturbi del sonno, attacchi di panico. Io dopo sei mesi non riuscivo più a guardare mia nipote senza pensare a cosa vedevo al lavoro. Una collega ha avuto un crollo nervoso in ufficio dopo aver visto per la terza volta in un giorno un video di violenza domestica. Le hanno dato mezz’ora di pausa e poi doveva tornare alla postazione.”
Quali sono i contenuti che il pubblico non immagina nemmeno?
“La gente pensa che TikTok siano solo balletti e ricette. Non vedono le migliaia di tentativi giornalieri di caricare contenuti estremisti, propaganda terroristica, torture, stupri filmati. Ogni giorno bloccavamo centinaia di video di self-harm: ragazzi giovanissimi che si tagliavano, si bruciavano, si procuravano danni mentre riprendevano tutto. E per ogni video che blocchiamo, ne passano decine con varianti appena diverse che l’algoritmo non riconosce.”
I bambini sono davvero al sicuro su TikTok?
“Assolutamente no. È una delle cose che mi ha spinta a lasciare. Vedevo video segnalati di bambini di 8-9 anni in pose provocanti, spesso con adulti nei commenti. TikTok dice di avere sistemi di AI per proteggere i minori, ma ti assicuro che i pedofili sono molto più sofisticati degli algoritmi. Usano hashtag innocenti, linguaggio in codice, comunicano attraverso combinazioni di emoji. E quando scopriamo un network, ne nascono altri dieci.”
Cosa succede ai moderatori dopo qualche tempo?
“Il turnover è altissimo. La media è 9 mesi. Alcuni resistono due anni come me solo perché hanno bisogno dei soldi. Quasi tutti escono con problemi psicologici. C’è chi sviluppa dipendenze, chi diventa paranoico, chi non riesce più ad avere relazioni normali. Io per mesi dopo le dimissioni non riuscivo a stare sui social. Anche vedere un video normale di TikTok mi provocava ansia.”
TikTok sa di questi problemi?
“Certo che sa. Ci sono state class action in altri paesi. Ma finché esternalizzano il lavoro a società terze con contratti precari, possono lavarsi le mani. Noi eravamo formalmente dipendenti di una azienda di ‘business process outsourcing’, non di TikTok. Quando ti lamenti, ti dicono che puoi andartene quando vuoi. E loro sanno che c’è sempre qualcun altro disperato che accetterà quel lavoro.”
Cosa diresti agli utenti di TikTok?
“Che dietro la loro esperienza ‘pulita’ ci sono persone che sacrificano la propria salute mentale. Che quando un video orribile viene rimosso, qualcuno lo ha dovuto guardare e quella immagine gli resterà in testa per sempre. E soprattutto, che i genitori devono capire che TikTok non è sicuro per i bambini, qualunque cosa dica l’azienda. Noi vediamo cosa non viene filtrato, e vi garantisco che non fareste mai usare questa app a vostro figlio se vedeste quello che vedo io.”
Torneresti a fare questo lavoro?
“Mai. Nemmeno per il doppio dello stipendio. Ho perso due anni della mia vita e ci vorrà chissà quanto per recuperare. Ancora oggi, due anni dopo, ho incubi. Vedo cose che non posso dimenticare. E la cosa peggiore? TikTok continua a crescere, ad avere miliardi di utenti, e nessuno parla di noi. Siamo invisibili, come i contenuti che rimuoviamo.”
TikTok non ha risposto alla nostra richiesta di commento su questa intervista.
