Dietro le quinte dei social network, parla una moderatrice di TikTok – A costo di sembrare bacchettoni o passatisti, da queste pagine abbiamo più volte denunciato la deriva dei social, dell’abuso ma anche del mero uso, in particolare da parte dei più giovani e dei giovanissimi, che, ancora inconsapevoli delle brutture del mondo, proprio per questo sono i più vulnerabili. Nello specifico è proprio TikTok, il social dei bambini, a non essere affatto innocuo. Forse alcuni genitori pensano sia usato essenzialmente per giocare, scambiarsi video di buffi balletti o sbizzarrirsi con i vari filtri. Purtroppo, non è così, e lo racconta una moderatrice di TikTok. Il suo lavoro, e di altre centinaia di persone, è di rimanere per ore seduti davanti al computer, guardando ed eliminando tutti i filmati per “ripulire” i social e filtrare ciò che non può assolutamente essere visto. Va da sé che si tratta di un lavoro immane, nonché un compito improbo. “Non avete idea di cosa ho visto, il mondo è marcio”, ha raccontato Sara (nome di fantasia) al sito Fanpage: stupri, abusi, suicidi, autolesionismo e orrori d’ogni genere. Come moderatrice per TikTok Italia, ripulisce la piattaforma dagli orrori, e il suo lavoro consiste nel guadare otto ore al giorno i video che nessun altro vorrebbe vedere, filtrando i contenuti pericolosi.(Continua a leggere dopo la foto)
>>> Incredibile Fedez: “Sono nullatenente”. Interviene il Codacons, cosa sta succedendo
L’orrore in diretta
“Ho visto filmati di bambini violentati da animali – racconta Sara – o la clip di un padre che girava per strada con in mano la testa mozzata di sua figlia”. Dapprima erano solo gli algoritmi a svolgere questa funzione, ma si è compreso che solo una coscienza umana può assolvere a questo compito. Secondo MarketWatch, filiale di Dow Jones & Company, il settore della moderazione dei contenuti digitali crescerà fino a 13,60 miliardi di dollari entro il 2027. In proporzione TikTok è la piattaforma che ha più moderatori, 430 solo in Italia, ma va da sé che qualche contenuto possa sfuggire e attraversare le maglie di questa rete di contenimento. Tutto viene fatto in smart working, non si lavora in sede, spiega Sara. Ma: “Ora basta, voglio andarmene. Se non trovo opzioni migliori nell’immediato rimango lì, ma sarà per poco”, annuncia e c’è da capirla. Basta soffermarsi su come procede l’intervista. Ad esempio, il tema aberrante della pedofilia è al centro di moltissimi interventi dei moderatori, costretti ad assistere a tali scempi. Scopriamo, così, che una ricerca molto diffusa è “Bambina di 12 anni nuda” o schifezze del genere, oppure è il caso di “sessantenni che scrivono frasi inopportune sotto i video delle ragazzine”. Non sono solo il tempio dell’effimero per i narcisisti d’ogni età, i social sono davvero un posto pericoloso per le personalità ancora in evoluzione dei più giovani. (Continua a leggere dopo la foto)
>>> Commissione Covid, FdI “sdogana” i danni da vaccino. Rissa, urla e insulti alla Camera (VIDEO)
Le conseguenze (anche) per i moderatori
Ma le conseguenze, se fino ad ora abbiamo parlato in termini generiche, si fanno sentire anche per i moderatori. Infatti, le nostre visualizzazioni sono filtrate dai moderatori come lei e dagli algoritmi personalizzati. Sara, invece, assiste direttamente attraverso il cosiddetto Deep Web, o Dark Web, a orrori spesso commessi dal vivo, compresi i suicidi in diretta. Ancora: “Nell’ultimo periodo con il conflitto tra Israele e Hamas, sono aumentati i video sulla guerra e passavo la giornata a vedere immagini di bambini morti, e sono stata male”. Lo stipendio, per otto ore di lavoro, pare dignitoso: 1.200 euro, ma ne vale la pena? Per concludere, e per rispondere implicitamente a questa domanda, ci affidiamo ancora una volta alle parole di Sara: “Per due anni ho visto in casa delle persone, ho visto cosa vedevano, cosa cercavano, cosa scrivevano. Viviamo in un mondo marcio”.
Potrebbe interessarti anche: Riso fatto di carne, ecco il “cibo ibrido”. L’ultima follia green pronta a invadere le nostre tavole