A Forbes raport rodzi pytania o tym, jak zespół moderatorów TikTok radzi sobie z materiałami przedstawiającymi wykorzystywanie seksualne dzieci — twierdząc, że zapewnił szeroki, niepewny dostęp do nielegalnych zdjęć i filmów.
Pracownicy zewnętrznego zespołu moderacyjnego o nazwie Teleperformance, który współpracuje między innymi z TikTok, twierdzą, że poprosił ich o przejrzenie niepokojącego arkusza kalkulacyjnego o nazwie DRR lub Daily Required Reading w standardach moderacji TikTok. Arkusz kalkulacyjny rzekomo zawierał treści, które naruszały wytyczne TikTok, w tym „setki zdjęć” dzieci, które były nagie lub były wykorzystywane. Pracownicy twierdzą, że setki osób w TikTok i Teleperformance mogą uzyskać dostęp do treści zarówno z biura, jak i spoza niego, otwierając drzwi do szerszego wycieku.
Teleperformance odmówiono Forbes że pokazywał pracownikom treści wykorzystujące seksualnie, a TikTok powiedział, że jego materiały szkoleniowe mają „ścisłą kontrolę dostępu i nie zawierają wizualnych przykładów CSAM”, chociaż nie potwierdził, że wszyscy dostawcy zewnętrzni spełniają ten standard.
Pracownicy opowiadają inną historię, a jak Forbes stwierdza, jest to prawnie ryzykowne. Moderatorami treści są rutynowo zmuszony do rozdania z CSAM, który jest publikowany na wielu platformach społecznościowych. Jednak obrazy przedstawiające wykorzystywanie dzieci są w Stanach Zjednoczonych niezgodne z prawem i należy się z nimi obchodzić ostrożnie. Firmy powinny zgłaszać treści do National Center for Missing and Exploited Children (NCMEC), a następnie przechowywać je przez 90 dni, ale minimalizować liczbę osób, które je zobaczą.
Zarzuty tutaj wykraczają daleko poza ten limit. Wskazują, że Teleperformance pokazała pracownikom graficzne zdjęcia i filmy jako przykłady tego, co oznaczyć w TikTok, jednocześnie grając szybko i swobodnie z dostępem do tych treści. Jedna z pracownic twierdzi, że skontaktowała się z FBI, aby zapytać, czy praktyka ta stanowiła przestępcze rozpowszechnianie CSAM, chociaż nie jest jasne, czy taka praktyka została otwarta.
Pełny Forbes raport jest warte przeczytania, przedstawiając sytuację, w której moderatorzy nie byli w stanie nadążyć za gwałtownym rozwojem TikTok i kazali oglądać przestępstwa przeciwko dzieciom z powodów, które ich zdaniem nie pasowały. Nawet przez skomplikowane standardy z debat na temat bezpieczeństwa dzieci w Internecie, jest to dziwna – i choć trafna, przerażająca – sytuacja.