Moderatorzy TikTok twierdzą, że zostali przeszkoleni w zakresie treści związanych z wykorzystywaniem seksualnym dzieci


A Forbes raport rodzi pytania o tym, jak zespół moderatorów TikTok radzi sobie z materiałami przedstawiającymi wykorzystywanie seksualne dzieci — twierdząc, że zapewnił szeroki, niepewny dostęp do nielegalnych zdjęć i filmów.

Pracownicy zewnętrznego zespołu moderacyjnego o nazwie Teleperformance, który współpracuje między innymi z TikTok, twierdzą, że poprosił ich o przejrzenie niepokojącego arkusza kalkulacyjnego o nazwie DRR lub Daily Required Reading w standardach moderacji TikTok. Arkusz kalkulacyjny rzekomo zawierał treści, które naruszały wytyczne TikTok, w tym „setki zdjęć” dzieci, które były nagie lub były wykorzystywane. Pracownicy twierdzą, że setki osób w TikTok i Teleperformance mogą uzyskać dostęp do treści zarówno z biura, jak i spoza niego, otwierając drzwi do szerszego wycieku.

Teleperformance odmówiono Forbes że pokazywał pracownikom treści wykorzystujące seksualnie, a TikTok powiedział, że jego materiały szkoleniowe mają „ścisłą kontrolę dostępu i nie zawierają wizualnych przykładów CSAM”, chociaż nie potwierdził, że wszyscy dostawcy zewnętrzni spełniają ten standard.

Pracownicy opowiadają inną historię, a jak Forbes stwierdza, jest to prawnie ryzykowne. Moderatorami treści są rutynowo zmuszony do rozdania z CSAM, który jest publikowany na wielu platformach społecznościowych. Jednak obrazy przedstawiające wykorzystywanie dzieci są w Stanach Zjednoczonych niezgodne z prawem i należy się z nimi obchodzić ostrożnie. Firmy powinny zgłaszać treści do National Center for Missing and Exploited Children (NCMEC), a następnie przechowywać je przez 90 dni, ale minimalizować liczbę osób, które je zobaczą.

Zarzuty tutaj wykraczają daleko poza ten limit. Wskazują, że Teleperformance pokazała pracownikom graficzne zdjęcia i filmy jako przykłady tego, co oznaczyć w TikTok, jednocześnie grając szybko i swobodnie z dostępem do tych treści. Jedna z pracownic twierdzi, że skontaktowała się z FBI, aby zapytać, czy praktyka ta stanowiła przestępcze rozpowszechnianie CSAM, chociaż nie jest jasne, czy taka praktyka została otwarta.

Pełny Forbes raport jest warte przeczytania, przedstawiając sytuację, w której moderatorzy nie byli w stanie nadążyć za gwałtownym rozwojem TikTok i kazali oglądać przestępstwa przeciwko dzieciom z powodów, które ich zdaniem nie pasowały. Nawet przez skomplikowane standardy z debat na temat bezpieczeństwa dzieci w Internecie, jest to dziwna – i choć trafna, przerażająca – sytuacja.

Reklama



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Czy powinieneś kupić AirPods Pro?

AirPods Pro to jedne z najpopularniejszych prawdziwie bezprzewodowych słuchawek na rynku. Po wprowadzeniu w październiku 2019 r. AirPods Pro stały się niezbędnym...

Meta zamyka jedną ze swoich największych gier VR — ale tylko dla posiadaczy Quest 1

W tym samym czasie Meta podniosła cenę swoich zestawów słuchawkowych Quest 2ogłosił również, że kończy obsługę Quest 1 dla Populacja 1,...

Najlepsze książki, komiksy i nie tylko Neila Gaimana

W tym tygodniu Netflix adaptacja Neila Gaimana Piaskun debiutuje. To było długa, długa droga za adaptację legendarnego komiksu oraz Zaangażowanie...
Advertisment

Chcesz być na bieżąco z najnowszymi wiadomościami?

Bardzo chcielibyśmy usłyszeć od Ciebie! Podaj swoje dane, a pozostaniemy w kontakcie. To takie proste!