Moderatorzy TikTok twierdzą, że zostali przeszkoleni w zakresie treści związanych z wykorzystywaniem seksualnym dzieci


A Forbes raport rodzi pytania o tym, jak zespół moderatorów TikTok radzi sobie z materiałami przedstawiającymi wykorzystywanie seksualne dzieci — twierdząc, że zapewnił szeroki, niepewny dostęp do nielegalnych zdjęć i filmów.

Pracownicy zewnętrznego zespołu moderacyjnego o nazwie Teleperformance, który współpracuje między innymi z TikTok, twierdzą, że poprosił ich o przejrzenie niepokojącego arkusza kalkulacyjnego o nazwie DRR lub Daily Required Reading w standardach moderacji TikTok. Arkusz kalkulacyjny rzekomo zawierał treści, które naruszały wytyczne TikTok, w tym „setki zdjęć” dzieci, które były nagie lub były wykorzystywane. Pracownicy twierdzą, że setki osób w TikTok i Teleperformance mogą uzyskać dostęp do treści zarówno z biura, jak i spoza niego, otwierając drzwi do szerszego wycieku.

Teleperformance odmówiono Forbes że pokazywał pracownikom treści wykorzystujące seksualnie, a TikTok powiedział, że jego materiały szkoleniowe mają „ścisłą kontrolę dostępu i nie zawierają wizualnych przykładów CSAM”, chociaż nie potwierdził, że wszyscy dostawcy zewnętrzni spełniają ten standard.

Pracownicy opowiadają inną historię, a jak Forbes stwierdza, jest to prawnie ryzykowne. Moderatorami treści są rutynowo zmuszony do rozdania z CSAM, który jest publikowany na wielu platformach społecznościowych. Jednak obrazy przedstawiające wykorzystywanie dzieci są w Stanach Zjednoczonych niezgodne z prawem i należy się z nimi obchodzić ostrożnie. Firmy powinny zgłaszać treści do National Center for Missing and Exploited Children (NCMEC), a następnie przechowywać je przez 90 dni, ale minimalizować liczbę osób, które je zobaczą.

Zarzuty tutaj wykraczają daleko poza ten limit. Wskazują, że Teleperformance pokazała pracownikom graficzne zdjęcia i filmy jako przykłady tego, co oznaczyć w TikTok, jednocześnie grając szybko i swobodnie z dostępem do tych treści. Jedna z pracownic twierdzi, że skontaktowała się z FBI, aby zapytać, czy praktyka ta stanowiła przestępcze rozpowszechnianie CSAM, chociaż nie jest jasne, czy taka praktyka została otwarta.

Pełny Forbes raport jest warte przeczytania, przedstawiając sytuację, w której moderatorzy nie byli w stanie nadążyć za gwałtownym rozwojem TikTok i kazali oglądać przestępstwa przeciwko dzieciom z powodów, które ich zdaniem nie pasowały. Nawet przez skomplikowane standardy z debat na temat bezpieczeństwa dzieci w Internecie, jest to dziwna – i choć trafna, przerażająca – sytuacja.

Reklama



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Nowa aplikacja Adobe Express z Firefly AI jest teraz dostępna na iOS

W czwartek firma Adobe oficjalnie uruchomiła nową aplikację Adobe Express z Firefly AI na iOS i Androida. Ta wersja aplikacji jest już...

Funkcje, data premiery i najnowsze plotki na temat aktualizacji iPhone’a

Szybkie linkiiOS 18: obsługiwane urządzenia (podobno) 26 marca 2024 roku Apple oficjalnie ogłosiło daty swoich premier ŚWDC 2024zaplanowane na...
Advertisment