Spory na Facebooku donoszą, że jego sztuczna inteligencja nie może konsekwentnie wykrywać mowy nienawiści ani przemocy


wiceprezes ds. uczciwości na Facebooku Guy Rosen napisał w poście na blogu W niedzielę, że powszechność mowy nienawiści na platformie spadła o 50 procent w ciągu ostatnich trzech lat i że „narracja, że ​​technologia, której używamy do zwalczania mowy nienawiści, jest nieodpowiednia i że celowo fałszywie przedstawiamy nasze postępy” była fałszywa.

„Nie chcemy widzieć nienawiści na naszej platformie, podobnie jak nasi użytkownicy i reklamodawcy, i jesteśmy transparentni w naszej pracy, aby ją usunąć” – napisał Rosen. „Dokumenty te pokazują, że nasza praca na rzecz uczciwości to wieloletnia podróż. Chociaż nigdy nie będziemy doskonali, nasze zespoły nieustannie pracują nad rozwojem naszych systemów, identyfikowaniem problemów i tworzeniem rozwiązań”.

Post wydawał się być odpowiedzią na Artykuł niedzielny w dziennik “Wall Street, który powiedział, że pracownicy Facebooka, których zadaniem jest utrzymywanie obraźliwych treści z dala od platformy, nie wierzą, że firma jest w stanie je wiarygodnie sprawdzić.

ten WSJ Raport stwierdza, że ​​wewnętrzne dokumenty pokazują, że dwa lata temu Facebook skrócił czas, w którym recenzenci skupili się na skargach dotyczących mowy nienawiści, i wprowadził inne poprawki, które zmniejszyły liczbę skarg. To z kolei pomogło stworzyć wrażenie, że sztuczna inteligencja Facebooka odniosła większy sukces w egzekwowaniu zasad firmy, niż była w rzeczywistości. WSJ.

Zespół pracowników Facebooka odkrył w marcu, że zautomatyzowane systemy firmy usuwały posty, które generowały od 3 do 5 procent wyświetleń mowy nienawiści na platformie społecznościowej i mniej niż 1 procent wszystkich treści, które naruszały jej przepisy przeciwko przemoc i podżeganie, WSJ zgłoszone.

Rosen twierdził jednak, że skupianie się wyłącznie na usuwaniu treści jest „niewłaściwym sposobem spojrzenia na to, jak walczymy z mową nienawiści”. Twierdzi, że technologia eliminowania mowy nienawiści to tylko jedna z metod stosowanych przez Facebooka do jej zwalczania. „Musimy być pewni, że coś jest mową nienawiści, zanim to usuniemy” – powiedział Rosen.

Reklama

Zamiast tego, powiedział, firma uważa, że ​​ważniejszym środkiem jest skupienie się na powszechności mowy nienawiści, którą ludzie faktycznie widzą na platformie i na tym, jak ją zmniejsza za pomocą różnych narzędzi. Twierdził, że na każde 10 000 wyświetleń treści na Facebooku przypadało pięć odsłon mowy nienawiści. „Rozpowszechnienie mówi nam, jakie naruszające treści widzą ludzie, ponieważ je przegapiliśmy” – napisał Rosen. „W ten sposób najbardziej obiektywnie oceniamy nasze postępy, ponieważ zapewnia to najpełniejszy obraz”.

Ale wewnętrzne dokumenty uzyskane przez WSJ wykazali, że niektóre znaczące fragmenty treści były w stanie uniknąć wykrycia przez Facebooka, w tym filmy przedstawiające wypadki samochodowe, które przedstawiały osoby z drastycznymi obrażeniami, oraz brutalne groźby wobec transpłciowych dzieci.

ten WSJ wyprodukował seria raportów o Facebooku na podstawie dokumentów wewnętrznych dostarczonych przez informatora Frances Haugen. Ona zeznał przed Kongresem że firma zdawała sobie sprawę z negatywnego wpływu, jaki jej platforma Instagram może mieć na nastolatków. Facebook zakwestionował raportowanie na podstawie wewnętrznych dokumentów.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Akasa Intros AK-PCCE25-02 Adapter 2,5GbE z obsługą PoE 25W

Akasa ostatnio zainteresowała się produktami sieciowymi dla klientów, a jej niedawna niskoprofilowy adapter 2,5 GbE. Najnowszym produktem firmy w tej kategorii jest...
Advertisment

Chcesz być na bieżąco z najnowszymi wiadomościami?

Bardzo chcielibyśmy usłyszeć od Ciebie! Podaj swoje dane, a pozostaniemy w kontakcie. To takie proste!