Firmy mediów społecznościowych broniły swoich praktyk moderacji treści przed komitetem parlamentarnym badającym dezinformację online, argumentując, że mają już skuteczne procesy i systemy, które mają do czynienia z rozpowszechnianiem fałszywych informacji na swoich platformach.
25 lutego 2025 r. Commons Science, Innovation and Technology Committee (SITC) grillowane gigantów x, Tiktok i meta w ramach zapytania online mylna informacja I Szkodliwe algorytmy.
Otwierając sesję, przewodniczący komitetu Chi Onwurah powiedział, że temat ma niezwykle „silny interes publiczny” z powodu problemu związanego z technologią i że komitet jest zaniepokojony dezinformacją „rozpowszechnioną na skalę przemysłową”. Dodała, że ta konkretna sesja koncentruje się przede wszystkim na rozprzestrzenianiu się dezinformacji podczas Zamieszki w Southport w 2024.
Po śmiertelnym dźgnięciu trzech dziewcząt w Southport 29 lipca 2024 r. Media społecznościowe zalały się bezpodstawnymi plotkami, że sprawca był ubiegającym się o azyl wiary muzułmańskiej.
Chociaż później potwierdzono, że jest to całkowicie fałszywe, islamofobiczne skrajnie prawicowe zamieszki wybuchły w kilkunastu angielskich miastach w ciągu najbliższych kilku dni, w szczególności ukierunkowane na meczety, ubiegające się o azyl hoteli, centra imigracyjne i przypadkowych ludzi.
Odpowiadając na pytania parlamentarzystów na temat odpowiedzi firm mediów społecznościowych na niepokoje, Chris Yiu, dyrektor ds. Polityki publicznej w Europie Północnej w Meta, powiedział, że zespoły ds. Zaufania i bezpieczeństwa organizacji usunęły około 24 000 stanowisk za zerwanie swojej polityki dotyczącej przemocy i podżegania oraz kolejne 2700 za złamanie zasad dotyczących organizacji niebezpiecznych.
„Uważam, że w tych szybko poruszających się incydentach jest trudne, jest to, że ustalenie faktów może być trudne w czasie rzeczywistym”-powiedział. „Myślę, że jest to coś, o czym będziemy musieli refleksja i zrozumieć, jak możemy to zrobić”.
Wytyczne społeczne
Alistair Law, dyrektor ds. Polityki publicznej i spraw rządowych w Wielkiej Brytanii i Irlandii w Tiktok, dodał, że chociaż zdecydowana większość treści na platformie podczas niepokoju była dokumentem lub filmem obserwatora, dziesiątki tysięcy postów zawierających „brutalne komentarze” zostały usunięte przez firmę za naruszenie wytycznych społeczności.
Powtórząc YIU, Law powiedział również, że może być trudne „ustalenie prawdziwości potencjalnych roszczeń” w szybko poruszających się wydarzeniach, dodając, że musi być współpraca w „szerszym łańcuchu wartości” udostępniania informacji, która obejmuje media nadawcze, ponieważ relacje z wiadomościami i treści mediów społecznościowych mogą tworzyć negatywne pętle opinii związane z niedopowieściami.
Wilfredo Fernández, starszy dyrektor ds. Rządowych w X, powiedział, że firma ma „bardzo jasne protokoły dotyczące radzenia sobie z tą treścią i wyzwaniami, które pojawiają się po takim ataku”.
Dodał, że model „notatek społecznościowych” X był w stanie zapewnić użyteczny kontekst użytkownikom, a wybitne skrajnie prawicowe postacie, takie jak Tommy Robinson i Andrew Tate, otrzymały takie notatki w odniesieniu do ich postów na temat ataków Southport. „X nie ma mocy, aby umieścić ani usuwać notatki”, powiedział Fernández. „Jest całkowicie zasilany przez ludzi”.
W odpowiedzi na parlamentarzystę podkreślających przypadki rachunków Blue-Tick X wykonujących posty na temat lokalizacji imigrantów i zachęcających zamieszek do udania się tam (i które nie otrzymały notatek społecznych), Fernández powiedział, że firma podjęła różne działania na dziesiątki tysięcy postów. „Usiąść tutaj i powiedzieć, że za każdym razem otrzymujemy odpowiedni telefon, byłoby to złe” – powiedział.
Poseł Partii Pracy Emily Darlington również rzuciła wyzwanie Fernándezowi o ekstremalnych wiadomościach, które osobiście otrzymała na platformie X w listopadzie 2024 r., W których została opisana jako „zdrajca dla Brytyjczyków” i groziła wiszącym po podzieleniu petycji o uratowanie lokalnego urzędu pocztowego.
Darlington powiedziała, że zgłosiła to jako szkodliwe i gwałtowne przemówienie, z naruszeniem zasad X, że państwo wyrażające pragnienie przemocy jest niedozwolone, i wymieniono inne brutalne lub rasistowskie komentarze to samo konto.
Zapytany przez Darlingtona, czy było to dopuszczalne, Fernández powiedział, że komentarze były „odrażające”, ale chociaż zespoły moderacji treści sprawdzałyby konto warunków naruszenia usług, nie mógłby zapewnić, że zostaną usunięte.
Meta została również skrytykowana za usunięcie trzeciej sprawdzania faktów na rzecz podejścia „notatek społecznościowych” w stylu X, które, jak twierdzili posłowie, pozwoli, by „rasistowskie dezinformacje” rozprzestrzeniły się po powołując się na wiele przykładów metali metali publikujących rasistowskie, antysemickie lub transfobiczne komentarze na platformie.
„Otrzymaliśmy informację zwrotną, że… niektóre obszary debat były zbyt wiele tłumione na naszej platformie i że niektóre rozmowy, choć trudne, powinny mieć miejsce do omówienia”, powiedział Yiu.
Zarówno Onwurah, jak i Darlington odepchnęli się, argumentując, że niektóre rzeczy – takie jak wypowiedzi odmawiające istnienia osób trans lub wyśmienitych imigrantów – nie powinny być scharakteryzowane jako debata.
Przedstawiciele Meta i Tiktok powiedzieli, że chociaż skala korzystania z mediów społecznościowych stanowi jasne problemy z moderowaniem treści, każda firma zdejmuje ponad 98% gwałtownych treści.
Procesy i systemy
Odpowiadając na pytania, czy Ustawa o bezpieczeństwie online (OSA) obowiązywanie w momencie zamieszek w ogóle zmieniłoby ich podejście, każda firma powiedziała, że ma już procesy i systemy radzenia sobie z kryzysami dezinformacyjnymi.
Po zamieszkach, Ofcom ostrzegł, że firmy społecznościowe będą zobowiązane przez OSA Aby radzić sobie z dezinformacją i treścią, która jest nienawistna lub wywołuje przemoc, zauważając, że „będzie ono nałożyło nowe obowiązki w firmach technologicznych w celu ochrony użytkowników przed nielegalnymi treściami, które na mocy ustawy mogą obejmować treści związane z nienawiścią, nieporządkiem, prowokującą przemocą lub niektórymi przypadkami dezinformacji”.
Regulator szkód online dodał, że kiedy ustawa wejdzie w życie pod koniec 2024 r., Firmy technologiczne będą miały trzy miesiące na ocenę ryzyka nielegalnych treści na swoich platformach. Następnie będą musieli podjąć odpowiednie kroki, aby go powstrzymać, i działać szybko, aby go usunąć, gdy się tego uświadomi.
„Największe firmy technologiczne we właściwym czasie będą musiały pójść jeszcze dalej-konsekwentne stosowanie swoich warunków świadczenia usług, które często obejmują zakazanie takich rzeczy, jak mowa nienawiści, podżega do przemocy i szkodliwe dezinformację”, powiedział Ofcom, dodając, że będzie miał szeroki zakres uprawnień do egzekwowania prawa, aby poradzić sobie z niezgodnymi firmami.
„Obejmują one moc nakładania znacznych kar finansowych za naruszenie obowiązków bezpieczeństwa” – powiedział. „Reżim koncentruje się na systemach i procesach platform, a nie na samej treści na ich platformach”.
Jednak podczas gdy wiele z Przestępstwa przestępcze Ustawa o bezpieczeństwie online były już obowiązujące w momencie niepokoju-w tym te związane z groźbą komunikacją, fałszywą komunikacją i niezgodnością firm firm technologicznych z informacjami informacyjnymi-niektórzy stwierdzili, że nie było jasne, czy którekolwiek z nich miałyby zastosowanie do osób korzystających z mediów społecznościowych do organizowania rasistowskich zamieszek.
„Zamiast tego policja prawdopodobnie będzie musiała polegać na przestępstwach na mocy ustawy o porządku publicznym z 1986 r., Która jest głównym aktem przepisów, które karają korzystanie z przemocy i/lub zastraszanie przez osoby lub grupy” – powiedział Mark Jones, partner w Payne Hicks Beach. „Chociaż sekretarz spraw wewnętrznych mógł powiedzieć:„ Jeśli jest to przestępstwo offline, jest to przestępstwo online ”, a chociaż może to być poprawne, ustawa o bezpieczeństwie online nie stanowi dodatkowego wsparcia przed istniejącym prawem karnym obejmującym incydenty związane z przemocą”.