Google, Meta, Discord i inne firmy łączą siły, aby walczyć z molestowaniem dzieci w Internecie


Nowy program o nazwie Lantern ma na celu zwalczanie seksualnego wykorzystywania i molestowania dzieci w Internecie (OCSEA) poprzez wieloplatformową wymianę sygnałów między firmami internetowymi, takimi jak Meta i Discord. Koalicja Technologiczna, grupa firm technologicznych, których wspólnym celem jest walka z wykorzystywaniem seksualnym dzieci w Internecie, – napisano w dzisiejszym ogłoszeniu że program ma na celu uniemożliwienie drapieżnikom uniknięcia wykrycia poprzez przenoszenie potencjalnych ofiar na inne platformy.

Lantern służy jako centralna baza danych, w której firmy mogą przesyłać dane i sprawdzać swoje własne platformy. Gdy firmy zobaczą sygnały, takie jak adresy e-mail lub nazwy użytkowników, które naruszają zasady OCSEA, skróty CSAM lub słowa kluczowe CSAM, mogą je oznaczyć we własnych systemach. W ogłoszeniu zauważono, że chociaż sygnały nie dowodzą wyłącznie nadużycia, pomagają firmom zbadać sprawę i ewentualnie podjąć działania, takie jak zamknięcie konta lub zgłoszenie działania władzom.

Wizualizacja pokazująca działanie Lanterna.
Zdjęcie: Koalicja Technologiczna

Meta napisała w poście na blogu informującym o swoim udziale w programie, że w fazie pilotażowej Lantern wykorzystała informacje udostępnione przez jednego z partnerów programu, firmę Mega, do usunięcia „ponad 10 000 profili, stron i kont na Instagramie naruszających zasady” i zgłoszenia ich do Krajowego Urzędu ds. Centrum Dzieci Zaginionych i Wykorzystywanych.

Oświadczenie koalicji cytuje także Johna Redgrave’a, szefa ds. zaufania i bezpieczeństwa Discord, który mówi: „Discord podjął również działania w oparciu o dane udostępnione nam w ramach programu, co pomogło w wielu wewnętrznych dochodzeniach”.

Do firm biorących udział w Lantern do tej pory należą Discord, Google, Mega, Meta, Quora, Roblox, Snap i Twitch. Członkowie koalicji rozwijają Lantern od dwóch lat, a grupa twierdzi, że oprócz tworzenia rozwiązań technicznych, musiała poddać program „weryfikacji kwalifikowalności”, upewnić się, że jest zgodny z wymogami prawnymi i regulacyjnymi oraz jest „zgodny z etyką”. ”

Reklama

Jednym z największych wyzwań związanych z takimi programami jest zapewnienie ich skuteczności, a jednocześnie nie stwarzanie nowych problemów. W wyniku zdarzenia, które miało miejsce w 2021 r., policja przeprowadziła dochodzenie w sprawie ojca Google zgłosiło go do CSAM nad zdjęciami infekcji pachwiny swojego dziecka. Kilka grup ostrzegło, że podobne problemy mogą pojawić się w przypadku urządzeń Apple teraz-anulowany zautomatyzowana funkcja skanowania biblioteki zdjęć iCloud CSAM.

Koalicja będzie nadzorować Lantern i twierdzi, że jest odpowiedzialna za opracowanie jasnych wytycznych i zasad udostępniania danych. W ramach programu firmy muszą odbyć obowiązkowe szkolenia i rutynowe kontrole, a grupa będzie regularnie dokonywać przeglądu swoich polityk i praktyk.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Najlepsza podklasa myśliwca BG3, osiągnięcia i przewodnik po budowie

Baldurs Gate 3 ma 12 klas do wyboru podczas tworzenia swojej postaci. The Wojownik Jest the archetypowa klasa walcząca...

iOS 17.2 beta 4, data premiery Vision Pro, współpraca z Apple Card słabnie

Chance ma więcej przemyśleń na temat swojego nowego MacBooka Pro, potem on i Benjamin zagłębiają się w zmiany w iOS 17.2 beta 4,...

Najlepsza podklasa Mnicha BG3, atuty i przewodnik po budowie

Baldurs Gate 3 ma 12 klas do wyboru podczas tworzenia swojej postaci. The Mnich to klasa walcząca w zwarciu,...
Advertisment