Google, Meta, Discord i inne firmy łączą siły, aby walczyć z molestowaniem dzieci w Internecie


Nowy program o nazwie Lantern ma na celu zwalczanie seksualnego wykorzystywania i molestowania dzieci w Internecie (OCSEA) poprzez wieloplatformową wymianę sygnałów między firmami internetowymi, takimi jak Meta i Discord. Koalicja Technologiczna, grupa firm technologicznych, których wspólnym celem jest walka z wykorzystywaniem seksualnym dzieci w Internecie, – napisano w dzisiejszym ogłoszeniu że program ma na celu uniemożliwienie drapieżnikom uniknięcia wykrycia poprzez przenoszenie potencjalnych ofiar na inne platformy.

Lantern służy jako centralna baza danych, w której firmy mogą przesyłać dane i sprawdzać swoje własne platformy. Gdy firmy zobaczą sygnały, takie jak adresy e-mail lub nazwy użytkowników, które naruszają zasady OCSEA, skróty CSAM lub słowa kluczowe CSAM, mogą je oznaczyć we własnych systemach. W ogłoszeniu zauważono, że chociaż sygnały nie dowodzą wyłącznie nadużycia, pomagają firmom zbadać sprawę i ewentualnie podjąć działania, takie jak zamknięcie konta lub zgłoszenie działania władzom.

Wizualizacja pokazująca działanie Lanterna.
Zdjęcie: Koalicja Technologiczna

Meta napisała w poście na blogu informującym o swoim udziale w programie, że w fazie pilotażowej Lantern wykorzystała informacje udostępnione przez jednego z partnerów programu, firmę Mega, do usunięcia „ponad 10 000 profili, stron i kont na Instagramie naruszających zasady” i zgłoszenia ich do Krajowego Urzędu ds. Centrum Dzieci Zaginionych i Wykorzystywanych.

Oświadczenie koalicji cytuje także Johna Redgrave’a, szefa ds. zaufania i bezpieczeństwa Discord, który mówi: „Discord podjął również działania w oparciu o dane udostępnione nam w ramach programu, co pomogło w wielu wewnętrznych dochodzeniach”.

Do firm biorących udział w Lantern do tej pory należą Discord, Google, Mega, Meta, Quora, Roblox, Snap i Twitch. Członkowie koalicji rozwijają Lantern od dwóch lat, a grupa twierdzi, że oprócz tworzenia rozwiązań technicznych, musiała poddać program „weryfikacji kwalifikowalności”, upewnić się, że jest zgodny z wymogami prawnymi i regulacyjnymi oraz jest „zgodny z etyką”. ”

Reklama

Jednym z największych wyzwań związanych z takimi programami jest zapewnienie ich skuteczności, a jednocześnie nie stwarzanie nowych problemów. W wyniku zdarzenia, które miało miejsce w 2021 r., policja przeprowadziła dochodzenie w sprawie ojca Google zgłosiło go do CSAM nad zdjęciami infekcji pachwiny swojego dziecka. Kilka grup ostrzegło, że podobne problemy mogą pojawić się w przypadku urządzeń Apple teraz-anulowany zautomatyzowana funkcja skanowania biblioteki zdjęć iCloud CSAM.

Koalicja będzie nadzorować Lantern i twierdzi, że jest odpowiedzialna za opracowanie jasnych wytycznych i zasad udostępniania danych. W ramach programu firmy muszą odbyć obowiązkowe szkolenia i rutynowe kontrole, a grupa będzie regularnie dokonywać przeglądu swoich polityk i praktyk.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Anya Taylor-Yoy i Miles Teller gwiazda w nowym filmie The Gorge, strumieniowy teraz na Apple TV+

Apple Today uruchamia kolejny oryginalny film, wąwóz, streaming teraz wyłącznie na Apple TV+. Wąwóz Gwiazdy Anya-Taylor Joy i Miles Teller jako agenci, których zadaniem...

AMD do budowy I/O nowej generacji umiera na Samsung 4NM, a nie TSMC N4P

W styczniu omówiliśmy raport O AMD projektowaniu CCD „Zen 6” nowej generacji na węźle klasy 3 nm przez TSMC oraz opracowanie nowej linii...

Potencjalna konstrukcja aparatu iPhone 17 Pro pokazana w renderach 3D

Oczekuje się, że iPhone nowej generacji pojawi się jeszcze w tym roku, ale jest już wiele plotek o tym - szczególnie jeśli chodzi...
Advertisment