Nowy program o nazwie Lantern ma na celu zwalczanie seksualnego wykorzystywania i molestowania dzieci w Internecie (OCSEA) poprzez wieloplatformową wymianę sygnałów między firmami internetowymi, takimi jak Meta i Discord. Koalicja Technologiczna, grupa firm technologicznych, których wspólnym celem jest walka z wykorzystywaniem seksualnym dzieci w Internecie, – napisano w dzisiejszym ogłoszeniu że program ma na celu uniemożliwienie drapieżnikom uniknięcia wykrycia poprzez przenoszenie potencjalnych ofiar na inne platformy.
Lantern służy jako centralna baza danych, w której firmy mogą przesyłać dane i sprawdzać swoje własne platformy. Gdy firmy zobaczą sygnały, takie jak adresy e-mail lub nazwy użytkowników, które naruszają zasady OCSEA, skróty CSAM lub słowa kluczowe CSAM, mogą je oznaczyć we własnych systemach. W ogłoszeniu zauważono, że chociaż sygnały nie dowodzą wyłącznie nadużycia, pomagają firmom zbadać sprawę i ewentualnie podjąć działania, takie jak zamknięcie konta lub zgłoszenie działania władzom.
Meta napisała w poście na blogu informującym o swoim udziale w programie, że w fazie pilotażowej Lantern wykorzystała informacje udostępnione przez jednego z partnerów programu, firmę Mega, do usunięcia „ponad 10 000 profili, stron i kont na Instagramie naruszających zasady” i zgłoszenia ich do Krajowego Urzędu ds. Centrum Dzieci Zaginionych i Wykorzystywanych.
Oświadczenie koalicji cytuje także Johna Redgrave’a, szefa ds. zaufania i bezpieczeństwa Discord, który mówi: „Discord podjął również działania w oparciu o dane udostępnione nam w ramach programu, co pomogło w wielu wewnętrznych dochodzeniach”.
Do firm biorących udział w Lantern do tej pory należą Discord, Google, Mega, Meta, Quora, Roblox, Snap i Twitch. Członkowie koalicji rozwijają Lantern od dwóch lat, a grupa twierdzi, że oprócz tworzenia rozwiązań technicznych, musiała poddać program „weryfikacji kwalifikowalności”, upewnić się, że jest zgodny z wymogami prawnymi i regulacyjnymi oraz jest „zgodny z etyką”. ”
Jednym z największych wyzwań związanych z takimi programami jest zapewnienie ich skuteczności, a jednocześnie nie stwarzanie nowych problemów. W wyniku zdarzenia, które miało miejsce w 2021 r., policja przeprowadziła dochodzenie w sprawie ojca Google zgłosiło go do CSAM nad zdjęciami infekcji pachwiny swojego dziecka. Kilka grup ostrzegło, że podobne problemy mogą pojawić się w przypadku urządzeń Apple teraz-anulowany zautomatyzowana funkcja skanowania biblioteki zdjęć iCloud CSAM.
Koalicja będzie nadzorować Lantern i twierdzi, że jest odpowiedzialna za opracowanie jasnych wytycznych i zasad udostępniania danych. W ramach programu firmy muszą odbyć obowiązkowe szkolenia i rutynowe kontrole, a grupa będzie regularnie dokonywać przeglądu swoich polityk i praktyk.