Największe firmy zajmujące się sztuczną inteligencją zgadzają się rozprawić się z obrazami przedstawiającymi wykorzystywanie dzieci


Firmy technologiczne, takie jak Google, Meta, OpenAI, Microsoft i Amazon, zobowiązały się dzisiaj do przeglądu swoich danych szkoleniowych dotyczących sztucznej inteligencji pod kątem materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM) i wycofania ich z użytku we wszelkich przyszłych modelach.

Firmy podpisały nowy zbiór zasad mające na celu ograniczenie rozprzestrzeniania CSAM. Obiecują, że zbiory danych szkoleniowych nie będą zawierać CSAM, będą unikać zbiorów danych o wysokim ryzyku uwzględnienia CSAM oraz usuwają obrazy CSAM lub linki do CSAM ze źródeł danych. Firmy zobowiązują się również do „testowania warunków skrajnych” modeli sztucznej inteligencji, aby upewnić się, że nie generują żadnych obrazów CSAM, i wypuszczają modele tylko wtedy, gdy zostały one ocenione pod kątem bezpieczeństwa dzieci.

Inni sygnatariusze to Anthropic, Civitai, Metaphysic, Mistral AI i Stability AI.

Generatywna sztuczna inteligencja przyczyniła się do wzrostu obaw związanych z głęboko sfałszowanymi obrazami, w tym do rozprzestrzeniania się fałszywych zdjęć CSAM w Internecie. Badacze ze Stanford opublikowali w grudniu raport na ten temat znalazł popularny zbiór danych używany do uczenia niektórych modeli sztucznej inteligencji zawierał linki do zdjęć CSAM. Badacze odkryli również, że linia informacyjna prowadzona przez Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC), które już ma trudności z poradzeniem sobie z ilością zgłaszanych treści CSAM, jest szybko zostaje przytłoczony przez obrazy CSAM generowane przez sztuczną inteligencję.

Organizacja non-profit Thorn zajmująca się przeciwdziałaniem wykorzystywaniu dzieci, która pomogła stworzyć zasady All Tech Is Human, twierdzi, że generowanie obrazów sztucznej inteligencji może utrudniać wysiłki mające na celu identyfikację ofiar, zwiększać popyt na CSAM, umożliwiać nowe sposoby wiktymizacji i ponownej wiktymizacji dzieci oraz sprawić, że łatwiej jest znaleźć informacje o tym, jak udostępnić problematyczny materiał.

W poście na blogu Google podaje że oprócz zobowiązania się do przestrzegania zasad zwiększyła także dotacje na reklamę dla NCMEC w celu promowania swoich inicjatyw. Wiceprezes Google ds. rozwiązań dotyczących zaufania i bezpieczeństwa, Susan Jasper, stwierdziła w poście, że wspieranie tych kampanii podnosi świadomość społeczną i zapewnia ludziom narzędzia do identyfikowania i zgłaszania nadużyć.

Reklama



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Niezwykły telewizor w teczce firmy LG jest prawie porównywalny ze swoją najlepszą dotychczas ceną

Jak zauważył mój kolega Chris Welch w swoim recenzja LG StanbyME Go, jest coś odświeżającego w telewizorze, który rzuca wyzwanie mniej znanej koncepcji,...

Netflix Unfrosted i każdy nowy film do obejrzenia w domu w ten weekend

Witamy czytelników Polygon! Co tydzień podsumowujemy najciekawsze nowości w serwisach streamingowych i VOD, wyróżniając największe i najlepsze nowe filmy, które...

Oto list 14 senatorów ostro krytykujących systemy rozpoznawania twarzy TSA na lotniskach

TSA planuje rozszerzyć rozpoznawanie twarzy aż do aż 430 lotnisk w USA w ciągu najbliższych kilku lat, ale obecnie kwestionuje to ponadpartyjna grupa...
Advertisment