OpenAI dodało nowe narzędzie do wykrywania, czy obraz został utworzony za pomocą generatora obrazów DALL-E AI, a także nowe metody znakowania wodnego w celu wyraźniejszego oznaczania generowanych treści.
W poście na bloguOpenAI ogłosiło, że rozpoczęło opracowywanie nowych metod pochodzenia w celu śledzenia treści i sprawdzania, czy została wygenerowana przez sztuczną inteligencję. Należą do nich nowy klasyfikator wykrywania obrazu, który wykorzystuje sztuczną inteligencję do ustalenia, czy zdjęcie zostało wygenerowane przez sztuczną inteligencję, a także odporny na manipulacje znak wodny, który może oznaczać treści, takie jak dźwięk, niewidzialnymi sygnałami.
Klasyfikator przewiduje prawdopodobieństwo, że obraz został utworzony przez DALL-E 3. OpenAI twierdzi, że klasyfikator działa nawet jeśli obraz zostanie przycięty lub skompresowany lub zmieni się nasycenie. Chociaż narzędzie może wykryć, czy obrazy zostały utworzone za pomocą DALL-E 3 z około 98% dokładnością, jego skuteczność w ustalaniu, czy zawartość pochodzi z innych modeli AI, nie jest tak dobra i oznacza jedynie 5–10% zdjęć z innych generatorów obrazów jak Midjourney.
Wcześniej dodano OpenAI poświadczenia treści do metadanych obrazu z Koalicji na rzecz Pochodzenia i Autorytetu Treści (C2PA). Dane uwierzytelniające treści to zasadniczo znaki wodne zawierające informacje o tym, kto jest właścicielem obrazu i w jaki sposób został on utworzony. OpenAI wraz z firmami takimi jak Microsoft i Adobe jest członkiem C2PA. W tym miesiącu OpenAI dołączyło również do komitetu sterującego C2PA.
Zarówno klasyfikator obrazu, jak i sygnał znaku wodnego audio są wciąż udoskonalane. OpenAI twierdzi, że musi uzyskać opinie użytkowników, aby przetestować jego skuteczność. Badacze i grupy dziennikarskie non-profit mogą przetestować klasyfikator wykrywania obrazu, stosując go na platformie dostępu badawczego OpenAI.
OpenAI od lat pracuje nad wykrywaniem treści generowanych przez sztuczną inteligencję. Jednak w 2023 roku musiała zakończyć program, który próbował identyfikować tekst napisany przez sztuczną inteligencję ponieważ klasyfikator tekstu AI konsekwentnie miał niską dokładność.