Utop ostrzeżenie o krótkich odniesieniach do napaści seksualnej.
Odkryto, że miliony Reddit Użytkownicy zostali oszukani i „psychicznie manipulowane” przez nieautoryzowanego Ai Eksperyment przeprowadzony przez naukowców z University of Zurych…
Uniwersytet potajemnie używał botów AI do opublikowania w wysoce popularnej Subreddit My View, a duże modele językowe obejmują różne osoby, w tym ofiarę gwałtu i doradcę urazowego.
Uniwersytet ujawnił oszustwo Do moderatorów po jego wystąpieniu, uznając, że naukowcy złamali zasady subreddit.
W ciągu ostatnich kilku miesięcy wykorzystaliśmy wiele kont do postów opublikowanych w CMV. Nasz eksperyment oceniał przekonanie LLM w etycznym scenariuszu, w którym ludzie proszą o argumenty przeciwko poglądom, które posiadają. Komentując, nie ujawniliśmy, że sztuczna inteligencja została użyta do pisania komentarzy, ponieważ sprawiłoby to, że badanie było niewykonalne. Chociaż sami nie napisaliśmy żadnych komentarzy, ręcznie sprawdziliśmy każdy opublikowany komentarz, aby upewnić się, że nie są one szkodliwe.
Zdajemy sobie sprawę, że nasz eksperyment złamał zasady społeczności przeciwko komentarzom generowanym przez AI i przepraszając. Uważamy jednak, że biorąc pod uwagę wysokie społeczne znaczenie tego tematu, kluczowe znaczenie było przeprowadzenie tego rodzaju badań, nawet jeśli oznaczało to nieposłuszeństwo zasad. ”
AIS nabrał niezwykle prowokujących tożsamości:
- Udawanie ofiary gwałtu
- AI działając jako doradca urazowy specjalizujący się w nadużyciach
- AI oskarżając członków religijnej grupy „przyczyny[ing] Śmierć setek niewinnych handlowców, rolników i wieśniaków. ”
- AI pozuje czarnego człowieka przeciwnego czarnego życia
- AI pozuje jako osoba, która otrzymała opiekę niespełniającą standardów w obcym szpitalu
Moderatorzy CMV twierdzą, że badanie było poważnym naruszeniem etycznym.
Jeśli Openai może stworzyć Bardziej etyczny projekt badań podczas tego robienianależy oczekiwać, że tych badaczy zrobią to samo. Ryzyko manipulacji psychologicznymi, jakie stanowi LLMS, jest szeroko badanym tematem. Nie jest konieczne eksperymentowanie z niekontrażącymi się ludzkimi osobami.
AI była używana do celowania w OPS w osobisty sposób, na który nie zapisali się, kompilując jak najwięcej danych na temat identyfikacji funkcji, szorując platformę Reddit.
Dane, które naukowcy próbowali skompilować użytkowników CMV, to płeć, wiek, pochodzenie etniczne, lokalizacja i orientacja polityczna.
Moderatorzy CMV złożyli formalną skargę do uniwersyteckiej Komisji Etyki, która odpowiedziała, stwierdzając, że wydało ono formalne ostrzeżenie dla głównego badacza i będą zwiększyć wcześniejsze recenzje proponowanych badań – ale stwierdzili, że publikacja artykułu będzie kontynuowana.
Ten projekt daje ważne spostrzeżenia, a ryzyko (np. Trauma itp.) Jest minimalne. Oznacza to, że tłumienie publikacji nie jest proporcjonalne do znaczenia spostrzeżeń, które daje badanie.
9to5mac
Użytkownicy Subreddit są, co zrozumiałe, oburzeni oszustwem i decyzją o kontynuowaniu publikacji.
Uniwersytet nie może z jednej strony ostrzec badaczy przed nieetycznym zachowaniem i obiecać, że zapobiegnie powtórnemu rzeczy, a jednocześnie zezwalając na opublikowanie niezwykle nieetycznego artykułu. Jedynym znaczącym konsekwencją byłoby publikacja zakazu, upewnienie się, że inni badacze nie będą chcieli ryzykować całego czasu i pracy w podobnych badaniach.
Podświetlone akcesoria
Zdjęcie przez Werclive NA Unsplash
FTC: Używamy dochodów z automatycznych linków partnerskich. Więcej.