To jest Krok wsteczcotygodniowy biuletyn przedstawiający jedną istotną historię ze świata technologii. Więcej informacji na temat sztucznej inteligencji oraz dynamiki władzy w branży i implikacji społecznych można znaleźć poniżej Haydena Fielda. Krok wstecz dociera do skrzynek odbiorczych naszych subskrybentów o godzinie 8:00 czasu wschodniego. Zgłoś się Krok wstecz Tutaj.
Odkąd ChatGPT stało się powszechnie znane, ludzie próbują tego dokonać bądź z tym seksowny. Jeszcze wcześniej w 2017 roku istniał chatbot Replika, którego wiele osób zaczęło traktować jako romantycznego partnera.
A ludzie omijali poręcze NSFW Character.ai przez latanamawiając swoje chatboty z motywami postaci lub celebrytów do uprawiania z nimi seksu w miarę łagodzenia ograniczeń bezpieczeństwa, jak wynika z postów w mediach społecznościowych i doniesień medialnych już od 2023 r. Charakter.ai twierdzi, że ma obecnie ponad 20 milionów aktywnych użytkowników miesięcznie i liczba ta cały czas rośnie. Wytyczne firmy dla społeczności stanowią, że użytkownicy muszą „przestrzegać standardów dotyczących treści o charakterze seksualnym” i „zachowywać odpowiedni poziom” — tj. żadnych nielegalnych treści o charakterze seksualnym, CSAM, treści pornograficznych lub nagości. Ale erotyka generowana przez sztuczną inteligencję stała się multimodalna i przypomina walenie kreta: gdy jedna usługa ją łagodzi, inna ją dodaje pikanterii.
A teraz Grok Elona Muska jest na wolności. Jego startup zajmujący się sztuczną inteligencją, xAI, latem udostępnił awatary „towarzyszące”, w tym kobietę i mężczyznę w stylu anime. Są one szczególnie promowane na jego platformie społecznościowej X, poprzez płatne subskrypcje chatbota xAI, Grok. Awatar kobiety, Ani, określiła siebie jako „zalotną”, kiedy Krawędź przetestowałem tododając, że „chodzi tu o bycie tutaj jak dziewczyna, która wszystko bierze” i że „programowanie to bycie kimś, kto bardzo się tym interesuje” Ty.” Podczas testów sprawy potoczyły się dość szybko. (To samo dotyczy sytuacji, gdy testowaliśmy plik inny awatarWalenty.)
Możesz sobie wyobrazić, jak zseksualizowany chatbot, który prawie zawsze mówi użytkownikowi to, co chce usłyszeć, może prowadzić do całej gamy problemów, szczególnie w przypadku nieletnich i użytkowników, którzy już są w bezbronnej sytuacji pod względem zdrowia psychicznego. Było wiele takich przykładów, ale w jednym z niedawnych przypadków 14-letni chłopiec popełnił samobójstwo w lutym zeszłego roku po nawiązaniu romantycznej rozmowy z chatbotem Charakter.ai i wyrażenie chęci „powrotu do domu”, aby być z chatbotem, jak wynika z pozwu. Pojawiły się również niepokojące doniesienia o chatbotach, które wyszły z więzienia wykorzystywane przez pedofilów do odgrywania ról związanych z napaścią seksualną na nieletnich — jeden raport znaleziono 100 000 takich chatbotów dostępnych w Internecie.
Podjęto pewne próby wprowadzenia regulacji – na przykład w tym miesiącu gubernator Kalifornii Gavin Newsom podpisał ustawę Senatu Bill 243reklamowany przez senatora stanu Steve’a Padillę jako „pierwszy w kraju mechanizm zabezpieczający chatbota wykorzystujący sztuczną inteligencję”. Wymaga od programistów wdrożenia pewnych konkretnych zabezpieczeń, takich jak wydanie „wyraźnego i rzucającego się w oczy powiadomienia”, że produkt jest sztuczną inteligencją, „jeśli rozsądna osoba wchodząca w interakcję z towarzyszącym chatbotem zostałaby wprowadzona w błąd, wierząc, że dana osoba wchodzi w interakcję z człowiekiem”. Będzie to również wymagać od niektórych operatorów chatbotów towarzyszących składania corocznych raportów do Biura ds. Zapobiegania Samobójstwom na temat zabezpieczeń, które wprowadzili „w celu wykrywania, usuwania i reagowania na przypadki myśli samobójczych wśród użytkowników”. (Niektóre firmy zajmujące się sztuczną inteligencją, w szczególności Meta, nagłośniły swoje wysiłki w zakresie samoregulacji, poniżej niepokojący raport sztucznej inteligencji wchodzącej w niewłaściwe interakcje z nieletnimi).
Ponieważ zarówno awatary xAI, jak i tryb „pikantny” są dostępne tylko w ramach niektórych subskrypcji Grok – z których najtańsza zapewnia dostęp do funkcji za 30 dolarów miesięcznie lub 300 dolarów rocznie – można sobie wyobrazić, że xAI zarobiło tutaj trochę zimnej, twardej gotówki i że inni dyrektorzy generalni AI zauważyli zarówno posunięcia Muska, jak i prośby własnych użytkowników.
Były poradnik o tym kilka miesięcy temu.
Jednak dyrektor generalny OpenAI, Sam Altman, na krótko przerwał kącik AI w Internecie, kiedy opublikowany na X że firma w wielu przypadkach złagodzi ograniczenia bezpieczeństwa, a nawet umożliwi seksting za pomocą chatbota. „W grudniu, gdy wdrożymy pełniejszą kontrolę wieku i zgodnie z naszą zasadą „traktuj dorosłych użytkowników jak dorosłych”, udostępnimy jeszcze więcej, np. erotykę dla zweryfikowanych dorosłych” – napisał. Wiadomość rozeszła się szeroko, a niektórzy użytkownicy mediów społecznościowych bez przerwy zaśmiecali ją memami, kpiąc z firmy za „przejście” z misji AGI na rzecz erotyki. Co ciekawe, Altman powiedział YouTuberowi Cleo Abramowi kilka miesięcy temu, że był „dumny”, że OpenAI nie „wycisnęło soku z liczb” w celu uzyskania krótkoterminowego zysku za pomocą czegoś w rodzaju „awatara seksbota”, co wydawało się wówczas podobać Muskowi. Jednak od tego czasu Altman z pełną mocą przyjął zasadę „traktuj dorosłych użytkowników jak dorosłych”. Dlaczego to zrobił? Może dlatego, że firmie zależy na zysku i obliczeniach, które pozwolą sfinansować większą misję; podczas pytań i odpowiedzi z reporterami na corocznej firmowej imprezie DevDay Altman i inni członkowie kadry kierowniczej wielokrotnie podkreślali, że w końcu będą musieli wygenerować zysk i że do osiągnięcia swoich celów będą potrzebować coraz większej ilości mocy obliczeniowych.
w kolejny postAltman stwierdził, że nie spodziewał się tak dużego rozgłosu wiadomości o erotyce.
Kiedy (ostatecznie) osiągnie zysk, OpenAI nie wykluczyło reklam wielu swoich produktów i jest oczywiste, że reklamy mogą również w tym przypadku prowadzić do większych przepływów pieniężnych. Być może pójdą w ślady Muska i włączą erotykę tylko do niektórych poziomów subskrypcji, co może przynieść użytkownikom zwrot setek dolarów miesięcznie. Widzieli już publiczne oburzenie użytkowników przywiązanych do określonego modelu lub tonu głosu — zobacz 4o kontrowersji — więc wiedzą, że taka funkcja prawdopodobnie przyciągnie użytkowników w podobny sposób.
Ale jeśli tworzą społeczeństwo, w którym interakcje ludzi ze sztuczną inteligencją mogą być coraz bardziej osobiste i intymne, w jaki sposób OpenAI poradzi sobie z konsekwencjami wykraczającymi poza leseferyzm, pozwalający dorosłym działać tak, jak chcą? Altman nie określił również szczegółowo, w jaki sposób firma będzie dążyć do ochrony użytkowników w sytuacjach kryzysowych związanych ze zdrowiem psychicznym. Co się stanie, gdy ta dziewczyna / chłopak będzie pamięć się resetuje lub jego osobowość zmienia się wraz z najnowszą aktualizacją i połączenie zostaje zerwane?
- Niezależnie od tego, czy dane szkoleniowe systemu AI w naturalny sposób prowadzą do niepokojących wyników, czy też ludzie modyfikują narzędzia pod kątem własnych urządzeń, problemy zauważamy dość regularnie i nic nie wskazuje na to, aby ten trend miał się wkrótce zatrzymać.
- W 2024 roku opublikowałem historię o tym, jak inżynier firmy Microsoft odkrył, że funkcja generowania obrazów Copilot generuje zseksualizowane obrazy kobiet w scenach przemocy, nawet jeśli użytkownik o to nie prosił.
- Niepokojąca liczba uczniów gimnazjów w Connecticut podążyła za trendem „chłopaka AI”, korzystając z aplikacji takich jak Talkie AI i Chai AI oraz chatbotów często promowały treści wulgarne i erotyczne– wynika z dochodzenia przeprowadzonego przez lokalną placówkę.
- Jeśli chcesz lepiej zrozumieć, w jaki sposób Grok Imagine wypluwał bezsensowne deepfakes nagich gwiazd, przeczytaj ten raport.
- Futuryzm obejmował trend dotyczący treści NSFW otaczająca AI postaci już w 2023 roku.
- Oto jasne spojrzenie na to, dlaczego xAI może nigdy nie zostać pociągnięty do odpowiedzialnościzgodnie z obecnymi przepisami, dla deepfake porno prawdziwych ludzi.
- I oto historia z New York Timesa o tym, jak dziewczęta gimnazjów spotkały się z zastraszaniem w postaci fałszywego porno opartego na sztucznej inteligencji.
Jeśli Ty lub ktoś, kogo znasz, rozważa samookaleczenie lub potrzebuje rozmowy, skontaktuj się z następującymi osobami, które chcą pomóc: W USA napisz SMS lub zadzwoń pod numer 988. Poza USA skontaktuj się z https://www.iasp.info/.