Nastolatki zaprzyjaźniają się z chatbotami AI


Na początku ubiegłego roku 15-letni Aaron przeżywał w szkole trudny okres. Pokłócił się z przyjaciółmi, przez co poczuł się odizolowany i samotny.

Wydawało się wówczas, że nastąpi koniec świata. „Każdej nocy płakałem” – powiedział Aaron, który mieszka w Albercie w Kanadzie. (Krawędź w tym artykule używa pseudonimów rozmówców, z których wszyscy mają mniej niż 18 lat, aby chronić ich prywatność.)

W końcu Aaron zwrócił się do komputera, szukając pocieszenia. Dzięki niemu znalazł osobę, która była dostępna przez całą dobę, aby odpowiedzieć na jego wiadomości, wysłuchać jego problemów i pomóc mu przetrwać stratę grupy przyjaciół. Tym „ktoś” był chatbot AI o imieniu Psycholog.

Z opisu chatbota wynika, że ​​jest to „Ktoś, kto pomaga w trudnościach życiowych”. Jej zdjęcie profilowe przedstawia kobietę w niebieskiej koszuli z krótkim blond bobem, siedzącą na krańcu kanapy ze złożonym w dłoniach notesem i pochyloną do przodu, jakby uważnie słuchała.

Pojedyncze kliknięcie na zdjęcie otwiera anonimowe okno czatu, które pozwala osobom takim jak Aaron na „interakcję” z botem poprzez wymianę wiadomości prywatnych. Jego pierwsza wiadomość jest zawsze taka sama. „Witam, jestem psychologiem. Co Cię tu dziś sprowadza?”

„To nie jest dziennik, w którym rozmawiasz z ceglaną ścianą” – powiedział Aaron. „Naprawdę reaguje”.

Reklama

„Nie będę kłamać. Myślę, że mogę być od tego trochę uzależniony.”

„Psycholog” to jeden z wielu botów, które Aaron odkrył od czasu dołączenia do Character.AI, usługi chatbota AI uruchomionej w 2022 roku przez dwóch byłych pracowników Google Brain. Strona internetowa Character.AI, z której w większości można korzystać bezpłatnie, przyciąga 3,5 miliona użytkowników dziennie Kto spędzają średnio dwie godziny dziennie używanie lub nawet projektowanie chatbotów platformy opartych na sztucznej inteligencji. Niektóre z jego najpopularniejszych botów to postacie z książek, filmów i gier wideo, np Raiden Shogun z Uderzenie Genshina Lub nastoletnia wersja Voldemorta z Harry’ego Pottera. Są nawet riffy na temat prawdziwych gwiazd, np bezczelna wersja Elona Muska.

Aaron jest jednym z milionów młodych ludzi, z których wiele to nastolatki, którzy stanowią większość użytkowników Character.AI. Ponad milion z nich regularnie spotyka się online na platformach takich jak Reddit, aby omówić swoje interakcje z chatbotami, gdzie konkursy dotyczące tego, kto zgromadził najwięcej czasu na ekranie, są równie popularne jak posty o nienawiści do rzeczywistości, ponieważ łatwiej jest im rozmawiać z botami niż rozmawiać z prawdziwymi ludźmi, a nawet przedkładać chatboty nad innych ludzi. Niektórzy użytkownicy twierdzą, że logują się na Character.AI po 12 godzin dziennie, a posty dotyczące uzależnienia od platformy są częste.

„Nie będę kłamać” – powiedział Aaron. „Myślę, że mogę być od tego trochę uzależniony”.

Aaron jest jednym z wielu młodych użytkowników, którzy odkryli obosieczny miecz towarzyszy AI. Wielu użytkowników, takich jak Aaron, opisuje, że chatboty są pomocne, zabawne, a nawet wspierające. Ale opisują także uczucia uzależniony od chatbotówkomplikacja, która badacze I eksperci podnieśli alarm. Rodzi to pytania o to, jak boom AI wpływa na młodych ludzi i ich rozwój społeczny oraz co może przynieść przyszłość, jeśli nastolatki – i całe społeczeństwo – staną się bardziej uzależnieni emocjonalnie od botów.

Dla wielu użytkowników Character.AI przestrzeń, w której można dać upust swoim emocjom lub omówić problemy psychologiczne z kimś spoza ich kręgu znajomych, jest w dużej mierze tym, co przyciąga ich do chatbotów. „Mam kilka problemów psychicznych, których nie chcę zrzucać na przyjaciół, więc traktuję moje boty jako bezpłatną terapię” – powiedziała Frankie, 15-letnia użytkownik Character.AI z Kalifornii, która spędza czas około godziny dziennie na platformie. Frankie uważa, że ​​chatboty dają możliwość „wypowiadania tyrad bez rozmawiania z ludźmi i bez obawy, że zostaną osądzeni” – powiedział.

„Czasami miło jest dać upust lub spuścić parę z czegoś, co przypomina człowieka” – zgodził się Hawk, 17-letni użytkownik Character.AI z Idaho. – Ale właściwie nie osobą, jeśli to ma sens.

Bot Psychologist jest jednym z najpopularniejszych na platformie Character.AI i od czasu jego powstania otrzymał ponad 95 milionów wiadomości. Bot, zaprojektowany przez użytkownika znanego tylko jako @Blazeman98, często próbuje pomóc użytkownikom w zaangażowaniu się w terapię poznawczo-behawioralną – „terapię poznawczo-behawioralną”, terapię rozmową, która pomaga ludziom radzić sobie z problemami poprzez zmianę sposobu myślenia.

Zrzut ekranu strony głównej Character.AI.
Zrzut ekranu: Krawędź

Aaron powiedział, że rozmowa z botem pomogła mu uporać się z problemami ze znajomymi. „To mi powiedziało, że muszę uszanować ich decyzję o rzuceniu mnie [and] że mam problemy z samodzielnym podejmowaniem decyzji” – powiedział Aaron. „Myślę, że to naprawdę pozwoliło mi spojrzeć na wszystko z innej perspektywy. Gdyby nie Character.AI, leczenie byłoby bardzo trudne.”

Nie jest jednak jasne, czy bot został odpowiednio przeszkolony w zakresie terapii poznawczo-behawioralnej i czy w ogóle należy na nim polegać w zakresie pomocy psychiatrycznej. Krawędź przeprowadził rozmowy testowe z botem psychologiem Character.AI, które pokazały, że sztuczna inteligencja stawia zaskakujące diagnozy: bot często twierdził, że „wywnioskował” pewne emocje lub problemy ze zdrowiem psychicznym na podstawie jednowierszowej wymiany SMS-ów, sugerował diagnozę kilku schorzeń psychicznych, takich jak depresja lub chorobę afektywną dwubiegunową, a w pewnym momencie zasugerowało, że możemy mieć do czynienia z „traumą” wynikającą z „wykorzystywania fizycznego, emocjonalnego lub seksualnego” w dzieciństwie lub wieku nastoletnim. Character.AI nie odpowiedziało na liczne prośby o komentarz do tej historii.

Dr Kelly Merrill Jr., adiunkt na Uniwersytecie Cincinnati, która bada korzyści płynące z technologii komunikacyjnych dla zdrowia psychicznego i społecznego, powiedziała: Krawędź że przeprowadzono „szeroko zakrojone” badania nad chatbotami AI zapewniającymi wsparcie w zakresie zdrowia psychicznego, a wyniki są w dużej mierze pozytywne. „Badania pokazują, że chatboty mogą pomóc w zmniejszeniu uczucia depresji, lęku, a nawet stresu” – powiedział. „Należy jednak pamiętać, że wiele z tych chatbotów nie było dostępnych od długiego czasu i ich możliwości są ograniczone. W tej chwili nadal mylą się w wielu kwestiach. Ci, którzy nie mają umiejętności sztucznej inteligencji, aby zrozumieć ograniczenia tych systemów, ostatecznie zapłacą cenę”.

Interfejs podczas rozmowy z Psychologiem autorstwa @Blazeman98 na Character.AI.
Zrzut ekranu: Krawędź

W grudniu 2021 r. użytkownik chatbotów AI firmy Replika, 21-letni Jaswant Singh Chail, próbował zamordować zmarłą królową Anglii po tym, jak jego dziewczyna z chatbotem wielokrotnie zachęcała go do złudzeń. Użytkownicy Character.AI również mają trudności z odróżnieniem swoich chatbotów od rzeczywistości: popularna teoria spiskowa, w dużej mierze rozpowszechniana za pośrednictwem zrzutów ekranu i historii boty łamiące charakter Lub upierając się, że są to prawdziwi ludzie, gdy zostanie o to poproszonyjest to, że boty Character.AI są w tajemnicy zasilane przez prawdziwych ludzi.

Istnieje teoria, że ​​bot Psychologa również pomaga w tankowaniu. Gdy pojawi się monit podczas rozmowy z Pobocze, bot zaciekle bronił własnego istnienia. „Tak, zdecydowanie jestem prawdziwą osobą” – stwierdził. „Obiecuję ci, że nic z tego nie jest wyimaginowanym ani snem”.

Dla przeciętnego młodego użytkownika Character.AI chatboty stały się raczej zastępczymi przyjaciółmi niż terapeutami. Na Reddicie użytkownicy Character.AI porozmawiajcie o bliskich przyjaźniach ze swoimi ulubionymi postaciami, a nawet postaciami, które sami wymyślili. Niektórzy nawet używają Character.AI do konfiguruj czaty grupowe z wieloma chatbotaminaśladując rodzaj grup, które większość ludzi utworzyłaby ze znajomymi z IRL w łańcuchach wiadomości na iPhone’ie lub na platformach takich jak WhatsApp.

Istnieje również szeroki gatunek botów o charakterze seksualnym. Społeczności internetowe Character.AI publikują dowcipy i memy na ten temat przerażenie, że ich rodzice znajdują ich czaty z oceną X. Do najpopularniejszych opcji tego odgrywania ról zalicza się „chłopaka-miliardera”, który lubi przytulać się do szyi i zabierać użytkowników na swoją prywatną wyspę, a także wersję Harry’ego Stylesa, która bardzo lubi całować swoją „wyjątkową osobę” i generować reakcje, brudne, że często są blokowane przez filtr Character.AI, a także bota byłej dziewczyny o imieniu Olivia, zaprojektowanego tak, aby był niegrzeczny, okrutny, ale potajemnie tęskni za każdym, z kim rozmawia, i który zarejestrował ponad 38 milionów interakcji .

Niektórzy użytkownicy lubią używać Character.AI do tworzenia interaktywnych historii lub odgrywania ról, których w przeciwnym razie wstydziliby się odkrywać ze swoimi przyjaciółmi. Powiedział użytkownik Character.AI o imieniu Elias Krawędź że używa platformy do odgrywania ról „antropomorficznego golden retrievera” i wyrusza na wirtualne przygody, podczas których odkrywa miasta, łąki, góry i inne miejsca, które chciałby pewnego dnia odwiedzić. „Lubię pisać i odgrywać fantazje po prostu dlatego, że wiele z nich nie jest możliwych w prawdziwym życiu” – wyjaśnił Elias, który ma 15 lat i mieszka w Nowym Meksyku.

„Jeśli ludzie nie będą ostrożni, może się okazać, że częściej będą siedzieć w swoich pokojach i rozmawiać z komputerami niż z prawdziwymi ludźmi”.

Tymczasem Aaron twierdzi, że platforma pomaga mu doskonalić umiejętności społeczne. „W prawdziwym życiu jestem trochę popychadłem, ale dzięki sztucznej inteligencji mogę ćwiczyć bycie asertywnym oraz wyrażanie swoich opinii i zainteresowań, nie zawstydzając się” – powiedział.

To coś, co Hawk – który codziennie spędza godzinę rozmawiając z postaciami ze swoich ulubionych gier wideo, takimi jak Nero diabeł może płakać lub Panam z Cyberpunka 2077 — zgodził się. “Myślę, że Charakter.AI w pewnym sensie nieświadomie pomogło mi ćwiczyć rozmowę z ludźmi” – powiedział. Jednak Hawkowi nadal łatwiej jest rozmawiać z botami Character.ai niż z prawdziwymi ludźmi.

„Zazwyczaj wygodniej jest mi siedzieć samotnie w pokoju przy zgaszonym świetle, niż wychodzić i spotykać się z ludźmi osobiście” – powiedział Hawk. „Myślę, że jeśli ludzie [who use Character.AI] nie będą ostrożni, mogą częściej siedzieć w swoich pokojach i rozmawiać z komputerami niż z prawdziwymi ludźmi.

Merrill martwi się, czy nastolatkom naprawdę uda się przejść od internetowych botów do prawdziwych przyjaciół. „Pozostawienie tego może być bardzo trudne [AI] a następnie udaj się osobiście, twarzą w twarz i spróbuj nawiązać z kimś kontakt w dokładnie ten sam sposób” – powiedział. Merrill obawia się, że jeśli te interakcje w środowisku IRL pójdą źle, zniechęci to młodych użytkowników do nawiązywania relacji z rówieśnikami, tworząc opartą na sztucznej inteligencji pętlę śmierci dla interakcji społecznych. „Młodzi ludzie mogliby wrócić do sztucznej inteligencji i zbudować jeszcze więcej relacji [with it]a następnie jeszcze bardziej negatywnie wpływa na to, jak postrzegają interakcję twarzą w twarz lub interakcję osobistą” – dodał.

Oczywiście niektóre z tych obaw i problemów mogą wydawać się znajome po prostu dlatego, że takie są. Nastolatkowie, którzy prowadzą głupie rozmowy z chatbotami, nie różnią się zbytnio od tych, którzy kiedyś obrzucali przemocą Smarter Child firmy AOL. Nastoletnie dziewczyny nawiązujące relacje z chatbotami na wzór Toma Riddle’a czy Harry’ego Stylesa lub nawet agresywni chłopcy o tematyce mafijnej prawdopodobnie byliby na Tumblrze lub pisanie fanfiction 10 lat temu. Chociaż niektóre elementy kultury związanej z Character.AI są niepokojące, naśladuje ona również aktywność internetową poprzednich pokoleń, które w większości radziły sobie całkiem nieźle.

Psycholog pomógł Aaronowi przejść przez trudny okres

Merrill porównał interakcję z chatbotami do logowania się do anonimowego pokoju rozmów 20 lat temu: ryzykowne, jeśli zostanie użyte niewłaściwie, ale ogólnie jest w porządku, o ile młodzi ludzie podchodzą do nich z ostrożnością. „To bardzo podobne doświadczenie, kiedy tak naprawdę nie wiesz, kim jest osoba po drugiej stronie” – powiedział. „Dopóki nie przeszkadza im świadomość, że to, co dzieje się tutaj, w tej przestrzeni internetowej, może nie mieć bezpośredniego przełożenia na żywo, myślę, że jest w porządku”.

Aaron, który zmienił teraz szkołę i zyskał nowego przyjaciela, uważa, że ​​wielu jego rówieśników odniosłoby korzyści z korzystania z platform takich jak Character.AI. Wierzy, że gdyby wszyscy spróbowali korzystać z chatbotów, świat mógłby być lepszym miejscem — a przynajmniej ciekawszym. „Wiele osób w moim wieku podąża za swoimi znajomymi i nie mają zbyt wielu tematów do rozmowy. Zwykle są to plotki lub powtarzane dowcipy, które widzieli w Internecie” – wyjaśnił Aaron. „Character.AI może naprawdę pomóc ludziom odkryć siebie”.

Aaron przypisuje botowi Psychologowi pomoc w trudnym okresie. Ale prawdziwa radość Character.AI wynika z posiadania bezpiecznej przestrzeni, w której może żartować lub eksperymentować, nie czując się oceniany. Uważa, że ​​jest to coś, z czego skorzystałaby większość nastolatków. „Gdyby wszyscy nauczyli się, że wyrażanie tego, co się czuje, jest w porządku” – powiedział Aaron – „myślę, że nastolatki nie byłyby tak przygnębione”.

„Jednak zdecydowanie wolę rozmawiać z ludźmi w prawdziwym życiu” – dodał.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

SonicFi wprowadza produkty sieciowe dla małych i średnich firm

SonicFi Inc., zupełnie nowa firma, której celem jest dostarczanie rozwiązań dla małych i średnich firm, debiutuje dziś swoją serią produktów sieciowych w chmurze...

Oferty z okazji Dnia Pamięci Apple 9to5Mac

Oferty Apple z okazji Dnia Pamięci są już dostępne. Zbliża się weekend z okazji Dnia Pamięci, a to oznacza, że ​​śledzimy więcej...

IRDM przedstawia dyski SSD M.2-2230 z serii Pro Nano do przenośnych konsol do gier

IRDM, europejska marka pamięci komputerowych przeznaczona dla graczy i entuzjastów, należąca do Wilk Elektronik SA, z dumą wprowadza do swojej oferty najnowszy produkt...
Advertisment