Terapia cyfrowa ludzka kontra cyfrowa: AI nie jest krótki, gdy profesjonaliści potrzebują pomocy


Według badań przeprowadzonych przez Chartered Institute of Information Security ponad połowa specjalistów ds. Bezpieczeństwa cybernetycznego traci snom z powodu stresu związanego z pracą (CIISEC: 2022/23 Stan zawodu ankieta). Cierpią na te i inne objawy podobne do tych, z którymi mamy do czynienia w weteranach bojowych Rozdzielczość PTSDbrytyjska organizacja charytatywna o zdrowiu psychicznym.

Jednak coraz częściej zwracają się specjaliści IT AI Chatbots W celu wsparcia zdrowia psychicznego, głównie dlatego, że nie są w stanie uzyskać odpowiedniej pomocy terapeutycznej, a może po prostu wydaje się łatwiejsze.

Dla nas jest to bardzo niepokojące. Wygląda na to, że stoimy w obliczu kryzysu zdrowia psychicznego w sektorze IT i zamiast zajmować się przyczynami pierwotnymi, przekazujemy ludzi algorytmom.

Rzeczywistość rynku terapii AI

Liczby są niepokojące: ponad 1,6 miliona osób znajduje się na liście oczekujących na zdrowie psychiczne w Anglii, a NHS szacuje, że nawet osiem milionów z warunkami diagnozowanicznymi nie otrzymuje leczenia. Przedsiębiorcy technologiczni wkroczyli, aby wypełnić tę lukę przynajmniej częściowo ze zdrowiem psychicznym napędzanym AI, a także platformami towarzyszącymi, które obiecują sympatyczne ucho, a nawet „związek” z chatbotem.

Możemy zrozumieć apel. Systemy te są dostępne 24 godziny na dobę, 7 dni w tygodniu, pozornie opłacalne, a dla specjalistów IT pracujących nieregularnych godzin pod stałą presją mogą zaoferować natychmiastową ulgę.

Ale dostępność nie jest jedyną kwestią w kontaktach z podatnymi ludźmi. W rzeczywistości Rezolucja PTSD z powodzeniem była pionierem dostarczania terapii przez Internet podczas pandemii Covid-19 i nadal oferujemy tę usługę, oprócz sesji osobistych.

Reklama

Dla pracowników IT, z których niektórzy są byłym personelem militarnym, który przeszedł na cyberbezpieczeństwo, wzorce stresu mogą odzwierciedlać traumę walki. Stała czujność, decyzje o wysokiej stawce i odpowiedzialność za ochronę innych. To nie są proste problemy, które może rozwiązać odpowiedź zautomatyzowana przez algorytm.

Przewaga ludzka

Ryzyko jest widoczne, chociaż konkretne przypadki szkód wyrządzonych przez chatboty terapeutyczne są trudniejsze do wycofania. Wiele z tych usług AI twierdzi, że osadzono algorytmy skromne samobójcze, automatyczne podpowiedź infolinii i, w co najmniej jednym przypadku, eskalacja człowieka.

Ale w przeciwieństwie do ludzkich terapeutów związanych etycznymi kodeksami i profesjonalnym nadzorem, w większości chatbotów konsumenckich nie ma nakazanego nadzoru klinicznego i ma jedynie podstawowe skrypty kryzysowe.

Z ewolucyjnego punktu widzenia ludzkie cierpienie zawsze wymagało ludzkiej reakcji. Nasi przodkowie potrzebowali innych, którzy mogli czytać mimikę, interpretować niuanse wokalne i rozumieć czynniki kontekstowe. W ten sposób nasze mózgi są podłączone do przetwarzania i leczenia z traumy.

Chatboty AI brakuje tych możliwości. Nie mogą obserwować języka ciała podczas ataków paniki, wykrywać subtelne zmiany głosowe wskazujące na oszustwo o stanie psychicznym ani zrozumieć złożoną wzajemne oddziaływanie presji pracy a osobistymi okolicznościami. W przeciwieństwie do AI człowiek może zauważyć, że ktoś w niebezpieczeństwie, twierdząc, że jest w porządku, może być maskowaniem.

Ogólne chatboty mogą nie mieć parametrów bezpieczeństwa i sposobów określenia, czy problem musi zostać przejęty przez terapeuty. Dla specjalistów IT zajmujących się obrażeniami moralnymi, takimi jak zmuszanie do wdrożenia systemów nadzoru przeciwko ich wartościom lub podejmowanie decyzji wpływających na bezpieczeństwo danych tysięcy użytkowników, to kontekstowe zrozumienie jest kluczowe.

Istnieje również stronniczość automatyzacji. Specjaliści IT mogą być szczególnie podatni na zaufanie do algorytmicznych porad dotyczących ludzkiego osądu, tworząc niebezpieczną pętlę informacji zwrotnych, w której osoby, które najprawdopodobniej używają tych systemów, są najbardziej podatne na ich ograniczenia.

Obawy dotyczące prywatności i bezpieczeństwa

Specjaliści IT powinni być szczególnie zaniepokojeni konsekwencjami prywatności. Ludzie terapeuci działają zgodnie z ścisłymi zasadami poufności, chronionymi przepisami i regulacjami. Ale Chatgpt przyznaje, że inżynierowie „czasami mogą przeglądać rozmowy w celu ulepszenia modelu”.

Rozważ konsekwencje: Twoje najbardziej prywatne myśli, udostępnione podczas wrażliwości, potencjalnie sprawdzone przez programistów optymalizujące zaangażowanie użytkowników, a nie wyniki terapeutyczne, a nawet państwową organizację wywiadowczą lub hakowanie gangów kryminalnych do własnych nikczemnych celów.

Terapia ludzkimi

Alternatywa terapii ludzi została przetestowana i udowodniona skuteczna. Rozdzielczość PTSD wykorzystuje terapię opracowaną przez Human Givens Institute a wszyscy 200 terapeutów w sieci organizacji charytatywnej to wykwalifikowane członkowie. HGI uznaje, że ludzie mają wrodzone potrzeby emocjonalne: bezpieczeństwo, autonomia, osiągnięcie, znaczenie i inne. Kiedy te potrzeby nie są zaspokojone, następuje stres psychiczny.

Tony Gauvain, terapeuta HGI i emerytowany pułkownik armii, który przewodniczy rozdzielczości PTSD, wyjaśnia: „Wykonawczy wypalenie i uraz wojskowy dzielą podobne objawy – depresja, gniew, bezsenność. Chodzi o poczucie przytłoczenia i niezdolności do radzenia sobie, czy to z incydentu wojskowego, czy stresujące spotkania z zarządzaniem”.

Terapia HG uznaje podstawy psychologii ludzkiej: jesteśmy stworzeniami dopasowującymi wzorce. Wykwalifikowani terapeuci mogą zidentyfikować metafory języka, rozpoznać wzorce przetwarzania i pracować z wyobraźnią, aby zmienić traumatyczne doświadczenia. Co najważniejsze, dostosowują się w czasie rzeczywistym w oparciu o często bardzo subtelne odpowiedzi klienta-coś, czego żaden algorytm nie może się powtórzyć. Przynajmniej jeszcze nie.

Istnieją wyraźne dowody na to podejście. Rezolucja PTSD osiąga 68% niezawodną wskaźnik poprawy z 80% ukończeniem leczenia, zwykle dostarczanego w około sześciu sesjach, zgodnie z badaniem King’s College London, opublikowanym w Medycyna zawodowa W marcu 2025 r.

Przy 940 funtów na kurs leczenia-dostarczony bezpłatnie weteranom, rezerwistom i ich rodzinom w brytyjskich siłach-jest to wysoce opłacalne w porównaniu z długoterminowymi skutkami nieleczonej traumy, a nawet na inne terapie osobowe. Jesteśmy bardzo szczuple w naszej działalności, nie posiadając żadnych aktywów i przekazując darowizny na zapłatę za czas terapeutów za każdą sesję.

Sukces w świecie rzeczywistym

Widzieliśmy, jak to podejście działa z profesjonalistami IT, doświadczając stałego trybu walki lub lotu z powodu presji pracy, ale niezdolni do podjęcia naturalnego działania ich wymagań w zakresie reakcji na stres. W przeciwieństwie do naszych przodków, którzy mogliby walczyć lub uciekać groźby, współcześni robotnicy muszą siedzieć przy biurkach, udając wszystko w porządku, gdy ich układy nerwowe są w nadbiegu.

Przez nasze Szkolenie świadomości urazowej dla pracodawców (TATE) Program, organizacja charytatywna współpracowała z takimi firmami Anglo American. Po szkoleniu 100% delegatów zgłosiło znacznie zwiększone zaufanie do identyfikacji i wspierania kolegów doświadczających traumy.

Ocena King’s College wykazała, że ​​nasi klienci terapeutyczni wykazali trwałą poprawę, pomimo często współpracy z osobami, które miały złożone zaburzenie stresu pourazowego (PTSD) i nie udało im się porażić inne usługi.

Ostatnio, Utworzyliśmy strategiczne partnerstwo z CIISECz usługami dostępnymi obecnie członkostwem ponad 10 000 specjalistów ds. Bezpieczeństwa cybernetycznego. Ta współpraca zapewnia zarówno wsparcie w zakresie zdrowia psychicznego poprzez szkolenie uświadamiające, jak i dostęp do terapii profesjonalnej.

Dolna linia

AI może odgrywać dodatkowe role – być może w przypadku podstawowej edukacji lub wsparcia między sesjami terapeutycznymi. Ale jako zastępca dla ludzi terapeutów? Nie. Żaden AI Chatbot nie ma zatwierdzenia Wielkiej Brytanii ani FDA w USA na leczenie stanów zdrowia psychicznego, a udokumentowane ryzyko jest zbyt znaczące.

Dla profesjonalistów IT zmagających się z wypaleniem, depresją lub traumą związaną z pracą rozwiązaniem nie jest lepsze algorytmy-lepszy dostęp do wykwalifikowanych terapeutów, którzy rozumieją unikalne presję tej branży.

Ostatecznie uzdrowienie dzieje się w związku. Dzieje się tak, gdy jeden człowiek naprawdę rozumie doświadczenie innego i prowadzi go do zaspokojenia podstawowych potrzeb emocjonalnych. Żaden algorytm nie może tego powtórzyć.

Wybór nie odbywa się między wygodą a niedogodnością, a nie wtedy, gdy pełna sesja terapii HG jest dostępna w porównaniu z Zoomem, często w ciągu kilku dni od pierwszej rozmowy kontaktowej eksploracyjnej. Wybór jest w rzeczywistości między prawdziwą pomocą a cyfrową symulacją opieki.

Malcolm Hanson jest dyrektorem klinicznym w Rewolucja PTSD.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Marvel’s Ironheart nie sprawi, że Riri Williams jest następnym Tony Stark Tony’ego MCU

Na harmonogramie Marvel Cinematic Universegenialny wynalazca RIRI Williams (Dominique Thorne) wykorzystuje wymiatające części do budowy garnituru w stylu Iron Man, który udaje się...

Recenzja Ironheart: Przypomnienie, że młodzi bohaterowie Marvela to przyszłość

Przed multiwersum, magią lub dowolną z serii Streaming Marvela były ważnymi częściami wszechświata studyjnego studia, istniały Iron Man. Po latach takich filmów, Iron...

DJI „pozostaje zaangażowany w rynek amerykański”, gdy półki stają się dronami

Czy DJI opuszcza rynek dronów w USA? Firma mówi „nie - ale nie wyjaśniałoby to The Verge To, co się zmieniło, tak, że...
Advertisment