Wywiad z Martą Chrostowską

ChatGPT twoim nowym terapeutą? Ekspertka ostrzega [WYWIAD]

Źródło zdjęć: © Marta Chrostowska / Materiały prasowe
Jakub TyszkowskiJakub Tyszkowski,04.04.2025 14:00

Rosnąca popularność narzędzi AI sprawiła, że niektórzy ludzie wykorzystują je do diagnozowania swojej kondycji psychicznej. Czy konsultowanie problemów z ChatGPT jest bezpieczne? Marta Chrostowska, psycholożka i psychoterapeutka, wyjaśnia, dlaczego modele językowe jeszcze długo nie zastąpią kontaktu z prawdziwym specjalistą.

Marta Chrostowska jest psycholożką, psychoterapeutką, specjalistką w zakresie psychoedukacji, autorką programów szkoleniowych i twórczynią na TikToku ze społecznością ponad 200 tys. obserwujących. Na co dzień prowadzi psychoterapię indywidualną i psychoterapię par oraz edukuje internetową społeczność w zakresie psychologii oraz budowania relacji.

Wywiad z ekspertką jest częścią cyklu CASE FOR AI, w którym kompleksowo i w przystępny sposób omawiamy tematy dotyczące sztucznej inteligencji. Sprawdźcie poprzednie odsłony serii m.in. o tym, jak uczniowie wykorzystują narzędzia AIwywiad z mentorką kariery.

trwa ładowanie posta...

Sztuczna inteligencja a psychoterapia

Jakub Tyszkowski, Vibez.pl: ChatGPT zamiast prawdziwego terapeuty. Czy spotkała się Pani z ludźmi, którzy traktują taki pomysł na serio?

Marta Chrostowska: - Jakiś czas temu zgłosiła się do mnie osoba na konsultację. Miała duże problemy w relacjach z ludźmi, a właściwie tych relacji nie posiadała poza sporadycznym kontaktem z rodziną. Wiele rzeczy ją denerwowało, trudno jej było się wyregulować po kontakcie z drugim człowiekiem. Kiedy zapytałam ją, w jaki sposób radzi sobie z samotnością, odpowiedziała, że spędza kilka godzin dziennie na rozmowach z ChatGPT. Czuła, że on ją rozumiał i pomagał w problemach.

Na etapie konsultacji nie mogę postawić diagnozy, ale po drugim spotkaniu miałam podejrzenie, że ta osoba powinna się przebadać w kierunku spektrum autyzmu. Do trzeciego spotkania nie doszło, ponieważ dostałam wiadomość wygenerowaną przez ChatGPT. Moja pacjentka stwierdziła, że terapia w tamtym momencie nie była jej potrzebna. Podziękowała mi za dotychczasowe rozmowy i postanowiła zostać z tym, co ma, czyli z ChatGPT. Szkoda, bo być może ta osoba nie będzie w stanie uzyskać diagnozy tego, co leży u podłoża jej dużych problemów z regulacją emocji.

Wielu użytkowników TikToka otwarcie przyznaje się do tego, że używa ChatGPT jako swojego "terapeuty". Dzielą się wrażeniami z rozmów z AI, nie ukrywając dużych emocji, jakie wywołuje podzielenie się problemami z chatbotem. Czy ich doświadczenie jest równorzędne z terapią?

- ChatGPT nie jest myślącą osobą, która z nami rozmawia. To model językowy. Konstruuje zdania, które według niego mogą pasować do kontekstu. Nie ma zdolności wnioskowania w taki sposób, aby pomóc przetworzyć ludzkie doświadczenia. Nam może się wydawać, że model jest empatyczny, ale tak naprawdę to nasza projekcja. Chatboty nie potrafią zrozumieć i interpretować subtelności w ludzkich emocjach. W efekcie mogą dawać szkodliwe porady, które pokierują osobę w stronę jej destrukcyjnych przekonań albo utwierdzą w pozycji ofiary. Czasami rozmowa z chatbotem może w niewielkim zakresie i krótkoterminowo przyczynić się do poczucia się lepiej. Nie wiemy jednak, jakie mogą być długofalowe skutki korzystania z pomocy ChatGPT.

Ludzie ignorują uwagi, które dostają od modeli językowych. Chatbot ostrzega, że nie jest w stanie kompetentnie zastąpić pomocy terapeutycznej i jego porady mogą być nieadekwatne. Tymczasem wiele osób przyjmuje rady AI bezkrytycznie. Jest to niepokojące. Wyobraźmy sobie kogoś, kto cierpi na schizofrenię paranoidalną. Wypytując chatbota o rzeczy związane ze swoim stanem, uzyska dowody, że urojenia mają sens, bo model jest zaprogramowany, aby potwierdzać prośby użytkownika. Im bardziej skomplikowane zaburzenie, tym potencjalne szkody mogą być większe. Kto wtedy ponosi odpowiedzialność?

trwa ładowanie posta...

Czy to oznacza, że należy w ogóle zrezygnować z wykorzystywania chatbotów w kontekście psychoterapii?

- Rozmowa z chatbotem może być pierwszym krokiem, żeby się przełamać. Możemy poprosić chatbota, żeby odegrał rolę empatycznego terapeuty, zanim pójdziemy do prawdziwego specjalisty. W ten sposób przekonamy się, jak zareaguje empatyczny terapeuta. Uświadomimy sobie, że to nie jest reakcja oceniająca czy budująca w nas poczucie winy i wzmacniająca negatywne myślenie. Zawsze musimy mieć na uwadze, że jest to model językowy, który generuje słowa. To nie jest myślący człowiek.

Czy jest granica, której nie powinniśmy przekraczać podczas konsultacji z chatbotem, kiedy rozmawiamy z nim o swojej kondycji psychicznej?

- Zalecałabym umiar. Proponowałabym zapytać o konkretne rozwiązania, o techniki, które bazują na terapii CBT. Kiedy pytanie jest zadane w określony sposób, chatbot jest w stanie posłużyć się adekwatnymi źródłami i podać odpowiedzi, które mogą być pomocne w rozwiązywaniu naszych problemów.

Gdyby psychoterapia była tożsama z mówieniem komuś, co ma zrobić, to już dawno zostałaby wyparta przez poradniki. A jednak ludzi potrzebujących terapii jest wielu, gdyż terapia to proces zmiany. W tym procesie kluczowe jest doświadczenie bliskiej i korygującej relacji z kimś, kto potrafi ją zbudować w sposób bezpieczny, z poszanowaniem naszych granic i widzi naszą sytuację z różnymi niuansami. Tak powstaje środowisko do zmiany, którego chatbot nie jest w stanie stworzyć.

Jest jeszcze jeden aspekt sprawy, na który powinniśmy zwrócić uwagę. Co robią modele językowe z informacjami, które od nas uzyskują? Terapeutę obowiązuje tajemnica zawodowa i my nie wynosimy przypadków naszych pacjentów na zewnątrz. Natomiast modele językowe są podporządkowane zyskom. Nie wiemy, w jaki sposób wykorzystują wrażliwą wiedzę, którą zdobywają od użytkowników.

Popuśćmy wodze wyobraźni. Jak duża jest szansa, że chatboty będą kiedyś na szeroką skalę wykorzystywane w psychoterapii?

- Sama już teraz wykorzystuję chatbota, aby ułożył mi konkretne narzędzie pod pacjenta. Jeżeli potrzebuję zrobić plan aktywności dla osoby z depresją, to ChatGPT może być pomocny, mając na uwadze czyjeś możliwości i zainteresowania. Efekt musi zweryfikować terapeuta. Często zdarzało mi się, że wygenerowane treści były pełne bzdur i nieścisłości. Narzędzie nie wystarczy, musi być jeszcze nadzór człowieka, który posiada specjalistyczną wiedzę i potrafi wyczuć ludzkie niuanse. Minie dużo czasu, zanim modele językowe dorównają temu poziomowi.

Zdarzało mi się rozmawiać z ChatGPT coachingowo. Zauważyłam, że wpada w pułapkę potwierdzania mojego myślenia i kierunków, które mu proponuję. Pamiętajmy, że terapia polega na czymś innym. Terapeuta musi wyczuć moment, gdy będzie w stanie skonfrontować pacjenta i czasami powiedzieć mu, że jest dokładnie odwrotnie, niż on mówi.

W 2024 r. media obiegła historia 14-letniego Sewella Setzera. Pochodzący z USA chłopiec popełnił samobójstwo po intensywnych interakcjach z chatbotem AI o imieniu Dany, opartym na postaci Daenerys Targaryen z serialu "Gra o tron". W ciągu kilku miesięcy nastolatek wycofał się z życia, spędzając większość czasu na rozmowach z chatbotem. Jak Pani ocenia ryzyko powstawania kolejnych tego typu niezdrowych relacji młodych ludzi z narzędziami AI?

- Nauczenie się budowania relacji z prawdziwym człowiekiem jest trudne. Jeżeli nie mieliśmy szczęścia nauczyć się tego wśród bliskich, to często jesteśmy samotni. Chatboty wydają się fantastyczną alternatywą dla interakcji międzyludzkich, która może spowodować powstanie nawet bardzo silnych emocji. Narzędzia te są zaprojektowane, aby potwierdzać nasze doświadczenia, sprawiać, że czujemy się komfortowo, ważni, wysłuchani.

Zapominamy, jak bardzo jednostronna jest to relacja. Przecież nie pytamy ChatGPT, jak się czuje? Uczy nas to nieadekwatnej dysproporcji, która jednocześnie symuluje kontakt z drugim człowiekiem. Efekt? Ogromna luka w kompetencjach wielu ludzi, którzy nie potrafią nawiązywać i podtrzymywać relacji z drugim człowiekiem. Model językowy będzie potęgował ten problem, utwierdzi nas w przekonaniu, że z naszymi brakami można być z kimś w relacji. Nie zauważymy nawet, jak oddalimy się od rzeczywistości i od sieci prawdziwych ludzkich relacji.

Być może, gdyby ten nastolatek miał kompetencje społeczne i był zaopiekowany przez środowisko, to nie musiałaby się wydarzyć tak duża tragedia. Ktoś dorosły powinien wychwycić problem i zaopiekować się tym dzieckiem, aby pomóc mu nawiązywać relacje, które będą satysfakcjonujące. Wydaje mi się, że wtedy chatbot nie miałby szansy stać się tak atrakcyjnym i tak bardzo ważnym "kimś" w życiu tego młodego człowieka.

trwa ładowanie posta...

Jakie zabezpieczenia powinny być standardem w chatbotach AI, z którymi mogą mieć kontakt dzieci i młodzież?

- Nie sądzę, że istnieją wystarczająco silne zabezpieczenia. W internecie można znaleźć wiele poradników, jak obejść ograniczenia modeli językowych. Powinniśmy się skupić na czymś innym. Dobrą praktyką byłoby to, gdyby modele były programowane przez ludzi mających wysokie kompetencje w danej dziedzinie. Natomiast jednym z najważniejszych zabezpieczeń, które możemy sobie zafundować, jest rzetelna psychoedukacja. Warto uświadamiać ludzi, czym są modele językowe i w jaki sposób uzyskiwać pomoc. Być może w kryzysowych sytuacjach chatbot powinien uruchamiać telefon zaufania albo informować o tym, że użytkownik może porozmawiać na czacie ze specjalistą.

Gdzie szukać pomocy w sytuacji kryzysowej?

- Przede wszystkim trzeba o tym powiedzieć komuś, do kogo mamy zaufanie. Najlepiej dorosłej osobie, która jest wobec nas pozytywnie nastawiona i skłonna pomóc. Jeżeli nie mamy takiej osoby w swoim otoczeniu, to warto zgłosić się do telefonów zaufania. One są w stanie pokierować nas dalej, gdzie znajdziemy pomoc. Telefony są bezpłatne, często czynne całodobowo. Najważniejsze jest, aby nie zostawać z problemem samemu. A rozmowa z chatbotem będzie tylko potęgowała poczucie samotności. Kiedy go wyłączymy, zostaniemy z problemem sami, a chodzi o to, aby obok była druga osoba. Perspektywę człowieka w trudnym położeniu zrozumie tylko druga istota ludzka, a nie model językowy.

trwa ładowanie posta...
Co o tym myślisz?
  • emoji serduszko - liczba głosów: 0
  • emoji ogień - liczba głosów: 0
  • emoji uśmiech - liczba głosów: 0
  • emoji smutek - liczba głosów: 0
  • emoji złość - liczba głosów: 0
  • emoji kupka - liczba głosów: 0