ChatGPT w roli terapeuty. Tiktokerzy wykorzystują AI w terapii
Użytkownicy TikToka postanowili poradzić sobie z brakiem pieniędzy na terapię. Teraz ich psychologiem jest ChatGPT. Czemu używanie sztucznej inteligencji w roli terapeuty nie jest bezpieczne? Czy można wykorzystać sztuczną inteligencję do poprawienia swojego zdrowia psychicznego?
Sztuczna inteligencja potrafi zdać egzamin lekarski, więc może też udzielać terapeutycznych porad? Z takiego założenia wyszła część tiktokerów. Użytkownicy platformy pod hasztagiem #CharacterAITherapy zamieszczają swoje wrażenia i doświadczenia z używania ChatGPT w roli terapeuty.
Podobne
- "Psychologia na uczelni online". Jak zweryfikować kwalifikacje terapeuty?
- Nauczycielka przechytrzyła ChatGPT? Sieje postrach wśród uczniów
- Co zabrać ze sobą na oddział psychiatryczny? Tiktokerka radzi
- Jej wielkie usta robią furorę. Hejterzy nie znają prawdy
- Psycholożka na TikToku "demaskuje" psychopatów. Dlaczego to problematyczne? [OPINIA]
Czy na pewno korzystanie ze sztucznej inteligencji w ramach terapii jest dobrym rozwiązaniem? Psychologowie przestrzegają przed całkowitym powierzaniem swojego zdrowia psychicznego sztucznej inteligencji. Choć powstają również projekty, które wykorzystują AI, by pomóc samotnej młodzieży.
ChatGPT w roli terapeuty
"Terapia konwersacyjna" - takim hasłem tiktokerzy określają korzystanie z pomocy chatbota w trosce o swoje zdrowie psychiczne. Czemu to robią? Najczęściej dlatego, że po prostu nie stać ich na terapie w gabinecie z profesjonalnym psychologiem. Poza tym skorzystanie ze sztucznej inteligencji jest dla wielu z nich łatwiejsze. By otrzymać radę od AI, wystarczy sięgnąć po telefon.
Opisywana przez portal BuzzFeed News użytkowniczka TikToka Kyla Lum właśnie dlatego zdecydowała się porozmawiać z ChatGPT o swoich problemach. Nastolatka uważa, że rozmowa z chatbotem przypomina rozmowę z człowiekiem, a sztuczna inteligencja bardzo pomogła jej po bolesnym zerwaniu. Według niej to taki "ulepszony pamiętnik".
- Często czuję się lepiej po tym, jak skorzystam z narzędzia online w formie terapii. To z pewnością pomaga mojemu zdrowiu psychicznemu i emocjonalnemu. Cieszę się, że mogę przelać swoje myśli na ChatGPT. To dla mnie taka ulepszona wersja pamiętnika, ponieważ dostaję informacje zwrotne na temat moich myśli i sytuacji - powiedział Lum dla BuzzFeed News.
ChatGPT zastrzega, że nie jest terapeutą. Po zadaniu pytania przez użytkowników informuje, że nie może nikomu zapewnić terapii ani zdiagnozować choroby. Za to oferuje użytkownikom możliwość wysłuchania.
Czy ChatGPT w roli terapeuty jest bezpieczny?
Psychologowie i psychiatrzy nie są jednak przekonani do terapeutycznego używania ChatGPT. Według nich nie do końca jesteśmy w stanie przewidzieć, jakich rad udzieli nam narzędzie. Technologia AI nie jest jeszcze dopracowana, a chatboty również popełniają błędy. Dodatkowo nie mają empatii, specjalistycznych szkoleń i nie są po prostu w stanie do końca wczuć się w naszą sytuację.
- ChatGPT wzbudza wiele emocji i myślę, że w przyszłości zobaczymy, jaką rolę takie narzędzia językowe będą ogrywały w terapii. To nie wydarzy się jednak ani dzisiaj, ani jutro. Najpierw musimy dokładnie ocenić, jak naprawdę działają. Wiemy już, że mogą też mówić o różnych rzeczach i mogą też wyrządzić krzywdę - powiedział BuzzFeed News psychiatra John Torous.
Tak, najpopularniejsze chatboty mają pewne zabezpieczenia, które mają sprawić, że ich używanie będzie bezpieczne, ale nie zawsze działają one odpowiednio. Bing, czyli sztuczna inteligencja od Microsoftu, obrażała już użytkowników. Warto przypomnieć tutaj również o istnieniu FreedomGPT, czyli narzędziu podobnym do ChatGPT, które z kolei jest pozbawione jakichkolwiek zabezpieczeń. W trakcie testów narzędzie udzieliło nawet wskazówek dotyczących samobójstwa.
Sztuczna inteligencja w roli terapeuty?
Jeśli więc zastanawiacie się, czy używanie ChatGPT w roli terapeuty jest bezpieczne, to odpowiedź oczywiście brzmi: nie. Jeśli znajdujecie się w trudniej sytuacji, możecie skorzystać np. z telefonu zaufania. Podawaliśmy również listę darmowych miejsc, w których otrzymacie pomoc psychologiczną.
To jednak nie oznacza, że używanie sztucznej inteligencji w obszarze zdrowia psychicznego nie jest możliwe. MindGenic AI to polski projekt, którego celem jest stworzenie aplikacji wspierającej młodych ludzi w rozwiązywaniu problemów wynikających z samotności.
Firma pracuje nad stworzeniem chatbota wyposażonego w sztuczną inteligencję. Miałby on wspierać młodych ludzi w rozwiązywaniu problemów, pomagać z samotnością czy niskim poczuciem akceptacji. Pisaliśmy o nim przy okazji badań dotyczących samotności pokolenia Z.
Jak widać, wykorzystanie narzędzi podobnych do chatbota w walce o zdrowie psychiczne wcale nie jest niemożliwe. Trzeba tylko wiedzieć, jak to zrobić i nie próbować używać AI do terapii na własną rękę. W końcu za takimi programami jak MindGenic AI będą stali eksperci, którzy zadbają o to, by sztuczna inteligencja nie zrobiła nikomu krzywdy. Wiecie, przyjaciela, z którym rozmawiacie o swoich problemach, również nie nazwalibyście terapeutą, prawda?
Źródło: BuzzFeed
Popularne
- Jelly Frucik zablokowany na TikToku. "Ryczę i jestem w rozsypce"
- Kim są "slavic dolls"? Śmiertelnie niebezpieczny trend na TikToku
- Vibez Creators Awards - wybierz najlepszych twórców i wygraj wejściówkę na galę!
- Amerykanie nie umieją zrobić kisielu? Kolejna odsłona slavic trendu
- Były Julii Żugaj szantażował jurorów "Tańca z gwiazdami"? Szalona teoria fanów
- Quebonafide ogłosił finałowy koncert? "Będzie tłusto"
- Chłopak Seleny Gomez się nie myje? Prawda wyszła na jaw
- Jurorka "Tańca z gwiazdami" węszy romans? "Ja nie widzę tej relacji"
- Agata Duda trenduje za granicą. Amerykanie w szoku