ChatGPT zamiast lekarza? Ekspert o nowym trendzie wśród Polaków [WYWIAD]
Polacy coraz częściej słuchają porad chatbotów takich jak ChatGPT, próbując sami postawić sobie diagnozę. Sztuczna inteligencja, choć potrafi precyzyjnie analizować objawy, nie zawsze poprawnie interpretuje kontekst czy emocjonalny stan pacjenta. Lek. Jacek Bujko w rozmowie z Vibez wyjaśnia, czym skutkuje ślepa wiara w diagnozę od AI.
Rozwój sztucznej inteligencji wpływa praktycznie na każdą sferę codziennego życia. Od pracy i edukacji, przez media społecznościowe, zakupy, rozrywkę, po finanse i bezpieczeństwo. Śledzimy te zmiany i opisujemy w cyklu CASE FOR AI, w ramach którego możecie przeczytać m.in. wywiad z psychoterapeutką czy mentorką kariery. Tym razem zastanowimy się, czy sztuczna inteligencja może zastąpić lekarza rodzinnego.
Podobne
- ChatGPT twoim nowym terapeutą? Ekspertka ostrzega [WYWIAD]
- OpenAI prezentuje GPT-4o. Sztuczna inteligencja jak prawdziwy człowiek
- ChatGPT ma siostrę. Jej klipów nie odróżnisz od rzeczywistości
- ChatGPT zamiast nauczyciela? Uczniowie mówią, jak używają AI
- Rosyjska influencerka nie żyje. Zażyła leki "na kaca"
Naszym rozmówcą jest lek. Jacek Bujko. To doświadczony specjalista medycyny rodzinnej z wieloletnią praktyką zdobytą w licznych placówkach. Wraz z żoną prowadzi dwie przychodnie medycyny rodzinnej "Przychodnia Szczecińska" na szczecińskich Gumieńcach, gdzie zawsze służą pacjentom fachową pomocą medyczną, opartą na aktualnej wiedzy i życzliwym uśmiechem.
ChatGPT zamiast lekarza? Trzeba pamiętać o jednej zasadzie
Jakub Tyszkowski, Vibez.pl: Wielu Polaków szuka informacji o zdrowiu w internecie. Czy pojawienie się łatwo dostępnych chatbotów (jak ChatGPT) sprawia, że pacjenci jeszcze częściej diagnozują się sami przed wizytą? Czy obserwuje Pan to na co dzień w swoim gabinecie?
Lek. Jacek Bujko: - Absolutnie tak. "Doktor Google" to już niemal stały bywalec w gabinecie, ale chatboty typu ChatGPT wyniosły to zjawisko na nowy poziom. Pacjenci nie tylko wpisują objawy w wyszukiwarkę, ale prowadzą całe "rozmowy" z AI, próbując uzyskać diagnozę. Codziennie spotykam pacjentów, którzy przychodzą z gotową, często bardzo konkretną, samodiagnozą zaczerpniętą z rozmowy z chatbotem. To już nie jest tylko lista objawów, ale próba syntezy informacji, którą AI potrafi przedstawić w bardzo przekonujący sposób.
Trzeba jednak pamiętać o fundamentalnej zasadzie: jakość danych wyjściowych jest tak dobra, jak jakość danych wejściowych. Pacjent, nawet w najlepszej wierze, subiektywnie opisuje swoje dolegliwości, często pomijając istotne szczegóły lub nadinterpretowując inne. Chatbot, w przeciwieństwie do doświadczonego lekarza, nie dopyta, nie wychwyci niuansów, nie przeprowadzi ukierunkowanego wywiadu, który jest kluczem do trafnej diagnozy.
Czy przypomina Pan sobie jakąś zaskakującą, niepokojącą lub zabawną sytuację z pacjentem, który zaufał poradzie ChatGPT lub podobnego narzędzia?
- Och, tych sytuacji jest coraz więcej. Pamiętam pacjentkę, panią w średnim wieku, która przyszła przerażona, bo ChatGPT na podstawie opisu jej sporadycznych bólów głowy i zmęczenia "zasugerował" rzadką chorobę neurologiczną o bardzo poważnym rokowaniu. Cały weekend spędziła na czytaniu o tej chorobie, była przekonana o najgorszym. W gabinecie, po dokładnym wywiadzie i badaniu, okazało się, że to klasyczne napięciowe bóle głowy spowodowane stresem w pracy i niedoborem snu. Ulgę na jej twarzy trudno opisać.
Zaskakujące było to, jak bardzo kategorycznie i autorytatywnie chatbot przedstawił swoją "sugestię", nie uwzględniając kontekstu, częstości objawów, stylu życia pacjentki, a przede wszystkim nie widząc jej, nie mogąc ocenić jej mowy ciała czy zrozumieć głębi jej lęku, co dla lekarza jest ważną częścią obrazu klinicznego. Było też trochę komicznie, gdy inny pacjent próbował mnie przekonać, że jego przeziębienie wymaga antybiotyku, bo "ChatGPT przeanalizował jego kaszel jako bakteryjny". Wyjaśnienie różnic zajęło chwilę, ale ostatecznie postawiliśmy na tradycyjne metody leczenia infekcji wirusowej.
Czy w erze powszechnego dostępu do informacji zauważa Pan zmianę w podejściu pacjentów do autorytetu lekarza? Czy pacjenci częściej niż dawniej dyskutują lub kwestionują diagnozę, powołując się na to, co przeczytali w internecie lub podpowiedział im ChatGPT?
- Tak, zdecydowanie. Autorytet lekarza oparty na samym fakcie bycia lekarzem nieco osłabł na rzecz "autorytetu informacji", niezależnie od jej źródła. Pacjenci są bardziej świadomi, częściej zadają pytania, co samo w sobie jest pozytywne. Jednak zdarza się, że traktują informacje z internetu czy od AI jako równorzędne, a czasem nawet nadrzędne wobec opinii lekarza. Dyskusje są częstsze, a kwestionowanie diagnozy również. Czasem jest to konstruktywne i prowadzi do głębszego zrozumienia problemu przez pacjenta, ale bywa i tak, że pacjent jest tak silnie przywiązany do "swojej" diagnozy z sieci, że trudno go przekonać do innej perspektywy, nawet popartej badaniami. To wymaga od nas, lekarzy, jeszcze większych umiejętności komunikacyjnych i cierpliwości, aby wytłumaczyć, dlaczego wnioski AI, oparte na ograniczonym i subiektywnym wkładzie pacjenta, mogą być mylące.
Czy pacjenci, którzy wstępnie samodiagnozują się, ułatwiają Panu pracę, czy wręcz przeciwnie - komplikują rozmowę i utrudniają postawienie właściwej diagnozy?
- To jest miecz obosieczny. Z jednej strony, pacjent, który poczytał o swoich objawach, bywa bardziej zaangażowany i potrafi precyzyjniej opisać swoje dolegliwości. Z drugiej strony, jeśli przychodzi z silnie ugruntowanym, ale błędnym przekonaniem opartym na interakcji z AI, sytuacja się komplikuje. Jak wspomniałem, jakość wniosków AI zależy od danych wejściowych. Pacjent, nie mając wiedzy medycznej, może wprowadzić informacje w sposób niepełny, zniekształcony przez własne lęki czy nadzieje. AI tego nie zweryfikuje. Może to prowadzić do zupełnie błędnych konkluzji, które potem trzeba w gabinecie prostować. Czasem to jak przyniesienie wstępnie posortowanych puzzli, a czasem jak próba złożenia obrazka z kilku różnych, niepasujących zestawów, bo pacjent nieświadomie pominął kluczowe "elementy" swojej historii.
Od lat mówi się o cyberchondrii, czyli tendencji do wpędzania się w panikę przez internetowe wyszukiwanie objawów. Jak Pan sądzi - czy ChatGPT i podobne narzędzia zmniejszają ten problem, bo dają bardziej rzeczowe odpowiedzi, czy może przeciwnie, nakręcają nowych e-hipochondryków?
- Mam wrażenie, że chatboty mogą nasilać ten problem. Pozorna "rzeczowość" i spójność odpowiedzi AI, nawet jeśli oparta na subiektywnym i niepełnym opisie pacjenta, może być bardzo przekonująca. Jeśli ta narracja jest alarmująca, a pacjent ma skłonności do lęku o zdrowie, może to prowadzić do jeszcze większej paniki.
AI nie ma empatii, nie odczyta mowy niewerbalnej, która stanowi przecież większość naszej komunikacji, ani nie zrozumie ludzkiej psychologii i indywidualnej wrażliwości pacjenta. Podaje informacje, które mogą być źle zinterpretowane lub wyjęte z kontekstu. Paradoksalnie, autorytatywny ton AI może u niektórych osób wzmacniać nieuzasadnione lęki, tworząc nowego, bardziej "elokwentnego" e-hipochondryka, który jest przekonany o słuszności wniosków maszyny, nie zdając sobie sprawy z ograniczeń jej "rozumowania".
Media chętnie nagłaśniają historie, gdy sztuczna inteligencja trafnie wskazała rzadką chorobę, której wcześniej nie wykryto. Swego czasu duży rozgłos zdobył przypadek 4-letniego Alexa z USA, u którego ChatGPT zasugerował zespół spętanego rdzenia kręgowego po tym, jak 17 lekarzy nie postawiło jednoznacznej diagnozy - i analiza AI się potwierdziła. Czy takie przypadki budzą w Panu entuzjazm co do możliwości AI, czy raczej traktuje je Pan jako ciekawostkę?
- Takie przypadki budzą we mnie ostrożny entuzjazm. Sztuczna inteligencja ma olbrzymi potencjał w analizie ogromnych zbiorów danych, co może być niezwykle pomocne w diagnostyce rzadkich chorób czy w identyfikowaniu subtelnych wzorców, które ludzki umysł mógłby przeoczyć. Zresztą, idea wspomagania diagnostycznego nie jest zupełnie nowa - sam od lat, jeszcze zanim AI w obecnej, generatywnej formie stało się tak popularne, korzystałem z narzędzia zwanego Isabel Healthcare, które było bardzo pomocne w diagnostyce różnicowej, choć oczywiście nie było ono oparte o AI w dzisiejszym rozumieniu tego terminu.
Przypadek Alexa jest spektakularnym potwierdzeniem tego potencjału w rękach rodziców i, docelowo, lekarzy. Jednak medycyna to nie tylko analiza danych. To także kontekst, doświadczenie kliniczne, intuicja i umiejętność rozmowy z pacjentem. Traktuję te doniesienia jako sygnał, że AI może stać się potężnym narzędziem wspomagającym lekarzy. Ale to wciąż narzędzie, a nie autonomiczny diagnosta. To jak doniesienia o cudownym dziecku w sporcie - inspirujące, ale nie oznacza, że każdy junior zostanie mistrzem olimpijskim, ani że trenerzy staną się zbędni.
Jeśli już ktoś naprawdę chce korzystać z ChatGPT czy innego narzędzia AI w sprawach zdrowotnych - to jak robić to mądrze? Jakie zasady powinien mieć z tyłu głowy? Na co uważać? Czy są sytuacje, w których zupełnie nie powinno się tego robić?
- Jeśli ktoś chce korzystać z AI w sprawach zdrowotnych, powinien przede wszystkim pamiętać, że chatbot to nie lekarz. Oto kilka zasad:
- traktuj AI jako źródło wstępnych informacji, a nie ostateczną wyrocznię,
- bądź krytyczny: pamiętajmy, że jakość porady AI jest wprost proporcjonalna do jakości wprowadzonych danych - a pacjent rzadko jest obiektywnym i w pełni świadomym obserwatorem swoich objawów. Co więcej, AI nie widzi pacjenta, nie słyszy tonu głosu, nie dostrzega mowy ciała, która tak wiele mówi lekarzowi. Nie rozumie też w pełni ludzkiej psychiki i tego, jak strach czy nadzieja mogą wpływać na opis dolegliwości,
- nigdy nie zastępuj konsultacji lekarskiej poradą z AI, szczególnie w przypadku poważnych objawów,
- nie modyfikuj leczenia zaleconego przez lekarza na podstawie sugestii AI,
- uważaj na podawanie szczegółowych danych osobowych i medycznych,
- zupełnie nie powinno się korzystać z AI do stawiania sobie ostatecznej diagnozy, podejmowania decyzji terapeutycznych czy w sytuacjach nagłych.
Czy wykorzystuje Pan narzędzia sztucznej inteligencji w codziennej pracy? Jeśli tak, to w jakich obszarach najbardziej pomagają, a w jakich sobie zupełnie nie radzą?
- Tak, w mojej praktyce sięgam po narzędzia sztucznej inteligencji, ale mówimy tu o zaawansowanych, profesjonalnych i zawsze płatnych platformach, które co istotne, nie eksportują danych pacjentów na zewnętrzne serwery, gwarantując pełne bezpieczeństwo i zgodność z RODO. To nie są ogólnodostępne chatboty, które pacjenci wykorzystują do samodiagnozy. Te specjalistyczne narzędzia AI, w rękach doświadczonego lekarza, stają się potężnym wsparciem. Mogą niezwykle pomóc w szybszej analizie dużych zbiorów danych medycznych, przeszukiwaniu najnowszych badań naukowych, czy nawet we wczesnym wykrywaniu pewnych anomalii na obrazach diagnostycznych. Widzę, jak potrafią one podnieść jakość świadczonych usług i istotnie przyspieszyć niektóre procesy.
Jednak kluczowe jest tu słowo "narzędzie" - niezwykle użyteczne, ale wciąż wymagające eksperckiej wiedzy i nadzoru lekarza, by nie wyrządzić szkody, a przynieść realną korzyść pacjentowi. AI zupełnie nie radzi sobie (i długo sobie nie poradzi) z empatią, budowaniem relacji, zrozumieniem niuansów psychospołecznych czy przeprowadzeniem badania fizykalnego.
Jak Pan ocenia szanse, że w niedalekiej przyszłości AI odbierze pracę lekarzom? Czy wyobraża Pan sobie, że sztuczna inteligencja może kiedyś zastąpić lekarza rodzinnego, czy jednak nawet najlepszy algorytm nie zastąpi ludzkiego kontaktu i doświadczenia?
- Nie sądzę, aby AI odebrała pracę lekarzom rodzinnym. Może zrewolucjonizować pewne aspekty naszej pracy, ale jej nie zastąpi. Medycyna rodzinna to specjalizacja holistyczna. Nawet najlepszy algorytm nie zastąpi ludzkiego kontaktu, zdolności do odczytywania mowy niewerbalnej, która stanowi przecież większość naszej komunikacji, ani głębokiego zrozumienia ludzkiej psychiki, lęków i nadziei pacjenta. AI analizuje dane, lekarz analizuje człowieka w całym jego kontekście. Doświadczenie, intuicja kliniczna, umiejętność słuchania i budowania zaufania - tego AI nie jest w stanie naśladować. Widzę przyszłość we współpracy człowiek-maszyna, gdzie AI będzie potężnym, ale jednak tylko narzędziem w rękach lekarza.
P.S. Muszę Państwu coś wyznać. Cały ten wywiad, wszystkie moje odpowiedzi, zostały zredagowane przy znaczącym udziale narzędzi sztucznej inteligencji. Co więcej, zabawna historia z pacjentką i rzekomą diagnozą rzadkiej choroby neurologicznej przez ChatGPT, opisana w punkcie drugim, jest w całości wytworem... właśnie AI. To tak zwana "halucynacja" - chatbot zmyślił ją, aby odpowiedź była ciekawsza, bo ja, póki co, nie miałem aż tak barwnej (choć potencjalnie niepokojącej dla pacjenta) przygody.
Dlaczego o tym mówię? Ponieważ to bardzo ważna lekcja dla nas wszystkich, szczególnie w dobie fake newsów i przy powszechnym braku umiejętności specjalistycznej selekcji oraz oceny informacji. Żyjemy w czasach ogromnej podaży treści, a jednocześnie często brakuje nam narzędzi do jej krytycznej analizy. Dziś coraz trudniej odróżnić prawdziwe wideo od tego wygenerowanego przez AI, a co dopiero tekst. W tym konkretnym przypadku, sztuczna inteligencja pozwoliła mi poświęcić na przygotowanie odpowiedzi do tego wywiadu znacznie mniej czasu, ułatwiła redakcję tekstu i pomogła w składnym przekazaniu mojej opinii, bez uszczerbku dla moich codziennych obowiązków zawodowych wobec pacjentów. AI może być fantastycznym narzędziem, ale jak widać, wymaga świadomego i krytycznego użytkownika. Także bądźcie czujni! Zawsze.
Popularne
- Justyna Steczkowska promuje okultyzm? Najjjka wszczyna alarm
- Aqua park z kontrowersyjną zasadą. Kobiety podczas okresu nie mają wstępu?
- Herbaty Ekipy na półkach sklepowych. Dwie znane influencerki
- Weekend typu: zrób to po swojemu. Wbijaj na najgorętszy lifestyle’owy event
- Fausti brzmi jak Jeleniewska? Fani odkryli, co wywołało zmianę
- Zestawy Reziego w Pasibusie. Ile kosztuje zaskakująca nowość?
- Daniel Magical o włos od tragedii? Wypadek patostreamera
- Justin Bieber był zmuszony sprzedać prawa do swojej muzyki? Gwiazda jest spłukana
- Czym jest "Wyspa Dziewic"? Nowe reality show budzi kontrowersje