Twoje rozmowy z ChatGPT mogą trafić do sądu?

Twoje rozmowy z ChatemGPT mogą trafić do sądu? Nie obowiązuje go tajemnica lekarska

Źródło zdjęć: © Canva
Oliwia RutaOliwia Ruta,30.07.2025 10:30

CEO firmy OpenAI ostrzega użytkowników, którzy zwierzają się ChatuGPT ze wszystkich trapiących ich problemów. Mówi, że AI nie obowiązuje nic w rodzaju "tajemnicy lekarskiej" i wszystkie rozmowy mogą być użyte przeciwko autorom. Prezes będzie walczył o prywatyzację rozmów?

Sam Altman to CEO OpenAI. Mężczyzna ostrzega użytkowników ChataGPT przed konsekwencjami korzystania z niego jako "cyfrowego terapeuty" lub doradcy życiowego. W wywiadzie dla podcastu This Past Weekend with Theo Von, Altman zwrócił uwagę, że rozmowy z AI nie są objęte żadnymi przywilejami prawnymi, jak np. tajemnica lekarska czy prawnicza.

Twoje rozmowy z ChatemGPT mogą trafić do sądu?

Według prezesa coraz więcej osób - zwłaszcza młodych - wyjawia ChatuGPT najbardziej intymne szczegóły życia prywatnego. Ludzie często dzielą się z nim problemami w związku, codziennymi dylematami czy radzą się, co zrobić dalej. Zwykłe usunięcie czatu z platformy nie gwarantuje przywrócenia prywatności, ponieważ firma OpenAI może zostać zobligowana przez sąd do przekazania treści rozmów jako dowodów. Już teraz firma musi zachowywać wszystkie dane oraz materiały stworzone przez użytkowników.

Altman chciałby wprowadzić "privilege AI", czyli prawo zapewniające ochronę prywatności rozmów z AI na wzór ochrony obowiązującej przy kontaktach z terapeutą, prawnikiem czy lekarzem. Jak zaznaczył, jeszcze rok temu nikt nie przewidywał, że będziemy musieli zastanawiać się, jak prawo traktuje interakcje z AI - a dziś temat stał się ogromnie ważny dla zaufania użytkowników i kształtowania nowych zasad ochrony danych.

Nie obowiązuje go tajemnica lekarska

Dodatkowo CEO OpenAI obawia się, że z czasem rosnąca liczba użytkowników może uzależnić się od sztucznej inteligencji i pytać ją o dosłownie wszystko. Wspomniał o młodych ludziach, którzy już teraz przyznają, że nie potrafią podjąć żadnej decyzji bez poinformowania ChatGPT o wszystkim, co się dzieje - co według niego jest "bardzo złe i niebezpieczne".

Ekspert zaznaczył także, że rozwój technologii np. nadchodzący GPT‑5, może zwiększyć pokusę korzystania z AI jako terapeuty, ale bez jasnych ram prawnych może to prowadzić do poważnych naruszeń prywatności i etyki.

Źródło: Business Insider, The Economic Times

Co o tym myślisz?
  • emoji serduszko - liczba głosów: 0
  • emoji ogień - liczba głosów: 0
  • emoji uśmiech - liczba głosów: 0
  • emoji smutek - liczba głosów: 0
  • emoji złość - liczba głosów: 0
  • emoji kupka - liczba głosów: 0