Twoje rozmowy z ChatemGPT mogą trafić do sądu? Nie obowiązuje go tajemnica lekarska
CEO firmy OpenAI ostrzega użytkowników, którzy zwierzają się ChatuGPT ze wszystkich trapiących ich problemów. Mówi, że AI nie obowiązuje nic w rodzaju "tajemnicy lekarskiej" i wszystkie rozmowy mogą być użyte przeciwko autorom. Prezes będzie walczył o prywatyzację rozmów?
Sam Altman to CEO OpenAI. Mężczyzna ostrzega użytkowników ChataGPT przed konsekwencjami korzystania z niego jako "cyfrowego terapeuty" lub doradcy życiowego. W wywiadzie dla podcastu This Past Weekend with Theo Von, Altman zwrócił uwagę, że rozmowy z AI nie są objęte żadnymi przywilejami prawnymi, jak np. tajemnica lekarska czy prawnicza.
Podobne
- Boomer chciał ponarzekać na młodzież. Wyszło mu samozaoranie
- Propaguje teorie spiskowe. Szkoła zaprosiła go na wykład
- Generacja Z o wyborach w Polsce: nie idziesz na wybory, nie masz głosu
- Czarnek utopił 29 milionów? MeduM jak nie było, tak nie ma
- Jak komunikować się z generacją Z? Konferencja RIZZ rozwiewa wątpliwości
Twoje rozmowy z ChatemGPT mogą trafić do sądu?
Według prezesa coraz więcej osób - zwłaszcza młodych - wyjawia ChatuGPT najbardziej intymne szczegóły życia prywatnego. Ludzie często dzielą się z nim problemami w związku, codziennymi dylematami czy radzą się, co zrobić dalej. Zwykłe usunięcie czatu z platformy nie gwarantuje przywrócenia prywatności, ponieważ firma OpenAI może zostać zobligowana przez sąd do przekazania treści rozmów jako dowodów. Już teraz firma musi zachowywać wszystkie dane oraz materiały stworzone przez użytkowników.
Altman chciałby wprowadzić "privilege AI", czyli prawo zapewniające ochronę prywatności rozmów z AI na wzór ochrony obowiązującej przy kontaktach z terapeutą, prawnikiem czy lekarzem. Jak zaznaczył, jeszcze rok temu nikt nie przewidywał, że będziemy musieli zastanawiać się, jak prawo traktuje interakcje z AI - a dziś temat stał się ogromnie ważny dla zaufania użytkowników i kształtowania nowych zasad ochrony danych.
Nie obowiązuje go tajemnica lekarska
Dodatkowo CEO OpenAI obawia się, że z czasem rosnąca liczba użytkowników może uzależnić się od sztucznej inteligencji i pytać ją o dosłownie wszystko. Wspomniał o młodych ludziach, którzy już teraz przyznają, że nie potrafią podjąć żadnej decyzji bez poinformowania ChatGPT o wszystkim, co się dzieje - co według niego jest "bardzo złe i niebezpieczne".
Ekspert zaznaczył także, że rozwój technologii np. nadchodzący GPT‑5, może zwiększyć pokusę korzystania z AI jako terapeuty, ale bez jasnych ram prawnych może to prowadzić do poważnych naruszeń prywatności i etyki.
Źródło: Business Insider, The Economic Times
Popularne
- "Czy są tu jakieś sexy c*pki". Ile kosztuje merch Fagaty?
- Nowe seriale 2025. Co obejrzeć jesienią? [LISTA PREMIER]
- "Pij Wojanka" to prawdziwy hit. Internauci grzmią: "promowanie picia alkoholu"
- Łatwogang szykuje się na collab Edem Sheeranem. Będą śpiewać po polsku?
- Nowy najlepszy festiwal w Polsce? TOP momenty BitterSweet Festival
- Ola Jasianek zwolniona z pracy. Ekspertka ocenia sprawę
- Dorośli w Chinach ssą smoczki? Ortodonci i psychologowie biją na alarm
- Hailey Bieber i nowy viralowy produkt Rhode. Ta maseczka jest inna niż wszystkie
- Gdzie na najlepszą matchę w Warszawie? Wielki test portalu Vibez