Twoje rozmowy z ChatemGPT mogą trafić do sądu? Nie obowiązuje go tajemnica lekarska
CEO firmy OpenAI ostrzega użytkowników, którzy zwierzają się ChatuGPT ze wszystkich trapiących ich problemów. Mówi, że AI nie obowiązuje nic w rodzaju "tajemnicy lekarskiej" i wszystkie rozmowy mogą być użyte przeciwko autorom. Prezes będzie walczył o prywatyzację rozmów?
Sam Altman to CEO OpenAI. Mężczyzna ostrzega użytkowników ChataGPT przed konsekwencjami korzystania z niego jako "cyfrowego terapeuty" lub doradcy życiowego. W wywiadzie dla podcastu This Past Weekend with Theo Von, Altman zwrócił uwagę, że rozmowy z AI nie są objęte żadnymi przywilejami prawnymi, jak np. tajemnica lekarska czy prawnicza.
Podobne
- Boomer chciał ponarzekać na młodzież. Wyszło mu samozaoranie
- Generacja Z o wyborach w Polsce: nie idziesz na wybory, nie masz głosu
- Propaguje teorie spiskowe. Szkoła zaprosiła go na wykład
- Czarnek utopił 29 milionów? MeduM jak nie było, tak nie ma
- Jak komunikować się z generacją Z? Konferencja RIZZ rozwiewa wątpliwości
Twoje rozmowy z ChatemGPT mogą trafić do sądu?
Według prezesa coraz więcej osób - zwłaszcza młodych - wyjawia ChatuGPT najbardziej intymne szczegóły życia prywatnego. Ludzie często dzielą się z nim problemami w związku, codziennymi dylematami czy radzą się, co zrobić dalej. Zwykłe usunięcie czatu z platformy nie gwarantuje przywrócenia prywatności, ponieważ firma OpenAI może zostać zobligowana przez sąd do przekazania treści rozmów jako dowodów. Już teraz firma musi zachowywać wszystkie dane oraz materiały stworzone przez użytkowników.
Altman chciałby wprowadzić "privilege AI", czyli prawo zapewniające ochronę prywatności rozmów z AI na wzór ochrony obowiązującej przy kontaktach z terapeutą, prawnikiem czy lekarzem. Jak zaznaczył, jeszcze rok temu nikt nie przewidywał, że będziemy musieli zastanawiać się, jak prawo traktuje interakcje z AI - a dziś temat stał się ogromnie ważny dla zaufania użytkowników i kształtowania nowych zasad ochrony danych.
Nie obowiązuje go tajemnica lekarska
Dodatkowo CEO OpenAI obawia się, że z czasem rosnąca liczba użytkowników może uzależnić się od sztucznej inteligencji i pytać ją o dosłownie wszystko. Wspomniał o młodych ludziach, którzy już teraz przyznają, że nie potrafią podjąć żadnej decyzji bez poinformowania ChatGPT o wszystkim, co się dzieje - co według niego jest "bardzo złe i niebezpieczne".
Ekspert zaznaczył także, że rozwój technologii np. nadchodzący GPT‑5, może zwiększyć pokusę korzystania z AI jako terapeuty, ale bez jasnych ram prawnych może to prowadzić do poważnych naruszeń prywatności i etyki.
Źródło: Business Insider, The Economic Times
Popularne
- Julia Wieniawa - "Światłocienie" nudzą i bawią [RECENZJA]
- Antyki, czyli kuchnia babci na TikToku. Wywiad z ikonicznym twórcą
- Znamy cenę biletów na Doję Cat. Na miejsca przy samej scenie trzeba się wykosztować
- Nowa dziewczyna Wardęgi została youtuberką. Ujawniła swój cel
- Bagi na liście Forbes 30 under 30. Znalazł się tam szybciej od Friza
- Lola Young odwołała trasę koncertową? Wszystko przez dramatyczny wypadek na scenie
- Monika Kociołek nie dostała paczki od Apple. Ma pretensje do firmy?
- Wejdą nowe smaki Wojanków? Internet huczy od pogłosek
- 5 epickich zestawów McDonald's. Ślinka cieknie na sam widok