Twoje rozmowy z ChatemGPT mogą trafić do sądu? Nie obowiązuje go tajemnica lekarska
CEO firmy OpenAI ostrzega użytkowników, którzy zwierzają się ChatuGPT ze wszystkich trapiących ich problemów. Mówi, że AI nie obowiązuje nic w rodzaju "tajemnicy lekarskiej" i wszystkie rozmowy mogą być użyte przeciwko autorom. Prezes będzie walczył o prywatyzację rozmów?
Sam Altman to CEO OpenAI. Mężczyzna ostrzega użytkowników ChataGPT przed konsekwencjami korzystania z niego jako "cyfrowego terapeuty" lub doradcy życiowego. W wywiadzie dla podcastu This Past Weekend with Theo Von, Altman zwrócił uwagę, że rozmowy z AI nie są objęte żadnymi przywilejami prawnymi, jak np. tajemnica lekarska czy prawnicza.
Podobne
- Boomer chciał ponarzekać na młodzież. Wyszło mu samozaoranie
- Propaguje teorie spiskowe. Szkoła zaprosiła go na wykład
- Generacja Z o wyborach w Polsce: nie idziesz na wybory, nie masz głosu
- Czarnek utopił 29 milionów? MeduM jak nie było, tak nie ma
- Jak komunikować się z generacją Z? Konferencja RIZZ rozwiewa wątpliwości
Twoje rozmowy z ChatemGPT mogą trafić do sądu?
Według prezesa coraz więcej osób - zwłaszcza młodych - wyjawia ChatuGPT najbardziej intymne szczegóły życia prywatnego. Ludzie często dzielą się z nim problemami w związku, codziennymi dylematami czy radzą się, co zrobić dalej. Zwykłe usunięcie czatu z platformy nie gwarantuje przywrócenia prywatności, ponieważ firma OpenAI może zostać zobligowana przez sąd do przekazania treści rozmów jako dowodów. Już teraz firma musi zachowywać wszystkie dane oraz materiały stworzone przez użytkowników.
Altman chciałby wprowadzić "privilege AI", czyli prawo zapewniające ochronę prywatności rozmów z AI na wzór ochrony obowiązującej przy kontaktach z terapeutą, prawnikiem czy lekarzem. Jak zaznaczył, jeszcze rok temu nikt nie przewidywał, że będziemy musieli zastanawiać się, jak prawo traktuje interakcje z AI - a dziś temat stał się ogromnie ważny dla zaufania użytkowników i kształtowania nowych zasad ochrony danych.
Nie obowiązuje go tajemnica lekarska
Dodatkowo CEO OpenAI obawia się, że z czasem rosnąca liczba użytkowników może uzależnić się od sztucznej inteligencji i pytać ją o dosłownie wszystko. Wspomniał o młodych ludziach, którzy już teraz przyznają, że nie potrafią podjąć żadnej decyzji bez poinformowania ChatGPT o wszystkim, co się dzieje - co według niego jest "bardzo złe i niebezpieczne".
Ekspert zaznaczył także, że rozwój technologii np. nadchodzący GPT‑5, może zwiększyć pokusę korzystania z AI jako terapeuty, ale bez jasnych ram prawnych może to prowadzić do poważnych naruszeń prywatności i etyki.
Źródło: Business Insider, The Economic Times
Popularne
- Doda powiesiła Labubu na Łódź Summer Festival. Wybrała PRZEMOC
- Treści dla dorosłych znikają z X? Blokada dotyczy całej Europy (tak, Polski też)
- Tea - randkowa aplikacja tylko dla kobiet jest hitem w USA. Chroni przed toksykami?
- Influencerka znalazła robaka w najdroższej drożdżówce w Polsce. "Już ich nie kupię"
- Fanki Louisa Tomlinsona kilka dni czekają na koncert idola. Kolejka już ruszyła
- Czwarty sezon "Sabotażysty" Reziego nadchodzi. Kto weźmie udział w programie?
- Mortalcio ma nową dziewczynę? Zagrała w jego teledysku
- W sklepach pojawiło się malinowe masło. Czy to może być dobre?
- Modelki AI w magazynie Vogue? Internauci łapią się za głowę