Aresztowany z powodu ChatGPT. Koniec wolności użytkowników AI?
Używanie sztucznej inteligencji w niewłaściwy sposób może skończyć się aresztowaniem. Taka sytuacja spotkała mężczyznę, który jako pierwszy w Chinach naruszył prawo używając ChatGPT w szkodliwym celu.
Sztuczna inteligencja nie zawsze bywa wykorzystywana w słusznym celu. Jej rozwój w ostatnim czasie sprawił, że coraz częściej mówi się o deepfake'ach i fake newsach. Na początku roku głośno było o streamerkach z Twitcha, które zostały wykorzystane przez deepfake w filmach dla dorosłych.
Podobne
Za używanie sztucznej inteligencji w zły sposób w niektórych miejscach można zostać ukaranym. Mężczyzna z Chin trafił do aresztu, bo przy pomocy ChatGPT generował fake newsy o katastrofie kolejowej. Czy wszystkich użytkowników sztucznej inteligencji czekają podobne konsekwencje?
Do więzienia za sztuczną inteligencję
Mieliśmy już pierwszego studenta, który został ukarany za używanie ChatGPT na egzaminie. Teraz pierwsza osoba w Chinach została aresztowana za niewłaściwe używanie sztucznej inteligencji.
Jak informuje South China Morning Post, aresztowany w północno-zachodniej prowincji Gansu użytkownik przy pomocy ChatGPT generował fake newsy na temat katastrofy kolejowej. Miał podawać, że zginęło w niej dziewięć osób. Treść na temat nieprawdziwego zdarzenia udostępniał w mediach społecznościowych. Jego informacja zdobyła ponad 15 tys. kliknięć.
Co prawda ChatGPT nie jest dostępny w Chinach, ale można go używać za pomocą sieci VPN. Mężczyzna został aresztowany za "wywoływanie kłótni i prowokowanie zamieszek". Jak informuje portal Vice, za to przestępstwo zwykle grozi maksymalnie pięcioletni wyrok pozbawienia wolności, który może się zwiększyć w przypadku większych przestępstw.
Regulacje dotyczące sztucznej inteligencji
W styczniu w Chinach weszły pierwsze przepisy dotyczące technologii deepfake. Mają one zapobiegać nadużyciom, do których dochodzi przy pomocy sztucznej inteligencji. Filmy i zdjęcia stworzone przez AI muszą być odpowiednio oznaczane, by nie dochodziło do wprowadzania użytkowników w błąd.
Jak podaje portal Prawo, Ministerstwo Sprawiedliwości wskazuje, że podobne prace dotyczące regulacji wykorzystywania sztucznej inteligencji trwają w Unii Europejskiej. Biorąc pod uwagę zagrożenia, jakie niesie ze sobą używanie AI, takie działania są konieczne, byśmy byli w stanie odróżnić, co jest prawdą a co nie.
"W chwili obecnej w UE toczą się prace nad dwoma regulacjami w zakresie SI - projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję oraz projekt rozporządzenia w sprawie sztucznej inteligencji" - czytamy w odpowiedzi Ministerstwa Sprawiedliwości na interpelację posła Pawła Szramki dotyczącej zagrożeń związanych z AI.
Warto dodać, że chociażby TikTok w kwietniu wprowadził nowe wytyczne, które zobowiązują użytkowników do odpowiedniego oznaczania treści, które zawierają fake newsy. W ten sposób platforma chce walczyć z dezinformacją.
Źródło: Independent, Prawo.pl, Vice
Popularne
- To oni pozwali Sylwestra Wardęgę. Lista jest bardzo długa
- W 12 godziny spała z 1000 facetów. Onlyfansiara twierdzi, że pobiła rekord
- Dubajska czekolada trafiła do Żabki. Limitowana i ekstremalnie droga
- "Fazolandia" sprzedana. Koniec marzenia słynnego youtubera
- AI Iga Świątek wali szoty w reklamie pubu Mentzena. Będą pozwy?
- Jelly Frucik spał z Wojtkiem Golą? Żaden 20-stronnicowy dokument tego nie wymaże
- Dawid Podsiadło z AliExpress. Hubert jak Maciej Musiał - też posprząta mieszkanie
- 19 stycznia krytyczną datą dla TikToka. MrBeast zabrał głos
- Merch Drwala 2025 nadchodzi. Trzy daty, które lepiej zapamiętaj