Aresztowany z powodu ChatGPT. Koniec wolności użytkowników AI?
Używanie sztucznej inteligencji w niewłaściwy sposób może skończyć się aresztowaniem. Taka sytuacja spotkała mężczyznę, który jako pierwszy w Chinach naruszył prawo używając ChatGPT w szkodliwym celu.
Sztuczna inteligencja nie zawsze bywa wykorzystywana w słusznym celu. Jej rozwój w ostatnim czasie sprawił, że coraz częściej mówi się o deepfake'ach i fake newsach. Na początku roku głośno było o streamerkach z Twitcha, które zostały wykorzystane przez deepfake w filmach dla dorosłych.
Podobne
Za używanie sztucznej inteligencji w zły sposób w niektórych miejscach można zostać ukaranym. Mężczyzna z Chin trafił do aresztu, bo przy pomocy ChatGPT generował fake newsy o katastrofie kolejowej. Czy wszystkich użytkowników sztucznej inteligencji czekają podobne konsekwencje?
Do więzienia za sztuczną inteligencję
Mieliśmy już pierwszego studenta, który został ukarany za używanie ChatGPT na egzaminie. Teraz pierwsza osoba w Chinach została aresztowana za niewłaściwe używanie sztucznej inteligencji.
Jak informuje South China Morning Post, aresztowany w północno-zachodniej prowincji Gansu użytkownik przy pomocy ChatGPT generował fake newsy na temat katastrofy kolejowej. Miał podawać, że zginęło w niej dziewięć osób. Treść na temat nieprawdziwego zdarzenia udostępniał w mediach społecznościowych. Jego informacja zdobyła ponad 15 tys. kliknięć.
Co prawda ChatGPT nie jest dostępny w Chinach, ale można go używać za pomocą sieci VPN. Mężczyzna został aresztowany za "wywoływanie kłótni i prowokowanie zamieszek". Jak informuje portal Vice, za to przestępstwo zwykle grozi maksymalnie pięcioletni wyrok pozbawienia wolności, który może się zwiększyć w przypadku większych przestępstw.
Regulacje dotyczące sztucznej inteligencji
W styczniu w Chinach weszły pierwsze przepisy dotyczące technologii deepfake. Mają one zapobiegać nadużyciom, do których dochodzi przy pomocy sztucznej inteligencji. Filmy i zdjęcia stworzone przez AI muszą być odpowiednio oznaczane, by nie dochodziło do wprowadzania użytkowników w błąd.
Jak podaje portal Prawo, Ministerstwo Sprawiedliwości wskazuje, że podobne prace dotyczące regulacji wykorzystywania sztucznej inteligencji trwają w Unii Europejskiej. Biorąc pod uwagę zagrożenia, jakie niesie ze sobą używanie AI, takie działania są konieczne, byśmy byli w stanie odróżnić, co jest prawdą a co nie.
"W chwili obecnej w UE toczą się prace nad dwoma regulacjami w zakresie SI - projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję oraz projekt rozporządzenia w sprawie sztucznej inteligencji" - czytamy w odpowiedzi Ministerstwa Sprawiedliwości na interpelację posła Pawła Szramki dotyczącej zagrożeń związanych z AI.
Warto dodać, że chociażby TikTok w kwietniu wprowadził nowe wytyczne, które zobowiązują użytkowników do odpowiedniego oznaczania treści, które zawierają fake newsy. W ten sposób platforma chce walczyć z dezinformacją.
Źródło: Independent, Prawo.pl, Vice
Popularne
- Znamy przyczynę śmierci sowy Duolingo. Dua Lipa opłakuje ptaka
- Stuu został pobity? Szokujące nagranie obiegło internet
- Kotolga jest viralem na TikToku. Kim jest i co o niej wiadomo?
- Sowa Duolingo nie żyje. Wszyscy możecie ją mieć na sumieniu
- Żugajki na tropie nowego partnera Julii. Kim jest tajemniczy mężczyzna?
- Powstał tłumacz z polskiego na deweloperski. "Zrozum groźne gatunki"
- Sprawa korepetytora trafiła do Rzeczniczki Praw Dziecka. Co dalej?
- Damiano David wystąpił w Polsce. Zagrał nowy kawałek
- Jak pachną perfumy Skolima BEBECITA? Ekspert zabrał głos