Aresztowany z powodu ChatGPT. Koniec wolności użytkowników AI?
Używanie sztucznej inteligencji w niewłaściwy sposób może skończyć się aresztowaniem. Taka sytuacja spotkała mężczyznę, który jako pierwszy w Chinach naruszył prawo używając ChatGPT w szkodliwym celu.
Sztuczna inteligencja nie zawsze bywa wykorzystywana w słusznym celu. Jej rozwój w ostatnim czasie sprawił, że coraz częściej mówi się o deepfake'ach i fake newsach. Na początku roku głośno było o streamerkach z Twitcha, które zostały wykorzystane przez deepfake w filmach dla dorosłych.
Podobne
Za używanie sztucznej inteligencji w zły sposób w niektórych miejscach można zostać ukaranym. Mężczyzna z Chin trafił do aresztu, bo przy pomocy ChatGPT generował fake newsy o katastrofie kolejowej. Czy wszystkich użytkowników sztucznej inteligencji czekają podobne konsekwencje?
Do więzienia za sztuczną inteligencję
Mieliśmy już pierwszego studenta, który został ukarany za używanie ChatGPT na egzaminie. Teraz pierwsza osoba w Chinach została aresztowana za niewłaściwe używanie sztucznej inteligencji.
Jak informuje South China Morning Post, aresztowany w północno-zachodniej prowincji Gansu użytkownik przy pomocy ChatGPT generował fake newsy na temat katastrofy kolejowej. Miał podawać, że zginęło w niej dziewięć osób. Treść na temat nieprawdziwego zdarzenia udostępniał w mediach społecznościowych. Jego informacja zdobyła ponad 15 tys. kliknięć.
Co prawda ChatGPT nie jest dostępny w Chinach, ale można go używać za pomocą sieci VPN. Mężczyzna został aresztowany za "wywoływanie kłótni i prowokowanie zamieszek". Jak informuje portal Vice, za to przestępstwo zwykle grozi maksymalnie pięcioletni wyrok pozbawienia wolności, który może się zwiększyć w przypadku większych przestępstw.
Regulacje dotyczące sztucznej inteligencji
W styczniu w Chinach weszły pierwsze przepisy dotyczące technologii deepfake. Mają one zapobiegać nadużyciom, do których dochodzi przy pomocy sztucznej inteligencji. Filmy i zdjęcia stworzone przez AI muszą być odpowiednio oznaczane, by nie dochodziło do wprowadzania użytkowników w błąd.
Jak podaje portal Prawo, Ministerstwo Sprawiedliwości wskazuje, że podobne prace dotyczące regulacji wykorzystywania sztucznej inteligencji trwają w Unii Europejskiej. Biorąc pod uwagę zagrożenia, jakie niesie ze sobą używanie AI, takie działania są konieczne, byśmy byli w stanie odróżnić, co jest prawdą a co nie.
"W chwili obecnej w UE toczą się prace nad dwoma regulacjami w zakresie SI - projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję oraz projekt rozporządzenia w sprawie sztucznej inteligencji" - czytamy w odpowiedzi Ministerstwa Sprawiedliwości na interpelację posła Pawła Szramki dotyczącej zagrożeń związanych z AI.
Warto dodać, że chociażby TikTok w kwietniu wprowadził nowe wytyczne, które zobowiązują użytkowników do odpowiedniego oznaczania treści, które zawierają fake newsy. W ten sposób platforma chce walczyć z dezinformacją.
Źródło: Independent, Prawo.pl, Vice
Popularne
- Jelly Frucik zablokowany na TikToku. "Ryczę i jestem w rozsypce"
- Kim są "slavic dolls"? Śmiertelnie niebezpieczny trend na TikToku
- Vibez Creators Awards - wybierz najlepszych twórców i wygraj wejściówkę na galę!
- Amerykanie nie umieją zrobić kisielu? Kolejna odsłona slavic trendu
- Były Julii Żugaj szantażował jurorów "Tańca z gwiazdami"? Szalona teoria fanów
- Quebonafide ogłosił finałowy koncert? "Będzie tłusto"
- Chłopak Seleny Gomez się nie myje? Prawda wyszła na jaw
- Jurorka "Tańca z gwiazdami" węszy romans? "Ja nie widzę tej relacji"
- Agata Duda trenduje za granicą. Amerykanie w szoku