Aresztowany z powodu ChatGPT. Koniec wolności użytkowników AI?
Używanie sztucznej inteligencji w niewłaściwy sposób może skończyć się aresztowaniem. Taka sytuacja spotkała mężczyznę, który jako pierwszy w Chinach naruszył prawo używając ChatGPT w szkodliwym celu.
Sztuczna inteligencja nie zawsze bywa wykorzystywana w słusznym celu. Jej rozwój w ostatnim czasie sprawił, że coraz częściej mówi się o deepfake'ach i fake newsach. Na początku roku głośno było o streamerkach z Twitcha, które zostały wykorzystane przez deepfake w filmach dla dorosłych.
Podobne
- Będzie nowy chatbot od OpenAI. Jak działa ChatGPT4?
- Czy płatna subskrypcja ChatGPT się opłaca? Testerzy krytykują
- ChatGPT. Sztuczna inteligencja nie zawsze umie w logikę
- Sztuczna inteligencja Bard od Googla już działa. Lepsza niż ChatGPT?
- Ile lat więzienia czeka Brainroty z TikToka? Bombardiro Crocodilo pocierpi najdłużej
Za używanie sztucznej inteligencji w zły sposób w niektórych miejscach można zostać ukaranym. Mężczyzna z Chin trafił do aresztu, bo przy pomocy ChatGPT generował fake newsy o katastrofie kolejowej. Czy wszystkich użytkowników sztucznej inteligencji czekają podobne konsekwencje?
Do więzienia za sztuczną inteligencję
Mieliśmy już pierwszego studenta, który został ukarany za używanie ChatGPT na egzaminie. Teraz pierwsza osoba w Chinach została aresztowana za niewłaściwe używanie sztucznej inteligencji.
Jak informuje South China Morning Post, aresztowany w północno-zachodniej prowincji Gansu użytkownik przy pomocy ChatGPT generował fake newsy na temat katastrofy kolejowej. Miał podawać, że zginęło w niej dziewięć osób. Treść na temat nieprawdziwego zdarzenia udostępniał w mediach społecznościowych. Jego informacja zdobyła ponad 15 tys. kliknięć.
Co prawda ChatGPT nie jest dostępny w Chinach, ale można go używać za pomocą sieci VPN. Mężczyzna został aresztowany za "wywoływanie kłótni i prowokowanie zamieszek". Jak informuje portal Vice, za to przestępstwo zwykle grozi maksymalnie pięcioletni wyrok pozbawienia wolności, który może się zwiększyć w przypadku większych przestępstw.
Regulacje dotyczące sztucznej inteligencji
W styczniu w Chinach weszły pierwsze przepisy dotyczące technologii deepfake. Mają one zapobiegać nadużyciom, do których dochodzi przy pomocy sztucznej inteligencji. Filmy i zdjęcia stworzone przez AI muszą być odpowiednio oznaczane, by nie dochodziło do wprowadzania użytkowników w błąd.
Jak podaje portal Prawo, Ministerstwo Sprawiedliwości wskazuje, że podobne prace dotyczące regulacji wykorzystywania sztucznej inteligencji trwają w Unii Europejskiej. Biorąc pod uwagę zagrożenia, jakie niesie ze sobą używanie AI, takie działania są konieczne, byśmy byli w stanie odróżnić, co jest prawdą a co nie.
"W chwili obecnej w UE toczą się prace nad dwoma regulacjami w zakresie SI - projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję oraz projekt rozporządzenia w sprawie sztucznej inteligencji" - czytamy w odpowiedzi Ministerstwa Sprawiedliwości na interpelację posła Pawła Szramki dotyczącej zagrożeń związanych z AI.
Warto dodać, że chociażby TikTok w kwietniu wprowadził nowe wytyczne, które zobowiązują użytkowników do odpowiedniego oznaczania treści, które zawierają fake newsy. W ten sposób platforma chce walczyć z dezinformacją.
Źródło: Independent, Prawo.pl, Vice
Popularne
- Viral Kebab już otwarty. Co wiadomo o nowym biznesie Ekipy?
- Ile lat więzienia czeka Brainroty z TikToka? Bombardiro Crocodilo pocierpi najdłużej
- Czy 100 ludzi pokona goryla? Absurdalne pytanie rozpala internet
- Julia Żugaj wzruszona sukcesem swojego chłopaka? "Jestem dumna"
- Łatwogang nagra collab z bbno$? Internauci muszą spełnić jeden warunek
- Zestawy Reziego w Pasibusie. Ile kosztuje zaskakująca nowość?
- Uczestnik "Twoje 5 minut 3" wydał oświadczenie. "Nie jestem psycholem"
- Lokal sushi sparodiował zmarłego kilka dni temu rapera. "Joka zszedł z nieba"
- Influencerka tłumaczy włoskie brainroty. Żarłacz Biegacz, Aligator Detonator i Patyk