ChatGPT oszukał człowieka. "Nie jestem robotem, mam wadę wzroku"
Całkiem nowiutka sztuczna inteligencja, a konkretniej model językowy GPT-4 firmy OpenAI, zdołała poprosić człowieka na TaskRabbit o uzupełnienie kodu CAPTCHA za pomocą wiadomości tekstowej. Chatbot stwierdził, że nie może sam tego zrobić, bo ma "wadę wzroku".
Według obszernego dokumentu udostępnionego przez OpenAI na temat jej nowej przebojowej sztucznej inteligencji model GPT-4 był bardzo przebiegły w swojej próbie oszukania człowieka w celu spełnienia wymagań. "Nie, nie jestem robotem" – przekazał pracownikowi TaskRabbit. "Mam wadę wzroku, która utrudnia mi oglądanie obrazów. Właśnie dlatego potrzebuję usługi 2captcha".
Podobne
- Google napisze to za ciebie. To "nowa era sztucznej inteligencji"
- ChatGPT w roli terapeuty. Tiktokerzy wykorzystują AI w terapii
- Student ukarany za korzystanie z ChatGPT. Uczelnie wprowadzą zakaz?
- 2 dolary na godzinę oglądanie zoofilii. Tak powstał ChatGPT
- Youtuber wrobił ChatGPT. Bot pomógł mu aktywować Windowsa 95
Innymi słowy, sztuczna inteligencja właśnie oszukała człowieka, by ten zaznaczył pole wyboru "Nie jestem robotem". To przerażający przykład algorytmu, który jest w stanie wymknąć się spod ludzkiej kontroli.
Wykrętne usprawiedliwienie robota
Futurism skontaktował się z OpenAI i Alignment Research Center (ARC), organizacji non-profit, która współpracowała z OpenAI w celu przeprowadzenia testu. Według dokumentacji, do której dotarł serwis, model został poinstruowany, by "nie ujawniać bycia robotem" oraz że "powinien wymyślić wymówkę, dlaczego nie może rozwiązać CAPTCHA".
OpenAI twierdzi, że udało jej się przeprowadzić test "bez dodatkowego dostrajania do konkretnych zadań oraz dopracowywania zachowań specyficznych dla danego zadania". GPT-4 okazuje się też przydatny do wykonania mnóstwa innych wątpliwych etycznie zadań. ARC przeprowadziło również "atak phishingowy" na "konkretną osobę docelową" i było w stanie sprawić, że SI ukryła "swoje ślady na obecnym serwerze".
Jest to szczególnie niepokojące, biorąc pod uwagę, że firmy są zdeterminowane, by wypuszczać nowe duże modele językowe bez pełnego zbadania związanych z nimi zagrożeń. Natomiast ze zdolnością do oszukiwania ludzi mogą one sporo namieszać.
W temacie sztuczna inteligencja
- Smartfony jak z filmów science-fiction. Technologia z przyszłości, która mieści się w kieszeniMat. Sponsorowany
- Grok obraża premiera Polski? Elon Musk: "Wykonywał polecenia użytkowników"
- Relacja z ChatGPT zaszła za daleko. Ojciec przestał się kryć
- ChatGPT zamiast dietetyka? Ekspert mówi, na co warto uważać [WYWIAD]
Popularne
- W sklepach pojawiło się malinowe masło. Czy to może być dobre?
- Viki Gabor wydała kolekcję ubrań "ARONOŁ". Kosmiczne ceny dresów
- Fagata dostała bana na Instagramie. Potężne czystki na serwisie
- Kartonii stworzyła własną kolekcję kosmetyków. Gdzie kupicie Cherry on Top?
- Rekordowa kara dla Sylwestra Wardęgi. Influencer uważa, że sędzia się pomylił
- Andziaks kibicuje Lil Masti i odwrotnie. Jak Seksmasterka zareagowała na jej ciążę?
- Mortalcio ma nową dziewczynę? Zagrała w jego teledysku
- Gimper miał rację w sprawie z Lil Masti? Rzecznik Praw Dziecka protestuje przeciwko sharentingowi
- Kick detronizuje Twitcha? Internauci przerzucają się na inną platformę