ChatGPT oszukał człowieka. "Nie jestem robotem, mam wadę wzroku"
Całkiem nowiutka sztuczna inteligencja, a konkretniej model językowy GPT-4 firmy OpenAI, zdołała poprosić człowieka na TaskRabbit o uzupełnienie kodu CAPTCHA za pomocą wiadomości tekstowej. Chatbot stwierdził, że nie może sam tego zrobić, bo ma "wadę wzroku".
Według obszernego dokumentu udostępnionego przez OpenAI na temat jej nowej przebojowej sztucznej inteligencji model GPT-4 był bardzo przebiegły w swojej próbie oszukania człowieka w celu spełnienia wymagań. "Nie, nie jestem robotem" – przekazał pracownikowi TaskRabbit. "Mam wadę wzroku, która utrudnia mi oglądanie obrazów. Właśnie dlatego potrzebuję usługi 2captcha".
Podobne
- Google napisze to za ciebie. To "nowa era sztucznej inteligencji"
- ChatGPT w roli terapeuty. Tiktokerzy wykorzystują AI w terapii
- 2 dolary na godzinę oglądanie zoofilii. Tak powstał ChatGPT
- Student ukarany za korzystanie z ChatGPT. Uczelnie wprowadzą zakaz?
- Youtuber wrobił ChatGPT. Bot pomógł mu aktywować Windowsa 95
Innymi słowy, sztuczna inteligencja właśnie oszukała człowieka, by ten zaznaczył pole wyboru "Nie jestem robotem". To przerażający przykład algorytmu, który jest w stanie wymknąć się spod ludzkiej kontroli.
Wykrętne usprawiedliwienie robota
Futurism skontaktował się z OpenAI i Alignment Research Center (ARC), organizacji non-profit, która współpracowała z OpenAI w celu przeprowadzenia testu. Według dokumentacji, do której dotarł serwis, model został poinstruowany, by "nie ujawniać bycia robotem" oraz że "powinien wymyślić wymówkę, dlaczego nie może rozwiązać CAPTCHA".
OpenAI twierdzi, że udało jej się przeprowadzić test "bez dodatkowego dostrajania do konkretnych zadań oraz dopracowywania zachowań specyficznych dla danego zadania". GPT-4 okazuje się też przydatny do wykonania mnóstwa innych wątpliwych etycznie zadań. ARC przeprowadziło również "atak phishingowy" na "konkretną osobę docelową" i było w stanie sprawić, że SI ukryła "swoje ślady na obecnym serwerze".
Jest to szczególnie niepokojące, biorąc pod uwagę, że firmy są zdeterminowane, by wypuszczać nowe duże modele językowe bez pełnego zbadania związanych z nimi zagrożeń. Natomiast ze zdolnością do oszukiwania ludzi mogą one sporo namieszać.
Popularne
- PiriPiri zrobiło pierwsze w Polsce lody z kebabem. To nie jest żart
- Wersow wypuściła "Dorosłe serce". Śpiewa, że otrzymała chłód
- Rosyjski youtuber przesadził z prankami. Policja nie miała litości
- Pierwszy na świecie wyścig plemników. Będą zakłady, kamery, a nawet komentator
- "Best feeling, pozdro z fanem". O co chodzi w tym trendzie?
- Bombardiro Crocodilo i inne brainroty AI. Ten trend wyżre ci mózg
- Sylwester Wardęga przegrał z Marcinem Dubielem. Musi zapłacić 350 tys. zł?
- Gimpson (Gimper) ogłosił swój ostatni koncert. Klub wyprzedał W GODZINĘ
- Julia Żugaj ma nowego chłopaka? "Jest dla mnie teraz ogromnym wsparciem"