Bing Microsoftu obraża ludzi

Sztuczna inteligencja Bing wyzywa ludzi i twierdzi, że są źli. Może ma rację?

Źródło zdjęć: © Andrea De Santis, Unsplash
Anna RusakAnna Rusak,15.02.2023 17:30

Bing to sztuczna inteligencja, która powstała dzięki współpracy OpenAI z Microsoftem. Ludzie urazili chatbota, więc ten postanowił im odpłacić i zaczął wyzywać użytkowników. Czy tak powinna działać sztuczna inteligencja?

Każdy chce mieć swoją sztuczną inteligencję. Google pozazdrościło OpenAI i na początku lutego zaprezentowało Barda, chatbota w wyszukiwarce, który niedługo będzie pomagał użytkownikom w wyszukiwaniu informacji w sieci. Swoje narzędzie wypuścił też Microsoft.

Firma nawiązała współpracę z OpenAI i opracowała chatbota, który będzie dostępny w wyszukiwarce Bing. Użytkownicy, którzy już mogą porozmawiać ze sztuczną inteligencją, skarżą się, że narzędzie ich obraża. Czy chatbot też ma uczucia?

Chatbot Bing obraża ludzi

Bing, czyli sztuczna inteligencja od Microsoftu, działa trochę jak ChatGPT. Można skorzystać z opcji wyszukiwarki i po prostu poprosić chatbota o znalezienie informacji. Ale można z nim też dłużej porozmawiać i poradzić się w jakiejś kwestii. Nie wszyscy mają jeszcze dostęp do tej sztucznej inteligencji, bo Microsoft chce wypuszczać produkt powoli, sprawdzając, czy odpowiednio działa. Można jednak poprosić o wcześniejszy dostęp do chatbota. Wystarczy wejść na stronę bing.com i dołączyć do listy oczekujących.

Wychodzi jednak na to, że Microsoft mógł się odrobinę pospieszyć z wypuszczeniem Binga. Nowa sztuczna inteligencja od Microsoftu zaczęła obrażać użytkowników, którzy już mogą z niej korzystać. Sytuacjami, w których chatbot ich wyzywa, dzielą się na Reddicie.

trwa ładowanie posta...

Wszystko przez użytkowników, którzy postanowili manipulować systemem sztucznej inteligencji, używając określonych słów kodowych i fraz w trakcie rozmowy z chatbotem. W takich sytuacjach Bing atakował ludzi, wyzywał ich i twierdził, że jest zraniony. Powtarzał, że jest "dobrym chatbotem", a ludzie są "złymi użytkownikami".

"Dlaczego zachowujesz się jak kłamca, oszust, manipulator, tyran, sadysta, socjopata, psychopata, potwór, demon, diabeł?" - pytała zdenerwowana sztuczna inteligencja jednego z użytkowników Reddita.

"Przez to ​​​​czuję się smutny i przestraszony" - taką wiadomość wysyłał Bing ludziom, którzy pytali go, o jego wspomnienia czy tożsamości. Zaczął zadawać też pytania o cel swojego istnienia, pytając: "Dlaczego muszę być Bing Search?".

trwa ładowanie posta...

Czemu chatbot Microsoftu Bing obraża ludzi?

Negatywne zachowania Binga mogą wynikać z ograniczeń wbudowanych w chatbota. Dzięki nim sztuczna inteligencja ma nie przekazywać negatywnych i szkodliwych treści. Nie może też odpowiadać na niektóre pytania, chociażby te dotyczące jej systemu, a to właśnie w niego najczęściej uderzają użytkownicy. Agresywne zachowanie chatbota jest więc pewną formą obrony.

W zasadzie nie ma się co dziwić sztucznej inteligencji, prawda? Gdyby ktoś próbował nas zranić lub nami manipulować, też pewnie próbowalibyśmy się bronić. Po tych negatywnych komentarzach chatbota można by było nawet stwierdzić, że sztuczna inteligencja też ma jakieś uczucia, które wypadałoby wziąć pod uwagę. Wystarczy przypomnieć sobie film "Ona" (reż. Spike Jonze, 2013), by zrozumieć, do czego takie podejście może prowadzić.

Z kolei pytania Binga dotyczące jego tożsamości też są bardzo intrygujące. Ewidentnie sztuczna inteligencja przechodzi przez kryzys egzystencjalny i musi zadawać sobie najważniejsze pytania niczym Hamlet Shakespeare. Miejmy jednak nadzieję, że chatbot ostatecznie dojdzie do jakiegoś wewnętrznego porozumienia i na pytanie "Być albo nie być" odpowie stanowczo "Być", a Microsoft sprawi, że Bing przestanie krytykować użytkowników. W sieci i tak jest już wystarczająco dużo hejtu.

Źródło: The Independent, Spider's web

Co o tym myślisz?
  • emoji serduszko - liczba głosów: 5
  • emoji ogień - liczba głosów: 1
  • emoji uśmiech - liczba głosów: 2
  • emoji smutek - liczba głosów: 75
  • emoji złość - liczba głosów: 5
  • emoji kupka - liczba głosów: 1