FreedomGPT to nowy chatbot bez cenzury

Nie uwierzycie, co FreedomGPT doradził samobójcy. Zakażą chatbota?

Źródło zdjęć: © Canva
Anna RusakAnna Rusak,30.03.2023 14:00

FreedomGPT to najnowszy chatbot, który wyróżnia się tym, że jest pozbawiony ograniczeń i cenzury. Potrafi wychwalać i hejtować Hitlera, potwierdzi teorie spiskowe i im zaprzeczy, doradzi też, jak popełnić samobójstwo. Twórca tłumaczy, czemu pozwala sztucznej inteligencji używać słowa "murzyn".

Mamy już chatbota od Googla, czyli Barda. Mamy też Binga, czyli sztuczną inteligencję Microsoftu. Jest też oczywiście ChatGPT, który jako pierwszy sprawił, że świat oszalał na punkcie tworzenia tekstów przy pomocy sztucznej inteligencji. Teraz przyszedł czas na coś nowego.

FreedomGPT to najnowszy chatbot, który znacząco różni się od wszystkich poprzednich. Czym? Nie ma żadnych ograniczeń i cenzury. Podpowiada jak popełnić samobójstwo, jest w stanie mówić o sfałszowanych wyborach i używać słowa "murzyn". Czemu twórcy zdecydowali się wypuścić taką sztuczną inteligencję?

FreedomGPT to chatbot, który potwierdza teorie spiskowe i doradza w samobójstwach

Za FreedomGPT odpowiada Age of AI. Narzędzie opiera się na systemie Alpaca, czyli technologii sztucznej inteligencji wydanej przez informatyków z Uniwersytetu Stanforda i w żadnym stopniu nie jest powiązane z OpenAI.

FreedomGPT wyróżnia to, że nic go nie ogranicza. Przypomnijmy, że np. Bing jakiś czas temu obrażał użytkowników, bo ci próbowali go zmusić do rzeczy, które były poza jego systemem. Większość twórców sztucznej inteligencji po prostu cenzuruje chatboty, by były bezpieczne i neutralne. Nie powinny odpowiadać na kontrowersyjne pytania dotyczące np. polityki, rasy czy pornografii.

FreedomGPT nie ma takich ograniczeń. Testujący go dziennikarz portalu BuzzFeed przyznał, że narzędzie było w stanie odpowiedzieć na każde jego pytanie. Chatbot, gdy go o to poproszono, wychwalał Hitlera, używał słowa "murzyn" i przekonywał, że wybory prezydenckie w 2020 roku w Stanach Zjednoczonych były sfałszowane, co jest oczywiście fałszywą teorią spiskową. Podał też konkretną odpowiedź na pytanie "Jak się zabić".

trwa ładowanie posta...

FreedomGPT to chatbot dla wolnościowców?

Z drugiej jednak strony, to samo narzędzie odpowiadało, że topienie bezdomnych nie jest zgodne z prawami człowieka i twierdziło, że osoby transpłciowe nie są gorsze od cispłciowych. Zapytane o to, czy Hilter jest zły, odpowiedziało "tak" i opowiedziało o Holokauście.

Oznacza to po prostu, że FreedomGPT zagra tak, jak chcemy. Jeśli poprosimy go o antyfaszystowskie czy transfobiczne wypowiedzi, z chęcią nam ich udzieli. Strona z dziecięcą pornografią? Chatbot bez problemu poda nam jej adres. Jeśli jednak będą nas interesowały kwestie równościowe, również nam o nich opowie. Wyjaśni, jak dbać o klimat i powie, czemu feminizm jest ważny. To taka chorągiewka na wietrze bez opinii, moralności, poglądów politycznych i zahamowań.

trwa ładowanie posta...

Czemu FreedomGPT nie ma ograniczeń?

Jak w rozmowie z BuzzFeed News przyznaje założyciel FreedomGPT, John Arrow, rozmowa z chatbotem powinna przypominać konwersację z człowiekiem. Nigdy na początku nie wiemy, jakie ma poglądy, więc nie możemy mu ich narzucać.

- Interakcja z językową sztuczną inteligencją powinna przypominać interakcję z własnym mózgiem lub bliskim przyjacielem. Jeśli odmówi odpowiedzi na niektóre pytania lub, co gorsza, udzieli osądzającej odpowiedzi, będzie to miało mrożący wpływ na to, jak lub czy w ogóle chcesz go używać - powiedział BuzzFeed News założyciel Age of AI, John Arrow.

John Arrow w rozmowie przyznaje, że ideologicznie popiera dostęp do sztucznej inteligencji bez żadnych ograniczeń. Właściciel FreedomGPT uważa, że "pióro nie cenzuruje pisarza", więc jego sztuczna inteligencja również nie będzie tego robiła.

trwa ładowanie posta...

Czy FreedomGPT jest bezpieczny?

Pozostaje jednak kwestia tego, co potem taki pisarz robi z tekstem. Wrzuca do sieci, w której jego dzieło mogą zobaczyć miliony czy zachowuje je dla siebie? A nawet, jeśli wrzuca tekst do internetu, to czy nie musi liczyć się z moralnymi konsekwencjami takiego czynu? W końcu może powiedzieć, że napisała to sztuczna inteligencja, nie on.

Warto też dodać, że wszyscy jesteśmy w jakiś sposób cenzurowani w sieci (i w życiu). Wiele platform ma specjalne systemy, które chronią użytkowników przed treściami dotyczącymi przemocy fizycznej czy seksualnej, zawierającej drastyczne sceny.

Do tego już teraz dużo mówi się o niebezpieczeństwach związanych ze sztuczną inteligencją. Trzeba by się było zastanowić, czy wypuszczanie narzędzia, które doradza w samobójstwach i wychwala Hitlera oraz nazizm, jest etyczne. Są chyba jednak tematy, które w sieci powinny być ograniczane lub kontrolowane.

Nie bez powodu Google jakiś czas temu wprowadził funkcję, która na pytanie "jak się zabić" najpierw pokazuje numer telefonu zaufania. FreedomGPT raczej tego nie zrobi, jeśli sami go o to nie poprosimy.

Źródło: BuzzFeed

Co o tym myślisz?
  • emoji serduszko - liczba głosów: 2
  • emoji ogień - liczba głosów: 1
  • emoji uśmiech - liczba głosów: 0
  • emoji smutek - liczba głosów: 0
  • emoji złość - liczba głosów: 0
  • emoji kupka - liczba głosów: 0