2 dolary na godzinę oglądanie zoofilii. Tak powstał ChatGPT
ChatGPT to jedno z bardziej dostępnych i popularniejszych narzędzi bazujących na sztucznej inteligencji. Dzięki chatbotowi możemy wygenerować jakikolwiek tekst chcemy. Problem polega na tym, że za sukcesem tego narzędzia stoi cierpienie Kenijczyków.
Chatbot o nazwie ChatGPT został stworzony przez firmę OpenAI i szybko skradł serca ludzi. Wykorzystując sztuczną inteligencje, jest w stanie stworzyć wiersz, a nawet napisać pracę na zaliczenie. Został już nawet zakazany w szkołach w Nowym Jorku, bo pisał za uczniów sprawdziany.
Podobne
- Czy płatna subskrypcja ChatGPT się opłaca? Testerzy krytykują
- Student ukarany za korzystanie z ChatGPT. Uczelnie wprowadzą zakaz?
- Sztuczna inteligencja Bard od Googla już działa. Lepsza niż ChatGPT?
- Biblię napisała sztuczna inteligencja? Tak twierdzi OpenAI
- Emma Watson wykorzystana przez deepfake w filmie 18+. To aplikacja dla dzieci?
Za tym inteligentnym narzędziem stoi jednak ludzkie cierpnie. Reportaż magazynu "Time" ujawnił, że firma, z którą OpenAI współpracowało przy tworzeniu chatbota, wykorzystywała pracowników z Kenii. Za 2 dolary za godzinę mieli filtrować traumatyzujące, pełne przemocy materiały.
ChatGPT przyczynił się do cierpienia ludzi z Kenii?
Może tego nie wiecie, ale zanim dostaliśmy ChatGPT mogliśmy używać pierwszej wersji chatbota, czyli GPT-3. Problem polegał na tym, że sztuczna inteligencja w wygenerowanych przez siebie tekstach zamieszała również seksistowskie, brutalne czy rasistowskie stwierdzenia. OpenAI postanowiło usunąć ten toksyczny język ze zbioru danych nowej, lepszej wersji piszącego chatbota.
Twórcy ChatGPT nawiązali więc współpracę z firmą Sama z San Francisco, która zajmuje się znakowaniem i etykietowaniem danych dla algorytmów sztucznej inteligencji. Sama, jak informuje "Time", twierdzi, że zapewnia osobom z krajów rozwijających się etyczną i godną pracę cyfrową. Do zlecenia dla OpenAI firma z San Francisko zatrudniła pracowników z Kenii.
Jak podaje "Time", kenijscy pracownicy Sama w ramach gromadzenia danych dla urządzenia ChatGPT, musieli czytać i oceniać teksty dotyczące wykorzystywania seksualnego dzieci, zoofilii, morderstw, samobójstw, samookaleczania i kazirodztwa. Wszystko po to, by później użytkownicy chatbota nie natrafiali na takie treści w wygenerowanych przez sztuczną inteligencję tekstach. Za swoją pracę Kenijczycy otrzymywali maksymalnie 2 dolary amerykańskie na godzinę.
W 2022 roku Sama zakończyła swoją współpracę z OpenAI na osiem miesięcy przed końcem obowiązującej ich umowy. Częściowo firma zdecydowała się na taki krok ze względu na traumatyczny charakter pracy Kenijczyków. Jednak znaczący wpływ na ich decyzję miał inny reportaż, który ukazał się w lutym 2022 roku w "Time". Artykuł dotyczył pracy moderatorów treści Sama, którzy pracowali dla Mety. Zadaniem pracowników było banowanie zdjęć i filmów przedstawiających egzekucje, gwałty i wykorzystywanie dzieci. Za swoją pracę dostawali 1,5 dolara za godzinę.
Sztuczna inteligencja nie jest etyczna?
Twórcy ChatGPT ostatecznie przyznali, że korzystali z usług firmy dostarczającej jej podwykonawców z Kenii. Jak jednak podkreślają, wszystko to po to, by użytkownicy dostali najlepszy i bezpieczny produkt.
- Naszą misją jest zapewnienie korzyści ze sztucznej inteligencji dla całej ludzkości i ciężko pracujemy, aby budować stabilne, bezpieczne i użyteczne systemy AI, w których ograniczone są szkodliwe treści oraz stronniczość – powiedział cytowany przez "Time" rzecznik OpenAI.
W związku z wykorzystywaniem i traumatyzowaniem przez firmę Sama Kenijczyków, rozpoczęła się dyskusja na temat tego, jak w etyczny sposób można włączać ludzi w tworzenie produktów opartych na sztucznej inteligencji. Pewne jest jedno - nie powinno dochodzić do sytuacji, w której kosztem bezpieczeństwa uprzywilejowanej części ludzkości, traumatyzuje się innych ludzi.
Jedna z osób pracujących nad ChatGPT powiedziała "Time", że była dręczona powracającymi wizjami po tym, jak przeczytała szczegółowy opis sytuacji, w której mężczyzny uprawiał seks z psem w obecności dziecka. Dodajmy, że podobne treści pracownicy Sama oglądali przez dziewięć godzin dziennie, a do przeanalizowania w tym czasie mieli od 150 do 250 pełnych przemocy tekstów.
Źródło: Time
Popularne
- Jelly Frucik zablokowany na TikToku. "Ryczę i jestem w rozsypce"
- Kim są "slavic dolls"? Śmiertelnie niebezpieczny trend na TikToku
- Vibez Creators Awards - wybierz najlepszych twórców i wygraj wejściówkę na galę!
- Amerykanie nie umieją zrobić kisielu? Kolejna odsłona slavic trendu
- Były Julii Żugaj szantażował jurorów "Tańca z gwiazdami"? Szalona teoria fanów
- Quebonafide ogłosił finałowy koncert? "Będzie tłusto"
- Chłopak Seleny Gomez się nie myje? Prawda wyszła na jaw
- Jurorka "Tańca z gwiazdami" węszy romans? "Ja nie widzę tej relacji"
- Agata Duda trenduje za granicą. Amerykanie w szoku