Emma Watson wykorzystana przez deepfake w filmie 18+. To aplikacja dla dzieci?
O tym, że technologia deepfake może być niebezpieczna przekonaliśmy się, gdy streamerki z Twitcha zostały bez swojej wiedzy wykorzystane w filmach 18+. Teraz taki sam los spotkał Emmę Watson. Aplikacja, którą mogą pobrać dzieci, reklamuje się filmami deepfake 18+ z udziałem twarzy przypominającej aktorkę.
Deepfake to technologia, która przy pomocy sztucznej inteligencji umożliwia obróbkę dźwięku i obrazu. Dzięki temu możemy w dość realistyczny sposób manipulować twarzą i głosem dowolnej osoby. Powstał już nawet serial wykorzystujący tę technologię, w którym możemy zobaczyć Gretę Thunberg i Arianę Grande.
Podobne
- 2 dolary na godzinę oglądanie zoofilii. Tak powstał ChatGPT
- Student ukarany za korzystanie z ChatGPT. Uczelnie wprowadzą zakaz?
- Nowa aplikacja od TikToka. Lemon8 zagrozi Instagramowi?
- Sztuczna inteligencja Bard od Googla już działa. Lepsza niż ChatGPT?
- Komórka jak komputer? Tworzenie filmów na iPhone nie jest ograniczeniem
Jednak sztuczna inteligencja może zostać wykorzystana w mniej przyjemny sposób. W sieci coraz głośniej jest o aplikacji, przy pomocy której można zrobić swojego deepfake’a. W jej reklamie pojawia się osoba przypominająca aktorkę z Harry’ego Pottera - Emmę Watson. Gesty, które wykonuje postać, można odczytać jako erotyczne.
Reklama 18+ aplikacji do deepfake’ów z Emmą Watson
Na początku stycznia na Twitchu wybuchła afera związana z deepfake'ami. Jeden z popularniejszych streamerów został przyłapany na oglądaniu erotycznych filmów i zdjęć z wizerunkami dziewczyn z Twitcha. Kobiety nie miały pojęcia, że ich twarze zostały wykorzystane do stworzenia filmów 18+ przy pomocy technologii deepfake.
Teraz z podobną sytuacją muszą mierzyć się aktorki. W sieci pojawiło się nagranie reklamujące jedną z aplikacji, na którym widzimy osobę o twarzy przypominającej Emmę Watson. Kobieta pochyla się przed kamerą i zachowuje się w dwuznaczny, erotyczny sposób. Na takich samych filmach pojawiała się też twarz Scarlett Johansson.
Problem polega na tym, że to nie są prawdziwe aktorki, tylko reklama aplikacji do tworzenia deepfake’ów, która zachęca do "zamiany twarzy w filmie na jakąkolwiek osobę". Dzięki niej użytkownicy mogą nałożyć dowolną twarz na wybrany przez siebie film.
Co więcej, jak informuje portal NBC News, nagrania często pojawiały się na platformach Mety. W ciągu dwóch dni aplikacja wyświetliła ponad 230 reklam na Instagramie, Facebooku czy Messengerze. Po interwencji portalu Meta usunęła wszystkie reklamy aplikacji.
Niebezpieczne aplikacje deepfake
Informacją o szkodliwej reklamie na Twitterze podzieliła się Lauren Barton, studentka dziennikarstwa w Tennessee. Zwróciła uwagę na to, że aplikacja deepfake jest oznaczona jako dostępna dla osób powyżej dziewiątego roku życia. Zaznaczyła, że może się to bardzo negatywnie odbijać na uczniach i młodych osobach.
- Aplikację można wykorzystać w szkole średniej, przeciwko uczniom, którzy już są zastraszani. Może komuś zrujnować życie lub sprawić kłopoty w pracy. Do tego jest bardzo łatwa w użyciu i bezpłatna. Wystarczyło, że przesłałam zdjęcie swojej twarzy i już miałam 50 darmowych szablonów do wyboru - alarmuje dziennikarka w rozmowie z NBC News.
Nie trudno sobie wyobrazić, w jaki okropny i przemocowy sposób może zostać wykorzystana taka aplikacja. Przy pomocy technologii deepfake można rozpowszechniać i tworzyć fałszywe treści seksualne czy używać jej do zastraszania. Co prawda aplikacja jest płatna, ale niepokojące jest to, że w App Store do tej pory była dostępna dla osób od dziewiątego roku życia. W Google Play mogą ją pobrać nastolatki.
Firma odpowiedzialna za aplikację nie odniosła się do sprawy. Po prośbie o komentarz Apple usunął aplikację ze swojego sklepu. Choć jest to słuszne działanie, wciąż wiele wątpliwości pozostawia samo istnienie takiej aplikacji.
Biorąc pod uwagę zarówno to, co spotkało streamerki na Twitchu i te erotyczne reklamy, naprawdę powinniśmy się poważnie zastanowić nad wprowadzeniem prawnych regulacji dotyczących używania sztucznej inteligencji i tworzenia deepfake’ów. Jak widać na powyższych przykładach, to naprawdę niebezpieczne narzędzia.
Źródło: Twitter, NBC News
Popularne
- Jelly Frucik zablokowany na TikToku. "Ryczę i jestem w rozsypce"
- Kim są "slavic dolls"? Śmiertelnie niebezpieczny trend na TikToku
- Vibez Creators Awards - wybierz najlepszych twórców i wygraj wejściówkę na galę!
- Amerykanie nie umieją zrobić kisielu? Kolejna odsłona slavic trendu
- Były Julii Żugaj szantażował jurorów "Tańca z gwiazdami"? Szalona teoria fanów
- Quebonafide ogłosił finałowy koncert? "Będzie tłusto"
- Chłopak Seleny Gomez się nie myje? Prawda wyszła na jaw
- Jurorka "Tańca z gwiazdami" węszy romans? "Ja nie widzę tej relacji"
- Agata Duda trenduje za granicą. Amerykanie w szoku