Ciemna strona sztucznej inteligencji. Szantażowanie nastolatków i deepfake
Szybki rozwój sztucznej inteligencji niesie ze sobą również negatywne konsekwencje. Dark web pełen jest przestępców, którzy krok po kroku uczą, w jaki sposób wykorzystywać deepfake do szantażowania nieletnich.
Sztuczna inteligencja dotarła do ciemnej strony internetu. Przestępcy na dark webie udostępniają przerażające treści. Uczą bowiem innych użytkowników, w jaki sposób stworzyć deepfake, aby mieć dostęp do wykonanej przez siebie por****afii dziecięcej i móc szantażować nieletnich.
Podobne
- Leczenie nowotworu. Rewolucja dzięki sztucznej inteligencji?
- Zaginięcia nastolatków. Przerażający trend na TikToku
- Mark Zuckerberg o sztucznej inteligencji. Zapowiada duży projekt
- Uczelnia wyższa skorzystała ze sztucznej inteligencji. Prawie im wyszło?
- Dziewczynka wychowywana przez psy. Szczeka i warczy
Ciemna strona sztucznej inteligencji
Szybki rozwój sztucznej inteligencji i programów zdolnych do generowania realistycznych obrazów doprowadził do eksplozji p*****rafii dziecięcej i prób szantażu ze strony przestępców zdecydowanych wykorzystywać nieletnich.
- Pedofile wykorzystują ewoluujące narzędzia na różne sposoby, często z zamiarem tworzenia i rozpowszechniania obrazów wykorzystywania seksualnego dzieci w internecie - powiedział w wywiadzie dla Fox News Yaron Litwin, ekspert ds. bezpieczeństwa cyfrowego w Canopy.
Jedna z technik wykorzystywanych przez przestępców seksualnych polega na edycji prawdziwej fotografii w pełni ubranego nastolatka i przekształceniu jej w nagi obraz. Yaron Litwin opisał jeden konkretny przykład.
15-letni chłopak interesował się fitnessem i dołączył do grupy, w której byli inni entuzjaści zdrowego stylu życia oraz siłowni. Pewnego dnia udostępnił w niej zdjęcie siebie chwalącego się klatką piersiową po treningu. Fotografia została zapisana przez użytkowników grupy, zmontowana tak, jakby chłopak był nagi i wykorzystywana do szantażowania nastolatka.
W 2022 r. główne serwisy społecznościowe zgłosiły aż 9 proc. wzrost podejrzanych materiałów przedstawiających seksualne wykorzystywanie dzieci na swoich platformach. Spośród tych raportów 85 proc. pochodziło z platform cyfrowych Meta, takich jak Facebook, Instagram i WhatsApp.
Litwin powiedział, że proces edycji istniejących obrazów za pomocą sztucznej inteligencji stał się niezwykle łatwy i szybki, często prowadząc do strasznych doświadczeń dla rodzin. Ta łatwość użycia przekłada się również na tworzenie całkowicie sfabrykowanych obrazów wykorzystywania seksualnego dzieci, które nie opierają się na autentycznych obrazach.
Według niedawnej analizy generowane przez sztuczną inteligencję obrazy dzieci zaangażowanych w akty seksualne mogą potencjalnie zakłócić centralny system śledzenia, który blokuje CSAM w sieci. W obecnej formie system jest przeznaczony wyłącznie do wykrywania znanych obrazów nadużyć, a nie generowanych. Ta nowa zmienna może skłonić organy ścigania do poświęcenia więcej czasu na ustalenie, czy obraz jest prawdziwy, czy wygenerowany przez sztuczną inteligencję.
Źródło: foxnews.com
Popularne
- Amsterdam zaprasza na rave na autostradzie. 9 godzin mocnego techno
- Łzy i drżący głos. PashaBiceps stracił czworonożnego przyjaciela
- Maskotki Minecraft do kupienia w Biedronce. Ile kosztują?
- Podejrzany o zabójstwo tiktokerki wrócił na miejsce zbrodni. Zostawił przerażający list
- Lalka Anabelle wyruszyła w upiorne tour. Warrenowie ostrzegali, żeby jej nie ruszać
- Ile przetrwałbyś na platformie bez lajków? Daj się wciągnąć w fediwersum
- Uzależnił się od smartfona. Straszne, co stało się z jego głową
- Kawiaq nie przyznaje się do winy. Ruszył proces patostreamerów
- "Kocham cię". Justin Bieber w ogniu krytyki po słowach do 17-latki