Ciemna strona sztucznej inteligencji. Szantażowanie nastolatków i deepfake
Szybki rozwój sztucznej inteligencji niesie ze sobą również negatywne konsekwencje. Dark web pełen jest przestępców, którzy krok po kroku uczą, w jaki sposób wykorzystywać deepfake do szantażowania nieletnich.
Sztuczna inteligencja dotarła do ciemnej strony internetu. Przestępcy na dark webie udostępniają przerażające treści. Uczą bowiem innych użytkowników, w jaki sposób stworzyć deepfake, aby mieć dostęp do wykonanej przez siebie por****afii dziecięcej i móc szantażować nieletnich.
Podobne
- Leczenie nowotworu. Rewolucja dzięki sztucznej inteligencji?
- Zaginięcia nastolatków. Przerażający trend na TikToku
- Mark Zuckerberg o sztucznej inteligencji. Zapowiada duży projekt
- Uczelnia wyższa skorzystała ze sztucznej inteligencji. Prawie im wyszło?
- Dziewczynka wychowywana przez psy. Szczeka i warczy
Ciemna strona sztucznej inteligencji
Szybki rozwój sztucznej inteligencji i programów zdolnych do generowania realistycznych obrazów doprowadził do eksplozji p*****rafii dziecięcej i prób szantażu ze strony przestępców zdecydowanych wykorzystywać nieletnich.
- Pedofile wykorzystują ewoluujące narzędzia na różne sposoby, często z zamiarem tworzenia i rozpowszechniania obrazów wykorzystywania seksualnego dzieci w internecie - powiedział w wywiadzie dla Fox News Yaron Litwin, ekspert ds. bezpieczeństwa cyfrowego w Canopy.
Jedna z technik wykorzystywanych przez przestępców seksualnych polega na edycji prawdziwej fotografii w pełni ubranego nastolatka i przekształceniu jej w nagi obraz. Yaron Litwin opisał jeden konkretny przykład.
15-letni chłopak interesował się fitnessem i dołączył do grupy, w której byli inni entuzjaści zdrowego stylu życia oraz siłowni. Pewnego dnia udostępnił w niej zdjęcie siebie chwalącego się klatką piersiową po treningu. Fotografia została zapisana przez użytkowników grupy, zmontowana tak, jakby chłopak był nagi i wykorzystywana do szantażowania nastolatka.
W 2022 r. główne serwisy społecznościowe zgłosiły aż 9 proc. wzrost podejrzanych materiałów przedstawiających seksualne wykorzystywanie dzieci na swoich platformach. Spośród tych raportów 85 proc. pochodziło z platform cyfrowych Meta, takich jak Facebook, Instagram i WhatsApp.
Litwin powiedział, że proces edycji istniejących obrazów za pomocą sztucznej inteligencji stał się niezwykle łatwy i szybki, często prowadząc do strasznych doświadczeń dla rodzin. Ta łatwość użycia przekłada się również na tworzenie całkowicie sfabrykowanych obrazów wykorzystywania seksualnego dzieci, które nie opierają się na autentycznych obrazach.
Według niedawnej analizy generowane przez sztuczną inteligencję obrazy dzieci zaangażowanych w akty seksualne mogą potencjalnie zakłócić centralny system śledzenia, który blokuje CSAM w sieci. W obecnej formie system jest przeznaczony wyłącznie do wykrywania znanych obrazów nadużyć, a nie generowanych. Ta nowa zmienna może skłonić organy ścigania do poświęcenia więcej czasu na ustalenie, czy obraz jest prawdziwy, czy wygenerowany przez sztuczną inteligencję.
Źródło: foxnews.com
Popularne
- Rozwój PSZOK-ów dzięki funduszom unijnym
- Poznaj Polskę na dwóch kołach
- Liam Payne wiecznie żywy. Znów usłyszymy jego głos
- Marcin Dubiel próbuje wrócić do internetu. Kolejny epic fail
- Kamil z Ameryki w akcji. Koszulki #freebudda wspierają Strefę 77
- Wojtek Gola na streamie u Jelly Frucika. Było piekielnie gorąco
- Młodzi na rynku pracy w Unii Europejskiej
- Rok po wybuchu Pandora Gate. Co dalej z ekstradycją Stuu?
- Fundusze unijne a problemy szkół