Google ma bata na AI. Pokaże, które obrazy są fałszywe
Google dodaje dwie nowe funkcje do wyszukiwarki obrazów, aby ograniczyć szerzenie dezinformacji. To odpowiedź na szybki rozwój narzędzi opartych na sztucznej inteligencji, które ułatwiły tworzenie realistycznych, fałszywych obrazów.
W ostatnich miesiącach mieliśmy do czynienia z zalewem obrazów wygenerowanych przez narzędzia AI. Zobaczyliśmy m.in. papieża Franciszka, który ociekał dripem w puchowej śnieżnobiałej kurtce. Z drugiej strony tej technologicznej rewolucji pojawiały się atrakcyjne kobiety AI. Stulejarze słono płacili za ich zdjęcia, a przecież mogli wygenerować je sami.
Podobne
- AI tworzy państwa jako postacie z Disneya. Polska to jakiś żart
- Rewolucyjna pomoc dla niewidomych. Technologia na najwyższym poziomie
- Niesamowity rozwój technologii. Robot-dentysta wykonał zabieg
- Mark Zuckerberg o sztucznej inteligencji. Zapowiada duży projekt
- "Kto" został pierwszą Miss AI? Zaskakujący werdykt
Google pokaże, które obrazy są fałszywe i generowane przez AI
Od pewnego czasu, w związku z popularyzacją obrazów AI, mówi się o potrzebie ich weryfikowania. Tutaj do akcji w końcu wkracza Google, które będzie oznaczać fałszywe i generowane przez AI grafiki - donosi Bloomberg.
Pierwsza funkcja nosi nazwę "Informacje o tym obrazie". Będzie pozwalać na uzyskanie dodatkowych danych np. o tym, kiedy obraz lub podobne grafiki zostały zindeksowane przez Google, a także, gdzie pojawiły się online po raz pierwszy i gdzie jeszcze istnieją. Dzięki temu użytkownicy będą mogli zidentyfikować ich oryginalne źródło oraz odnaleźć ewentualne informacje o fałszywych obrazach, gromadzone przez inne organizacje, np. agencje prasowe.
Google oznaczy w swoich narzędziach każdy obraz wygenerowany przez sztuczną inteligencję. Gigant współpracuje też z innymi platformami i dostawcami usług, aby mieć pewność, że także dodadzą te same znaczniki do publikowanych plików. Wśród dostawców zaangażowanych w projekt są Midjourney i Shutterstock.
- To ogromny krok do przodu w walce z dezinformacją i fałszywymi danymi pojawiającymi się w sieci. Wszelkie narzędzia stworzone w celu ograniczenia ryzyka wykorzystania obrazów i informacji w niewłaściwym kontekście, torują drogę do bezpieczniejszego i bardziej świadomego korzystania z Internetu - komentuje Sadkowski.
Ostatecznym celem będzie zapewnienie, że wszystkie treści AI pojawiające się w wynikach wyszukiwania są odpowiednio oznaczone.
Nie tylko Google chce weryfikować obrazy AI
Potwierdzanie pochodzenia i autentyczności obrazów online to rosnące wyzwanie w dobie rozwoju sztucznej inteligencji. Kilka startupów także pracuje nad stworzeniem narzędzi do weryfikacji i uwierzytelniania. Wspierana przez Microsoft firma Truepic oferuje systemy, które zapewniają, że obraz nie został w żaden sposób zmieniony - od momentu jego powstania do dostarczenia odbiorcom.
- Będą jednak na pewno także sposoby na obejście planowanych narzędzi, szczególnie poprzez używanie sztucznej inteligencji poza powszechnie znanymi platformami. Należy więc nadal zachowywać daleko posuniętą ostrożność, bo generowanie fałszywych obrazów to wciąż rozwijające się zagrożenie - apeluje ekspert ESET.
Popularne
- Wódka w saszetkach już w polskich sklepach. Zdjęcie obiegło sieć
- Jak działają policyjne "suszarki"? Influencer sprawdził ich potencjał
- Beyoncé i Jay-Z tracą obserwatorów. Ludzie wierzą w teorie spiskowe
- Ohydne nagranie z backstage'u. Skolim broni Luxona
- Nastoletnia Julia popełniła samobójstwo. Jej oprawczyni nagrała "przeprosiny"
- Budda ma ochronę? Influencer spowiada się u Żurnalisty
- Takefun zdradza, ile Budda miał zarobić na loterii. Kwota wbija w fotel
- Tiktoker utknął w korku. Wszystko przez Marsz Furasów
- Oddany fandom Julii Żugaj. Na czym polega fenomen dziewczyny?