Google stworzyło Imagen, najstraszniejszy program na świecie. SI przetwarza słowa na fotorealistyczne obrazy
Czy Google kiedyś przejmie kontrolę nad światem? Nie wiem. Ale czy właśnie zostało stworzone genialne SI, które nauczyło się tworzyć zdjęcia na podstawie kilku słów? Tak - i to wygląda tak dobrze, że aż przerażająco.
Google z jednej strony wydaje się bardzo potulną i miłą korporacją, tworzącą fajny system Android czy YouTube. Z drugiej strony firma chwali się swoimi odkryciami - i te czasem potrafią przerazić. Kiedyś obawialiśmy się noszenia "smart okularów" z wbudowanym aparatem, a teraz… teraz powstała SI, która tworzy obrazy na podstawie słów.
Podobne
- Google ma bata na AI. Pokaże, które obrazy są fałszywe
- Google po interwencji Vibeza zamknął nowy patokanał Jaszczura
- Elon Musk przejmuje Twittera… no, 9,2% udziałów. Pora na EDYCJĘ tweetów?
- Generator SI. Przerobi zdjęcie na anime za darmo. Jak to działa?
- Google pokaże zniszczoną Ukrainę na Google Maps. Oto digitalizacja zniszczeń
*SI = Sztuczna Inteligencja.
Google z SI przetwarzającym słowa na fotorealistyczne obrazy
Imagen to nazwa SI, która jest w stanie przetworzyć jakieś słowo, np. "pies w kapeluszu" i stworzyć na jego podstawie obraz, który nierzadko trudno byłoby odróżnić od rzeczywistości. Wszystko ma działać na podstawie sztucznej inteligencji i nauczania maszynowego.
Celem autorów było stworzenie programu, który jest w stanie tworzyć niemożliwe do odróżnienia od rzeczywistości obrazy. Poniżej znajduje się przykład tego, co system może utworzyć na podstawie opisu: "łysy orzeł z czekolady w proszku, mango i bitej śmietany":
"Smoczy owoc ubrany w pas karate na śniegu":
"Zdjęcie psa rasy Corgi jadącego na rowerze na Times Square. Ma na sobie okulary przeciwsłoneczne i kapelusz plażowy":
Imagen nie dla szerszej publiki?
Jak podaje m.in. serwis Engadget, Imagen nie jest dostępny publicznie. Google uważa, że nie nadaje się on jeszcze do powszechnego użytku z kilku powodów. Problemem jest m.in. pobieranie próbek z sieci, co tworzy swoje problemy:
Chociaż takie podejście umożliwiło szybki postęp algorytmiczny w ostatnich latach, zbiory danych tego rodzaju często odzwierciedlają społeczne stereotypy, opresyjne punkty widzenia i uwłaczające lub w inny sposób szkodliwe skojarzenia z marginalizowanymi grupami tożsamości.
Chociaż podzbiór naszych danych szkoleniowych został przefiltrowany w celu usunięcia szumu i niepożądanych treści, takich jak obrazy pornograficzne i toksyczny język, wykorzystaliśmy również zbiór danych LAION-400M, o którym wiadomo, że zawiera szeroki zakres nieodpowiednich treści, w tym obrazy pornograficzne, rasistowskie obelgi i szkodliwe stereotypy społeczne - piszą naukowcy w swojej pracy.
Jak twierdzą badacze, z tego powodu Google Imagen odziedziczył "społeczne uprzedzenia i ograniczenia dużych modeli językowych" i może przedstawiać "szkodliwe stereotypy i reprezentacje".
Źródło: Engadget, imagen.research.google
Popularne
- Dawid Podsiadło nie wytrzymał? Ostro wyjaśnił hejterów
- "Oi oi oi baka". Kontrowersyjny trend już w szkołach w Polsce
- Budda oburzony zachowaniem dziecka. "To przegięcie pały"
- Upadek Człowieka Lodu? Wim Hof latami skrywał tajemnicę
- Kaja Godek nie wierzy w działanie szczepionek? "Teraz HPV, potem kolejne"
- Jelly Frucik mocno o "Dzień Dobry TVN". "Wyszedłem na patolę"
- Nastoletnia Julia popełniła samobójstwo. Jej oprawczyni nagrała "przeprosiny"
- Takefun w ostrych słowach o Buddzie. Czy to początek kolejnego pozwu?
- Bracia Menendez wyjdą na wolność? Córka Erika przerywa milczenie