Google stworzyło Imagen, najstraszniejszy program na świecie. SI przetwarza słowa na fotorealistyczne obrazy
Czy Google kiedyś przejmie kontrolę nad światem? Nie wiem. Ale czy właśnie zostało stworzone genialne SI, które nauczyło się tworzyć zdjęcia na podstawie kilku słów? Tak - i to wygląda tak dobrze, że aż przerażająco.
Google z jednej strony wydaje się bardzo potulną i miłą korporacją, tworzącą fajny system Android czy YouTube. Z drugiej strony firma chwali się swoimi odkryciami - i te czasem potrafią przerazić. Kiedyś obawialiśmy się noszenia "smart okularów" z wbudowanym aparatem, a teraz… teraz powstała SI, która tworzy obrazy na podstawie słów.
Podobne
- Google ma bata na AI. Pokaże, które obrazy są fałszywe
- Google po interwencji Vibeza zamknął nowy patokanał Jaszczura
- Polak poszedł na całość. Niesamowite, co zbudował w ogrodzie
- Elon Musk przejmuje Twittera… no, 9,2% udziałów. Pora na EDYCJĘ tweetów?
- Generator SI. Przerobi zdjęcie na anime za darmo. Jak to działa?
*SI = Sztuczna Inteligencja.
Google z SI przetwarzającym słowa na fotorealistyczne obrazy
Imagen to nazwa SI, która jest w stanie przetworzyć jakieś słowo, np. "pies w kapeluszu" i stworzyć na jego podstawie obraz, który nierzadko trudno byłoby odróżnić od rzeczywistości. Wszystko ma działać na podstawie sztucznej inteligencji i nauczania maszynowego.
Celem autorów było stworzenie programu, który jest w stanie tworzyć niemożliwe do odróżnienia od rzeczywistości obrazy. Poniżej znajduje się przykład tego, co system może utworzyć na podstawie opisu: "łysy orzeł z czekolady w proszku, mango i bitej śmietany":
"Smoczy owoc ubrany w pas karate na śniegu":
"Zdjęcie psa rasy Corgi jadącego na rowerze na Times Square. Ma na sobie okulary przeciwsłoneczne i kapelusz plażowy":
Imagen nie dla szerszej publiki?
Jak podaje m.in. serwis Engadget, Imagen nie jest dostępny publicznie. Google uważa, że nie nadaje się on jeszcze do powszechnego użytku z kilku powodów. Problemem jest m.in. pobieranie próbek z sieci, co tworzy swoje problemy:
Chociaż takie podejście umożliwiło szybki postęp algorytmiczny w ostatnich latach, zbiory danych tego rodzaju często odzwierciedlają społeczne stereotypy, opresyjne punkty widzenia i uwłaczające lub w inny sposób szkodliwe skojarzenia z marginalizowanymi grupami tożsamości.
Chociaż podzbiór naszych danych szkoleniowych został przefiltrowany w celu usunięcia szumu i niepożądanych treści, takich jak obrazy pornograficzne i toksyczny język, wykorzystaliśmy również zbiór danych LAION-400M, o którym wiadomo, że zawiera szeroki zakres nieodpowiednich treści, w tym obrazy pornograficzne, rasistowskie obelgi i szkodliwe stereotypy społeczne - piszą naukowcy w swojej pracy.
Jak twierdzą badacze, z tego powodu Google Imagen odziedziczył "społeczne uprzedzenia i ograniczenia dużych modeli językowych" i może przedstawiać "szkodliwe stereotypy i reprezentacje".
Źródło: Engadget, imagen.research.google
Popularne
- Jelly Frucik zablokowany na TikToku. "Ryczę i jestem w rozsypce"
- Kim są "slavic dolls"? Śmiertelnie niebezpieczny trend na TikToku
- Vibez Creators Awards - wybierz najlepszych twórców i wygraj wejściówkę na galę!
- Były Julii Żugaj szantażował jurorów "Tańca z gwiazdami"? Szalona teoria fanów
- Amerykanie nie umieją zrobić kisielu? Kolejna odsłona slavic trendu
- Quebonafide ogłosił finałowy koncert? "Będzie tłusto"
- Jurorka "Tańca z gwiazdami" węszy romans? "Ja nie widzę tej relacji"
- Chłopak Seleny Gomez się nie myje? Prawda wyszła na jaw
- Agata Duda trenduje za granicą. Amerykanie w szoku