Google stworzyło Imagen, najstraszniejszy program na świecie. SI przetwarza słowa na fotorealistyczne obrazy
Czy Google kiedyś przejmie kontrolę nad światem? Nie wiem. Ale czy właśnie zostało stworzone genialne SI, które nauczyło się tworzyć zdjęcia na podstawie kilku słów? Tak - i to wygląda tak dobrze, że aż przerażająco.
Google z jednej strony wydaje się bardzo potulną i miłą korporacją, tworzącą fajny system Android czy YouTube. Z drugiej strony firma chwali się swoimi odkryciami - i te czasem potrafią przerazić. Kiedyś obawialiśmy się noszenia "smart okularów" z wbudowanym aparatem, a teraz… teraz powstała SI, która tworzy obrazy na podstawie słów.
Podobne
- Google ma bata na AI. Pokaże, które obrazy są fałszywe
- Google po interwencji Vibeza zamknął nowy patokanał Jaszczura
- Polak poszedł na całość. Niesamowite, co zbudował w ogrodzie
- YouTube wprowadził dubbing. Czy skorzystają na nim polscy twórcy?
- Elon Musk przejmuje Twittera… no, 9,2% udziałów. Pora na EDYCJĘ tweetów?
*SI = Sztuczna Inteligencja.
Google z SI przetwarzającym słowa na fotorealistyczne obrazy
Imagen to nazwa SI, która jest w stanie przetworzyć jakieś słowo, np. "pies w kapeluszu" i stworzyć na jego podstawie obraz, który nierzadko trudno byłoby odróżnić od rzeczywistości. Wszystko ma działać na podstawie sztucznej inteligencji i nauczania maszynowego.
Celem autorów było stworzenie programu, który jest w stanie tworzyć niemożliwe do odróżnienia od rzeczywistości obrazy. Poniżej znajduje się przykład tego, co system może utworzyć na podstawie opisu: "łysy orzeł z czekolady w proszku, mango i bitej śmietany":
"Smoczy owoc ubrany w pas karate na śniegu":
"Zdjęcie psa rasy Corgi jadącego na rowerze na Times Square. Ma na sobie okulary przeciwsłoneczne i kapelusz plażowy":
Imagen nie dla szerszej publiki?
Jak podaje m.in. serwis Engadget, Imagen nie jest dostępny publicznie. Google uważa, że nie nadaje się on jeszcze do powszechnego użytku z kilku powodów. Problemem jest m.in. pobieranie próbek z sieci, co tworzy swoje problemy:
Chociaż takie podejście umożliwiło szybki postęp algorytmiczny w ostatnich latach, zbiory danych tego rodzaju często odzwierciedlają społeczne stereotypy, opresyjne punkty widzenia i uwłaczające lub w inny sposób szkodliwe skojarzenia z marginalizowanymi grupami tożsamości.
Chociaż podzbiór naszych danych szkoleniowych został przefiltrowany w celu usunięcia szumu i niepożądanych treści, takich jak obrazy pornograficzne i toksyczny język, wykorzystaliśmy również zbiór danych LAION-400M, o którym wiadomo, że zawiera szeroki zakres nieodpowiednich treści, w tym obrazy pornograficzne, rasistowskie obelgi i szkodliwe stereotypy społeczne - piszą naukowcy w swojej pracy.
Jak twierdzą badacze, z tego powodu Google Imagen odziedziczył "społeczne uprzedzenia i ograniczenia dużych modeli językowych" i może przedstawiać "szkodliwe stereotypy i reprezentacje".
Źródło: Engadget, imagen.research.google
Popularne
- To oni pozwali Sylwestra Wardęgę. Lista jest bardzo długa
- W 12 godziny spała z 1000 facetów. Onlyfansiara twierdzi, że pobiła rekord
- Dubajska czekolada trafiła do Żabki. Limitowana i ekstremalnie droga
- AI Iga Świątek wali szoty w reklamie pubu Mentzena. Będą pozwy?
- "Fazolandia" sprzedana. Koniec marzenia słynnego youtubera
- Jelly Frucik spał z Wojtkiem Golą? Żaden 20-stronnicowy dokument tego nie wymaże
- Dawid Podsiadło z AliExpress. Hubert jak Maciej Musiał - też posprząta mieszkanie
- Merch Drwala 2025 nadchodzi. Trzy daty, które lepiej zapamiętaj
- 19 stycznia krytyczną datą dla TikToka. MrBeast zabrał głos