Google stworzyło Imagen, najstraszniejszy program na świecie. SI przetwarza słowa na fotorealistyczne obrazy
Czy Google kiedyś przejmie kontrolę nad światem? Nie wiem. Ale czy właśnie zostało stworzone genialne SI, które nauczyło się tworzyć zdjęcia na podstawie kilku słów? Tak - i to wygląda tak dobrze, że aż przerażająco.
Google z jednej strony wydaje się bardzo potulną i miłą korporacją, tworzącą fajny system Android czy YouTube. Z drugiej strony firma chwali się swoimi odkryciami - i te czasem potrafią przerazić. Kiedyś obawialiśmy się noszenia "smart okularów" z wbudowanym aparatem, a teraz… teraz powstała SI, która tworzy obrazy na podstawie słów.
Podobne
- Google ma bata na AI. Pokaże, które obrazy są fałszywe
- Google po interwencji Vibeza zamknął nowy patokanał Jaszczura
- Polak poszedł na całość. Niesamowite, co zbudował w ogrodzie
- YouTube wprowadził dubbing. Czy skorzystają na nim polscy twórcy?
- Elon Musk przejmuje Twittera… no, 9,2% udziałów. Pora na EDYCJĘ tweetów?
*SI = Sztuczna Inteligencja.
Google z SI przetwarzającym słowa na fotorealistyczne obrazy
Imagen to nazwa SI, która jest w stanie przetworzyć jakieś słowo, np. "pies w kapeluszu" i stworzyć na jego podstawie obraz, który nierzadko trudno byłoby odróżnić od rzeczywistości. Wszystko ma działać na podstawie sztucznej inteligencji i nauczania maszynowego.
Celem autorów było stworzenie programu, który jest w stanie tworzyć niemożliwe do odróżnienia od rzeczywistości obrazy. Poniżej znajduje się przykład tego, co system może utworzyć na podstawie opisu: "łysy orzeł z czekolady w proszku, mango i bitej śmietany":
"Smoczy owoc ubrany w pas karate na śniegu":
"Zdjęcie psa rasy Corgi jadącego na rowerze na Times Square. Ma na sobie okulary przeciwsłoneczne i kapelusz plażowy":
Imagen nie dla szerszej publiki?
Jak podaje m.in. serwis Engadget, Imagen nie jest dostępny publicznie. Google uważa, że nie nadaje się on jeszcze do powszechnego użytku z kilku powodów. Problemem jest m.in. pobieranie próbek z sieci, co tworzy swoje problemy:
Chociaż takie podejście umożliwiło szybki postęp algorytmiczny w ostatnich latach, zbiory danych tego rodzaju często odzwierciedlają społeczne stereotypy, opresyjne punkty widzenia i uwłaczające lub w inny sposób szkodliwe skojarzenia z marginalizowanymi grupami tożsamości.
Chociaż podzbiór naszych danych szkoleniowych został przefiltrowany w celu usunięcia szumu i niepożądanych treści, takich jak obrazy pornograficzne i toksyczny język, wykorzystaliśmy również zbiór danych LAION-400M, o którym wiadomo, że zawiera szeroki zakres nieodpowiednich treści, w tym obrazy pornograficzne, rasistowskie obelgi i szkodliwe stereotypy społeczne - piszą naukowcy w swojej pracy.
Jak twierdzą badacze, z tego powodu Google Imagen odziedziczył "społeczne uprzedzenia i ograniczenia dużych modeli językowych" i może przedstawiać "szkodliwe stereotypy i reprezentacje".
Źródło: Engadget, imagen.research.google
Popularne
- Znamy przyczynę śmierci sowy Duolingo. Dua Lipa opłakuje ptaka
- Stuu został pobity? Szokujące nagranie obiegło internet
- Sowa Duolingo nie żyje. Wszyscy możecie ją mieć na sumieniu
- Żugajki na tropie nowego partnera Julii. Kim jest tajemniczy mężczyzna?
- Kotolga jest viralem na TikToku. Kim jest i co o niej wiadomo?
- Powstał tłumacz z polskiego na deweloperski. "Zrozum groźne gatunki"
- Sprawa korepetytora trafiła do Rzeczniczki Praw Dziecka. Co dalej?
- Damiano David wystąpił w Polsce. Zagrał nowy kawałek
- Jak pachną perfumy Skolima BEBECITA? Ekspert zabrał głos