Stable Diffusion 3
W ostatnim czasie branża AI przeżywa niezwykle ważne chwile, a Stability AI dołącza do wyścigu innowacji, prezentując wczesną wersję Stable Diffusion 3. Ten najnowszy model tekst-na-obraz charakteryzuje się znacznymi ulepszeniami w zakresie obsługi wielotematycznych promptów, jakości obrazu oraz renderowania tekstu. Architektura modelu, wahająca się od 800 milionów do 8 miliardów parametrów, łączy w sobie dyfuzję transformatorową i dopasowanie przepływu, co pozwala na osiągnięcie nowych standardów w generacji obrazów klasyfikacyjnych i wydajności modeli generatywnych.
Nowością w Stable Diffusion 3 jest wsparcie dla renderowania tekstu, co umożliwia tworzenie obrazów z tekstem podobnym do możliwości Dall-E 3 od OpenAI i Imagen 2 od Google. CEO Stability AI, Emad Mostaque, podzielił się przykładowymi obrazami wygenerowanymi za pomocą SD 3, pokazując zdolność modelu do tworzenia złożonych i wielowymiarowych kompozycji. Warto zauważyć, że model jest w stanie nauczyć się subtelnych efektów, takich jak odbicie kolorów otoczenia na przedmiotach, co może być efektem analizy zdjęć z planów filmowych wykorzystujących zielone ekrany.
Dostęp do Stable Diffusion w wersji 3 na razie jest ograniczony, ale istnieje możliwość zapisania się na listę oczekujących, aby uzyskać wczesny dostęp do modelu. Pomimo że duży nacisk położono na bezpieczeństwo AI, otwarty charakter modelu pozostaje niezmieniony, co pozwala społeczności na dalsze dostosowywanie go do swoich potrzeb.
Więcej informacji na temat najnowszego modelu Stable Diffusion znajdziesz tutaj.