Stable Diffusion – nowy darmowy model generujący obraz na podstawie tekstu

Stable Diffusion – nowy darmowy model generujący obraz na podstawie tekstu

Blog sztuczna inteligencja

Udostępniony model Stable Diffusion w github.com powstał przy współpracy Stability AI i Runway. O firmie Stability AI już pisaliśmy w związku z wydaniem właśnie przez tą firmę rewelacyjnego generatora DreamStudio Beta Litle.

Stable Diffusion działa na GPU Nvidia z co najmniej 10 GB VRAM i generuje obraz w rozdzielczości 512×512 pikseli w kilka sekund. W moim przypadku na RTX A4000 wygenerowanie jednego obrazu trwało 8 sekund.

Wszystkie informację jak zainstalować i skonfigurować model znajdziecie pod tym linkiem: https://github.com/CompVis/stable-diffusion

Udostępniony model nie można oczywiście porównywać do DreamStudio Beta Litle jednak na pewno znacznie przewyższa DALL-E Mini pod względem jakości generowanych obrazów. Poniżej /wybrane/ zdjęcia wygenerowane przy pomocy nowego darmowego modelu.

Na początek kilka portretów
Pejzaże
Pora na grafiki w stylu Andy Warhol. Tak wyobraża sobie SI zespół The Beatles
Tak wyglądają puszki piwa w stylu Andy Warhol.
Królik na rowerku.
Futurystyczne miasta.
Wesoły robot na rowerku.
Donald Trump w stylu Andy Warhol.
Stable Diffusion - nowy darmowy model generujący obraz na podstawie tekstu
Kosmonauta łowi ryby na księżycu.
Albert Einstein w stylu Pablo Picasso

Jak widzicie nowy darmowy model ma spore możliwości jednak raczej nie nadaje się do tworzenia foto-realistycznych zdjęć, ale i tak jestem jego dużym wrażeniem.

Dodaj komentarz

14 + jeden =

BLOG TECHNOLOGICZNY Gadzety360.pl
Przegląd prywatności

Ta strona korzysta z ciasteczek, aby zapewnić Ci najlepszą możliwą obsługę. Informacje o ciasteczkach są przechowywane w przeglądarce i wykonują funkcje takie jak rozpoznawanie Cię po powrocie na naszą stronę internetową i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla Ciebie najbardziej interesujące i przydatne.