Stable Diffusion – nowy darmowy model generujący obraz na podstawie tekstu

Stable Diffusion – nowy darmowy model generujący obraz na podstawie tekstu

Blog sztuczna inteligencja

Udostępniony model Stable Diffusion w github.com powstał przy współpracy Stability AI i Runway. O firmie Stability AI już pisaliśmy w związku z wydaniem właśnie przez tą firmę rewelacyjnego generatora DreamStudio Beta Litle.

Stable Diffusion działa na GPU Nvidia z co najmniej 10 GB VRAM i generuje obraz w rozdzielczości 512×512 pikseli w kilka sekund. W moim przypadku na RTX A4000 wygenerowanie jednego obrazu trwało 8 sekund.

Wszystkie informację jak zainstalować i skonfigurować model znajdziecie pod tym linkiem: https://github.com/CompVis/stable-diffusion

Udostępniony model nie można oczywiście porównywać do DreamStudio Beta Litle jednak na pewno znacznie przewyższa DALL-E Mini pod względem jakości generowanych obrazów. Poniżej /wybrane/ zdjęcia wygenerowane przy pomocy nowego darmowego modelu.

Na początek kilka portretów
Pejzaże
Pora na grafiki w stylu Andy Warhol. Tak wyobraża sobie SI zespół The Beatles
Tak wyglądają puszki piwa w stylu Andy Warhol.
Królik na rowerku.
Futurystyczne miasta.
Wesoły robot na rowerku.
Donald Trump w stylu Andy Warhol.
Stable Diffusion - nowy darmowy model generujący obraz na podstawie tekstu
Kosmonauta łowi ryby na księżycu.
Albert Einstein w stylu Pablo Picasso

Jak widzicie nowy darmowy model ma spore możliwości jednak raczej nie nadaje się do tworzenia foto-realistycznych zdjęć, ale i tak jestem jego dużym wrażeniem.

Dodaj komentarz

18 − dziewięć =