thumbnail of endchan_markup (1).png
thumbnail of endchan_markup (1).png
endchan_markup (1) png
(177.17 KB, 1920x804)
thumbnail of ed6a618e-2028-4336-95f5-7eb86d914d53.png
thumbnail of ed6a618e-2028-4336-95f5-7eb86d914d53.png
ed6a618e-2028-4336-95... png
(340.86 KB, 1920x983)
thumbnail of f0657d42-672b-46a7-a3ef-a3289323a54a.png
thumbnail of f0657d42-672b-46a7-a3ef-a3289323a54a.png
f0657d42-672b-46a7-a3... png
(291.64 KB, 1920x983)
 >>/660/
Эти картинки (с сервалом в свитере) анон с Новеря же генерирует. У него как раз локальный дифужон с этим всем, да.

Получается, можно не рассчитывать получить что-то приемлемое из этой демки https://huggingface.co/spaces/runwayml/stable-diffusion-v1-5?

Даже на "a man picking apricots- from a tree" оно выдает хорошую фотореалистичность, но с аниме-стилем без "колдовства" сразу начинается derp.

>  Вот нарисованный краб с отрицательной и положительной [photography] (угадай где какой промпт).
Думаю 649f6971 с положительной фотографией, 54e6981eс отрицательной.

>  Но ты можешь вручную проверять CLIPом пакет векторов типичных кейвордов. 
Вот так? 
Эта хотелка родилась у меня от того, что я не знаю вообще какие ему нужны для качественного результата.
Но я так и не понял, что мешает инверснуть процесс - не картинка после магических слов, а слова по картинке. Почему так нельзя сделать с уже имеющимися моделями?