Поигрался со Stable Diffusion
Давно хотел наконец‑то поработать с визуальными ИИ‑моделями — тем более после всех разговоров о том, как “легко” это делается.
Перепробовал разные алгоритмы, но всё время упирался в ограничения или предсказуемость их работы. В итоге решил поднять Stable Diffusion локально на макбуке с M4 — благо сейчас доступно несколько адаптированных сборок под macOS. Это открытая модель генерации изображений, где ты сам решаешь, что и как запускать, без внешних лимитов.
Скачиваешь нужные модели на civitai Civitai, подбираешь тематические LoRA, и дальше начинается весёлый день‑два подбора рабочих сочетаний настроек. Для новичков это адский процесс, особенно на маке. Я шел по инструкции из Perplexity, и в целом установка на ARM‑процессоре прошла без боли: ставим Python, создаем окружение, запускаем Stable Diffusion в консоли, а потом уже открываем интерфейс в браузере.
Поначалу тестировал хардкорные модели — от CyberRealistic и LucentXL до Flux 1.Dev в fp16 и fp8. Примерно три дня пытался нащупать баланс Sampler, Steps, CFG и размера. На Civitai находил понравившиеся образы, смотрел промты, адаптировал их под себя. Хотел воспроизвести стиль своих любимых авторов вроде @squishypotato — и, конечно, с теми же параметрами получались совершенно другие результаты.
На низких Steps и слабом CFG лица часто плыли, иногда появлялись лишние руки или пальцы. Но это только подзадоривало. После пары ночей экспериментов понял главное различие: большинство картинок на Civitai созданы не на внутренней “инфраструктуре” сайта, а на более мощных системах с другими настройками.
Секрет оказался в простом апскейле — просто увеличил разрешение в два раза.
Апскейл реально улучшил детализацию: лица стали узнаваемее, кожа ровнее, предметы четче. Правда, цена — время. Генерация с 512×512 до 1024×1024 на M4 выросла с двух до примерно пяти минут. Но результат того стоил: картинки выглядели почти как у популярных ИИ‑артистов.
Чем больше сидел на Civitai и прокачивал насмотренность, тем чётче становилось понимание, какие сочетания параметров дают “киношную” картинку. Мой первый удачный результат настолько вдохновил, что я начал воссоздавать свои старые сохранёнки из инсты — например, работы AJ Hamilton.
Мой первый результат меня так пушил, что я наконец-то пытался повторить разные своих сохраненки из инсты. Например, работы AJ Hamilton:
Постепенно увлечение переросло в чистое задротство: я вылизывал каждую деталь, пока не получалось максимально близко к “реальному” фото. Иногда, конечно, перегибал — например, просил добавить прозрачный боди и татуировки, а модель вдруг решила поменять расу персонажа или перепутала веса LoRA и промта, оставив только полупрозрачный лиф.
В итоге я понял простую вещь: результат всегда зависит от того, на чём обучалась модель, с какими LoRA ты её смешал и как собрал промт. Всё остальное — немного удачи и чуточку магии.