Stable Diffusion

Изображения

Привет, друзья! Сегодня я хочу поделиться с вами всем, что знаю о Stable Diffusion (нейросеть с открытым кодом) — удивительном инструменте для генерации изображений с помощью ИИ.

  • Что умеет: Генерирует практически любые изображения, будь то картины, иллюстрации или даже фотореалистичные портреты.
  • Как применять: Нейросеть применяется в креативных индустриях, таких как графический дизайн, композирование музыки и контент-маркетинг, для создания уникального контента.
  • Похожие нейросети: Midjourney, DALL-E 3, Kandinsky
  • Цена: Полностью бесплатна для использования
  • Ссылка:  https://stablediffusionweb.com/

Скриншот интерфейса:

Как начать пользоваться: Чтобы начать использовать Stable Diffusion, нужно установить веб-интерфейс. Пошаговый урок по установке читайте тут, если вам нужен более простой интерфейс то вот урок по Stable-diffusion Foocus.

После утановки я рекомендую сразу удалить предустановленную базовую модель 1.5 и пользоваться только кастомными. Найти их можно на сайте civitai.com! Там просто огромная куча разных моделей на любой вкус.

Скачивайте модели и помещайте их в папку /models/Stable-diffusion или в /models/checkpoints/ если вы используете Fooocus. Лучше сразу рассортировать по папкам — аниме, фото, 3D и т.д. Для оптимальной производительности храните часто используемые модели на SSD.

Генерация изображений

Чтобы сгенерировать картинку, нужно написать во вкладке txt2img текстовое описание — промпт (prompt) на английском языке. Воспользуйтесь моей авторской подборкой промптов, чтобы протестировать.

Основные настройки генерации:

  • CFG Scale (4-12) — сила влияния промпта, больше — точнее следование тексту, но менее творчески
  • Steps (20-150) — кол-во шагов генерации, больше — детальнее, но дольше
  • Sampler — разные алгоритмы дают разный результат, для фото лучше DPM++ 2M
  • Width/Height — разрешение в пикселях, использовать кратное 64

Дополнительные функции

В интерфейсе Stable Diffusion есть масса полезных инструментов для обработки изображений:

  • img2img — перенос стиля с одного изображения на другое. Позволяет кардинально менять картинки, но сохранять общую композицию.
  • Inpainting — точечное редактирование деталей с помощью маски. Можно легко заменить или убрать отдельные объекты.
  • Upscalers — разные алгоритмы для увеличения разрешения картинок без потери качества. Позволяют из 512х512 сделать полноразмерные изображения.
  • Extras — дополнительные инструменты типа GFPGAN (улучшение лиц), RealESRGAN (апскейл), LDSR (латентное супер-разрешение).
  • Lora — дообученные модели, позволяющие быстро менять стиль или добавлять объекты без сложных промптов. Например, мультяшность, аниме-глаза, киберпанк и т.д.

Другие советы и лайфхаки

  • Пользуйтесь готовыми промптами, например моими или с сайтов типа lexica.art, prompthero.com. Изучайте удачные примеры и заимствуйте лучшие решения.
  • Сохраняйте понравившиеся генерации в батч и переиспользуйте как основу для новых вариаций через img2img.
  • Следите за обновлениями и новыми расширениями для интерфейса Automatic1111. Возможности Stable Diffusion постоянно растут.

На этом пока все! Надеюсь, этот гайд был для вас полезен. Жду ваши лучшие генерации в комментариях. И конечно приглашаю подписаться на мой канал в телеграме, впереди еще много интересного про Stable Diffusion и генеративный ИИ. До новых встреч!

Лабаратория нейросетей
Добавить комментарий