简单快速生成图片
前言
本来是想分享一下自己跑出来的好图的,想想还是顺便写个教程吧~
本教程基于 Comfy 搭建生图工作流,并附带基本使用方式,看完你也能成为抽卡生图大神
PS: 这篇没有炼丹教程,顺便看看我跑的图😋
安装与模型下载
博主这边用的是秋葉aaaki大佬整理的comfy整合包,这边挂上链接
https://t.bilibili.com/1159516886456598528
安装完后,先别着急打开,此时你还没有任何模型文件,先去下载模型
- https://civitai.com/ C站,神无需多言(需要魔法)
- https://huggingface.co/ 抱脸站(也需要魔法)
- https://www.liblib.art/ 哩布哩布,国内站,下载模型付费
此时,我们需要首先下载一个 checkpoint 模型,也就是基低大模型,这个模型控制着生图的效果,不同的大模型差别巨大,博主以 Illustrious-XL 模型为例,该模型适合动漫风格
C站:https://civitai.com/models/795765/illustrious-xl
将模型文件保存在 /ComfyUI/models/checkpoints 中
有了基低大模型后就可以开始生图了
生图工作流搭建
刚进入comfyUI会有一个默认工作流,类似于这样(博主没有默认工作流,手搭了一个类似的)
来认识各个子节点,首先是 Checkpoint 加载器,这是用来加载底层大模型的,是生图的基底,注意到这个节点有三个输出,分别为 模型,CLIP,VAE,其中 CLIP 为文本编码,用于将提示词应用于模型,CLIP 应用如下图
接着,我们来看 Latent 节点,该节点控制出图的大小(不要过于大,会大幅提升生图的时间),图的大小同时也控制着提示词的发挥,一张好的图片必须要有合适的大小和提示词。批次大小用于控制每次运行同时生成的图片数量,该值与显存成正相关,当你显存不大时,不要将值设得过高
接着,看向生图的核心组件,K采样器(K Sampler)
- 种子:用于随机生图
- 步数:降噪步数,可以类比于擦脏玻璃,值越高,玻璃擦得越干净,但花的时间更长,推荐 20 ~ 30 区间即可
- cfg:提示词关联度,该值越高,越符合提示词,但该值并非越高越好,过高会导致 AI 失去创新,降低图片质量
- 采样器:一般用默认或者 dpmpp_2m
- 调度器:一般用 karras
- 降噪:为输入的图片添加多少噪点,1 为添加全部,适合用于文生图,<1 为添加百分比,适合用于图生图或图文生图
当图片生成好后,还需要经过 VAE 解码才能得到一张好图片,此时就需要 VAE 解码节点,如上图连接后,就可以自动生图+保存在本地
升分辨率
众所周知,一张图的大小与细节可以成正相关,显然低分辨率的图有时候不能满足我们的需求,这时候可以采用升分辨率的方法来重绘细节
方法一:直接处理 PS:为了观感,没有连接K采样器的,在正式操作之前记得连接
直接得到一批经过一次细节重绘的图,相比于直接生图,细节更多且不会破坏整体
方法二:间接处理
将输入的图像先扩大,后重绘细节,可以在筛选完第一批图片后,将能用的图片进行升分辨率
方法三:使用 SD Upscale
该方法能快速升分辨率,但需要更长的时间,且需要自己下载模型放到 /ComfyUI/models/upscale_models中
高级技巧
Controlnet是一个非常好用的东西,下面演示如何让生成的图片做指定动作
其中,骨骼图和Controlnet模型都可以在模型站下载,博主均从C站下载
Embedding能够快速填充提示词,常用的Embedding模型为 easynegative 和 badhandv4
Lora ,可以微调模型,让模型生成想要的角色
尾声
提供博主跑的图的提示词😋
1 | |
1 | |
1 | |