如何创建 LoRA 并应用到 Stable Diffusion WebUI 里
本着觉知此事要躬行的态度,笔者没有去看任何国内的教程,依靠着纯粹在 Github 上翻阅原版代码仓库,找到了解决方案
准备数据集
LoRA 的特点就是几张图就够,并且不需要复杂的文本注释。
所以,你的数据集,就是一堆散装照片,缩放到正确的尺寸 (512x512 对应 SD1.x, 768x768 对应 SD2.x)
然后准备简单一句话即可,比如
a photo of user yk
下载 diffusers
提供的脚本
安装 diffusers
库和依赖
同时从 Github 上找到脚本,和 requirements.txt 文件
https://github.com/huggingface/diffusers/tree/main/examples/dreambooth
注意从 main
分支切换到你刚才安装的 diffusers
版本标签,不然可能会有问题
下载 train_dreambooth_lora.py
这个脚本,千万不要下载错了
训练
把你的图片放到 src
目录下,然后执行以下脚本
export MODEL_NAME="runwayml/stable-diffusion-v1-5"
export INSTANCE_DIR=src
export OUTPUT_DIR=out
export INSTANCE_PROMPT="a photo of yk"
export VALIDATION_PROMPT="a photo of yk at winter street"
exec accelerate launch \
train_dreambooth_lora.py \
--pretrained_model_name_or_path=$MODEL_NAME \
--instance_data_dir=$INSTANCE_DIR \
--output_dir=$OUTPUT_DIR \
--instance_prompt="${INSTANCE_PROMPT}" \
--resolution=512 \
--train_batch_size=1 \
--gradient_accumulation_steps=1 \
--checkpointing_steps=100 \
--learning_rate=1e-4 \
--lr_scheduler="constant" \
--lr_warmup_steps=0 \
--max_train_steps=500 \
--validation_prompt="${VALIDATION_PROMPT}" \
--validation_epochs=50 \
--seed="0"
很快啊,你就能在 out
目录下拿到 pytorch_lora_weights.bin
文件了
转换成 safetensors
文件
我从 Github 上淘到了一个脚本,可以把 .bin
文件转换为 .safetensors
文件
https://github.com/guoyk93/sd-scripts/blob/main/lora/diffusers-lora-to-safetensors.py
python diffusers-lora-to-safetensors.py --file out/pytorch_lora_weights.bin
这样就拿到了 safetensors
文件,重命名后,塞到 SD WebUI
的 models/LoRA
子目录下,就可以在 txt2img
和 img2img
的 Prompt
中引用了
笔者已经成功做出来自己脸部的 LoRA
了
后记
简简单单两个步骤就能搞定的事情,笔者愣是在 Github 上苦苦寻找了两天
笔者首先去找了 LoRA
原作者的 lora_pti
命令,发现生成的 safetensors
文件并不能直接用在 SD WebUI
里面
看了报错信息,发现 key
值完全对不上
笔者然后去找了 diffusers
官方的脚本,结果错误地使用了 train_text_to_image_lora.py
和 train_dreambooth.py
依旧没有收获
最后正确地使用了 train_dreambooth_lora.py
脚本,结果发下生成出来的 .bin
文件 SD WebUI
依然不能识别
最后在 Github Issue 里面才找到别人的转换脚本
Stable Diffusion
的生态环境还需要时间成熟啊
更多推荐
所有评论(0)