哩布哩布AI(LiblibAI)每月5次LoRA训练怎么用?
在哩布哩布AI(LiblibAI)平台上,每月5次LoRA训练的使用方法可以参考以下步骤:
- 准备工作
- 数据准备:收集并整理用于训练的图像数据,确保图像质量良好且符合训练目标。
- 训练环境:确保你的设备满足训练要求,通常需要一台具备GPU的计算机。
- 参数设置
- 模型输出设置:
- 指定模型输出目录,例如
/content/drive/MyDrive/Lora/output
。 - 设置输出模型名称,如
bighand
。 - 选择保存模型格式,默认为
safetensors
。
- 指定模型输出目录,例如
- 学习率设置:
- 设置
unet_lr
(Unet学习率),默认值为0.0001。 - 设置
text_encoder_lr
(文本编码器学习率),通常为Unet学习率的十分之一,如0.00001。 - 选择学习率调度器(
lr_scheduler
),一般使用默认值。
- 设置
- 采样参数设置:
- 设置每N轮采样一次(
Sample every n epochs
),通常设置为1。 - 设置采样提示词(
Sample prompt
),用于在训练过程中生成图像以观察训练进展。
- 设置每N轮采样一次(
- 开始训练
- 确认参数:点击“全部参数确认”,生成
toml
参数与采样配置文件,并保存配置文件。 - 启动训练:点击“开始训练”,并设置总训练步数。通常总训练步数不低于1500,不高于5000。计算公式为:
- \text{总训练步数} = \frac{\text{图片数量} \times \text{每张图片训练步数} \times \text{训练轮次}}{\text{batch_size}}
- 模型测试与选择
- 保存模型:训练完成后,模型文件会保存到指定的输出目录。
- 测试模型:
- 将训练好的LoRA模型放入
stable-diffusion-webui/models/Lora
目录。 - 在Stable Diffusion WebUI中加载基础模型和LoRA模型,设置提示词和参数。
- 使用
XYZ plot
脚本进行模型对比测试,设置X轴为模型序号,Y轴为权重值,生成对比图。 - 通过对比图选择表现最佳的模型和权重值。
- 将训练好的LoRA模型放入
- 使用最佳模型
- 规范化命名:将选出的最佳LoRA模型进行规范化命名,如
bighand_lora_v1
。 - 加载使用:在创作时加载该模型,即可使用训练好的LoRA模型进行创作。
注意事项
- 数据质量:确保训练数据的质量和多样性,以提高模型的泛化能力。
- 参数调整:根据训练结果调整学习率、训练步数等参数,以优化模型性能。
- 硬件要求:LoRA训练需要一定的硬件支持,建议使用具备GPU的设备进行训练。
通过以上步骤,你可以在哩布哩布AI平台上充分利用每月5次的LoRA训练机会,训练出符合个人风格的AI模型。
© 免责声明
本站所有文章和图片均来自用户分享和网络收集,文章和图片版权归原作者及原出处所有,仅供学习与参考,请勿用于商业用途,如果损害了您的权利,请联系网站客服处理。