哩布哩布AI(LiblibAI)每月5次LoRA训练怎么用?

在哩布哩布AI(LiblibAI)平台上,每月5次LoRA训练的使用方法可以参考以下步骤:
  1. 准备工作
  • 数据准备:收集并整理用于训练的图像数据,确保图像质量良好且符合训练目标。
  • 训练环境:确保你的设备满足训练要求,通常需要一台具备GPU的计算机。
  1. 参数设置
  • 模型输出设置
    • 指定模型输出目录,例如/content/drive/MyDrive/Lora/output
    • 设置输出模型名称,如bighand
    • 选择保存模型格式,默认为safetensors
  • 学习率设置
    • 设置unet_lr(Unet学习率),默认值为0.0001。
    • 设置text_encoder_lr(文本编码器学习率),通常为Unet学习率的十分之一,如0.00001。
    • 选择学习率调度器(lr_scheduler),一般使用默认值。
  • 采样参数设置
    • 设置每N轮采样一次(Sample every n epochs),通常设置为1。
    • 设置采样提示词(Sample prompt),用于在训练过程中生成图像以观察训练进展。
  1. 开始训练
  • 确认参数:点击“全部参数确认”,生成toml参数与采样配置文件,并保存配置文件。
  • 启动训练:点击“开始训练”,并设置总训练步数。通常总训练步数不低于1500,不高于5000。计算公式为:
  • \text{总训练步数} = \frac{\text{图片数量} \times \text{每张图片训练步数} \times \text{训练轮次}}{\text{batch_size}}
  1. 模型测试与选择
  • 保存模型:训练完成后,模型文件会保存到指定的输出目录。
  • 测试模型
    • 将训练好的LoRA模型放入stable-diffusion-webui/models/Lora目录。
    • 在Stable Diffusion WebUI中加载基础模型和LoRA模型,设置提示词和参数。
    • 使用XYZ plot脚本进行模型对比测试,设置X轴为模型序号,Y轴为权重值,生成对比图。
    • 通过对比图选择表现最佳的模型和权重值。
  1. 使用最佳模型
  • 规范化命名:将选出的最佳LoRA模型进行规范化命名,如bighand_lora_v1
  • 加载使用:在创作时加载该模型,即可使用训练好的LoRA模型进行创作。

注意事项

  • 数据质量:确保训练数据的质量和多样性,以提高模型的泛化能力。
  • 参数调整:根据训练结果调整学习率、训练步数等参数,以优化模型性能。
  • 硬件要求:LoRA训练需要一定的硬件支持,建议使用具备GPU的设备进行训练。
通过以上步骤,你可以在哩布哩布AI平台上充分利用每月5次的LoRA训练机会,训练出符合个人风格的AI模型。


© 免责声明

相关文章