炼丹-Lora模型训练

2024年7月1日16:44:45 发表评论 34 views

训练内容

含义
数值
Repeat
对每张图片学习的次数
二次元:7-15
人像:20-30
实物:30-100
Epoch
对所有图片循环学习的次数
10
Batch Size
每次训练中同时学习的图片数量
  • 取决于显卡显存大小,6G显存以下的建议使用1
  • 增大Batch Size会导致收敛变慢,学习更快但学习到真正像素级别的过程变慢,囫囵吞枣,需要更多Epoch
  • 减小Batch Size会导致训练速度变慢,但收敛更快,学习更像素级别,
  • 增加Batch Size时,需要相应增加学习率倍数
总步数
图片数量 x Repeat x Epoch / Batch Size
  • 人物不要在正常的学习率下超过10000步,大约在5000步左右能达到较好的epoch(估算在batchsize为1的情况下)

训练质量

含义
数值
learning_Rate
unet lr
学习率,决定了AI学习图片时的效率和速率
默认:1e-4 (0.0001)
如果初始loss下不去,提高学习率,如果
loss太低,降低学习率
Text encord Ir
文本学习率,有助于学习文本编码器(对tag更敏感)
默认:5e-5,一般调成unet Ir的10分之一左右
Network dimension(DIM)
网络维度参数,决定了生成图片的精细度
  • 主要分为32、64、128三档,建议使用128的DIM进行训练,适用于大多数情况
  • 对于二次元图片,可以根据需要提高DIM
Optimizer优化器
常用的优化器:Adam8bit、DAdaptation和Lion
  • DAdaptation优化器自动调整学习率,学习率选项指定的值不是学习率本身,而是DAdaptation决定的学习率的应用率,所以通常指定1.0
  • DAdaptation用于测试一组素材的最优学习率,最优学习率可用于Adam8bit或Lion进行训练
  • 使用Lion时,建议最优学习率除以3后进行训练
  • lion学习率大约为adam8bit的1/3,一般1e-4/1e-5为adam8bit学习率,由此可以推出lion则是用3e-5/3e-6
Loss
一般0.08左右

LR Scheduler:学习率调度器,理解为训练时候的调度计划安排,默认为constant(恒定值),常用cosine_wite_restarts(余弦退火),是一种常用的优化算法,它是一种让学习率从一个较大的值开始,然后以余弦函数的形式逐渐减小的算法。它可以帮助模型更快地收敛到最优解,且具有良好的优化性能。此外,余弦退火算法还可以更好地改善模型的泛化能力,即模型在未见过的数据上的表现。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: