训练内容
含义
|
数值
|
|
Repeat
|
对每张图片学习的次数
|
二次元:7-15
人像:20-30
实物:30-100
|
Epoch
|
对所有图片循环学习的次数
|
10
|
Batch Size
|
每次训练中同时学习的图片数量
|
|
总步数
|
图片数量 x Repeat x Epoch / Batch Size
|
|
训练质量
含义
|
数值
|
|
learning_Rate
|
||
unet lr
|
学习率,决定了AI学习图片时的效率和速率
|
默认:1e-4 (0.0001)
如果初始loss下不去,提高学习率,如果
loss太低,降低学习率
|
Text encord Ir
|
文本学习率,有助于学习文本编码器(对tag更敏感)
|
默认:5e-5,一般调成unet Ir的10分之一左右
|
Network dimension(DIM)
|
网络维度参数,决定了生成图片的精细度
|
|
Optimizer优化器
|
常用的优化器:Adam8bit、DAdaptation和Lion
|
|
Loss
|
一般0.08左右
|
LR Scheduler:学习率调度器,理解为训练时候的调度计划安排,默认为constant(恒定值),常用cosine_wite_restarts(余弦退火),是一种常用的优化算法,它是一种让学习率从一个较大的值开始,然后以余弦函数的形式逐渐减小的算法。它可以帮助模型更快地收敛到最优解,且具有良好的优化性能。此外,余弦退火算法还可以更好地改善模型的泛化能力,即模型在未见过的数据上的表现。