4
114
1109
初级丹圣
wtxx8888 发表于 2024-7-23 23:23 除非复用别人LOSS很低的丹,不然出细节,它就不是个,快得了的东西。 别人那都是,论月挂机才出的。 新手 ...
第五步: 5. adabelief (AB优化器): 一直开 Enable HSV power (启用 HSV power强度):0.05 ct_mode(色彩变换): rct或lct RW随机扭曲:关 Enable gradient clipping梯度裁剪:开 eyes_mouth_prio (眼嘴优先): 关 Uniform_yaw (均匀侧脸):关 learning rate drop:关 True face power 真脸强度:0.0 GAN poewer: 0.0
使用道具 举报
14
3380
1万
高级丹圣
xylego 发表于 2024-7-24 00:41 我原话的意思不是开了LRD就关随机扭曲,确实有一段时间LRD和随机扭曲共存的。 因为LRD本质就是降低学习率 ...
查看全部评分
10
148
3650
wtxx8888 发表于 2024-7-24 01:02 (learning rate dropout)LRD跟学习率,一毛钱关系没有。 是用空数据(LOSS 0),替换不必要的学习。 LRD ...
另,关扭曲的,那是LIAE架构的特殊算法,DF能也关?
Step 6 – Regular Training Disable Random Warp Disable Uniform Yaw Disable Eyes and mouth priority Disable Use learning rate dropout
xylego 发表于 2024-7-24 21:05 感谢论文,收获良多,对我自学ML也很有帮助。 lrd与学习率还是有点关系的,不过绝对不是“降低学习率”。 ...
年年顺景胜人意,日日兴隆通四海
敢于展现自我风采,秀出青春年华的会员
注册半年以上、发帖众多的荣誉会员。
对论坛小有贡献的优质会员
|Archiver|手机版|deepfacelab中文网 |网站地图
GMT+8, 2025-6-8 16:18 , Processed in 0.105340 second(s), 31 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.