deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 655|回复: 22

一直在验证一个想法

[复制链接]

21

主题

277

帖子

3393

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3393
 楼主| 发表于 2024-11-11 20:21:35 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:NAN  参与人数:0  我的评分:未评
本帖最后由 dfl9999 于 2024-11-12 05:49 编辑

1000609816.jpg
比如现在有4万张不同的人脸素材,分别为图1到40000,这4万张包含了了所有角度和光影,src和dst都放入这4万张进行对练,最后的结果是什么?
最后的结果是src里面的图1和dst里面的图1建立唯一的映射,一直到图40000都是建立的唯一的一对一映射,因为是原图具有唯一的100%相似性。
这样的模型没有泛化性可言,即便开了随机扭曲还是一样,模型唯一会的就是那4万个一对一的映射,即便练到无限清晰也只是一个过拟合的模型。
我们假设下面的操作不会导致模型崩溃,并且模型有足够容量来容忍这些操作:
这时候dst素材不动,我们把src里面的素材分成4份进行训练,1-10000,10001-20000,20001-30000,30001-40000,这时候会发生什么?src里面的1-10000除了会和dst里面的1-10000建立一对一映射,也会强行和dst里面的另外3万张素材建立映射,而不再是之前的一对一映射,可以认为这个模型有举一反三能力了。
等模型训练的差不多,我们再把后面三份素材一依次替换进src进行训练,(如果模型不崩溃)这时候模型拥有远不止4倍的泛化能力,完全可以避免过拟合,是不是比把素材一次性扔进去练到底好的多?而且这样做,模型对于陌生素材的反应能力会非常快,几乎是瞬间反应,只需要投入合适的专人src,模型就能训练出确定的模型风格。
甚至可以src不变,在dst里面进行同样的反向操作,这就是我们平时的常规训练了。
从模型的灵活性上讲,liae比df高太多了,liae不需要像df穷举足够多的脸部精细细节才能完美融合dst,只需要有清晰的面部数据和合理的五官定位就可以良好工作。






评分

参与人数 1贡献 +1 收起 理由
Terea + 1 太好了感谢楼主

查看全部评分

回复

使用道具 举报

21

主题

277

帖子

3393

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3393
 楼主| 发表于 2024-11-11 20:41:52 | 显示全部楼层
本帖最后由 dfl9999 于 2024-11-11 20:43 编辑
seancai110 发表于 2024-11-11 20:40
src和dst用相同素材对练本来就只是预训练而已啊。也没人追求预训练要练得多清晰,所以不会练到过拟合 ...

我就练到过拟合了,我觉得要在可以操作范围内把模型和素材的潜力压榨到极限
回复 支持 0 反对 1

使用道具 举报

13

主题

1049

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
12693
发表于 2024-11-11 20:40:17 | 显示全部楼层
src和dst用相同素材对练本来就只是预训练而已啊。也没人追求预训练要练得多清晰,所以不会练到过拟合
回复 支持 1 反对 0

使用道具 举报

2

主题

75

帖子

1097

积分

初级丹圣

Rank: 8Rank: 8

积分
1097
发表于 2024-11-11 20:31:05 | 显示全部楼层
这个想法很有意思,但是我的设备不允许我这样尝试
回复 支持 反对

使用道具 举报

21

主题

277

帖子

3393

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3393
 楼主| 发表于 2024-11-11 20:32:45 | 显示全部楼层
Terea 发表于 2024-11-11 20:31
这个想法很有意思,但是我的设备不允许我这样尝试

我这一个半月都在试这个,貌似是可行的,常规的训练方法局限性太大了
回复 支持 反对

使用道具 举报

40

主题

861

帖子

4703

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
4703

万事如意节日勋章

发表于 2024-11-11 20:33:15 | 显示全部楼层
练多了也不好,loss值参差不齐,有的质量很好,学的很快,降的也飞快,但是看过一个帖子说,loss值低到一定的值就会爆丹,所以分批学慢慢压榨让模型学新的图,还有种方法,通过各种参数的开启来增加学习难度,提高泛化
但也有个问题,dfl的模型好像学到一定的阶段,新的学习数据会顶掉原来的,这个就烦人了.
回复 支持 反对

使用道具 举报

21

主题

277

帖子

3393

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3393
 楼主| 发表于 2024-11-11 20:35:18 | 显示全部楼层
pasanonic 发表于 2024-11-11 20:33
练多了也不好,loss值参差不齐,有的质量很好,学的很快,降的也飞快,但是看过一个帖子说,loss值低到一定的值就 ...

小ae比如256以下肯定会顶数据,所以我都是开512,甚至可以考虑更大
回复 支持 反对

使用道具 举报

21

主题

277

帖子

3393

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3393
 楼主| 发表于 2024-11-11 20:36:20 | 显示全部楼层
本帖最后由 dfl9999 于 2024-11-11 20:38 编辑
pasanonic 发表于 2024-11-11 20:33
练多了也不好,loss值参差不齐,有的质量很好,学的很快,降的也飞快,但是看过一个帖子说,loss值低到一定的值就 ...

还是一个火候的问题,不要练死劲,前戏再多,我们最后的目标反正都是专人src
回复 支持 反对

使用道具 举报

21

主题

277

帖子

3393

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3393
 楼主| 发表于 2024-11-11 20:39:42 | 显示全部楼层
pasanonic 发表于 2024-11-11 20:33
练多了也不好,loss值参差不齐,有的质量很好,学的很快,降的也飞快,但是看过一个帖子说,loss值低到一定的值就 ...

目前在试liae,比df丹友好多了,就是同样三维吃的显存比df丹多一倍
回复 支持 反对

使用道具 举报

1

主题

3

帖子

180

积分

高级丹童

Rank: 2

积分
180
发表于 2024-11-11 20:47:39 | 显示全部楼层
我擦  和我想到一块去了  一直都有这个想法   试了几次无奈电脑实在拉跨   加油期待你的实验结果
回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-11-21 21:56 , Processed in 0.159384 second(s), 39 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表