deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 1103|回复: 11

【超级神丹搬运】好康的东西!224模型和遮罩模型

[复制链接]

40

主题

268

帖子

6900

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
6900

万事如意节日勋章

 楼主| 发表于 2024-2-7 19:52:54 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:NAN  参与人数:0  我的评分:未评
本帖最后由 Lau9 于 2024-2-7 19:58 编辑

微信截图_20240207194548.png
这两个文件都来源于外国Cxsmo分享。
其中Xseg有可能是基于旧的坛宝练过,我不确定。但确定的是Cxsmo至少在自己设备迭代了几百万次。
224这个模型是基于你们手头的V2继续练的,我这里姑且区分一下称作V3。

但是我不知道这家伙为什么要用GAN来预训练!?


1. Save the GAN files elsewhere
                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                    
2. Run with those settings and enable random warp and disable pretrain until SRC loss plateaus, on batch 16 and batch 8 for 8gb vram gpus until src loss plateaus

3. Turn on LRD and run until expressions in the preview are consistent, and DFM expressions are consistent, then switch the DST faceset to ⁠ and then go back and forth between the DST facesets until it looks good with expressions, and you can check with a test DFM at this point.

4. Turn off RW, turn on blur out mask,keep LRD on. No hard and fast rules here, until it looks good as a dfm and doesn't flicker

5. Don't start Until all teeth and stuff are of good quality Start GAN with 0.1 power, 28 patch sizes, and 16 dims. Save and exit as soon as this starts; replace GAN files with the ones saved separately above.

6. Run GAN again with the same settings but watch closely - sharp face sets can be done in 15-30 minutes or a lot longer but varies and can be completely unusable with artifacts by 2 hours but varies

For the next SRC delete inter_AB, KEEP inter_B, and go back to the settings in step 2. Use the same GAN files originally put aside in step 1 each time when it comes back to step 5, reusing those further results in worse artifacts

根据我另一个帖子的结论:GAN文件并不会保存图像。所以他的底丹大可直接删掉GAN和interAB。 当然,也可以如他建议的保留GAN,把强度关0,等后期用的时候开起来就好。
(或许是GAN保存的并不是知识,而是学习方法吧!)


此外,还有个288的神丹我稍后上传到同一目录,好像也是GAN预训的

回复

使用道具 举报

26

主题

515

帖子

3346

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3346

万事如意节日勋章开心娱乐节日勋章

发表于 2024-2-7 21:04:07 | 显示全部楼层
感谢分享!

你上一个帖子,我其实就想问的
GAN会不会也有学习能力,例如GAN了10万的文件会不会加速纹理效果出现
比新开GAN的快
就像预训练丹一样,有加速的效果?

开始的时候,可能会有调整阶段,效果不明显,但后期会加速
我不懂技术,完全靠猜测
我GAN的经验不多,也还没有较多的机会来测试
回复 支持 反对

使用道具 举报

40

主题

268

帖子

6900

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
6900

万事如意节日勋章

 楼主| 发表于 2024-2-7 22:42:13 | 显示全部楼层
WaveBedo 发表于 2024-2-7 21:04
感谢分享!

你上一个帖子,我其实就想问的

基于原作的动机以及这个上传者的动机,我有和你差不多的猜测。打个比方就是 interAB才是本地所有的图像结果。其他文件起到加速的作用(随风称之为松土,那么GAN文件或许也是松土)。
回复 支持 反对

使用道具 举报

2

主题

65

帖子

517

积分

高级丹师

Rank: 5Rank: 5

积分
517

万事如意节日勋章

发表于 2024-2-7 22:57:06 | 显示全部楼层
我在外网下了也不下10个预训练了,基本一半都是开GAN了,可能国外是一个师傅教的。
回复 支持 反对

使用道具 举报

26

主题

515

帖子

3346

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3346

万事如意节日勋章开心娱乐节日勋章

发表于 2024-2-8 00:08:10 | 显示全部楼层
本帖最后由 WaveBedo 于 2024-2-8 00:09 编辑
Lau9 发表于 2024-2-7 22:42
基于原作的动机以及这个上传者的动机,我有和你差不多的猜测。打个比方就是 interAB才是本地所有的图像结 ...

随风的这篇文章,不知道你有没有看过
有点复杂,我一时难以完全理解
他里面有说一些文件的作用

如果没看过的话,你看看有没有帮助
不过,这里没有谈到GAN
【随风技术论】DFL模型文件的<关系>--详解
回复 支持 反对

使用道具 举报

3

主题

75

帖子

452

积分

初级丹师

Rank: 3Rank: 3

积分
452

万事如意节日勋章

发表于 2024-2-8 03:18:53 | 显示全部楼层
厉害厉害,有零食了就来买
回复 支持 反对

使用道具 举报

41

主题

323

帖子

2299

积分

初级丹圣

Rank: 8Rank: 8

积分
2299

万事如意节日勋章

发表于 2024-2-8 08:50:22 | 显示全部楼层
好东西就是要支持的。
回复 支持 反对

使用道具 举报

15

主题

106

帖子

992

积分

高级丹师

Rank: 5Rank: 5

积分
992

万事如意节日勋章

发表于 2024-2-12 07:05:29 | 显示全部楼层
Lau9 发表于 2024-2-7 22:42
基于原作的动机以及这个上传者的动机,我有和你差不多的猜测。打个比方就是 interAB才是本地所有的图像结 ...

我如果想重新训练一个模型,src和dst素材全部换了,训练一个liae构架的直播模型,那么之前训练过的模型(底丹)里有_inter_AB.npy,_GAN.npy,_GAN_opt.npy这三个文件,我在练新模型之前,是否要删了这三个文件?还是什么都不用删直接开练?或者只删除AB文件?
回复 支持 反对

使用道具 举报

15

主题

106

帖子

992

积分

高级丹师

Rank: 5Rank: 5

积分
992

万事如意节日勋章

发表于 2024-2-12 08:02:54 | 显示全部楼层
224V2这模型据说训练了2000W次,素材用的是官网的RTMWFFacesetV2,9万多张人脸,这传闻到底是不是真的?
回复 支持 反对

使用道具 举报

40

主题

268

帖子

6900

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
6900

万事如意节日勋章

 楼主| 发表于 2024-2-13 02:10:16 | 显示全部楼层
gezhenhai 发表于 2024-2-12 07:05
我如果想重新训练一个模型,src和dst素材全部换了,训练一个liae构架的直播模型,那么之前训练过的模型( ...

国外的高端玩家建议你保留gan文件,, 总之就是只删除AB
回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-2-24 15:01 , Processed in 0.086337 second(s), 11 queries , Redis On.

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表