deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 958|回复: 12

224-liae-udt-1024-108-108-36扭曲预训练100w

[复制链接]

9

主题

159

帖子

2828

积分

初级丹圣

Rank: 8Rank: 8

积分
2828
 楼主| 发表于 2024-5-12 15:41:08 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:NAN  参与人数:0  我的评分:未评
本帖最后由 yxyao 于 2024-6-10 21:12 编辑

采用的是原版自带预训练数据集(FFHQ精选15843张)
预训练方法是关闭pretrain模式,将该预训练数据集复制放到src与dst中,开启随机扭曲
前90w使用bs8,后10w使用bs16。

ae_dims参数比较高,对显存要求较高,预计16G以下显存的显卡无法使用。
为什么要炼参数奇怪的丹?因为参数正常的在论坛中已经有很多大佬分享了。所以我想搞点不一样的。也当是试着玩了。
具体参数如下:
liae224udt1024_0.png
预览图如下:
liae224udt1024_1.png
liae224udt1024_2.png
liae224udt1024_3.png

补充说明:做出本模型的初衷是为了实验对比不同参数的实际影响。
发在论坛是为了记录学习过程,同时如果有朋友有兴趣随时可以测试或使用。
如果图方便或者最佳性能的话,大可不必使用本模型,论坛中很可能有更好的选择。


再次提醒,模型参数要求较高,建议最好具备20G以上显存。
使用方法:先删掉inter_AB.npy文件,再用自己的数据集训练即可,当然也可以继续预训练。


回复

使用道具 举报

15

主题

1940

帖子

2万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
24671

万事如意节日勋章

发表于 2024-5-12 21:58:06 | 显示全部楼层
感谢分享。购买一份。
回复 支持 1 反对 0

使用道具 举报

8

主题

86

帖子

954

积分

高级丹师

Rank: 5Rank: 5

积分
954

万事如意节日勋章

发表于 2024-5-12 19:54:15 | 显示全部楼层
好高啊,三四层楼那么高!
回复 支持 1 反对 0

使用道具 举报

9

主题

159

帖子

2828

积分

初级丹圣

Rank: 8Rank: 8

积分
2828
 楼主| 发表于 2024-5-12 18:02:53 | 显示全部楼层
DFL小白02 发表于 2024-5-12 17:51
编码参数设置这么高有什么特殊作用吗?

理论上可以学习更多特征,不过分辨率和e_dims和d_dims都能成为瓶颈,所以实践中可能感知不出来,一般还是用正常参数的丹比较好,这种奇怪的丹可以用来猎奇使用
回复 支持 1 反对 0

使用道具 举报

23

主题

148

帖子

1168

积分

初级丹圣

Rank: 8Rank: 8

积分
1168
发表于 2024-5-12 17:51:43 | 显示全部楼层
编码参数设置这么高有什么特殊作用吗?
回复 支持 1 反对 0

使用道具 举报

6

主题

183

帖子

3987

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3987
发表于 2024-5-12 16:16:36 | 显示全部楼层
我勒个豆,这么狠...狼灭啊 兄嘚~
个人观点,无恶意,如有错误欢迎大佬们斧正.
没有论点就无脑喷的沙雕滚远点,别碍我眼,如果你觉得我不对,那一定是你对了.
回复 支持 1 反对 0

使用道具 举报

1

主题

49

帖子

383

积分

初级丹师

Rank: 3Rank: 3

积分
383
发表于 2024-5-12 17:22:02 | 显示全部楼层
谢谢分享
回复

使用道具 举报

36

主题

689

帖子

4655

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
4655

万事如意节日勋章开心娱乐节日勋章

发表于 2024-5-12 22:51:09 | 显示全部楼层
yxyao 发表于 2024-5-12 18:02
理论上可以学习更多特征,不过分辨率和e_dims和d_dims都能成为瓶颈,所以实践中可能感知不出来,一般还是 ...

楼主,你好啊
224-ae512,320-ae384两种分辨率
你有对比过类似的清晰度、表情吗?
相同素材的的情况下,都跑到极端清晰,224可以追得上320吗
回复 支持 反对

使用道具 举报

9

主题

159

帖子

2828

积分

初级丹圣

Rank: 8Rank: 8

积分
2828
 楼主| 发表于 2024-5-12 23:44:46 | 显示全部楼层
come3002 发表于 2024-5-12 21:58
感谢分享。购买一份。

感谢大佬支持
回复 支持 反对

使用道具 举报

9

主题

159

帖子

2828

积分

初级丹圣

Rank: 8Rank: 8

积分
2828
 楼主| 发表于 2024-5-12 23:54:59 | 显示全部楼层
本帖最后由 yxyao 于 2024-5-12 23:57 编辑
WaveBedo 发表于 2024-5-12 22:51
楼主,你好啊
224-ae512,320-ae384两种分辨率
你有对比过类似的清晰度、表情吗?

高分辨率的上限高一些,但是练得慢。ae_dim的话其实最好还是和分辨率对应,这两种的话应该是320-384的上限高一些,不过224-512能学到的特征或表情种类应该是要多一些,不过在数据集不大的情况下一般ae也都不会是瓶颈,所以超高ae大部分情况下其实基本上是没有啥实际优势的,除非是数据集量超级大。
总之,大部分情况下你说的这两个模型,320-384是要明显好于224-512,但是后者收敛更快,配置要求更低。
不过这东西其实还是看个人喜好和手头的硬件。更大的ae只是理论上能学到的特征更多,但是其实影响有限,远不如优化数据集带来的提升大,也不像分辨率那样是直接提升模型上限。
感觉首先要确定分辨率,当然也要考虑时间成本和预期要求,时间比较紧/质量要求不高就用低分辨模型,时间比较宽裕/质量要求高就用高分辨率模型。我这种超大ae其实就是玩一玩。当然在配置允许的情况下也可以用,个人实测训练速度224-1024并没有明显比224-512慢,所以如果配置允许bs16的话,用高ae也无妨,多个心理安慰吧。

评分

参与人数 1贡献 +1 收起 理由
WaveBedo + 1 感谢分享

查看全部评分

回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-7-25 23:17 , Processed in 0.103597 second(s), 13 queries , Redis On.

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表