deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 25111|回复: 367

LIAE-UDT 288WF 250万迭代 顶级神丹

  [复制链接]

16

主题

209

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
11663
 楼主| 发表于 2022-4-13 16:36:17 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:2.63  参与人数:8  我的评分:未评
本帖最后由 zill25 于 2022-6-6 01:42 编辑

再次降价!!已打对折! 407W迭代强化训练的丹/刘亦菲 由于过于猖狂的盗卖,就不发了,私信我购买
共两种丹,407W迭代的基础丹和431W迭代+0.2GAN的刘亦菲专丹

另外提醒一下来买丹的朋友,我不是免费的教程提供者...所以不负责手把手教您如何使用,新手请参考论坛教程

这应该是目前论坛里表现最好的LIAE-UDT基础丹,在采用了增补的优质素材的同时,改进了训练方法,使得成像速度、大角度、牙眼清晰度方面有了极大的提高。

总训练时长近2个月,从头到尾全部是顶着16GB显卡所能开的上限BS=14运行。这个模型参数高,而且本来LIAE资源消耗就比较厉害,所以显卡至少要有8GB显存,
推荐10GB或以上。另外似乎LIAE-UDT需要30系显卡,20系的程序并不支持(这点我不是非常确定)

==            Model name: 288WF liae-udt BASE_SAEHD          ==
==                                                           ==
==     Current iteration: 2500000                            ==
==                                                           ==
==---------------------- Model Options ----------------------==
==                                                           ==
==            resolution: 288                                ==
==             face_type: wf                                 ==
==     models_opt_on_gpu: True                               ==
==                 archi: liae-udt                           ==
==               ae_dims: 384                                ==
==                e_dims: 92                                 ==
==                d_dims: 72                                 ==
==           d_mask_dims: 24                                 ==
==       masked_training: True                               ==
==       eyes_mouth_prio: True                               ==
==           uniform_yaw: False                              ==
==         blur_out_mask: False                              ==
==             adabelief: True                               ==
==            lr_dropout: n                                  ==
==           random_warp: True                               ==
==      random_hsv_power: 0.0                                ==
==       true_face_power: 0.0                                ==
==      face_style_power: 0.0                                ==
==        bg_style_power: 0.0                                ==
==               ct_mode: none                               ==
==              clipgrad: False                              ==
==              pretrain: False                              ==
==       autobackup_hour: 12                                 ==
== write_preview_history: False                              ==
==           target_iter: 2500000                            ==
==       random_src_flip: False                              ==
==       random_dst_flip: False                              ==
==            batch_size: 14                                 ==
==             gan_power: 0.0                                ==
==        gan_patch_size: 36                                 ==
==              gan_dims: 32                                 ==


使用方法基本上是这样:本身这个丹我就已经删除了AB文件,你下载后直接放进model文件夹即可使用
先打开随机扭曲、眼嘴优先和uniform yaw,训练2W,然后删除AB文件
再保持上述设置再训练2W迭代,然后再删除AB文件
继续保持上述设置再训练2W迭代,然后删除AB文件
保持上述设置,训练直到loss不再下降,然后关闭随机扭曲继续训练到loss不再下降
打开GAN 0.1 Patch Size 36 GAN_Dims 32,训练到loss出现上升,然后打开lr dropout,直到你觉得满意为止
这里解释一下为什么要反复删除interAB文件,可以理解为在保留模型本身数据的同时,将src到dst的特殊映射进行归零处理,通过删除interAB可以提高人脸相似度,这正是liae系列的弱项
有些朋友担心删除这个文件不就相当于从头开始练了么?其实并非如此,尽管在预览上确实是从一片灰开始了,但是你很快就会发现,每次你删除interAB,loss下降速度就会变快很多,最后一次删除后,只需要下几千迭代就能出清晰的脸了

在我自己的测试中,在这个丹的基础上,用新的的src和dst,全程bs14,7-8W的迭代就能出非常高质量的结果了,如果你的src质量很高,可以开GAN,总迭代13W以内基本到头(意思就是再训练也基本上没啥提高了)我用刘亦菲的src换李沁的庆余年中的素材,总迭代13W次

QQ截图20220413083252.jpg

这是最后输出的效果:这可是4K的片源(但码率不是非常高..),288WF在近景都可以应付,甚至比较尴尬的是在远景中换完的脸比原视频还清晰,造成了一些违和感.....
QQ截图20220413163300.png


刘亦菲.gif
















评分

参与人数 2贡献 +2 收起 理由
xiviv + 1 刘亦菲的呢,怎么没有
GHnewbie2022 + 1 很给力!

查看全部评分

回复

使用道具 举报

8

主题

130

帖子

992

积分

高级丹师

Rank: 5Rank: 5

积分
992
发表于 2022-4-14 11:52:35 | 显示全部楼层
我抱你菊花,能不能便宜点啊
回复 支持 5 反对 2

使用道具 举报

12

主题

243

帖子

3753

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3753
发表于 2022-6-21 19:10:56 | 显示全部楼层
本帖最后由 844720294 于 2022-6-21 20:36 编辑
魔幻蓝蚁 发表于 2022-6-20 08:13
大老,我就想要刘亦菲的专模,要怎么买?

别买,效果还不如坛主的df刘亦菲专丹,而且129元的价格名不副实,够买4个坛主的丹了,另外,等等吧,梦华录播完一个月左右应该会有惊喜
另外贴两张对比,一张是lz的,一张是正在输入224f,在融合度上,甚至连224f直接套用都不如(224拿来练过别的人,但从未练过这两人,所以合成出来相似度不行,即使这样,也跟lz的半斤八两),细节也是一片糊,跟磨了皮一样,跟所谓的“近景都可以应付,甚至比较尴尬的是在远景中换完的脸比原视频还清晰”完全对不上号

ps:我当时就是闲得,问他要预览视频他不给,我就该走人了,真是吃饱了撑的


lz的专丹(磨皮严重)

lz的专丹(磨皮严重)

正在输入224f丹直接合成

正在输入224f丹直接合成
回复 支持 3 反对 0

使用道具 举报

27

主题

160

帖子

1282

积分

初级丹圣

Rank: 8Rank: 8

积分
1282
发表于 2022-4-13 16:49:37 | 显示全部楼层
100灵石,我这是小姐身子丫鬟命
回复 支持 1 反对 0

使用道具 举报

25

主题

2107

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
12083
发表于 2022-4-13 16:48:59 | 显示全部楼层
1070显卡不支持LIAE模型吗?
回复 支持 反对

使用道具 举报

16

主题

209

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
11663
 楼主| 发表于 2022-4-13 16:51:00 | 显示全部楼层
whl716694 发表于 2022-4-13 16:48
1070显卡不支持LIAE模型吗?

官方现在不是有两个版本的程序么?30系的和20系之前的,liae-udt只有30系的那个程序上有,除非你的1070能跑30系的程序,我反正没测试过....
回复 支持 反对

使用道具 举报

16

主题

209

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
11663
 楼主| 发表于 2022-4-13 16:52:16 | 显示全部楼层
cpxzs 发表于 2022-4-13 16:49
100灵石,我这是小姐身子丫鬟命

慢慢攒,总会有的
回复 支持 反对

使用道具 举报

18

主题

430

帖子

2261

积分

初级丹圣

Rank: 8Rank: 8

积分
2261
发表于 2022-4-13 16:59:48 | 显示全部楼层
感谢分享大佬牛逼
回复 支持 反对

使用道具 举报

13

主题

195

帖子

1680

积分

初级丹圣

Rank: 8Rank: 8

积分
1680
发表于 2022-4-13 17:00:25 | 显示全部楼层
请问3060但是显存低的笔记本可以bs开低一点(比如4-6)跑吗?
回复 支持 反对

使用道具 举报

10

主题

2862

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
17249

万事如意节日勋章

发表于 2022-4-13 17:01:08 | 显示全部楼层
价格好贵啊,
回复 支持 反对

使用道具 举报

18

主题

430

帖子

2261

积分

初级丹圣

Rank: 8Rank: 8

积分
2261
发表于 2022-4-13 17:09:17 | 显示全部楼层
大佬请问复用的话liaeudt不需要再开颜色转换吗,
回复 支持 反对

使用道具 举报

16

主题

209

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
11663
 楼主| 发表于 2022-4-13 17:11:38 | 显示全部楼层
烟鬼 发表于 2022-4-13 17:09
大佬请问复用的话liaeudt不需要再开颜色转换吗,

可开可不开,你看我就没开,最后merge的时候选mkl-m,效果也蛮好
回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-5-12 23:14 , Processed in 0.103242 second(s), 13 queries , Redis On.

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表