deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 40625|回复: 277

【神农MVE-DFL汉化】v3.0.6

  [复制链接]

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2023-12-29 19:16:11 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:5  参与人数:12  我的评分:未评
本帖最后由 Lau9 于 2024-8-3 17:20 编辑


curios-city/DeepFaceLabSN: DeepFaceLab 汉化整合包 (github.com)  Github请帮我点一下小星星!

现阶段打算暂停更新DFL,我认为宇宙的中心在Comfyui。
打一波广告:https://gpu.spacehpc.com/user/register?inviteCode=56789999
这里有神农DFL镜像以及神农的其他整合包!还有预装liveportrait的镜像也是我上传的。

有些问题是时间久了就忘记继续写了。有些问题是网友们反馈的,在这里备注一下。
(神农V1.0刚出的时候有9条规划,基本上全部完成了)

1.pak文件记录训练进度,增设密码。提供列表选择pak并且支持中文名

2.本来想在模型摘要显示各个pak训练集的进度,后来不想在摘要显示,而是在列表阶段显示 名字+数量+loss!

3.给模型、pak素材、dfm 加密码,这样就不怕在服务器或别人的电脑上训练后泄露文件了。
跟压缩包密码一样,可以暴力破解,所以密码位数越多越复杂、爆破成本越高。

4.想过做一些UI工具,但是目前快揭不开锅了。大家有代练需求的找我吧,赏口饭吃!

5.一些AI辅助识别的工具,比如遮罩范围内图片查重与模糊筛选、引用外源遮罩蒸馏训练,想办法加训S3FD和FAN 或insightface,或codeformer和GFPGAN。

6.尝试用极端方式压缩pak素材,并把对齐和遮罩信息另外保存(不排除用空白图的同名文件来做载体和转移)。
听说“数据恢复”只是不识别 PS 的jpg。感谢8888大佬提醒:PS快速导出质量7的jpg可以被DFL识别

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年7月13日:
v3.0.6版本

1.每个Q384的bat我都只改了名字忘记改里面的参数内容了,已补上

2.这次是完整包,不用覆盖补丁了。

3.正在开工的是:把DFL放到ComfyUI里面,今晚正在合并python环境。但是以后只会支持CUDA

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年7月10日:
v3.0.5版本

1.虽然DFL已经没什么发展空间了,但是如果有钱砸我,不管是训练还是性能优化,都有得谈!包括结合其他新ai+dfl赋能或素材定制

2.xseg训练如果报错说计算loss均值失败,那有可能是你的手画素材只放到了一个文件夹。看bat标题可知:src和dst两边都需要训练集
做个不打算更改(或修复)

3.quick512模型总共有3个方向的分支:泛化、细节、真脸。之前分享的是泛化1.0,这次将会分享泛化3.0
细节或真脸 顾名思义就是GAN训、全程真脸训练,这俩是有偿代练用的。这些分支都到了3.0版本,平均800w迭代。

4.新增quick384免费1.0

5.我自己练了head640底模,分享了一个带脖子的泛化版本。
细节对练版底模,需要有人用1024高质量的head切图跟我换(不要国外的)。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年6月5日:
v3.0.4版本

1.修复了Quick512 皮肤GAN的bug。
从3.0.0之后,小更新都在GitHub,免得上传太大。


-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年6月3日:
v3.0.4版本

1.很费事!把ME训练窗口的jpg中文字符解决了!但是延迟会慢5ms。只影响P快捷键刷新的速度,所以还请放心。
补丁暂时不想上传百度,在GitHub里,认真的玩家可以去看看。记得给我点星星!

2.目前正在研究live的实时遮罩. 为了防止坏人、不法分子利用,不开源。思路我在群里有探讨

3.不是我的更新,而是俄罗斯iperov 已经出了史诗级新版本,只是目前还没分享到GitHub

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年5月31日:
v3.0.2版本

1.由于old脚本预埋了loss的均值记录,导致了一个全局变量报错。已修复

2.“单击图片可刷新” 显示到错误的地方,应该是WEB而不是win窗口,已调换。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年5月23日:
v3.0.1版本

1.重磅更新:增加了MVE提供的另一种训练窗口,可远程访问,Linux也可实时预览和操作快捷键!

2.检查bat等细节和命名的错误,如果有疏漏请反馈。用户交互不影响模型质量

3.实在是没找到预览图左下角的 ???.jpg 在哪个变量,知道的人请告诉我!解决一下字符显示问题

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年5月22日:
v3.0.0版本

1.修复了模型从其他版本升级神农后缺少参数而报错。处理方式是强制询问

2.解决了:选择模型后先弹出摘要,再修改参数(如果参数缺了,就会在显示摘要前崩溃,从而无法修改参数,死循环了)。Xseg训练也解决了。
现在弹出摘要之前如果检测到参数有缺,就会强制进入设置参数的环节!这个问题尝试用三四种方式修复,直到这次版本估计才一劳永逸!

3.解决了预览窗口汉字变成乱码的问题

4.预览窗口的loss显示优化:尤其是 dst不再直接覆盖在src导致盲区,交集将会显示绿色。尝试过红紫蓝的配色,辨识度不如黄绿蓝

5.新世代的功能 已成功测试:Xseg的评判标准在于手画素材量以及loss,换脸模型的评判标准在于素材数量以及loss。迭代数并不是最好的参照

6.将会恢复训练显存的记录,我不希望大家攀比,但是很多时候是作为判断模型能否运行的诊断。报错之后只要截图摘要就知道了。

7.后续版本将会对pak动手脚,使其可以由列表来进行选择。并且记录不同pak的loss以反馈训练阶段。如果数据是记录在pak的,我还想顺便做一下密码设定,
这样远程训练就可以保护素材避免被盗取。

8.由于现在python环境已统一到唯一目录。为将来部分文件编译为pyd打下基础(我觉得pyc就行了)尤其是涉及到资产安全的部分。
在dfl领域是首个把N卡和A卡放到同一个python环境,且同步更新软件功能。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年5月17日:
v2.6.1版本

1.早期有过 Q224模型的导出dfm.bat,后来的版本不小心吃掉了。这次跟Q512一起出

2.Q512内测开启!快来尝鲜!流程只有两个选项。事先声明:不能练万能丹,适合一对一的直播专丹或者视频换脸。

3.流程优化:选择完模型后,先弹出模型摘要,再有10秒Enter时间决定是否修改。

4.Q512的预览图展开了。如果大家喜欢,我会把ME的也改成一样(5列取代2列)

5.WEBUI正式内测,我试过费两天功夫想改依赖的源码(已经代码混淆打包,非常难搞),所以干脆提示大家别点击右上角的下拉菜单就好(模型可能会崩)。
也不想汉化了,能点击的栏目也就左上角的3个而已,用来看loss图和预览图的!在服务器训练的可以访问外网ip:6006端口,Linux也能看预览图了!
刷新间隔是固定5分钟,可以改为1分钟,但是不能非等间距频率预览。

6.bat增加了许多,反复检查希望没有疏漏。

7.ME模型逐渐过渡命名为SN模型,预计下一个版本会做个自动改名

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年5月9日:
旷工的这段时间除了放假陪家人以外,还完成了另外的两个项目:ddos防火墙,在线文档免登录调用API的模块封装。
v2.5.1版本

1.这次重点更新python环境,只有一个python文件夹了,原先是2个。
修复了2.3.3版本的config.txt逻辑失效。现在N卡和A卡的切换更骚了!

2.修正了old-SAEHD的txt 以UTF-8保存(感谢台湾同胞反馈的问题)

3.修正了2.4.1版本old训练器的参数颠倒。当时把gan放进了预训,导致正训没有gan选项。现在是预训不显示gan了。
放心,这个不影响模型的训练和兼容。只是UI体验的优化。

4.合成的时候缺文件。Exception: Unable to load FaceEnhancer.npy,已粘贴回原位
-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月26日:
v2.4.1版本

1.镇坛之宝不能直接用,而是需要经过训练一下保存后才能用。
我不一定想去处理完这个问题,说白了就是神农训练后的遮罩模型会增加一个 resolution的参数,可能还有别的。
如果真要靠脚本写到原版遮罩,跟你们迭代1次然后保存 也是同样的效果。如果将来新增的参数多了,还要照顾原始版,就会多很多工作量了。
反正神农训练后的遮罩可以让官方原版、ICE、ME都能使用。如果神农要用原版或ME遮罩,只需要用神农训练一下保存就行。

2.合成的时候超分缺文件。Exception: Unable to load FaceEnhancer.npy
关于这个问题,从_internal\DeepFaceLab\facelib 拷贝到_internal\DeepFaceLab_old\facelib  就好了

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月25日:
v2.4.0版本

1.之前256以外的遮罩有一定的限制,我今天看了才发现代码我是已经写好了,只是延期发布而已。
现在已解锁其他分辨率Xseg模型的应用与创建。

2.拥有的XS标记数据集由4000增加至数十万。不久后可达到数百万张
和Cxsmo合作,目前有重大突破。

3.好久没放出完整包了,这次在第八类bat里增加了一些工具,并且优化了速度。

4.神农网盘链接附赠224的SRC和DST素材(再次花了点时间整理和筛选),希望大家尝试一下Quick224.
训练不超过2天时间,导出dfm后看看效果,看有没有闪烁
我近几天也在亲自测试小模型(所以有点忙),用的也是附赠的素材。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月23日:
v2.3.3版本

1.新增一些工具,好东西应该让大家先用上!原作者如果需要灵石可以找我分。
工具.png

2.顺便把之前各种需要选择显卡和RG的bat,改成自动读取txt里的配置。

3.清理一些垃圾文件夹。其他的忘了,今天发生了些事,手忙脚乱

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月22日:
v2.3.2版本

1.新增:5.4)--- 训练 SAEHD 继续上次 --------------------- train Recent SAEHD.bat
忽略模型和显卡列表以及参数,直接开始上次的训练。

2.记录GPU设备的选择并保存到options,为将来(选择模型后直接开始训练)做准备。
不想每次都询问GPU了。(温馨提示:模型小到一定程度的时候,双卡不如单卡快)

3.把SAEHD的显卡和RG配置保存到本地txt配置文件,由
0)———————————[ 显卡 设置 —— RG 开关 ]—————————————————————————————————
统一管理,不再每次都询问。

4.结合1和3,放个测试效果:总之就是双击即可自动训练,不用选择模型、显卡、显卡模式、RG,这四项。
快捷启动.png

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月21日:
v2.3.0版本(完成,未传)

1.正在规划3.0时代。这次先从dfl-SAEHD入手改动。
从头梳理模型训练脚本,省略无效参数!早期阶段就不会弹出GAN、style之类的选项。
选项显示.png

在正式版会先选择显卡,在选择模型,然后显示摘要,最后才修改参数
而不是 选择模型--选择显卡--修改参数--显示摘要,  这种奇葩顺序。
更别说选项参数的顺序也很乱,创建新丹的时候分辨率居然不是在最开头。

2.有个毛病恶心了我很久了,神农有40个选项参数,当我设置完了,它告诉我(aligned里是空的)!
由于训练过程中需要替换和重命名素材,这种情况常发生。所以我让它先检测,该退出就退出,如果素材非空,才显示选项。

此功能牵扯到合成和导出,暂时先保持原状,等将来和pak命名一同优化!

3.由于梳理参数询问,解决了大家经常遇到的KeyError: 'retraining_samples'这类问题(强制询问)
在这里统一说原因:刚更换软件别懒到Enter都不点,直接就让它自生自灭。连试一试都懒。神农走一遍流程就行了。

4.Quick224在这个版本已支持导出dfm。Quick512、Quick384 正在路上

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月15日:
v2.2.0版本(补丁已发)

1.对XSeg应用(Apply)进行了大整改,解决了旧版xs模型命名和分辨率固定256的问题。
同时兼顾了新模式的多遮罩选择列表、自定义分辨率。且如果遮罩文件夹里面只有一个模型(哪怕是旧版镇坛),
此时就会直接应用,而不弹出选择列表。

2.对于XS模型的summary表格,我不希望通过迭代数来论英雄。毕竟它可以修改、也可以继承。
我会记录用于XS训练的手标素材数量,以及当前的loss数值。也可以记录一个递增的版本号(学习ICE)

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月13日:
v2.1.2版本(补丁已删)

1.改正了导出SAEHD模型.dat的py环境

2.更新覆盖了官方内置Xseg模型(包括合成的时候也默认用它)。不一定要使用自定义模型了。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月12日:
v2.1.1版本

1.处理了ME合成器的报错

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月8日:
v2.1.0版本

1.在ME新增功能【超级扭曲】,DFL没必要加,因为自身已经扭得比较大了
介绍:ME和DFL原版的随机扭曲强度不同,其实DFL扭曲的幅度更大,所以哪怕迭代毫秒更快但是loss可能下降更慢,
当然也是大家常说到的DFL比ME更像SRC的原因。
经过调教,若是参数用力过猛,可能只适合从零开始练。(幅度大100%,未知风险大于收益,放弃实施)
为了兼容DFL原版底模,ME开启超级扭曲后,比DFL扭曲幅度大20%~25%。但是比ME本身大得多。

我还是直观给出数据!ME的旋转在[-2,2]  DFL旋转在[-10,10] 而ME超级扭曲[-12,12] .  缩放方面,ME的上限一直比DFL大一些
或许也是ME的BS经常要比DFL少2的原因之一
-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年4月4日:
v2.0.3版本已上传

1.已检查SAEHD合成阶段,多模型需要修改的地方太多,暂时指定默认xseg256用于合成器

2.修复了原版转神农直接训练时 “缺少retrain loss” 参数的错误。现在不会在绘制表格的时候报错,但建议大家还是走一遍参数设置。

3.同时也解决了Xseg、Merge、Quick224 的参数缺失问题。其实就是绘制summary的环节各不相同 导致bug

4.神农384遮罩已收集数千张人工标记素材,准备训练。预计六月份左右会在外国友人的辅助下增加数十万张训练素材。
只要网友交作业,我就愿意分享统一成果。不会借口说 “我画了几万张但是网友只画了几百张 所以只能给个残缺版才公平。
欢迎添砖加瓦!我个人的成果就是大家共享的成果!我从入行至今没有卖过任何一分钱东西(灵石我是提现不了的!),当然,我很需要得到捐赠或者订单。
我认为任何有实质壁垒的模型成果都不应该卖人民币,因为马上就会倒卖泛滥贬值。只有代练才能锁住这个生产资料的源头

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月30日:
v2.0.2版本

1.如果有空就检查一下SAEHD合成阶段的多遮罩应用

2.已调试完成Quick224模型。极速训练

3.神农384神丹 目前发挥良好

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月28日:
v2.0.1版本

0.上一版的Xseg训练实现了多模型共存,通过列表索引来选择。但测试发现,在应用遮罩的阶段是缺了 用户选择 流程。

1.重点修改Xseg的写入(apply)动作,它原版是不能选择列表的,且不属于模型基类。所以重写了获取XSeg列表索引

2.打个预防针:合成阶段可能也还暂时没列表(复制代码很快的)。如果出现这种情况,暂时用坛宝即可。

3.最新的坏消息是:非256Xseg模型的 应用与合成,有问题。大约需要一天时间修复。
这部分已经触及敏感代码了(非256XSeg模型的创建、写入、合成),打算保护一段时间直到我练出足够强的384,我就是要先垄断。


-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月27日:
v2.0.0版本

1.XSeg已经能支持自定义分辨率和解码维度。(这部分代码暂时不开放,预计百日内开源)
【XSeg遮罩】喜讯!创建或复训任意分辨率的遮罩(限时)

2.新增Quick224的训练和合成。测试阶段。总之是方便快速、新人无痛的必备之选!

3.summary之前只支持ME导致options对不上就报错,现在已经进行分类处理了。每种架构显示的表格都不同。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月26日:
v1.9.4版本

1.更改Xseg分辨率失败,已经努力了24小时 想尽办法了。将在2.0解决

2.SAEHD舍弃掉新版合成器。(你们删个bat或者不用就好了)
SAEHD用旧版,ME用新版。他们是一一对应的

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月22日:
v1.9.3版本:

1.检查原版SAE架构的表格与排版对齐
SAEHD.png

2.测试了FP16的性能
已有最终定论:【新提醒】【神农汉化】RG | DML | FP16 非常重要的测评-【DFL】综合讨论-deepfacelab中文网 - Powered by Discuz! (dfldata.cc)

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月22日:
v1.9.2版本:

1.取消某地方的浮点数转整数,ME和SAEHD都使用最新的openCV4.7

2.全面优化目录bat的缺陷:【最新使用】现在不会重复复制自己了

3.给CMD窗口加标题

4.DML和RG可以手动控制切换了

5.修改了训练时 ME和SAE的随机扭曲程度,使二者都取了一个折中值。
比如ME是2,SAE是10,我就让他俩都取5

6.根据代码的不完全证据表明:512的模型在ME训练需要用到1024切脸,512模型在原DFL训练需要用到768切脸
还没彻底论证,只是看到了缩放方面的函数

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月21日:
v1.9.0版本(提前预告):

1.SAEHD的 图形设置-硬件加速gpu计划 提示语 变为 “初始化.bat”自动设置。
我一直觉得它很烦人,而且图片链接早已失效,极大误导。总算清扫了。

2.全面淘汰DX12环境,改用DML插件。所以现在AMD的ME和SAEHD都和CUDA统一版本了。
之前升1.8.6版本的时候,DX12用户还停留在1.5.4。因为代码不是同一套,很麻烦,差点放弃更新A卡支持。

3.之前只有N卡+ME 有新的summary表,现在N卡+SAEHD、A卡+ME、A卡+SAEHD 都有新的表格排版了。

4.环境删减了一半,节省了解压后的体积。

5.不把RG强行捆绑,做成可选项。因为他影响很大:
【神农汉化】RG(显存优化)和DML(A卡)非常重要的测评-【DFL】综合讨论-deepfacelab中文网 - Powered by Discuz! (dfldata.cc)

6.A卡现在也支持RG了(因为DML接口与CUDA的写法统一)

备注:神农的优势在于环境 14合1
(官方20系,官方30系,官方dx12,官方dml,
官方20系RG,官方30系RG,官方dmlRG,
ME20系,ME30系,MEdx12,MEdml,
ME20系RG,ME30系RG,MEdmlRG,)
这就是神农整合包的神奇之处。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月18日:
v1.8.6版本(完整包):

1.周末没时间测试,补丁的插件缺了半截 补了。

2.经过多轮修改,现在的true和false改成是否了。

3.虽然这次1.8+版本只更新了CUDA-ME的,A卡和原版的仍然保持1.5.4左右的水平。我个人是没怎么出现BUG的。

4.打算暂时把ME的更新告一段落了,转头去把原版做的更简单易用!
11.jpg
12.jpg

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月17日:
v1.8.3版本:

1.还好下载的人不多,补上了表格的插件补丁(今天群友反馈缺表格就报错)

2.修改了大量的错别字和符号的对齐。 当然,不影响使用只影响美观,1.8.0用户别担心。

3.收到了建议说把true和false改成中文,好的 我也是这么想的

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月16日:
v1.8.0版本:

0.记得运行“初始化.bat”,它是用来对齐txt的表格的,其实包括原版和ICE的表格也能变整齐

1.全面重构summary的显示格式,包括txt也是整齐的
由于怕还有什么疏漏,我先不上传完整包,而是一个补丁~

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月14日:
v1.7.3版本:

1.增加作者名且写死到模型二进制里面,不能像options那样轻易删除

PS:其实五彩和猫的广告是在options,以我现在的掌握阶段,很容易删改。
yaml是可以任意添加和删除options的,也就是你可以直接在yaml
#新起一行,写
XXX:XXX
其实它就会覆盖dat,并且一直在。除非用yaml的方式修改。

2.未完成的功能预期:作者把模型加密授权给 机器码MAC-key的形式,绑定多台机器也可以。
保证每个作者和每个机器都是不同key
(比较有把握能搞成,大概2天时间)

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年3月13日:
v1.7.0版本:

1.全面修改yaml一键训练参数(或许能实现训练过程中的热修改)

2.有心做yaml汉化但是大分类上要抛弃英语,具体的key又必须是英语。总之不能双语共存。

3.毕竟我其他地方全都是双语显示,希望大家学熟练之后能够得心应手的修改yaml,否则只能我或者朋友做个UI了。

-----------------------------------------------------------------------------------------------------------------------------------------------------------

2024年2月28日:
v1.6.2版本:

1.修改训练bat的路径错误

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年2月27日:
v1.6.1版本:

1.汉化了2个合成器。其中原版的合成器用了猫之汉化的图片

2.SAEHD支持两种合成器

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年2月26日:
v1.6.0版本:

1.修改一些bat内容的错误,并增加一些文字介绍。

2.简化与合并—[ 模型 训练 —— Train Models ]—的功能
比如AMP不再区分SRC-SRC 以免误导新人,本质上只是修改bat里的路径罢了。

3.自动读写配置文件(一键开始训练),合并到常规训练,用询问的方式取代等待2秒。

4.确定了A卡能完整使用ME和SAEHD的训练。
我应该是全网第一个做多合一的版本(3种显卡版本x2种模型架构,附RG)
其中ME分支的A卡训练我也是通过改代码的方式。不然还可以尝试下载一个接口插件。

5.温馨提示:强烈推荐cc-aug的色彩迁移模式,效果非常好!但是这个功能不能用RG优化,只能先切换到DX12(哪怕你是N卡)

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年2月5日:
v1.5.4版本:

1.修复模型应用的bat菜单伸缩bug

2.使用SAEHD合成人脸bat的时候call正确的环境

3.导出dfm的bat也链接到对应的环境,改正模型架构名

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年2月1日:
v1.5.2版本:注意了!本次虽然改动很大,但没有给大版本号(主要是修复,不是新功能)
这次是补丁不是完整包!请覆盖到1.5.0版本!

1.ME和SAEHD模型训练全面支持A卡(之前比较仓促,今天积极检查和迁移算法)
备注:ME的A卡训练仍需测试,不报错是第一步。
它的眼嘴训练暂时无效。需要有人协助测试!

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月31日:
v1.5.1版本:

1.修复了导出dfm的路径错误(三种模型)

2.修改了ME合成的bat错误

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月30日:
v1.5.0版本:

1.环境改动,Landmarks 自动识错应该不报错了

2.终于解决了遗留了很久的问题!就是模型改名的时候报错原因居然是...
14.png
我已经做了处理,在提示错误原因的同时,也让脚本继续执行,而不是终止。

3.下一个版本应该会简化预训练的可选参数

4.下个版本想办法明确的提示OOM是显存或虚拟内存不足,并且给出建议提示。跳出好几页的代码 对新手不友好。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月29日:
v1.4.2版本:

1.预训练继续解锁一些参数限制,比如说RW(随机扭曲),禁用一些参数

2.粗心大意发现FP16没有开放完全,漏了个地方已补。

3.下一个版本:基于if self.is_first_run() 看看要搞点什么引导

5.提醒:如果是A卡用户,用了切换环境后,也许只能使用SAEHD训练,不能使用ME,有A卡用户请私聊我交流。

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月28日:还有点问题,暂时不发了,等1.4.2一起解决
v1.4.1版本:

13.png

1.想挽救一下“预训练”流程,大家都不用,为何不把这一项删掉?

2.按照官方默认的预训练转正时,不再强制清除inter和迭代数,而是询问用户。

3.开放了FP16,有没有勇士想试试?记得输入“?”看该参数说明

4.详细解释了 -udtc 每个参数的作用,详情请在训练控制台输入“?”

5.由于重新开放了FP16,所以gan不会报错了。但是ME版的gan据说只能选择1个GPU序号。

6. Landmarks自动识错 的bat里面路径写错了。已改

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月25日:
v1.4.0版本:

1.重大更新!N卡支持RG优化!小显存可以跑大一点的模型,或者增加BS上限
fp16仍然禁用,它是牺牲效果换取速度,令人无语。开发组伙伴想研究混合精度

2.ME和DFL 两个框架都支持N卡RG,而A卡不支持,试过了
DFL之前为了大家统一能用,是用DX12版本,所以N卡效率有折扣,
现在已经剥离开了,在训练时通过数字1和2来选择驱动类型!

这次的整合包结合了12个dfl版本合一。但是安装包的体积无明显增大。
(包括原版、ME,叠加是否RG,再乘以20系30系和A卡三种安装包)
(ME_A卡版本可能会在RG的时候出错,请联系我,毕竟A卡用户太少了)

3.内置了Landmarks自动识错、aligned合并工具,位置在bat的
第8类:——[ 其他 测试 —— Extra Function ]——  下面

4.由于fp16选项缺失导致开gan报错,忘记修复了。解决方法请看评论区置顶

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月18日:抱歉!消失的一周每天外出
v1.3.2版本:

1.上次1.3版的SAEHD还不是完全的原生,这次是了

2.对一些bat进行纠错,增加了ME模型的合成和导出

3.修复一个未知错误:模型改名报错(检查了一整天源码没问题,怀疑是pyc缓存的问题),
最后是通过回滚版本解决的

4.预训练集挪到了workspace因为经常要和aligned文件夹交换

5.xseg模型在workspace也有独立的目录了。不想跟脸模型混在一起

6.已经在研究如何极致压缩训练集了。目前的src保存于恢复数据非常积累,将来可以利用它!

7.已经顺藤摸瓜RO优化、eye模型、AVATAR模型、多GPU(超过3卡)训练。也是费了些时间收集,源码都拿到了

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月11日:
v1.3.0版本:

1.解决了原版SAEHD嫁接的BUG

2.由于DFL到ME容易升版不易降版,对于模型名称做了区分,免得误操作。
SAEHD-ME 简称SAEME模型或ME模型!

3.增加一个模型转换bat,目前只能从原版升ME

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月10日:
v1.2.3失败版本(仅记录):

1.植入了原版DFL模型,但是出了点问题

2.明天继续,主要报错是EYE_MOUTH

3.下一个版本可能会把ME版的SAEHD改名为SAEME避免随意转换

4.下下版本增加原版和ME的转换bat

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月9日:
v1.2.2版本:

1.支持A卡,并附带一个切换显卡的bat

2.从原版升级时ada锁死

3.创建模型后,禁用ada选项(如同三围不可改)

4.全面取消fp16的选择

5.保留原生环境(基于DX12版本)并补充了jsonschema和attr

6.初始化的时候提供选项:可去除佛像和猫

7.从1.2.1版本开始,就不是补丁,而是完整的整合包了
备注:10系、20系、30系N卡;DX12 都集成到同一个压缩包了

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月7日:
多功能启动UI:
DFL-MVE 神农汉化版多功能启动UI-【DFL】软件下载

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月5日:
v1.1.1版本:

1.“导出loss”的bat指向的环境改为python3.9

2.python3.6.8原生环境补充attr依赖

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2024年1月4日
v1.1.0版本:

1.更改欢迎界面加两只猫

2.5个bat文件修改错误的预训练路径“pretrain_Celeb”

3.loss导出(让大家都知道总好过只有少数人知道)

4.再次更新tensorflow和cuda、cudnn(老显卡并没有提速)

5.python368原环境已补充了jsonschema

6.增加了免责声明

-----------------------------------------------------------------------------------------------------------------------------------------------------------
2023年12月29日
v1.0.0版本:

用法:覆盖到原版的安装目录

介绍:原作者是MachineEditor组织的Cioscos、seranus、Payuyi、AnkurSaini07
(顺便一提,keaidelaohu 并没有参加Me的开发,只是复制了源码,改作者名不注明出处、并且加密。违反GPL3.0开源协议)
对了,其实在GitHub通过【Deepfacelab】关键词能搜出来的结果只有千分之一。而你们搜出来的很可能是不讲武德的产物!
因为遵循规则的fork项目你们是不懂得搜的,比如MachineEditor。
搜索关键词【deepfacelab fork:true】只有这样才能找到好东西!

MVE功能:新增参数(包括但不限于)

[n] Use fp16 ( y/n ?:help ) :这个直接不要开,模型可能会崩掉

[n] Eyes priority ( y/n ?:help ) :单独的眼睛训练

[n] Mouth priority ( y/n ?:help ) :单独的嘴巴训练

[SSIM] Loss function ( SSIM/MS-SSIM/MS-SSIM L1 ?:help ) :这个好像是通过人脸相似度算法来计算loss的,自己搜索术语吧,保持默认就好。

[5e-05] Learning rate ( 0.0 .. 1.0 ?:help ) :学习率一般不去动它,你也可以手动的控制学习率下降,比如我在loss到0.25的时候改为3e-05

[n] Enable random downsample of samples ( y/n ?:help ) :跟随机扭曲同理,增强泛化性:随机降低分辨率

[n] Enable random noise added to samples ( y/n ?:help ) :跟随机扭曲同理,增强泛化性:随机噪点图

[n] Enable random blur of samples ( y/n ?:help ) :跟随机扭曲同理,增强泛化性:随机模糊图

[n] Enable random jpeg compression of samples ( y/n ?:help ) :跟随机扭曲同理,增强泛化性:随机压缩图片质量

[none] Enable random shadows and highlights of samples  :比较高级的随机,增强泛化性:随机模拟光影训练

新增的光影色彩学习算法:"fs-aug", "cc-aug"

链接已经免费放在最上方,灵石只是自愿打赏!








































送SRC.png
送DST.png

评分

参与人数 23威望 +5 灵石 +90 贡献 +27 收起 理由
naron236 + 1 十分给力!
nicky9999 + 1 太棒辣!
猫之汉化 + 5 + 90 + 5 十分给力!
iou99vip + 1 太棒辣!
platexyxy + 1 十分给力!
zrun3728 + 1 十分给力!
WaveBedo + 1 十分给力!
bbking2018 + 1 十分给力!
zsgdfl2023 + 1 十分给力!
wz58901402 + 1 十分给力!
Aufheben + 1 十分给力!
lknet + 1 十分给力!
blackra1n + 1 十分给力!
gotoplay + 1 十分给力!
阿威 + 1 十分给力!
DP湖 + 1 感谢分享感谢汉化
k6689829 + 1 太好了感谢楼主,比某些神秘组织软件好用太.
野生炼丹师 + 1 十分给力!吊打加密装神弄鬼的
Aiko粒粒子 + 1 太好了感谢楼主
伽利略 + 1 非常牛!

查看全部评分

回复

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2023-12-29 21:17:51 | 显示全部楼层
这是ME版的官方教程!
https://www.youtube.com/watch?v=syMDerwv7C8
回复 支持 1 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-4-10 02:08:13 | 显示全部楼层
刚刚启发感悟。我是可以做到类似于ICE的 V3 V4 V7 V71 V71B V71C V71D V72 那样强行把你们隔离成不兼容的模型名的。连怎么实现的都想好了,但是我不这样搞。选择权在你们手里,有些时候参数差异大 容易炸丹,那种情况下就是重新开炉 可能更事半功倍。但是如果下载别人的丹不知情,大扭曲能兼容小扭曲 但是小扭曲不兼容大扭曲(这就是DFL到ME没问题,但是ME到DFL就炸了的原因),就确实不如定死规格来得安全。 综合考虑下,我觉得模型摘要里面要有一栏:作者提供使用说明。比方说某些参数不能开或不能关,某些值必须在某个区间否则会炸。  其实只要使用丹的时候跟之前的长期训练参数不差太多,就不会炸。
回复 支持 反对

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-4-10 02:18:02 | 显示全部楼层
现在可以初步声明一下: DFL到神农 可以,DFL到ME可以,ME到神农勉强,ME或神农到DFL不行。

模型扭曲大小顺序是  DFL>神农>ME

所以DFL包含的数据最多,可以向“下”兼容。
而 ME→神农→DFL 这个方向,是缺失权重的,所以会有炸loss的现象

经过结合live的实际情况,DFL扭曲不应该盈余那么多,浪费时间空间。
切脸抖动的合理的值就是在ME和神农之间。

“超级扭曲”是给信仰“DFL比ME更像src”的人准备的,可以说“超级扭曲比DFL更像src”
回复 支持 反对

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-4-10 02:23:37 | 显示全部楼层
Lau9 发表于 2024-4-10 02:18
现在可以初步声明一下: DFL到神农 可以,DFL到ME可以,ME到神农勉强,ME或神农到DFL不行。

模型扭曲大小 ...

现在没有改名,模型格式仍然还叫ME。  你们只需要区分: 真正的权重变性是从2.1.0超级扭曲版开始的。
ME最初代表的是MVE分支的模型架构。 神农模型格式是介于官方原版和MVE分支之间,且大量优化的,之后可能还会继续叫ME 或者改为SN。

之后优先验证神农的“ME”和“DFL能否互通”。能不闭源尽量不闭源。我甚至可以出一个“上下对等兼容模式”,但是这比不上作者在摘要里写“使用说明”
回复 支持 反对

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-4-23 21:32:43 | 显示全部楼层
最近拖延上传是因为出了些情况,正在疯狂测试中。。好消息是:问题不在于神农的代码,而是我的dst素材有问题,我的时间和算力都大大浪费了。 我现在觉得:图片查重、模糊度筛选、遮罩训练,与其逐张检查(我检查了30万张),还不如做好脚本辅助效率。 工欲善其事,必先利其器
回复 支持 反对

使用道具 举报

14

主题

2939

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15931

真我风采勋章万事如意节日勋章

发表于 2024-5-31 22:50:59 | 显示全部楼层
本帖最后由 wtxx8888 于 2024-5-31 23:09 编辑

PS不能被DFL识别的,只是12级精度的JPG(即正常的导出)。
PS使用快速导出即可(快速是7级精度的JPG,DFL可以识别)。
个人就是用的PS缩放再恢复,众所周知,DFL缩放惨不忍睹。

快速导出设置,默认是PNG,自己改一下。
2.png

存盘项目的位置。
1.png

PS这样出来的JPG,是DFL认识的,可以直接用于还原。

归根结底就是,PS的导出与快速导出,是两种不同精度的JPG,DFL不能识别12级的,只有7级的才能被识别。
回复 支持 反对

使用道具 举报

4

主题

110

帖子

948

积分

高级丹师

Rank: 5Rank: 5

积分
948
发表于 2024-7-18 10:46:15 | 显示全部楼层
本帖最后由 xylego 于 2024-7-18 10:48 编辑

大神辛苦,买来用了一下,提3个发现的问题。
1.quick384的 6.2)--- 模型 Quick384 合成人脸 无法使用,会报错。
5%KEOXC%5VF2C[2]]84[1.png
看了一下源代码,在_internal\DeepFaceLab\models\Q384\Model.py中,把512分辨率都改成384就行了
8L@BDO%``_`~99MR570.png
9PEXJ`Y7MLTK]C`~01[IFJ.png

第二个发现的问题就是,quick384的模型训练不会自动根据步数额外保存不同版本,就只有一个模型文件。

最后一个问题就是训练quick384模型不能添加/更改dst 素材。我遇到的问题就是:
src素材一张没动。dst中重新切脸,加入了一些新素材。然后src --> src的loss也从0.2变成了0.94,而且预览图也变得很模糊。给人感觉就是完全重新开始训练了。
照理说我src素材一张没动,src-->src不该有太大变化。变化的loss只该是dst-->dst才对
如图:本来练了2天,src-->src已经挺清晰了。一更改dst的素材就又变模糊了。
image.png

回复 支持 反对

使用道具 举报

216

主题

1998

帖子

68万

积分

管理员

Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96Rank: 96

积分
687502

隐世金马甲勋章超级版主勋章可爱萌新勋章见习版主勋章荣誉会员勋章男同管理员-无尚荣耀勋章优质版主勋章小有贡献勋章

发表于 2023-12-29 20:20:52 | 显示全部楼层
可以写个简单介绍说明,很多人不清楚这个Me和主线DFL版本的区别
提供数字人直播服务、文字/音频驱动数字人服务,有意者联系我QQ563861181
全站默认解压密码dfldata.xyz
DFL交流QQ群五群974612885
AI绘画交流QQ群710238550
我的B站账号:特看科技的滚石   其他自称彦祖的不是我,请勿上当
回复 支持 4 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-1-29 18:30:08 | 显示全部楼层
bobowxc 发表于 2024-1-29 15:34
还是不行,我看运行的ErrFaceFilter.py在 _internal\DeepFaceLab\ErrFaceFilter路径下
然后运行的是_inter ...

确实,我中间断片了几天。 今晚传个完整包确保小白能用
回复 支持 3 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-1-11 17:08:57 | 显示全部楼层
Aufheben 发表于 2024-1-11 15:37
大佬,有没有考虑过搞一个自动化流程的功能?
比如我们经常会有一套通用的过程,第一步要开random warp,中 ...

有这个计划。但是对小白友好,对老手无用
回复 支持 2 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-5-18 01:06:59 | 显示全部楼层
my1030 发表于 2024-5-18 00:26
大佬,[none] Enable random shadows and highlights of samples  :比较高级的随机,增强泛化性:随机模拟光 ...

随机阴影不要,已经确定了它是个耽误事的东西
回复 支持 1 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-4-23 21:29:27 | 显示全部楼层
yxyao 发表于 2024-4-23 18:05
感谢大佬,希望可以早日将新版分享到网盘链接。
现在网盘链接里最新的2.2.0的保存loss到json部分的代码缩进 ...

谢谢,回头我比对一下代码
回复 支持 1 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-4-12 01:57:27 | 显示全部楼层
my1030 发表于 2024-4-11 23:29
大佬,这个问题后期会修复吗?删掉这行,合成的时候就不能用万能遮罩了

会的,明天修
回复 支持 1 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-3-28 23:44:53 | 显示全部楼层
看花尽于秋 发表于 2024-3-28 23:17
每次更新都要购买一次吗?现在用的1.01版,第一次更新不明白问问

持续更新,链接不变。可以订阅或者复制链接
回复 支持 1 反对 0

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2024-1-26 16:25:14 | 显示全部楼层
明天会更新两个小错误:一个是GAN和FP16的矛盾,二是新的工具 依赖放错地方了
回复 支持 1 反对 0

使用道具 举报

1

主题

129

帖子

3117

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3117

万事如意节日勋章

发表于 2024-1-19 09:07:21 | 显示全部楼层
Lau9 发表于 2024-1-19 01:31
感谢你的反馈!我其实和dfl的俄罗斯作者一样,不赞同使用fp16,所以把它这个参数给屏蔽了,导致配置缺了 ...

依您的方法操作 , 問題已成功排除 . 大力感謝 !
回复 支持 1 反对 0

使用道具 举报

0

主题

57

帖子

1037

积分

初级丹圣

Rank: 8Rank: 8

积分
1037

万事如意节日勋章

发表于 2023-12-29 23:43:07 | 显示全部楼层
楼主能把原版的搬运一下么?没梯子下不到啊
回复 支持 0 反对 1

使用道具 举报

0

主题

13

帖子

243

积分

初级丹师

Rank: 3Rank: 3

积分
243
发表于 2023-12-29 19:21:32 | 显示全部楼层
牛逼牛逼牛逼
回复 支持 反对

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2023-12-29 20:25:42 | 显示全部楼层
滚石 发表于 2023-12-29 20:20
可以写个简单介绍说明,很多人不清楚这个Me和主线DFL版本的区别

上面有简介了。好的那我再补一期原作者的更新日志。
回复 支持 反对

使用道具 举报

15

主题

1921

帖子

2万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
27025

万事如意节日勋章

发表于 2023-12-29 20:26:08 | 显示全部楼层
感谢分享。马上下载
回复 支持 反对

使用道具 举报

1

主题

121

帖子

1334

积分

初级丹圣

Rank: 8Rank: 8

积分
1334

万事如意节日勋章

发表于 2023-12-29 21:42:31 | 显示全部楼层
这版本没加密?
回复 支持 反对

使用道具 举报

1

主题

121

帖子

1334

积分

初级丹圣

Rank: 8Rank: 8

积分
1334

万事如意节日勋章

发表于 2023-12-29 21:46:16 | 显示全部楼层
弱弱的问一句,楼主说的原版是ME原版么?哪有下载链接?
回复 支持 反对

使用道具 举报

9

主题

145

帖子

3459

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3459

荣誉会员勋章小有贡献勋章

发表于 2023-12-29 22:17:08 | 显示全部楼层
厉害了,支持一下
回复 支持 反对

使用道具 举报

68

主题

468

帖子

1万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
15897

万事如意节日勋章

 楼主| 发表于 2023-12-29 22:46:27 | 显示全部楼层
tellmewhatsup 发表于 2023-12-29 21:46
弱弱的问一句,楼主说的原版是ME原版么?哪有下载链接?

我发的新ME是没加密的,而且还带了很多中文注释。
本汉化版覆盖到原版的意思是覆盖到俄罗斯原版,而不用覆盖到ME英文版。
回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-11-22 00:57 , Processed in 0.191108 second(s), 67 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表