deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 35153|回复: 244

【魔改增强版】DeepFaceLabMe_2022_RG_Ver2.55V2_(2022.9.16更新)

  [复制链接]

8

主题

153

帖子

2万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
24871

隐世金马甲勋章荣誉会员勋章小有贡献勋章

 楼主| 发表于 2021-12-16 15:38:09 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:5  参与人数:13  我的评分:未评
本帖最后由 bug4dfldata 于 2023-1-28 12:33 编辑
魔改增强版 DeepFaceLab_NVIDIA_10,20,30 series_build_2022_RG
----------------forked from iperov/DeepFaceLab

DeepFaceLab Me 是一个吸收、整合、多次重塑的特别版本,为DeepFaceLab 增加一些新的特性,可玩性极高。

极速、效率、细节

增强了对2-8G 小显存显卡的模型容忍度支持,可以跑更大的分辨率模型的RG版本,RG特性可以查看我的另一个魔改官方的版本:

[时间换显存] DeepFaceLabRG.2021.11.20 最新英文版,小显存卡跑起来

这个版本是在神经网络学习和兴趣之上的魔性增强,对原版及其它分支功能进行吸收整合,请务必不要用于违法及侵权用途,而且没有教程也没有任何技术服务,我很懒,具体特性请自行挖掘:

  • Me版本特点:

  • 极速,低显存可以打开更高的BS训练 ,高BS加速模型收敛速度,高端旗舰显卡 DF 模型架构训练速度提升达30%;
  • 还是速度的提升!同配置下 AMP架构类比原版训练 BS 提升达一倍,弥补了AMP模型训练低效的难点,加速AMP模型训练的收敛速度;
  • 训练工具帮助模型调优,更丰富的素材增强功能
  • 合成功能更精细的控制和参数选择;
  • 独具增强大模型保存模式,云计算训练保存更稳定可靠,保存模型内存不一溢出;



IMG_8355.jpeg


aa5.jpg

这些特性以模型参数的方式给大家带来一些新的乐趣!
这个版本的模型可以和DFL官方版本及分支兼容并互相帮助。

Tensorboard工具
现在可用Tensorboard工具进行权重分布查看,loss随迭代变化曲线展示,已进一步分析模型训练的情况,并适时调整训练参数,新的一些权重分析包括学习率将可能加入

start dfl me 4.JPG

  • 全新的遮照模型算法,速度更快更精细:

屏幕截图 2022-09-09 103551.jpg


IMG_8025.jpeg
IMG_8024.jpeg
IMG_8026.jpeg

附加的特性很多,我就不一一列举;

一些新的参数功能我给出一些说明,但不能做为教学,请大家自行尝试研究使用,
因为是一个不断更新的分支,不对些程序稳定性做出保证。

  • 新增参数

retraining_samples 【推荐训练模型的每个阶段后期使用】
Periodically retrains last 16 "high-loss" sample
周期重新训练最后16个 “高loss” 的脸图样本。打开这个选项将对16个最高loss脸图样本进行周期训练。

use_fp16 ( 使用半精度浮点fp16)谨慎,旧模型请勿使用
Increases training/inference speed, reduces model size. Model may crash. Enable it after 1-5k iters.
使用半精度浮点(FP16)进行模型训练,将提高模型训练/推理速度,减少模型大小。但是模型可能会崩溃。建议在1-5k ITER后启用。这个选项建议新建模型下测试,旧模型会因为loss值下溢出模型崩溃,混合精度训练可以大幅提高训练速度,想利用好这个特性,需要对素材量、模型参数教调都有些极高要求,应用请谨慎。

cpu_cap
Max cpu cores to use.Typical fine value is 8(1-256)
用于参与训练的CPU线程数量,默认8线程,可根据你任务选择用于模型训练CPU线程数量,方便进行其它任务。

loss_function ['SSIM', 'MS-SSIM', 'MS-SSIM+L1']
Change loss function used for image quality assessment.
更改用于图像质量评估的损失函数。以下仅供参考:

1、SSIM(结构相似)损失函数:默认参数,原版一致的损失函数,考虑了亮度 (luminance)、对比度 (contrast) 和结构 (structure)指标,这就考虑了人类视觉感知,一般而言,SSIM得到的结果更有细节
2、MS-SSIM(多尺度结构相似)损失函数:基于多层(图片按照一定规则,由大到小缩放)的SSIM损失函数,相当于考虑了分辨率,建议新建模型尝试;
3、MS-SSIM+L1损失函数:这样组合的原因是,MS-SSIM容易导致亮度的改变和颜色的偏差,但它能保留高频信息(图像的边缘和细节),而L1损失函数能较好的保持亮度和颜色不变化,推荐新建模型使用;【推荐尝试】


lr (Learning rate)
Learning rate: typical fine value 5e-5
学习率:典型值5e-5,5e-5=0.00005,建议默认; 这个数据只能从小到大。这是个尝试值,众多的测试及理论支持,在有些特性的模型下,Bs值变大k倍,Lr也将产生一个k倍增长,
一般需要根据loss的变化曲线,从中发现最好的学习率。

ct_mode:
颜色模式,可选值:none,rct,lct,mkl,idt,sot, fs-aug,none为关闭所有模式。
改变src脸部样本接近dst脸部样本的颜色分布。请尝试适合的模式,以找到你认为最好的效果。
增强 fs-aug为dst和src添加随机颜色;

eyes_prio:
训练眼睛优先;

mouth_prio:
训练嘴部优先;

preview_samples:
训练预览的行数,默认4行;


maximum_n_backups:
最大备份数量,默认为24个备份;

  • 素材增强

以下参数是随机增加脸图素材的复杂性,来丰富稀少脸部素材特性,如果你的素材非常全面,请斟酌使用,
记住应该有选择逐项开启,因为随机特性,同时开启将极大拉高src和dst的loss。

关于模型训练中的一些推测:
通常,一个模型 “AE越高+可用的素材越少+训练次数越多”,就越容易出现过拟合。这个术语请自行百度请记住,这就是为什么有些人得到很好的复用模型,由于自己素材质量问题,训练越久,效果变得越糟糕,最好的效果往往会在迭代数量 刚好合适的一个波峰,为此,更多的增强素材和失真可降低过度拟合的风险。不过,这是一个值得注意的区别。“随机扭曲”是一种失真,因为开启扭曲的结果是与未更改的素材数据进行比较,所以loss 值的飙升就是一种下降的空间。另一方面,颜色体系中“fs-aug”是一种增强,因为它与更改的素材数据(即随机颜色变化)进行比较,其它的各种素材样本随机性变换基本都是这一类操作,所以都是视情况斟酌使用的范畴。

random_downsample
Enable random downsample of samples
启用脸图样本的随机向下采样,新建模型建议先关闭,后期视情况开启;

random_noise
Enable random noise added to samples
启用随机添加噪声到脸图样本中,有助于丰富脸部特性,新建模型建议先关闭,后期视情况开启;

random_blur
Enable random blur of samples
启用脸图样本的随机模糊,有助于丰富脸部特性,新建模型建议先关闭,后期视情况开启;

random_jpeg
Enable random jpeg compression of samples
启用脸图样本的随机jpeg压缩,新建模型建议先关闭,后期视情况开启;

random_shadow(此选项开启极大丰富脸部阴影特性)
Enable random shadows and highlights of samples
启用素材样本的随机阴影,可选择单独应用src\dst\all,此项于有助于丰富素材脸部特性,新建模型建议先关闭,后期视情况开启;

random_color
Samples are randomly rotated around the L axis in LAB colorspace, helps generalize training
脸图样本随机在LAB颜色空间中围绕L轴随机旋转,一段随机色彩样本模式,有助于素材的概括训练,新建模型建议先关闭,后期视情况开启;

深度学习是良好的前沿技术,希望大家用于AI学习研究,勿用于违法用途。

  • 安装须知



1、安装目录不能有空格和中文字符;
2、虚拟硬盘请设置大于64G(推荐内存的倍数64-128G);
3、请在N卡官网升级最新N卡驱动在运行本软件
4、Win10、win11请打开windows的设置: "系统->显示->显示卡->默认图形设置“ 打开 “硬件加速GPU计划” 选项。
5、特别提示,用老模型第一次请修改训练参数,新的参数不了解情况下请默认,重点提示,备份好旧模型以防参数过大模型奔溃;
6、经过Me版本训练过的模型用回原版,训练界面依然会显示新增的功能选项参数,但在原版下训练将不起作用;
7、新建模型建议按原版参数初训,新增特性功能先关闭,待loss值下降趋于稳定,在视素材缺陷情况,逐项启用新增若能丰富素材特性;

  • 版本下载

这个版本能做什么
建议新手不要玩,有些细节太过于专业了,请妥善备份你的模型;
创造性的更丰富对素材的控制,通过组合参数达到虐待你的CPU、显卡、等设备;
大神可以控制更多的细微超参数,比如loss_function,lr (Learning rate),创造出一个宽容性和泛化能力极强的人尽可夫的模型
当然还有很多。。。。

请自我探索,(Kingboy Q群:366893641),Q群只用于Bug反馈。

下载  (带运行环境,解压可用):


DeepFaceLabMe2022Ver2.55V2.zip Nvidia 9/10/20/30(已失效)

最新版本 ICE2023 下载页

化 繁 为 简




重要声明:

魔改版本Me已暂停分享,请已下载还在使用的朋友, 遵守以下要求,不能遵守的请自行删除已下载软件。

(一)、我提供的所有基于deepfacelab的魔改程序 ,均出于深度学习和AI技术研究,并遵守原作、源代码相关协议及研究深度反伪造技术为最终目的,所有版本提供模型训练及制作方法仅限用于具备版权的数据集合、开源共享数据集,我本人均未从中获得任何利益。

(二)使用我分享的魔改各种版本的使用者,进行训练及应用的所有视频、图片、人脸等素材和相关数据集合都要遵守数据集所有者权益,并获得这些数据所有者授权。

(三)我分享的所有版本及程序严禁用于处理、加工、创作涉及政治目的、色情、低俗等不仅限于列出的所有违反国家法律、及损害他人所有利益行为的任何数据形态作品。

(四)因不能遵守软件使用要求,使用人违反上述行为导致产生一切法律、经济责任由使用者全部承担。



                                                                                                                                Kingboy
                                                                                                                           2022/12/13
  • 版本要点

Ver 2.55更新要点:

  • 同步官方修复一个素材队列素材缩放Bug(修复包括原版和Me版本); (fix scale factor in sample generation. added util --export-faceset-mask)
  • 时间换显存的极致体现,优化了AMP模型训练性能,256-512分辨率下训练Bs上限最大可提升至2倍,512-1024分辨率下可提升至1.5-2倍优异性能,或同分辨率下更大的参数比。
  • 新增--reduce-clutter 清爽模式,训练模型将精简输入模型参数,没用启用模型参数将不显示在训练界面。
  • 导出训练数据快照,能过查看模型状态历史记录对模型训练、补充素材、补充遮罩,启用命令在 “z6- Model Tools”目录“6.02 train 模型类型____________Me_snapshot.bat”,注意,只有已经存在模型可以生成快照;
  • 新增AMPLegacy 模型转换 命令 “6.30 AMP converter AMPLegacy.bat ” ,可以在目录 “z6- Model Tools”里找到这个命令;
  • Me2.55_V2支持模型蒸馏出的快速模型训练,模型收敛速度极大提速;


Ver 2.53 更新要点:

  • 这个版本支持训练模型分辨率 64-1024, 超过640的模型请在训练批处理命令增加参数   "  --saved-models-type readjob-savejob" 以保证模型稳定性。参数用法请参看目录“z6- Model Tools”下的命令 “8) train SAEHD Me_save_Me_model.bat”,或直接启用这个命令开启训练。开启"  --saved-models-type readjob-savejob" 后保持的模型,可使用“7.3 merge SAEHD_______________ Me_Job_Model.bat”进行合成,因为DFL原生很难支持这个大的模型。
  • 提升了遮罩训练的性能,RG版本的buff 下,低显存的遮罩模型训练效果比原版提升约2倍;
  • 调整了训练预览中,素材文件名的显示机制,比原来更清析;
  • 看腻了faceset.pak文件名,为了方便管理素材包名字,现在可自定义素材压缩文件名,直观便捷,再也不用为这个包是那个对象素材发愁;
  • 修复了 Xseg 训练模块,在个别模型下训练出错bug;
  • 自动训练保存结束的时间范围由原来的0-480分钟,变更为0-600分钟;
  • 部分批处理命令功能做了调整;


Ver 2.40 - 更新要点:

  • 现在可用Tensorboard工具进行权重分布查看,loss随迭代变化曲线展示,已进一步分析模型训练的情况,并适时调整训练参数,新的一些权重分析包括学习率将可能加入;
  • 重构了Deepfacelab Me的模型保存模块,已让训练程序在一些不是那么富足内存环境下正确保存大模型,现在你可以在Colab ,Kaggle等云平台基于网络存储的环境放心训练大模型,即使你选取内存很小也不会产生内存溢出,为了确保兼容,此项开启需要打开开关;
  • 调整了部分依赖环境,集成了Tensorboard工具汉化版本,感谢“盗情小魔女”同学的辛苦劳作汉化;这个版本请不要覆盖原来版本,请完整解压本集成新环境,把你的workspace导入进来使用吧;
  • 遮罩模型训练获得了一个新的外观,训练遮罩的时候将显示素材的文件名;
  • 遮罩编辑优化了描绘的平滑度;
  • 也许你看到一些新的代码功能没有标示,那是我没有足够时间进行教程,请注意采用默认设置,谨慎使用;

Ver 2.30-更新要点

  • 双版本支持集成环境解压即可运行,集成11.20英文原版, 可用原版训练,也可以用Me版训练,减少安装两个版本依赖环境的磁盘空间占用;
  • 原版训练:使用原版批处理命令运行即可,例如,运行“6) train SAEHD.bat)就是原版训练;
  • Me版训练:Me版自带RG优化,小显存福利,请运行对应命令末尾带"_Me"的命令,例如,运行”6) train SAEHD_Me.bat“就是Me版模型训练,其它以此类推;
  • Me版支持修改模型训练自动保存时间,请修改对应训练批处理命令,例如,编辑”6) train SAEHD_Me.bat“,把命令行里“    --saving-time 25”的"25"修改成你需要自动保存时间,即会按修改值自动保存,单位是分钟.
  • 自动结束训练功能:达到预定时间自动结束训练,并保存模型并自动闭电脑;启用这个功能,请修改对应训练处理命令,例如,编辑”6) train SAEHD_Me.bat“,把命令行里 “--training-time 0 ” 的 " 0 " 修改成360,运行训练将在6小时后自动保存并退出训练;设定的时间单位是分钟。如果设置为0,将一直训练,并不会自动退出训练,如设置时间为负数,例如设定“--training-time -180”,训练程序会在3小时后保存训练,保存模型后并尝试关闭训练电脑,请在启动这个选项时,关闭会影响到自动关机的其它应用程序;
  • 重置模型迭代为0:清除迭代历史图功能,当你一个模型复用多次,模型变的又慢又臃肿,现在可以清除掉那些历史数据,运行训练程序,注意,会弹出选择 [n] Do you want to reset iterations counter and loss graph? ( y/n ?:help ) : n,默认n为不重置,选y将重置模型所有迭代数及历史数据 ,请慎重,不可恢复
  • DeepfacelabMe版本的所有批处理命令做了目录分类,这个版本请不要覆盖到原来安装目录,建议解压到新的目录DeepfacelabMe;


  • 系列教程


功能教程一:

功能教程二:

开启大模型保存选项教程【    --saved-models-type readjob-savejob 】

  • 用记事本打开训练批处理命令:6) train SAEHD_Me.bat,增加以下参数,可在配置有限机器保存更大的模型


@echo off
call ..\_internal\setenvMe.bat

"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" train ^
    --training-data-src-dir "%WORKSPACE%\data_src\aligned" ^
    --training-data-dst-dir "%WORKSPACE%\data_dst\aligned" ^
    --pretraining-data-dir "%INTERNAL%\pretrain_faces" ^
    --model-dir "%WORKSPACE%\model" ^
    --model SAEHD ^
    --saving-time 25^
    --training-time 0 ^
    --saved-models-type readjob-savejob
pause


  • 开启    --saved-models-type readjob-savejob 选项后, 模型就不兼容原来DFL版本,需要用Me版本专门命令合成“7.3 merge SAEHD_______________ Me_Job_Model.bat”;
  • 需要转回DFL的兼容模型,请打开目录“z6- Model Tools”,使用“8) train SAEHD Me_save_DFL_model.bat”命令进行训练,并保存退出,模型转换成DFL的版本。

教程三:faceset.pak 自定义文件名

faceset.pak 自定义文件名
为了方便管理素材包名字,现在可自定义素材压缩文件名,简单示例:素材目录下保存以下素材包(不支持中文名)
data_src / aasrc.pak
data_dst / bbdst.pak

1、运行《z6- Model Tools目录》命令 “6) train SAEHD_Me_auto-gen-config.bat” 开始训练,选使用yaml模型配置开始训练,然后保存模型,将在model目录生成文件:"模型名_SAEHD_configuration_file.yaml";
2,用文本编辑软件,如记事本,修改模型配置"模型名_SAEHD_configuration_file.yaml"文件中src,dst 项的文件名:

原配置名称为:
dataset_param:
  src_pak_name: faceset
  dst_pak_name: faceset

修改后为:(注意:不需要加扩展名:例如:src目录下aasrc.pak ,dst目录下bbdst.pak,就改为下面。)
dataset_param:
  src_pak_name: aasrc
  dst_pak_name: bbdst

改好后保存配置文件。

3、运行 6) train SAEHD_Me_auto-gen-config.bat ,开始训练,训练程序就按你修改文件名素材包进行训练。记住对应素材包都应该放在data_src,data_dst目录里。

需要修改素材存放目录,请修改 6) train SAEHD_Me_auto-gen-config.bat 文件里目录指向。

教程四:九天云训练如何打开Tensorboard查看训练曲线


  • 第一步:安装tensorboardX依赖,请在终端或者jupyter命令行运行 pip install tensorboardX ;
  • 第二步:Me版启用Tensorboard训练开关,在你的训练启动命令行参数增加“ --start-tensorboard --tensorboard-logdir log ”,log是训练历史保存目录,你可以自定义,你可以定期清空此目录,清除训练历史,减少磁盘占用;


命令行示例:
  1. python deepfacelabme/main.py train --saved-models-type readjob-savejob --training-data-src-dir datasrc  --training-data-dst-dir datadst --model-dir model --model SAEHD --no-preview  --training-time 0 --saving-time 60 --start-tensorboard --tensorboard-logdir log
复制代码



  • 第三步:启动训练,正常训练开始稍等5分钟后,可以打开TB面板查看训练情况;


TB面板打开步骤:
IMG_8624.jpeg

训练曲线,通过曲线可以知道模型当前参数是否还具备学习趋势

屏幕截图 2022-09-20 095804.jpg

训练每步预览

屏幕截图 2022-09-20 101228.jpg

  • 支持多个模型训练对比

  • Me版本运行在九天需要tf2.5以上环境,如何你采用九天的默认环境,tf2.4 请打上这个补丁包,下载后,解压上传到/root目录下,然后运行以下命令,注意 custom_gradient.py 的当前目录为你上传目录,

  1. cp custom_gradient.py /opt/conda/lib/python3.7/site-packages/tensorflow_core/python/ops/
复制代码
九天运行me版的补丁
9sky_custom_gradient.zip (6.22 KB, 下载次数: 69)


注意:每次开启训练都要更新这个补丁,因为云平台不能保存补丁效果


更新后第一次训练,请重新配置模型参数!


















评分

参与人数 22威望 +2 灵石 +20 贡献 +18 收起 理由
Nhatorder + 1
燕翎风 + 1 太好了感谢楼主
Pxhpanic + 1 受益匪浅
hu609047601 + 1 很给力!
TokaMark + 1 赞一个!
aiclinshixin + 1 赞一个!
蹲蹲 + 1
bbwc1985 + 1 赞一个!
winson + 1 很给力!
Aikwocd + 1
lieyandatianshi + 1 好东西
seashorefly + 1 很给力!
aaa2002911 + 1 很给力!
pk3000 + 1 赞一个!
夏风 + 1 我觉得很人创造能力,赞一双
yunlou + 1 赞一个!
marsmana1 + 1 赞一个!
solobabbit + 1 很给力!
hainaby + 1 很给力!
后会无期 + 10 好!

查看全部评分

回复

使用道具 举报

2

主题

92

帖子

592

积分

高级丹师

Rank: 5Rank: 5

积分
592
发表于 2021-12-16 16:27:34 | 显示全部楼层
"创造出一个宽容性和泛化能力极强的人尽可夫的模型",这句话经典!
回复 支持 0 反对 1

使用道具 举报

72

主题

543

帖子

5230

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
5230

万事如意节日勋章

发表于 2021-12-16 15:53:11 | 显示全部楼层
A卡的啥时候能出一下
回复 支持 反对

使用道具 举报

5

主题

51

帖子

8991

积分

高级丹圣

某科学的炼丹师

Rank: 13Rank: 13Rank: 13Rank: 13

积分
8991
QQ
发表于 2021-12-16 15:53:39 | 显示全部楼层
还不快多谢Kingboy哥  哈哈
回复 支持 反对

使用道具 举报

32

主题

759

帖子

4658

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
4658
发表于 2021-12-16 16:03:41 | 显示全部楼层
暂时先围观
回复 支持 反对

使用道具 举报

8

主题

153

帖子

2万

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
24871

隐世金马甲勋章荣誉会员勋章小有贡献勋章

 楼主| 发表于 2021-12-16 16:04:48 | 显示全部楼层
眼鼻嘴666 发表于 2021-12-16 15:53
A卡的啥时候能出一下

不好意思,好不容易找到一块A卡没装上,A卡的居然没办法测试
回复 支持 反对

使用道具 举报

3

主题

523

帖子

4232

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
4232

万事如意节日勋章

发表于 2021-12-16 16:05:46 | 显示全部楼层
好东西,又有得折腾了
回复 支持 反对

使用道具 举报

0

主题

179

帖子

1792

积分

初级丹圣

Rank: 8Rank: 8

积分
1792
发表于 2021-12-16 16:17:21 | 显示全部楼层
论坛有各位真是太精彩了
回复 支持 反对

使用道具 举报

0

主题

1460

帖子

8511

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
8511

万事如意节日勋章

发表于 2021-12-16 16:26:40 | 显示全部楼层
大神牛逼
回复

使用道具 举报

27

主题

420

帖子

2385

积分

初级丹圣

Rank: 8Rank: 8

积分
2385
发表于 2021-12-16 16:41:34 | 显示全部楼层
感觉很牛的样子
回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-11-23 09:41 , Processed in 0.165027 second(s), 64 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表