星级打分
平均分:NAN 参与人数:0 我的评分:未评
本帖最后由 Lau9 于 2024-2-7 13:59 编辑
DeepFaceLab 和 DeepFaceLive 稳定扩散GitHub - idinkov/sd-deepface-1111这是 iperov 的 DeepFaceLab 和 DeepFaceLive 在 AUTOMATIC1111 的 Stable Diffusion Web UI 中的实现。 注意:DeepFaceLive 目前已完全实现,而 DeepFaceLab 正在开发中。 DeepFaceLive 是作为一个脚本实现的,可以在 txt2img 和 img2img 选项卡上访问。 DeepFaceLab有一个单独的选项卡和控件,用于管理工作区和训练自定义模型。
使用案例- 您可以轻松地将稳定扩散中的任何人脸与您想要的人脸交换,结合 DeepFaceLab 创建您的模型,并结合 DeepFaceLive 来实现要用于稳定扩散生成过程的模型。
- 增强并使稳定扩散中的人脸输出更加稳定和人特异。
- 您还可以使用 DeepFaceLab 来训练自己的模型,并在 DeepFaceLive 中使用它们来生成稳定扩散的人脸。
1. 引言这是 AUTOMATIC1111 在 Stable Diffusion Web UI 中实现的 DeepFaceLab 和 DeepFaceLive。 DeepFaceLab 是一种利用机器学习来替换视频和照片中的人脸的工具。借助 DeepFaceLab,您可以训练自己的人脸模型,并在 DeepFaceLive 中使用它来生成稳定扩散的人脸。 DeepFaceLab 将输出一个 SAEHD 模型,然后将其导出为 ~(700MB) .dfm 文件,其中包含 DeepFaceLive 作为脚本工作所需的训练人脸。
2. 安装
2.1. 要求
2.2. 通过 Web UI 安装在WebUI中安装并启动AUTOMATIC1111后,您需要选择“扩展”选项卡,然后单击“从URL安装”选项卡。 在扩展的 git 存储库的 URL 中,您需要粘贴当前存储库 URL: https://github.com/idinkov/sd-deepface-1111 然后单击“安装”按钮。 之后,您需要刷新 UI 或重新启动它,您应该会看到 DeepFaceLab 的新选项卡。以及 DeepFaceLive 的新脚本。
3. DeepFaceLive的使用
4. 开发者文档
4.1. Python 软件包- TQDM(英语:TQDM)
- numpy
- opencv-python的
- opencv-contrib-python
- numexpr的
- H5PY型
- ffmpeg-python
- scikit-图像
- 西比
- 科罗拉玛
- 张量流
- pyqt5的
- TF2ONNX
- onnxruntime 或 onnxruntime-gpu
- 原型==3.20.3
4.1.1. 开发者注意事项为了实现在撰写本文时使用 Python 3.6 的 DeepFaceLab 和使用 Python 3.7 的 DeepFaceLive,必须进行以下修改,以便对其进行现代化改造以在 Python 3.10 上运行 - 在 DeepFaceLive 中实现的 xlib 已更新,以便集合导入正常工作
5. 检查点建议我发现以下稳定的扩散检查点可以产生良好的渲染人类效果:
6. 致谢
|