deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 1305|回复: 4

用GTP 修改了一个 适合6GB的LORA训练参数 真的适合吗?

[复制链接]

22

主题

244

帖子

2230

积分

初级丹圣

Rank: 8Rank: 8

积分
2230
 楼主| 发表于 2023-4-7 00:51:29 | 显示全部楼层 |阅读模式
本帖最后由 koower5512 于 2023-4-7 01:00 编辑

GTP :  为了适应6GB显存,您可以进行以下修改:
  • 将$batch_size设为1,这将减少显存的使用,但会增加训练时间。
  • 减小[size=1.21em]����������和networkd​im和network_alpha的值,可以尝试将它们降至16或更低,以降低模型的复杂度,从而减少显存的使用。
  • 将$resolution设置为更小的值,例如256x256,这将减少输入图像的大小,从而减少显存的使用。
  • 关闭$train_unet_only选项,以使用默认的训练设置。这将减少对显存的要求。
  • 将$persistent_data_loader_workers设为0,以减少每个epoch之间的内存占用。
  • 如果需要,可以尝试将[size=1.21em]���8�������和use8​bita​dam和use_lion选项设为0,这将使用标准的Adam优化器,但可能会降低训练速度和模型性能。

7578778567.png

回复

使用道具 举报

22

主题

244

帖子

2230

积分

初级丹圣

Rank: 8Rank: 8

积分
2230
 楼主| 发表于 2023-4-7 00:58:05 | 显示全部楼层
AI 给出了训练参数修改建议 并且帮我修改好了  这样会不会出图不清晰
回复 支持 反对

使用道具 举报

11

主题

684

帖子

4101

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
4101
发表于 2023-4-7 09:26:33 | 显示全部楼层
你都玩gpt了,云端训练不就行了
回复 支持 反对

使用道具 举报

22

主题

244

帖子

2230

积分

初级丹圣

Rank: 8Rank: 8

积分
2230
 楼主| 发表于 2023-4-7 12:56:22 | 显示全部楼层
本帖最后由 koower5512 于 2023-4-7 12:58 编辑
AKERSHUS 发表于 2023-4-7 09:26
你都玩gpt了,云端训练不就行了


想不到这GTP还懂这玩意—的确应该让GTP写一个训练脚本 挂机  但是还是想自己研究一下
回复 支持 反对

使用道具 举报

0

主题

27

帖子

224

积分

初级丹师

Rank: 3Rank: 3

积分
224
发表于 2023-4-28 11:16:01 | 显示全部楼层
batch size肯定是1的,dim和alpha的值小点就细节学的不是太好,有可能过拟合,你多几个epoch好了慢慢挑,256*256的素材不太建议,效果有点差,最后一个use8bitadam是肯定要选的,并不能设为0,因为这个本身就是优化了的,你直接使用adam效果不好
回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-11-21 21:30 , Processed in 0.144076 second(s), 33 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表