deepfacelab中文网

 找回密码
 立即注册(仅限QQ邮箱)
查看: 791|回复: 6

求助帖,关于显卡更换问题

[复制链接]

7

主题

138

帖子

1334

积分

初级丹圣

Rank: 8Rank: 8

积分
1334

万事如意节日勋章

 楼主| 发表于 2024-1-18 22:45:17 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:NAN  参与人数:0  我的评分:未评
目前用的1060  6G  卡  大神给推荐一个  是换大内存显卡还是以什么为标准选择显卡?
回复

使用道具 举报

7

主题

871

帖子

5788

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
5788

万事如意节日勋章

发表于 2024-1-19 11:42:27 | 显示全部楼层
对,板子老就换全套,玩二手卡不怕翻车就11G的1080ti(自我感觉性价比最高)或者2080ti魔改22G版。搞个好电源,电源不要二手的,不值当从电源上冒险。另外很多二手卡显存有瑕疵,只烤U烤不出来,跑dfl就爆了。新卡的话没经验,显存不能太小,小了模型跑不起来,CUDA核心数要高,少了模型跑得慢。

评分

参与人数 1贡献 +1 收起 理由
bt612511 + 1 非常牛!

查看全部评分

回复 支持 1 反对 0

使用道具 举报

13

主题

527

帖子

3792

积分

高级丹圣

Rank: 13Rank: 13Rank: 13Rank: 13

积分
3792
发表于 2024-1-19 11:10:03 | 显示全部楼层
bt612511 发表于 2024-1-18 23:46
好的  谢谢  主要是主板比较老 电源带不动  CPU 也老  只能换一套了

计算机换全套?那主要看预算。

显卡呢,显存优先吧,毕竟AI太占显存了。
除了DFL,还有SD,LLM等等,以后肯定还有新东西。

我试了个LLM模型写的要16GB,结果我的4060TI(16G)跑不起来,只能跑8GB的模型。

有钱任性的话就买最高端的显卡X080,X090。
不怕折腾可以买魔改卡。
性价比可以考虑3060(12G),或者性能不太行的4060TI(16G)这种。

评分

参与人数 1贡献 +1 收起 理由
bt612511 + 1 十分给力!

查看全部评分

回复 支持 1 反对 0

使用道具 举报

8

主题

104

帖子

1397

积分

初级丹圣

Rank: 8Rank: 8

积分
1397

万事如意节日勋章

发表于 2024-1-18 23:37:13 | 显示全部楼层
你预算多少?

AI训练都是要大显存的,至少要8g,推荐12g以上,越大越好


回复 支持 1 反对 0

使用道具 举报

13

主题

128

帖子

1493

积分

初级丹圣

Rank: 8Rank: 8

积分
1493
发表于 2024-1-18 23:28:08 | 显示全部楼层
主要看预算
回复 支持 反对

使用道具 举报

7

主题

138

帖子

1334

积分

初级丹圣

Rank: 8Rank: 8

积分
1334

万事如意节日勋章

 楼主| 发表于 2024-1-18 23:46:40 | 显示全部楼层
毕加索 发表于 2024-1-18 23:37
你预算多少?

AI训练都是要大显存的,至少要8g,推荐12g以上,越大越好

好的  谢谢  主要是主板比较老 电源带不动  CPU 也老  只能换一套了
回复 支持 反对

使用道具 举报

13

主题

405

帖子

2838

积分

初级丹圣

Rank: 8Rank: 8

积分
2838
发表于 2024-1-19 11:53:00 | 显示全部楼层
4070s不错的可以换新机
回复 支持 反对

使用道具 举报

QQ|Archiver|手机版|deepfacelab中文网 |网站地图

GMT+8, 2024-11-23 11:09 , Processed in 0.178612 second(s), 38 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表