现在想入门深度学习领域,个人选择什么显卡更好呢

332 天前
 axiao12
最近几年深度学习很火,一直了解都比较浅,想要真正玩这个打算再配两块显卡,预算有限想要控制在 5k 以内纠结于性价比不知道选啥。
现有一块 1060 3G 显卡,显存是在太小了,基本跑不了啥模型,想要给家里的 EYPC 服务器和自用主机各配一块显卡,不考虑 4080.90 这种太贵了
看了一下目前 24G 显存里最便宜的是 tesla M40,500 块,但是听说架构太老了,如果是放在 EPYC 服务器做一些预训练测试是否合适呢。对于涉及复杂模型的情况可以考虑分时租一台 A100 来用
另一块给自用的主机用,对比 2080ti 魔改 22g ,3080 和 4070ti ,看了一下最近测评 4070ti 的性价比好像很高,但是主要是游戏方面,深度学习方面好像相比 2080TI 也没啥优势,而且显存也小只有 12g
1710 次点击
所在节点    硬件
10 条回复
nightwitch
332 天前
用 kaggle 和 colab ,学习足够了。
NSChris
332 天前
买了一个 2080ti 11G 公版 1k9
先用着吧 反正是学习 不够用了再说
gam2046
332 天前
tesla 系列是没有配置风扇的,是需要在机架里风扇散热,也就是你在普通机器里用需要自己动手加装像游戏卡的那种风扇。

条件允许的范围里,尽量选择显存最大的,其他的参数一般很少会导致模型跑不了,大不了就是慢点,但是显存不够那就是只能干瞪眼,一点都跑不了。
axiao12
332 天前
@NSChris 我看了一下魔改 2080TI 22G 好像也才 2600 吧,多 700 对我目前预算来说还好
axiao12
332 天前
@gam2046 这个我查过的确实要加装,但是我本身就是往 EPYC 工作站机箱里装,哪个空间本身够用的
就是纠结有没有必要买两张卡,一张慢的大显存,一张快点的小显存
kloseWu
331 天前
M40 散热不好,我觉得 P40 24G 的可以考虑考虑。魔改的没有质保,千万不要买
axiao12
331 天前
@kloseWu 现在 P40 要 1600 ,太贵了,速度还很慢,这个 P40 现在最多有店保吧和魔改没差吧
kloseWu
331 天前
@axiao12 闲鱼早上我刚看有 1100 的,我 1 月份买的时候是 800
axiao12
330 天前
@kloseWu 刷到过 1100 的,但是点进去就不是了
FENebula
325 天前
@axiao12 用来改显存的 2080ti 有啥货源吗?另外不知道 op 有没啥二手够用(指深度学习 stable diffusion 推理出图)的 cpu 主板经验介绍?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/945931

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX