求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090

206 天前
 duanrancosmos

价格来去基本不大,5080 一张显存 16G ,4090 一张 24G 。到底选哪个好,好纠结

1473 次点击
所在节点    Local LLM
6 条回复
liu731
206 天前
4090 保值率高点
yplam
206 天前
双卡之间带宽是瓶颈,速度比单卡慢不少,并且用双卡跑要折腾,建议单卡 5090
Yadomin
206 天前
4090 48G
murmur
206 天前
4090 48 好像新改的,据说只有 linux 能发挥出来,前期还是慎入
sorry
206 天前
选显存大的
Gnihton
204 天前
@murmur windows 下一样的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1111011

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX