请问 AI 企业级服务器 (服务公司 100 人) 建议

107 天前
 littlemis

目前 AI 主要用 qwen3:32b 想用到 qwen3:235b 请问 AI 服务器的品牌、规格建议 谢谢!

1620 次点击
所在节点    问与答
13 条回复
tool2dx
107 天前
等 7 月份买全新的 intel 24G GPU ,一张 3600 元,买 4 张就能用了。
xtreme1
107 天前
9355 双路, 64Gx24 ddr5, 5090, ktransformers
硬件大概 10w
xtreme1
107 天前
大概 20t/s
tool2dx
107 天前
@xtreme1 企业内部自用没必要用 5090 那么好的,又不是招标。
xytest
107 天前
后期如果涉及到微调这些 就要好好考虑显卡了
xtreme1
107 天前
@tool2dx #4
比你臆想的 b580 24g 应该是强不少, 起码宇宙里存在
tool2dx
107 天前
@xtreme1 intel 24g 说是 7 月份就开卖了,等等呗。你买 5090 也需要从国外进货,国内新品也买不到。
lqw3030
107 天前
@xtreme1 #3 我们过来的经验,20 个远远不够,200token 每秒起步才有办法应付企业复杂场景
coefu
107 天前
你目前资源的 20 倍就行了,只怕你搞不定分布式推理。
terranboy
107 天前
100 人的并发有 20 个吗 请把 5090X20
inorobot
107 天前
24G 八卡或 48G 四卡方案
goodryb
106 天前
起码得说清楚是做什么用吧,推理还是要做模型微调,这两个对性能要求是完全不一样的
littlemis
103 天前
谢谢大佬们 我等下 intel 24g

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1135321

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX