都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

22 小时 16 分钟前
 babymonster
五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。

难道小白真的就这样被割韭菜吗?
9564 次点击
所在节点    Local LLM
119 条回复
selca
22 小时 15 分钟前
详述具体差异是什么呢,为啥觉得 nvidia 更适合
minikekeke
22 小时 11 分钟前
便宜
Gemini4422335
22 小时 8 分钟前
因为同价位下 AMD AI MAX+ 395 可以用更大的显存,回血出内存也方便,最高 128G
如果是 N 卡它到不了这么大,除非多卡,但是多卡又比 AMD 贵空间占的也多
至于性能损失方面不是咱们这些专业选手,人家并不在意
chihiro2014
22 小时 7 分钟前
rocm 各种坑
afkool
22 小时 7 分钟前
推理来讲 395 便宜啊 128g 能跑大多数模型了
他的竞争对手应该是 Mac mini 128g 这种
Nvdia 是另一个赛道了吧……
xiaomushen
22 小时 7 分钟前
你觉得人家没这个智商对比么?
哪怕 Q4 量化,部署一个 dense ,又真正可用的本地模型,根据不同参数规模,你猜猜需要多大的显存?
当然,如果你是推荐给他 H20/H200 之类的,当我没说。。。
xiaomushen
22 小时 6 分钟前
@chihiro2014 坑是真的坑,但 2026 年,凑合能用
zhuoi
22 小时 6 分钟前
安装个 rocm 你就明白 A 卡的坑了
xiaomushen
22 小时 5 分钟前
@afkool 是的呀,买东西肯定是综合考虑的,各种变量约束。
andlp
22 小时 4 分钟前
本地个人用,部署这些模型差别不大.nvidia 贵,我还推荐你买最新的 nvidia 显卡,部署 deepseek v4 pro 呢
strobber16
22 小时 1 分钟前
建议买华为
babymonster
22 小时 0 分钟前
@selca Nvidia 的优势:CUDA 、硬件级 AI 优化、社区兼容性、高效、稳定、开箱即用
ntedshen
21 小时 58 分钟前
> 我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395

你不妨说说你们都给他推了什么。。。
twofox
21 小时 56 分钟前
说说什么预算下,推荐了什么?
xtreme1
21 小时 56 分钟前
/t/1209353
很羡慕你的大脑升级速度, 4 天前击矛不懂今天已经可以指点江山了
padeoe
21 小时 55 分钟前
本地部署大模型务必买 NVIDIA Spark 呀,和 AMD 395 对标的产品,这俩我都买了,AMD AI MAX+ 395 预售阶段我就下单了,相比来说,比 AMD 395 贵几千块,但生态和性能强的不是一点。
babymonster
21 小时 51 分钟前
@ntedshen Nvidia Jetson Orin 64GB 、Nvidia Jetson Thor T5000 、Nvidia DGX spark 这些?有啥问题吗?
babymonster
21 小时 51 分钟前
@twofox 三四万左右,给他推荐了 Nvidia Jetson Orin 64GB 、Nvidia Jetson Thor T5000 、Nvidia DGX spark 这些等等
babymonster
21 小时 50 分钟前
@padeoe 真的能对标吗? AMD 也有 CUDA 生态?
kiwatokk
21 小时 48 分钟前
主要还是 n 卡有 cuda 吧

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1210410

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX