求 DeepSeekR1 性价比硬件推荐

184 天前
 klo424

想玩玩 DeepSeekR1 ,家里电脑太费电而且噪音大不适合一直开机,想入一个小巧一点的,噪音小点的性价比高的设备,专门跑 AI 。

是否有符合我需求的设备?

5470 次点击
所在节点    Local LLM
59 条回复
xiadengmaX1
184 天前
要考虑家里电脑太费电的情况,基本上就放弃自建吧,买 API 是你最好的选择。
Greendays
184 天前
买 API 是最划算的。现在的硬件并没有为个人 AI 准备好。
andyskaura
184 天前
你要本地部署,主机都嫌费电,噪音大。
拿你家电视盒子刷个 linux 跑个 1.5b 得了。
tool2dx
184 天前
@NamelessRain 我看那些用 deepseek 来测试高端 50 显卡的,只要是爆显存了,速度就是 2 ~ 3token ,巨慢。

如果不爆显存,cuda 速度还是很牛逼的。
uprit
184 天前
你要跑的 R1 是满血 671B 吗?跑这个就不可能省电,再折腾不管哪个方案基本也是开机 500w 起步。
你要是只想用用,那 API 最合适了。100w token 能够你高强度玩好几天,也就几块钱。
你要是只想自己部署,折腾硬件,就享受满屏跑码不断报错的过程,那随便整个双路平台,E5 都行,再随便搞个 16G 显卡,跑 KT 方案,几千块就够了,当然,这个也不省电。
你要是非满血也可以,那就简单多了,7B 及以下,随便一台机器都能跑,没显卡也行。要是再小点的模型,比如 1.5B 甚至 0.5B 的,几百块的 arm 应该也可以跑起来
wsbqdyhm
184 天前
@xyfan #17 你这个配置我搞了一台,内存只有两根 64g ,一共 4w 多
vpsvps
184 天前
去 B 站搜了下
发现需要上百万的硬件设备才行的
wwhc
184 天前
二代以上 Epyc 32 核心或以上,8 通道 DDR4 或 12 通道 DDR5 ,可确保首 1000tokens 输出在 4 tokens/s 或以上。Epyc 五代极度优化下应该能有 10 tokens/s 的能力。建议避免配置双 cpu ,尽可能使用 llama.cpp 而不是其它推理系统
klo424
184 天前
@andyskaura 电视盒子能跑得起来吗?
@uprit 没要满血呀,我没有提满血啊,不知道为啥都默认就是满血了?
lrigi
184 天前
楼主买个 mac mini 就行了,比如 8b 的模型,16G 内存就够用了
jiejia
184 天前
锐龙 AI max+ 395 96g 内存,然后分 80G 显存给集成显卡,可以试试跑个 70b 的。
HENQIGUAI
184 天前
因为非满血版没任何意义.....所以各位才默认你要部署满血版,不信的话,7B, 32B 啥的跑起来试试就知道啦
datehoer
184 天前
腾讯云可以免费用 16g 显存 10000 小时一个月,自己跑个试试就知道了。https://ide.cloud.tencent.com/
Clannad0708
184 天前
非满血版没有任何意义,我自己在公司部署了 32b ,70b 很笨,连除法都算不对。根本打不到所谓的 AI 助手的级别,当个聊天工具可以,但是你要准备好他在胡说,错误,嘴硬的情况
peterli427
184 天前
e5 洋垃圾可以用 ecc ddr3 内存,白菜价大内存,但是不知道性能够不够
klo424
184 天前
@HENQIGUAI @Clannad0708 不可以自己喂数据培养么?
elevioux
184 天前
@klo424 #36 模型参数越低,配置要求越低,就越笨。非土豪,低到自己家里能搭起来的参数会很笨,就没意义。如果懂开发,专门开发自己领域内的小模型另说。
nagisaushio
184 天前
Clannad0708
184 天前
@klo424 #36 自己喂养数据你说的是训练,AI 大模型分为两部分一部分是训练。一部分是推理,训练过程中可以给他新数据,给他内容训练他,让他记住。训练完成后想要使用就是推理过程,再推理过程是不能进行新数据的喂养的。

而你所谓的训练需要的资源是推理的 2-4 倍。比如一个 32B 需要的显存大概是 30G 那么你只用推理大概 30G 显存就够了,如果你要训练就需要 100G+的显存。因为在训练过程中你需要并行多次的运行,并且你还有自己的数据需要加载到内存显存中,所以他所需要的资源是更多的。
Clannad0708
184 天前
@klo424 #36 你想的几千块,几万块搞个低配 deepseek 然后用自己的数据训练一下让它变成某个领域的高级 AI 是吧哈哈。没那么简单的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1115350

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX