有用 Mac 跑 deepseek 模型的么,效果怎么样,有坑没有

224 天前
 clear

看到有人评论,说 9G 内存就够跑 Qwen 14B 了,效果直逼 o1mini ,高配 32B 都可以跑。

求证一下,有没有大佬已经上手了,感觉怎么样。

8116 次点击
所在节点    Apple
35 条回复
winson030
219 天前
话说。能跑是能跑,但是效果怎样? 32gb m1pro 跑哪个规格的模型是能用好用的?
kimizen
218 天前
看有人用 8 个 mac mini 跑成功了
findex
218 天前
@hiiragiharunatsu 这个效果确实不如几百瓦功耗的 N 卡。m4 ultra 应该会好很多,目前 mac 的瓶颈卡在内存/显存带宽上。其他都是浮云
SGL
218 天前
我想问下本地跑 deepseek 模型的意义是什么,回答质量也不高,纯为了玩儿吗
lrigi
218 天前
@SGL 隐私保护,也不是所有问题都要在线问
Donaldo
218 天前
32b 起吧,14b 效果太差了,32b 也很慢,而且开了十几 G 内存没了,本身内存就捉急。。
wsbqdyhm
218 天前
@SGL 在线问三天打鱼两天晒网,服务器崩来崩去,真是无语,还是本地靠谱,讲真,有些问题本地比在线要来得好。
Themyth
218 天前
我是 36G 内存 一开始跑 70b 卡死……跑 32b 速度挺快的,但是挺弱智的。。。
zeyangstudies
215 天前
@sheller 就在 modelscope 上搜 mlx deepseek r1 就行,一堆,然后用 xinference 来推理,chatbox 对话就可以~
zeyangstudies
215 天前
@SGL 就是一般在断网环境下,例如某些加密网下搞工程,有个随时就问的大模型也挺好的
bugprogrammer
215 天前
Mac mini m4 pro+48g ,跑的 14b ,速度很 OK 。模型放 nas 上了,万兆,nfs 协议。用着挺舒服。另外我的 Debian arm 虚拟机也放 nas 上了(玩玩 arm Linux)。
Vapriest
214 天前
16G14B ,比较卡,且效果对比网页版有明显差距
bugprogrammer
210 天前
我又测试了一下,ollama 跑 deepseek-r1:32b 9.72 tokens/s. 跑 14b 19.54 token/s 。
bugprogrammer
210 天前
配置是 m4pro+48g 的 mini
abslut
210 天前
M4 丐版跑的 14b ,挺流畅的,就是比较傻

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1108075

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX