简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

3 天前
 cwcc

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点:

第一次体会到 Mac 的性能居然这么不够用,搞得都想换 M5 Max 了,但感觉专门为 AI 也不是特别值得。

947 次点击
所在节点    AI Agent 智能体
6 条回复
cat9life
3 天前
op 有对比过 gemma4 的近似尺寸模型吗
strobber16
3 天前
这个模型给我最大的惊喜是可以过洗车测试了。虽然不是很稳定
rockddd
3 天前
最后悔的就是买 Mac Mini 当时想不出使用场景,没有继续再多加内存,只选配了 32G
Seanfuck
3 天前
都说 qwen3.6-27b 更好用,可以试试。
cwcc
3 天前
@Seanfuck qwen3.6-27b 在 M3 Pro 的 Mac 上太慢了,不到 8 token/s ,基本不可用。
cwcc
3 天前
@cat9life 只试过 qwen3.6-27b ,但太慢了。gemma4 没试过,有时间摸鱼可以测测。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1208700

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX