用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.

3 月 11 日
 JoeJoeJoe

顺便贴一下从网上随便找了一个测试 Token 生成速度的代码跑了下, 测试结果如下

4868 次点击
所在节点    分享发现
50 条回复
zenfsharp
3 月 11 日
我勒个槽 120B ,我只敢部署 20B 的。
大概半年前 OpenAI 丢出来的开源模型,我试了 20B 的大概才 GPT-4mini 的水平,远不如如今线上小模型。
niboy
3 月 11 日
好羡慕,电脑都啥配置?
liu731
3 月 11 日
我 4090+96GB RAM 都跑不起来,可以想象 OP 的配置
JoeJoeJoe
3 月 11 日
@zenfsharp 主要是没听说过这个都, 看了下下载量还很高

@niboy
@liu731 Apple M4 Max 128G
magiccode
3 月 11 日
@JoeJoeJoe 这设备好顶,公司给配的么?
bitkuang
3 月 11 日
这模型在海外评价挺高的
crocoBaby
3 月 11 日
这个玩小龙虾足够了
JoeJoeJoe
3 月 11 日
@magiccode 必然, 家里还备着一台 21 年的 MBP 和 一台顶配 Mini, 公司这台装着 Rustdesk, 从此过上了不背双肩包的日子.

@bitkuang 真第一次听说, 我体验一下看看

@crocoBaby 今天准备尝试一下
Solix
3 月 11 日
CloseAI 最近几年出的唯一的 Open 模型,当然火了,大家都用它做翻译
crocoBaby
3 月 11 日
@JoeJoeJoe 期待测试 7B 和 13B 这两个主流本地部署大模型在 openClaw 上面的表现
ovovovovo
3 月 11 日
@crocoBaby #10 3080 10g, qwen3 7b/14b 我本地试了试,context 32k ,出现自己找不到 skills 以及误以为自己没有本地文件读取权限的症状。必须一字一句引导使用 skills 才行
cyp0633
3 月 11 日
因为 gpt-oss 有原生 mxfp4 吧
Hansah
3 月 11 日
你用 qwen 3.5 9B 或者 24B 可能都比他厉害
Hilong
3 月 11 日
@crocoBaby #10 我测试过,m1 max 64g+ 1T 的 mac studio ,4b 以上的跑龙虾都不太行,因为龙虾的上下文信息窗口太大了。本地模型跑起来很吃力。
crocoBaby
3 月 11 日
@ovovovovo 感谢测试,也就是说不能用了
crocoBaby
3 月 11 日
@Hilong 感谢测试,果然还得是烧 token
justfindu
3 月 11 日
Antigravity 里面不就有么
JoeJoeJoe
3 月 11 日
@Solix 哈哈哈哈 我也尝试一波
@cyp0633 处理速度确实快很多
@Hansah 容我试验一下!
JoeJoeJoe
3 月 11 日
@justfindu 😂没用过 Antigravity
timespy
3 月 11 日
我有个 512G 的 mac ,有更好的模型推荐吗,想玩玩

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1197271

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX