openai 正式开源了模型 gpt-oss-120b 和 gpt-oss-20b

50 天前
 perfectlife

openai 博客: https://openai.com/zh-Hans-CN/index/introducing-gpt-oss/

ollama 最新版本 0.11 也支持使用 gpt-oss-120b 和 gpt-oss-20b 进行网页搜索

3259 次点击
所在节点    分享发现
20 条回复
Fike
50 天前
用 m1pro 16g 内存试了一下没运行起来
perfectlife
50 天前
16g 不够,20b 运行就需要 16g 显存了
➜ ~ ollama ps
NAME ID SIZE PROCESSOR CONTEXT UNTIL
gpt-oss:20b f2b8351c629c 18 GB 100% GPU 16384 4 minutes from now
@Fike
perfectlife
50 天前
@perfectlife 尴尬 18g
mumbler
50 天前
ollama 上的 gpt oss 20b 只要 14G 内存就能跑,总共有 24G 内存就行,激活参数 3B ,cpu 应该也能 10t/s 以上速度
Cooky
50 天前
@mumbler 得啥级别的 cpu ?纯 cpu 能跑到 gpt3 的话感觉穷人可以折腾玩玩了
wwhc
50 天前
llama.cpp 运行 gpt-oss-20b-mxfp4 生成回答的速度比 Qwen3 30B 快一倍,一般的电脑就完全可用,但生成回答的质量略不如 Qwen3 30B ,如果内存足够大,gpt-oss-120b-mxfp4 的速度也只比 Qwen3 30B 慢一点,但生成回答的质量要高。但 openai 的这两个模型就像是开源模型的初学者,仍不成熟,实际上不如 Qwen 好用
mumbler
50 天前
@Cooky #5 支持 avx2 指令集的就行可以本地跑大模型,2013 年以后的主流 CPU 都支持
perfectlife
50 天前
@wwhc 感觉 20b 速度是很惊喜,20b 的模型回答速度比 deepseek-r1:7b 都快,120b 的看别人用 4*2080ti 22gb 跑 内存用了 99g
我 mba 跑了一下 20b 速度还行
total duration: 1m55.383030709s
load duration: 67.649875ms
prompt eval count: 135 token(s)
prompt eval duration: 1.439831542s
prompt eval rate: 93.76 tokens/s
eval count: 983 token(s)
eval duration: 1m53.836651375s
eval rate: 8.64 tokens/s
sakeven
50 天前
openai web 居然支持中文了
BingoXuan
50 天前
120B 的质量勉强可用,20B 回答不太行
haodingzan
50 天前
掏出了吃灰的 NUC9 ,i7-9850H ,32G 内存,无独显,20B 能跑,内存占用 15G 。
total duration: 28.0584624s
load duration: 69.4942ms
prompt eval count: 81 token(s)
prompt eval duration: 2.1671938s
prompt eval rate: 37.38 tokens/s
eval count: 94 token(s)
eval duration: 25.8144678s
eval rate: 3.64 tokens/s
spike0100
50 天前


让 20b 背诵 将进酒,好像结果有点不尽人意。
wwhc
50 天前
背唐诗宋词 Qwen3 2507 版很强,openai_gpt-oss-20b-MXFP4 在 Epyc 7532 8 通道 ddr4 系统上的速度是:
prompt eval time = 113.29 ms / 14 tokens ( 8.09 ms per token, 123.58 tokens per second)
eval time = 12243.52 ms / 466 tokens ( 26.27 ms per token, 38.06 tokens per second)
total time = 12356.81 ms / 480 tokens
x4gz
50 天前
@spike0100 知识都学杂了😆
perfectlife
50 天前
@spike0100 ollama 命令行里思考过程简直像打架一样,乱得很还慢,thinking 好几分钟,开启联网搜索结果会好点,这个就是对的
https://imgur.com/a/zoUtUrH
liu731
50 天前
跑了下 20b ,主观感受比 llama 和 mistral 强
cloverzrg2
50 天前
@perfectlife #8 速度快是因为,deepseek-r1:7b 激活参数是 7b ,gpt-oss-20b 激活参数 3.6b
https://openai.com/zh-Hans-CN/index/introducing-gpt-oss/
YsHaNg
50 天前
@wwhc 我用 ollama 反而感觉 20b 不如 qwen3:30b 可能我用老卡 mxfp4 上下文预分配很傻 16k 上下文 graph cache 全分配到 vram 上 weights 只能 offload7 层 基本全是 cpu 在跑 相比起来 qwen3 架构高效很多 offload 超过 1/3 层数 gpu 计算占比大很多 输出质量没太大感觉 毕竟同级别还有 qwen3:30b-a6b 这种东西存在
iorilu
48 天前
能不能把 gpt3.5 开源, 本地跑都有价值阿
cloverzrg2
47 天前
@iorilu #19 gpt3.5 是千亿参数你本地跑不起来,模型比较落后比不上 qwen3-30b ,对个人没有意义. 其他公司作思路参考倒是可以
https://llm-stats.com/models/compare/gpt-3.5-turbo-0125-vs-qwen3-30b-a3b

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1150236

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX