发现这两天 chatgpt plus 用 codex 的 GPT5.5 现在上下文只有 258K 了吗?

2 小时 15 分钟前
 neel

上个月 claude 降智后,换成 chatgpt plus ,GPT5.5 用起来很爽,而且有 fast 模式,和 ops 一样爽。最近两天感觉也降智了,普通模式慢了很多,经常卡住,上下文也从 1M 跳到了 258K 。

357 次点击
所在节点    OpenAI
4 条回复
neteroster
2 小时 12 分钟前
codex 订阅的 5.5 一直是 270K 左右上下文,什么时候有 1M 了?
sampeng
2 小时 10 分钟前
啥时候 1M 了的。。我怎么不知道。。一直都是这样大小的。因为 5.5 的压缩比 cc 的要快和效果好,所以并不觉得
neteroster
2 小时 10 分钟前
@neteroster

另外解释一下,Codex 的 5.5 实际上是 400K 模型上下文,260K 输入,128K 留给输出,还留一点给 compact 。输入 272K 左右最大,这是服务器校验限定死的,本地改也没用。5.4 是 1M ,而 5.5 显然规模更大成本更高,所以从推出开始就没有给满血( API 是满血 1M ),Tibo ( Codex 团队负责人)说后续可能增加
neel
1 小时 14 分钟前
是我弄错了,codex cli status line 5.5 显示的是 1M,但实际只有 258

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1211554

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX