上周还是 The 'gpt-5.6' model is not supported when using Codex with a ChatGPT, 今天好奇用 Pro 的 oauth 直接过去了,probe 了一下,1.5M context 都通了,这是不小心操作失误?开了 fast ,感觉非常快!
上周还是 The 'gpt-5.6' model is not supported when using Codex with a ChatGPT, 今天好奇用 Pro 的 oauth 直接过去了,probe 了一下,1.5M context 都通了,这是不小心操作失误?开了 fast ,感觉非常快!
1
daimaosix 1h 24m ago
我也灰度到了,非常牛逼
|
2
Removable 1h 22m ago
这么快? 5.5 出来才几天啊
|
3
nachzugler OP 2.3M 都通了 惊了
|
4
nachzugler OP |
5
nachzugler OP @Removable 同步出来的,只是之前通道关着
|
6
neteroster 1h 11m ago via Android
真的假的,这么快
但是看你测的好像是字符数不是 tokens ? |
7
nachzugler OP @neteroster
I’ve now proven the 8M and 12M one-message failures are request-string guards, not token-limit rejections, so I’m probing aggregate size with multiple sub-cap messages next. 我有点不可置信,目前探测的上限到了 10M |
8
AiBoy 1h 8m ago via Android
这么离谱的吗?!
|
9
jaskle 1h 4m ago
好的,马上我的编程能力又得到了提升
|
10
nachzugler OP The 12M isolated run came back fast with HTTP 200, which means the earlier bigger failures were mostly a concurrency/tooling artifact; I’m rechecking 15M the same way before pushing the total higher.
|
11
hang333 56 mins ago
跑一下 MRCRv2 (x
|
12
neteroster 56 mins ago via Android
如果可以的话,希望楼主分享一下完整的响应,里面会包含实际模型名,以及 openai 一侧统计的 tokens 数量
|
13
zhuiyun041 51 mins ago
天才又获得了绝世武功的秘籍,即将突飞猛进
|
14
x86 46 mins ago
再报再报
|
15
BlueSkyXN 44 mins ago
你这个不会是啥垃圾中转站吧
|
16
wesleywaters 44 mins ago
关注
|
17
nachzugler OP @BlueSkyXN 不是,我自己的 是透传 可控
|
18
street000 39 mins ago 奥特曼神了,谷歌瘫坐在椅子上,达里奥头皮发麻
|
19
Alias4ck 21 mins ago
x 上都没有消息
|
20
iorilu 20 mins ago
codex 5.5 还是限制 258k 阿
|
21
yokisama 6 mins ago
我怎么感觉你用的 omo 插件出幻觉了
10m 太扯了 你下方的 opencode context window 显示的 9%预示着就是 1md 模型 |
22
nachzugler OP |
23
nachzugler OP @yokisama 你下方的 opencode context window 显示的 9%预示着就是 1md 模型 因为我写死的 1050000
|
24
nachzugler OP 好奇怪啊搞得我怀疑人生
|
25
MuyuQ 3 mins ago
10M 太扯了。codex 能做到真 10M ,如此天顶星科技,A/可以原地解散了。
|
26
nachzugler OP @hang333 跑了,我其实不知道这是啥
|
27
yokisama 1 min ago
|