Qwen3-Max-Thinking, KIMI K2.5 上新了

1 月 27 日
 tt83
昨天 QWEN 今天 KIMI 都发布了新基座模型,测了几个前端用例 KIMI 还略好于 gemini3 pro 和 claude4.5 sonet ,有点惊喜。Qwen 看 benchmark 很厉害,实际用有点已读乱回的意思...
2679 次点击
所在节点    分享发现
16 条回复
jaleo
1 月 27 日
千问已经有了 qwen 里还没更新
Meteora626
1 月 27 日
qwen 测试的是工具集群吧,官网的单模型差点意思,
RandyLuo
1 月 27 日
Kimi2.5thinking 很行,qwen 不太行
chunhuitrue
1 月 27 日
@RandyLuo 怎么对比的,详细说说?
germain
1 月 27 日
Qwen3 太贵了,昨天用这个新 Model 小刷了一下一个简单的前端 UI ,刷掉我 200 人民币,还没刷好,我惊了。也不知道是不是 Token 计费结算有什么问题。
ferock
1 月 27 日
@germain #5

对比一下 coding plan ,这也太贵了
RandyLuo
1 月 27 日
@chunhuitrue https://livebench.ai/ 这个网站的最新测试集没法刷,23 年就有的榜,基本和体感一致。我有个很长链路的音响系统的问题,opus 、gemini3pro 都没解决,qwen 更不用说了,就 gpt5.2 一次就回答对,kimi k2.5thinking 只有很小的地方偏了点,一次提示后就纠正解决问题了。
germain
1 月 27 日
@ferock 出乎意料的贵,回头有时间再看一下细节
Sezxy
1 月 28 日
kimi k2.5+opencode,感觉很不错,我今天几个需求都用它俩解决
zhonghao01
1 月 28 日
昨天对比了下 Qwen3-Max-Thinking 和 GLM 4.7 ,相同的提示词,做出来的效果都不如 GLM ,qwen 做出来的网页很粗糙,效果也不是想要的效果,GLM 做的要好看,基本符合要求。
letitbesqzr
1 月 28 日
@Sezxy #9

请问是如何配置 让 kimi k2.5 搭配 opencode 的? 我这边配置后 直接提示:

Kimi For Coding is currently only available for Coding Agents such as Kimi CLI, Claude Code, Roo Code, Kilo Code, etc.
Sezxy
1 月 28 日
@letitbesqzr #11 我没有买它的 coding 套餐,之前刚出来的时候送的 50 元我还没用完
zuosiruan
1 月 28 日
@RandyLuo #3 kimi2.5 api 只能按量付费吗?后台只看到充值余额的入口,没找到包月的入口。
zuosiruan
1 月 28 日
RandyLuo
1 月 28 日
@zuosiruan kimi 官网好像炸了,他的会员里面带了 coding 额度
chunhuitrue
1 月 28 日
@RandyLuo 赞,看来靠谱。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1188823

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX