谷歌号风控了,深度体验了下 k2.5。还是很垃圾啊

23 小时 29 分钟前
 uuundefined

opencode 加 kimi k2.5 。

结论,蠢得要死,逻辑推理还是稀烂。完全不理解需求,幻觉依然多,花了 4 个小时,最后我手动给他找 bug 把一个简单程序跑通了。 试了下 gemini3flash ,20 分钟自己搞定

完全是垃圾。

但是有几点好的,1 在 opencode 的依序执行时,哪怕执行出错也能中断继续,虽然慢,但是能执行完。gemini 偶尔傻掉会无限循环输出。2 比较听话,gemini 和 qwen 是很不听话的,gemini 你给他写个 rules 或者 agents.md ,里面哪怕就一句,永远用中文回复。他都不听话。claude 是最守规矩的

估摸着实际编码能力只能和 claude 3.5 haiku 比下,应该还落后御三家一年以上。 比 GLM4.7 要好,GLM4.7 最恶心的是非常经常的,没做的需求他说他做了。。。最后和他对质,他还会说,我就是忽悠你的。我没做。要气吐血。

K2.5 会坦诚接受错误,可是他真的跑多少次,简单的错误都改不好。

所以用御三家做设计,k2.5 做执行可能还马马虎虎吧。

790 次点击
所在节点    程序员
5 条回复
gap
18 小时 19 分钟前
“ 最后和他对质,他还会说,我就是忽悠你的。我没做。要气吐血。”还有这种展开,笑死 🤣
ProphetN
16 小时 16 分钟前
Vibe Coding 不用考虑御三家之外的模型。性价比模型是用来干杂活的,编码用顶级模型就是最省事的。
rb6221
15 小时 3 分钟前
一直改不好这种一般来说就是长上下文导致的幻觉,这个挺考验模型能力的
yjhatfdu2
12 小时 45 分钟前
确实垃圾,看了下我在 moonshot 居然还有余额,用的官方的 API 接 opencode ,又慢又蠢而且反复出错,根本不如 M2.1 ,当然都远不如 gpt-5.2-codex 和 claude
opeth
7 小时 37 分钟前
我觉得主要原因是 opencode 太垃圾了,和 claude code 一起用了两个周,感觉意图理解和内容生成的准确程度都比 claude code 差远了。
我配合的模型是 GLM-4.7 ,反正感觉能用。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1189987

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX