KIMI K2 有可能改变 AI 编辑器格局

100 天前
 xieqiqiang00
之前各家 AI 编辑器完全没有护城河的,全部调用的是闭源模型,区别只是 prompt ,能力受限于模型本身,谁家便宜谁就能抢走用户

K2 开源之后就有了一种新路子,AI 编辑器可以自己部署模型并微调,然后各家可能会进化出一些独家功能,用户就可能会因为某些功能留住了

deepseek 虽然当时出来名气很响,但在 cursor 里的实际表现很差劲,工具调用困难,这次 K2 我看这方面比较强
2441 次点击
所在节点    程序员
11 条回复
orFish
100 天前
今年模型更新那么多,最后写代码不还是 claude 好用
FlashEcho
100 天前
关键是用开源模型微调,也调不到闭源 SOTA 的水平啊
defaw
100 天前
太慢了,deepseek v3 过年之前还没爆的时候是 60t/s, 爆了之后服务器不够掉到 15-20t/s ,openai 不管用户多少基本也是 60t/s, gemini 有 120t/s ,几个国产无论是 qwen 还是 kimi 还是 doubao 永远是 20t/s ,编辑个文件还没人改的快,至少要 60t/s 才有实用意义
defaw
100 天前
另外就是指令遵循,kimi 昨晚我试了一下还像个人,改小点的文件没问题,大的基本不能用,太慢了,目前测试下来在 roo code 里能正确调用工具改千行文件的一只手数的过来,deepseek v3 diff 更新成功概率最高,gemini 差点,但是它快,qwen 从 2.5 到 3 基本没法正确调用工具修改文件
darksword21
100 天前
claude ,省心,懒的对比
xieqiqiang00
100 天前
@orFish 我觉得逼话太多所以我只用 o3
xieqiqiang00
100 天前
@defaw 慢这个也不是模型的错吧,卡不够只能限速
mrpzx001
100 天前
叫它用 php 写个贪吃蛇,连基本的语法都有错误,人工修正后还是跑不了,这种模型能干啥
gaooo
100 天前
想多了,目前大模型配置要求这么高怎么可能做到用户端本地部署,慢的要命
coolcoffee
100 天前
我觉得 tab 补全这种可以考虑拼下,大的 Agent 不敢指望。Claude 4.0 还是属于断崖式领先。
mightofcode
100 天前
我试了下 kimi 感觉很废物
跟 claude 没法比

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1145247

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX