最近试了 kimi k2.5 ,多模态和 agent teams 支持都不错,想着用来做自动化测试挺不错。
但官网的用量太小,几下就没了,于是找找看有没有第三方提供的,毕竟这是开源模型嘛。
于是好死不死看到阿里云百炼 Coding Plan 里写着支持 k2.5 ,正好也便宜,才 50 一个月,阿里嘛,虽说自己模型不咋地,但用算力跑个开源模型应该没啥问题,于是就买了。
这是购买前看到的:
可以清楚的看到,支持 glm 和 k2.5 这俩第三方模型,这很正常,因为他本身的大模型列表里也有很多第三方模型包括 deepseek 什么的都有
于是买了,然后他的文档里写着支持 claude code ,于是我就试一下。
首先 kimi 他并不是纯粹的编码模型,他是多模态的,也就是他是可以理解图片甚至视频的。
我丢个视频给他说太大了,提示 Context limit reached ,这时候我还没意识到严重性。
想着视频可能确实太大了,于是让他用 ffmpeg 给搞成逐帧图片自己看吧,依然提示 Context limit reached 。
那算了,那我复制一张图给他总可以了吧,于是我贴了一张图给他,依然提示 Context limit reached 。
难道我复制的图太大了?于是给他一个链接让他自己看,他居然打不开,让我下载下来放到项目目录给他。
于是我就想看看配置是不是有问题,哪里参数搞错了,然后返回去阿里云百炼文档里看看,结果怎么找也找不到 kimi k2.5 在 claude code 里怎么配置。
翻来覆去找不到,再从当时搜索的来源进入,我发现问题了,他居然没有说支持 kimi k2.5 ,我以为我昨天没睡好看岔了,于是我搜索也好,翻文档重新也好,始终找不到哪里支持 kimi k2.5 ,难道是我看错了?
还好有一个页面没关,我发现猫腻了,他居然在我买了之后,把 kimi k2.5 给删了,还能这样搞的??
并且他写了一个非常霸王的条款:Coding Plan 服务一经购买不支持退订与退款。
不管能用不能用,就算是完全用不了,也不能退款。
这么大的公司,这么玩有意思吗?
购买前:
购买后:
使用指南明确写着支持 claude code
一直报错,一直在压缩上下文,完全无法正常使用:
//
附上文档地址:
https://help.aliyun.com/zh/model-studio/coding-plan
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
https://www.v2ex.com/t/1192332
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.