速度,国产厂家官方模型致命的问题

4 小时 41 分钟前
 aikilan

自己搞了个项目可以把国产模型通过 claude code 或者 codex 打开运行,本意是平替自己的 codex/claude 额度,今天上午 codex 额度用完了(谢天谢地,Openai 大善人下午给我重置了),于是搞了 minimax 来替代,启动后发现做简单需求问题不大,一旦复杂度上升,我就根本无法接受速度带来的负面反馈。

从需求的输入到需求分析结束后真正投入开发的阶段用了 17 分钟,这是在令人十分苦恼...但是,该说不说在编程上解决问题的实力已然属于“可用”的级别,速度这块可以说是大短板,用在日常开发实在略显痛苦。

1665 次点击
所在节点    程序员
25 条回复
kuroismith
4 小时 39 分钟前
算力被卡脖子了
aikilan
4 小时 37 分钟前
@kuroismith 哎,真的很想畅快的使用国产模型,不用看他妈的 claude code 的白眼
minami
4 小时 25 分钟前
我去。。看标题还以为叫我们速度吃瓜呢
aikilan
4 小时 20 分钟前
@minami 笑死,v2 属实吃瓜必备是吧
MuyuQ
3 小时 56 分钟前
找评价国模代替是对的。但是找错家了。M2.7 体感完全不如 glm 和 kimi 。
DefoliationM
3 小时 54 分钟前
minimax 是真的垃圾,要啥没啥,经常写出逻辑错误和漏洞,codex ,Gemini 一次就能搞定的东西,用这玩意写一下午都不一定搞得定,还是反复给它指出问题的情况下。
aikilan
3 小时 52 分钟前
@MuyuQ 醉了,看了下 X 上的评测,这三家不分伯仲的感觉,挑来挑去挑中了它
aikilan
3 小时 51 分钟前
@DefoliationM 重点是。。。刚刚触发了调用频率限制,服了,任务都没给我干完呢,这玩意儿真能用么?都不是速度的问题了!
DefoliationM
3 小时 45 分钟前
@aikilan 真不建议用,属于花钱受罪。
huaweii
3 小时 42 分钟前
我光速冲进来吃瓜,吃了个空气🤣
kokutou
3 小时 40 分钟前
豆包和千问砸钱推广,kimi 的负载应该没那么高吧
sullevy
3 小时 26 分钟前
还好就买了一个月,下个月不会买 minimax ,还不如 glm
bitmin
3 小时 18 分钟前
minimax 对比 glm 不就是 tps 速度优势吗? minimax 如果速度比 glm 慢那真不用玩了

我还以为 minimax 会比 glm 速度快几倍,考虑想买个玩玩
chenluo0429
3 小时 9 分钟前
tps 这个玩意相关因素比较多,模型架构,部署架构,实际投入的硬件资源。
国产模型大部分 tps 的优先级低,先天架构就不足,快不起来。加上现在都处于高负载状态,能维持可用性和长上下文就已经资源耗尽了,tps 完全顾不上。
对于 agent 来说,tps 真的非常重要,在我看来甚至高于长上下文。上下文超过 200K 后边际效用就很低了,而对等的 tps 最起码要到 100 才用的舒服。
defaw
2 小时 38 分钟前
现在的 glm 甚至能和 cursor composer 一个速度,限购之后变得很快了。
aikilan
2 小时 34 分钟前
@defaw 明天搞来试试
aikilan
2 小时 32 分钟前
@chenluo0429 确实,长上下文目前来说除了加速我 token 的消耗,收益完全不成正比,不如新开任务来的实在,还是更在乎速度的
catazshadow
2 小时 29 分钟前
制裁的效果
yangxin0
1 小时 52 分钟前
质量也非常差
Azmeont
1 小时 33 分钟前
GLM5.1 比较强,而且 tps 也不错

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1202863

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX