V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
aikilan
V2EX  ›  程序员

速度,国产厂家官方模型致命的问题

  •  
  •   aikilan · 4 小时 39 分钟前 · 1659 次点击

    自己搞了个项目可以把国产模型通过 claude code 或者 codex 打开运行,本意是平替自己的 codex/claude 额度,今天上午 codex 额度用完了(谢天谢地,Openai 大善人下午给我重置了),于是搞了 minimax 来替代,启动后发现做简单需求问题不大,一旦复杂度上升,我就根本无法接受速度带来的负面反馈。

    从需求的输入到需求分析结束后真正投入开发的阶段用了 17 分钟,这是在令人十分苦恼...但是,该说不说在编程上解决问题的实力已然属于“可用”的级别,速度这块可以说是大短板,用在日常开发实在略显痛苦。 image

    25 条回复    2026-04-01 20:19:06 +08:00
    kuroismith
        1
    kuroismith  
       4 小时 37 分钟前
    算力被卡脖子了
    aikilan
        2
    aikilan  
    OP
       4 小时 35 分钟前
    @kuroismith 哎,真的很想畅快的使用国产模型,不用看他妈的 claude code 的白眼
    minami
        3
    minami  
       4 小时 23 分钟前   ❤️ 1
    我去。。看标题还以为叫我们速度吃瓜呢
    aikilan
        4
    aikilan  
    OP
       4 小时 17 分钟前
    @minami 笑死,v2 属实吃瓜必备是吧
    MuyuQ
        5
    MuyuQ  
       3 小时 54 分钟前
    找评价国模代替是对的。但是找错家了。M2.7 体感完全不如 glm 和 kimi 。
    DefoliationM
        6
    DefoliationM  
       3 小时 52 分钟前 via Android
    minimax 是真的垃圾,要啥没啥,经常写出逻辑错误和漏洞,codex ,Gemini 一次就能搞定的东西,用这玩意写一下午都不一定搞得定,还是反复给它指出问题的情况下。
    aikilan
        7
    aikilan  
    OP
       3 小时 50 分钟前
    @MuyuQ 醉了,看了下 X 上的评测,这三家不分伯仲的感觉,挑来挑去挑中了它
    aikilan
        8
    aikilan  
    OP
       3 小时 49 分钟前
    @DefoliationM 重点是。。。刚刚触发了调用频率限制,服了,任务都没给我干完呢,这玩意儿真能用么?都不是速度的问题了!
    DefoliationM
        9
    DefoliationM  
       3 小时 43 分钟前
    @aikilan 真不建议用,属于花钱受罪。
    huaweii
        10
    huaweii  
       3 小时 40 分钟前 via Android
    我光速冲进来吃瓜,吃了个空气🤣
    kokutou
        11
    kokutou  
       3 小时 38 分钟前 via Android
    豆包和千问砸钱推广,kimi 的负载应该没那么高吧
    sullevy
        12
    sullevy  
       3 小时 24 分钟前
    还好就买了一个月,下个月不会买 minimax ,还不如 glm
    bitmin
        13
    bitmin  
       3 小时 16 分钟前
    minimax 对比 glm 不就是 tps 速度优势吗? minimax 如果速度比 glm 慢那真不用玩了

    我还以为 minimax 会比 glm 速度快几倍,考虑想买个玩玩
    chenluo0429
        14
    chenluo0429  
       3 小时 6 分钟前 via Android
    tps 这个玩意相关因素比较多,模型架构,部署架构,实际投入的硬件资源。
    国产模型大部分 tps 的优先级低,先天架构就不足,快不起来。加上现在都处于高负载状态,能维持可用性和长上下文就已经资源耗尽了,tps 完全顾不上。
    对于 agent 来说,tps 真的非常重要,在我看来甚至高于长上下文。上下文超过 200K 后边际效用就很低了,而对等的 tps 最起码要到 100 才用的舒服。
    defaw
        15
    defaw  
       2 小时 36 分钟前
    现在的 glm 甚至能和 cursor composer 一个速度,限购之后变得很快了。
    aikilan
        16
    aikilan  
    OP
       2 小时 31 分钟前
    @defaw 明天搞来试试
    aikilan
        17
    aikilan  
    OP
       2 小时 30 分钟前
    @chenluo0429 确实,长上下文目前来说除了加速我 token 的消耗,收益完全不成正比,不如新开任务来的实在,还是更在乎速度的
    catazshadow
        18
    catazshadow  
       2 小时 27 分钟前 via Android
    制裁的效果
    yangxin0
        19
    yangxin0  
       1 小时 50 分钟前
    质量也非常差
    Azmeont
        20
    Azmeont  
       1 小时 31 分钟前
    GLM5.1 比较强,而且 tps 也不错
    aikilan
        21
    aikilan  
    OP
       1 小时 27 分钟前
    @Azmeont 可以可以,我去搞来试试
    billzhuang
        22
    billzhuang  
       1 小时 21 分钟前 via iPhone
    fireworks.ai 的 kimi k2.5 turbo 快如闪电

    简单的 task 我都用它

    cloudflare 的 worker ai 却慢的一笔
    onedge
        23
    onedge  
       1 小时 15 分钟前
    GLM 5.1 建议起手 pro ,lite 的速度太慢,pro 勉强接受,但也不快,5.1 很聪明能有 sonnet4.6 水准的智力,但是问题还是老问题,就是上下文太小,实战大项目就很心累;

    万一你正巧想买 GLM ,可以用这个 -10%

    🚀 You’ve been invited to join the GLM Coding Plan! Enjoy full support for Claude Code, Cline, and 20+ top coding tools — starting at just $10/month. Subscribe now and grab the limited-time deal!
    👉Join now: https://z.ai/subscribe?ic=48NTVJBHAF
    aikilan
        24
    aikilan  
    OP
       1 小时 14 分钟前
    @onedge good job~
    Curtion
        25
    Curtion  
       1 小时 2 分钟前
    我的使用体验 https://blog.3gxk.net/archives/coding-planshi-yong-ti-yan-fen-xiang

    minimax 2.7 不如 kimi k2.5 个 glm 5 ,但是 kimi 的用量太少,但是 glm 又经常过载
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3164 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 13:21 · PVG 21:21 · LAX 06:21 · JFK 09:21
    ♥ Do have faith in what you're doing.