GLM-5: GLM Coding Max 套餐值得入手吗?

12 小时 16 分钟前
 SayHelloHi

10 点补货~

2637 次点击
所在节点    问与答
35 条回复
namonai
12 小时 15 分钟前
Pro 够用,用不完
Neolin
12 小时 13 分钟前
Pro 没有 GLM-5 呀,现在只有 Max 套餐有
imik
12 小时 9 分钟前
> 所有套餐均支持 GLM-4.7 及历史文本模型。

> 当前正处于新老模型资源更替阶段,仅 Max 套餐(包含新老订阅用户)新增支持 GLM-5 ,且调用 GLM-5 会占用比历史模型更多的套餐额度。待新老模型资源迭代完成后,Pro 套餐也将支持 GLM-5 。

所以以后 Lite 套餐也不支持 GLM-5 ,呵呵了。
S1ahs3r
11 小时 45 分钟前
搞着背刺操作可别买了,直接买火山这种云服务商可切换模型的就好了
bitmin
11 小时 45 分钟前
只有 Max 支持 GLM-5 还消耗更多额度?这么傻逼吗...

我以前看文档 FAQ 里有好像有提到如果有新模型所有套餐都会更新,现在去看已经改了
imik
11 小时 42 分钟前
@bitmin 是的,我也去找,发现 FAQ 已经偷偷改掉了,傻逼公司
usVexMownCzar
11 小时 38 分钟前
不值得,有这钱不如同时订阅 Claude Pro ,ChatGPT Plus ,GitHub Pro ,这三个加起来才 50 刀,350rmb

或者买 GitHub Pro+ 才 30 刀,200rmb ,按照次数,不是 token 计数。
promely
11 小时 33 分钟前
太贵了,没有任何性价比,不如直接订阅 claude ,或者买 kimi 2.5
snxq1995
11 小时 30 分钟前
> GLM-5 纳入 GLM Coding Plan 计划:
> Max 已接入,Pro 将在 2 ~ 3 日内上线,后续 Lite 也将支持

官方是这么说的,等着吧。
yunv2
11 小时 29 分钟前
买 pro 的时候,里面写着发布新模型,会第一时间更新,现在新模型只能 Max 使用
AnQiYang
11 小时 24 分钟前
为啥要用这个 GLM 的模型啊,比 Clauld 好用嘛?我觉得直接淘宝买个 windsurf 或者 cursor 的 pro ,然后用就完事了呗,你这个 149 感觉好贵啊,比 windsirf 的官方的套餐还贵,有啥说法???
fengshils
11 小时 23 分钟前
就是因为性价比才入手呀,去年的时候说的是支持新模型,今年文档改的
fengshils
11 小时 23 分钟前
真想用估计还是等火山引擎吧
NizumaEiji
11 小时 23 分钟前
用户条款说改就改,一点信誉都没有,谁知道后面还会不会有啥新的幺蛾子
bitmin
11 小时 17 分钟前
@AnQiYang #11 Pro 之前做活动买算下来一个月七十几块不到半价吧,这种 api 的比客户端的方便,想在哪用在哪用,并且可用量更多吧
rick13
11 小时 12 分钟前
20 刀可以买 cc 了吧
jjtang11
11 小时 11 分钟前
500 块一个月买个超售降智的模型图啥啊,而且之前一直说是 lite/pro 都支持最新模型的,现在又偷偷改了,毫无信誉,真的恶心
gaooo
11 小时 6 分钟前
智谱这家公司不行,最好别碰
SiWXie
10 小时 59 分钟前
一点商业信誉都没有,你可以上新套餐,例如 MAX MAX ,PRO PRO ,但你不能变更旧套餐,暗自削弱用户权益,朝令夕改,谁还和你玩?建议用 KiMi ,KiMi 那个 200 每月的也够用。
BenX
10 小时 20 分钟前
2400 包年 MAX 很香。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1192378

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX