美团的 ai 为什么这么快

2025 年 9 月 2 日
 ccnoobs

美团昨天发布的模型,今天试用了下,感觉和其他模型比,速度有点快啊 https://longcat.chat/

3089 次点击
所在节点    分享发现
13 条回复
YsHaNg
2025 年 9 月 2 日
le chat 听过没 主打一个拉稀式响应
billzhuang
2025 年 9 月 2 日
因为没人用?
liuzimin
2025 年 9 月 2 日
用了下,简直像个傻子。。。完全不按我说的要求回答。
niubilewodev
2025 年 9 月 2 日
@liuzimin 你就说快不快?
Fred0410
2025 年 9 月 2 日
答非所问能不快嘛 哈哈哈
pingdog
2025 年 9 月 2 日
我们主打量而不是质
whatp
2025 年 9 月 3 日
响应速度是很快, 搞缓存 + 轻量模型么,不过“明天的后天是星期几”这种没回答对
gam2046
2025 年 9 月 3 日
模型足够小,速度就能很快,你本地部署个 1.5B 的模型,响应速度也很快。但是并没有什么用。
needpp
2025 年 9 月 3 日
“3*7 = 58”, “你不是应聘的会计吗” , “会计 会记, 快就行啦”
p7IySTldqB
2025 年 9 月 3 日
@whatp 腾讯的元宝也没回答对啊
2020diyige
2025 年 9 月 3 日
@whatp ,试了几个其他的也没答对
zhangsimon
2025 年 9 月 3 日
@p7IySTldqB
@2020diyige 试了下,百度回答对了,推理了好长😂
love2328
2025 年 9 月 4 日
完全不能用的状态

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1156658

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX