V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ccnoobs
V2EX  ›  分享发现

美团的 ai 为什么这么快

  •  
  •   ccnoobs · 1 天前 · 2077 次点击

    美团昨天发布的模型,今天试用了下,感觉和其他模型比,速度有点快啊 https://longcat.chat/

    13 条回复    2025-09-04 09:11:59 +08:00
    YsHaNg
        1
    YsHaNg  
       1 天前 via iPhone
    le chat 听过没 主打一个拉稀式响应
    billzhuang
        2
    billzhuang  
       1 天前 via iPhone
    因为没人用?
    liuzimin
        3
    liuzimin  
       1 天前
    用了下,简直像个傻子。。。完全不按我说的要求回答。
    niubilewodev
        4
    niubilewodev  
       1 天前 via iPhone
    @liuzimin 你就说快不快?
    Fred0410
        5
    Fred0410  
       1 天前
    答非所问能不快嘛 哈哈哈
    fuzzsh
        6
    fuzzsh  
       1 天前 via Android
    我们主打量而不是质
    whatp
        7
    whatp  
       1 天前
    响应速度是很快, 搞缓存 + 轻量模型么,不过“明天的后天是星期几”这种没回答对
    gam2046
        8
    gam2046  
       1 天前
    模型足够小,速度就能很快,你本地部署个 1.5B 的模型,响应速度也很快。但是并没有什么用。
    needpp
        9
    needpp  
       1 天前
    “3*7 = 58”, “你不是应聘的会计吗” , “会计 会记, 快就行啦”
    p7IySTldqB
        10
    p7IySTldqB  
       1 天前
    @whatp 腾讯的元宝也没回答对啊
    2020diyige
        11
    2020diyige  
       22 小时 59 分钟前
    @whatp ,试了几个其他的也没答对
    zhangsimon
        12
    zhangsimon  
       22 小时 22 分钟前
    @p7IySTldqB
    @2020diyige 试了下,百度回答对了,推理了好长😂
    love2328
        13
    love2328  
       5 小时 16 分钟前
    完全不能用的状态
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5739 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 06:28 · PVG 14:28 · LAX 23:28 · JFK 02:28
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.