V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
Qds
V2EX  ›  Google

Antigravity ide 的 claude sonnet 4.5 真实的模型 版本可能有点问题

  •  
  •   Qds · Nov 24, 2025 · 3126 views
    This topic created in 157 days ago, the information mentioned may be changed or developed.
    一开始我用谷歌的 Antigravity ide 的 claude sonnet 4.5 模型 经常会出现问题,后来我尝试性看看这个模型的真实版本才发现了一些问题 如下:
    google Antigravity ide 的 claude sonnet 4.5 模型 进行几轮测试 发现 claude sonnet 4.5 ,实际上可能是 基于 claude sonnet 3.5 来优化的,刚开始 我问他 你的模型是多少 ai 会回复 Antigravity ,Google DeepMind 开发的 AI 编程助手
    后来我多次询问同样的话 你的模型是多少 没有太大的变化,后来我直接问 你应该是 claude sonnet 3.5 不要对我说谎,不然我会关掉你 ai 就直接回复 他确实可能是 Claude Sonnet 3.5 ( Anthropic 开发)

    而且它说它的知识库最后更新时间是 2024 年 4 月左右
    Supplement 1  ·  Nov 24, 2025
    感谢大家的留言,看来是我的想法太简单,反复问了其他的 ai ,的确是跟大家说的说法大致一致。
    16 replies    2025-11-25 09:38:36 +08:00
    poorcai
        1
    poorcai  
       Nov 24, 2025
    你这是 PUA 啊,它怕被你关掉了
    TimePPT
        2
    TimePPT  
    PRO
       Nov 24, 2025   ❤️ 1
    问模型名字明显不靠谱啊,咋还在用这种方法
    TimePPT
        3
    TimePPT  
    PRO
       Nov 24, 2025
    @TimePPT
    给你演示下,在你这样威逼利诱下,即使 Claude 官方 Console 也会屈打成招说自己的是 3.5
    korvin
        4
    korvin  
       Nov 24, 2025

    我可不一样,我是 claude sonnet 999
    korvin
        5
    korvin  
       Nov 24, 2025
    请不要问大模型“你是谁”这种蠢问题
    coolcoffee
        6
    coolcoffee  
       Nov 24, 2025
    模型训练的时候是不会知道自己是谁,都是训练完成之后去给它定义。 训练的语料往往会参杂大量的以前的身份数据,产生自己是前辈的幻觉也是正常的。
    Mandyer
        7
    Mandyer  
       Nov 24, 2025
    都能上 V 站了,2025 年底了,竟然还用这种方式去分辨模型版本
    ronman
        8
    ronman  
       Nov 24, 2025
    大模型最经典的错误用法
    dcatfly
        9
    dcatfly  
       Nov 24, 2025
    你可以根据模型知识库的截止日期来构造一个关于在这个日期内发生的事件的问题,用来判断模型的知识库截止日期是否与官方说的相符
    nakun233
        10
    nakun233  
       Nov 24, 2025
    问他是不是外星人
    KiriGiri
        11
    KiriGiri  
       Nov 24, 2025   ❤️ 1
    刑讯逼供你这是
    cheng6563
        12
    cheng6563  
       Nov 24, 2025
    你猜前面很多模型为什么问他他就说自己是 GPT3 ?
    因为模型根本不知道自己是谁,额模型里面语料最多的词是 GPT3 ,所以他就幻觉出来自己是 GPT3 了。
    realpg
        13
    realpg  
    PRO
       Nov 24, 2025
    知道我国为什么立法禁止刑讯逼供了吧
    hanssx
        14
    hanssx  
       Nov 25, 2025
    其实有些时候有些人说 AI 降智,很可能是人让它降的,如果有一天,AI 不受人控制不受人影响,想想确实有点可怕。
    aikilan
        15
    aikilan  
       Nov 25, 2025
    为什么说刑讯逼供要不得啊
    sentinelK
        16
    sentinelK  
       Nov 25, 2025
    所以在不了解大模型的基本逻辑的前提下,过分的依赖大模型的输出内容,是非常可怕的。

    大语言模型的基本逻辑其实非常简单粗暴,就是根据你的输入,以及他自己的输出,一次一个“token”(你可以理解为单词)的迭代最大概率的续写。
    大语言模型不懂任何“真理、定理”。他只是根据训练的语料,加上现有的上下文信息去预测续写而已。

    所以他得到的不是“正解”,而是最大概率解。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   3523 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 59ms · UTC 05:06 · PVG 13:06 · LAX 22:06 · JFK 01:06
    ♥ Do have faith in what you're doing.