V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
AlghaPorthos
V2EX  ›  问与答

RAG 有什么比较有前景的工程运用嘛?

  •  
  •   AlghaPorthos · 129 天前 · 1148 次点击
    这是一个创建于 129 天前的主题,其中的信息可能已经有所发展或是发生改变。

    比较好奇各位对于检索增强生成( Retrieval Augmented Generation )的看法,以及此项技术在未来能够拥有怎样的运用。

    4 条回复    2025-05-16 14:39:39 +08:00
    dzdh
        1
    dzdh  
       129 天前
    卢娜说:客服、医疗、生产、制造等可以依赖过往内容进行总结并重新创作的文本类回答。都能做。

    能做是能做,怎么做好是另外一个问题。

    医疗:当前病人历史病例作为上下文,来帮你分析你的所有问题,都离不开病人历史问题,甚至可以联想即将可能发生的病症。

    生产、制造:数控机床代码生成,一个小时的活给你 5 分钟生成好,自己检查就行(不能完全信任 AI )

    合同审查、法规条文解读、财务快速制表等等等等。看你能想到什么。


    还记得什么 17 岁高中生 ai 识别食物卡路里的新闻么,那不就是 rag 么,用户输入的图片不就是过往数据么。

    你能不能做个拍照识别配料表的小程序给老人用呢。
    rogerer
        2
    rogerer  
       128 天前   ❤️ 1
    我始终觉得这是一个中间形态,只是因为现在 LLM 还不够强
    AlghaPorthos
        3
    AlghaPorthos  
    OP
       128 天前
    @rogerer RAG 想要解决的是 LLM 幻觉的现有技术难题,如果有可信的信息来源,LLM 幻觉问题将能够被很大程度上解决。

    个人认为,除非 LLM 完全抛弃自回归,否则 RAG 将永远存在。
    rogerer
        4
    rogerer  
       127 天前
    @AlghaPorthos 幻觉问题可以通过 Knowledge Edit 解决。我并不太同意 RAG 可以解决幻觉,RAG 能做的只是给 LLM 添加一些提示信息,一方面 RAG 本身可能会引入错误信息,另一方面,提示信息并不能避免幻觉的出现,比如在长程推理场景下,RAG 输入的提示信息会被稀释。

    另一个 RAG 目前试图解决上下文长度不够的问题。

    我认为我们对上下文的需求是有极限的,比如 context window 已经能装下一整个 codebase 了,追求更长的上下文的意义就没那么大。

    此外我们还有一些特别的技术比如 context compression 我认为这是比 RAG 解决 context length 更好的方案。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2563 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 10:56 · PVG 18:56 · LAX 03:56 · JFK 06:56
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.