如果有一段很长的文档,包含以下内容
...以上省略若干段文字
...
abc 的指导思想如下:
一、要大力 xxxxxxx
二、要加强 xxxxxxx
三、要促进 xxxxxxx
四、要发挥 xxxxxxx
五、要改革 xxxxxxx
六、要总结 xxxxxxx
七、要克服 xxxxxxx
...
...以下省略若干段文字
依我去前写过的 rag demo 测试来看,在 chunking 阶段,按一定长度切开后向量化存储,那每个 chunk 向量之间已经没关联了,再使用关键字与每个 chunk embedding 后的向量得到最佳相似度的结果,比如:
也搜索到了有一些优化方案(结合 ai ,可能有幻觉):
其它方案:
疑问:
这个需求是不是不适合用 RAG 来做,在上下文长度不够时,有其它方法吗?就算上下文够,llm 真的能在这么大的上下文中准确无误的提取?
使用 rag 的话,使用层次化切割这种方案看起来不错,比如:形成 abc 的指导思想 | | | 一、 二、 三、 这种结构,检索时可以一层层由上向下展开,由下向上溯源。 但是搜了相关 RAPTOR RAG github repo ,看 star 数并不理想(几十),故对这种方案的真实实用性存疑。
如果还涉及一些总结性的提问,关键词可能在原文未涉及,在检索这一步使用相似度比对得到相关向量结果肯定不理想,又有什么好的方案?
题外话: RagFlow: 未针以上场景测试过,但 docker 搭建玩了一下,忘了放着不管,大概 1 个月后竟然把磁盘写满了(有一个 1.5T 的报错日志,全是 redis 未连接上的)
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.