怎样预处理长文本,来提升大模型检查是否符合预定义规则的效果?

100 天前
 3297269

如题,业务场景是工程文档的风险识别,我有一套风险识别规则,想查找工程文档原文中是否有违反相应规则的风险,想要使用 dify 等工具开发智能体,实现上传文档 → 输出审查报告的流程,每个文档大约有 10 万字,这么长的字数肯定不可能直接上传,要做预处理。有什么好的提升精准度的方法?

风险规则示例: “1.超大件运输未办理相关许可、超大件运输运输车辆未按照规定路线行驶; 2.人员冒险进入起重机械工作区域等危险场所; 3.未编制《锚艇作业安全操作规程》,未严格按安全操作规程要求进行作业。”,

问了几个 AI ,给出的几种方案包括 1.所有规则向量化,文档暴力切分成 10-100 块,每块使用向量召回或关键词匹配,找出最相关的前 K 条规则,多段并发调用大模型审查,最后汇总结果 2.先为 300 条规则生成高召回关键词表,本地按段落预处理后丢弃不包含关键词的文本块,再做 RAG 与 LLM 判定。

请问 V 友是否有相关经验,哪种方式更好?是否有相应的教程可以参考? dify 能实现以上流程吗?

本人土木狗转技术开发,所以基础比较差,有点言不达意,求轻拍

639 次点击
所在节点    问与答
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1138180

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX