请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以?

2 天前
 ken2025
1347 次点击
所在节点    Local LLM
5 条回复
onedge
2 天前
了解一下标准的 RAG 流 https://zhuanlan.zhihu.com/p/1890727581348778391 直接喂 AI 让它帮你实现本地服务,所有服务挂一个 docker 容器里。

一般精度要求的话,大概是这个步骤:

服务端入:进原始文件,本地就不用额外存储文件了,进行切片,转向量/存储 (qwen embedding 4b)
客户端查:开发自己的前台/前端,提问转向量(如 qwen embedding 4b ),向量数据库查,排序模型重排序,返回给用户,带 source 源头标记

其他还有图片输入查询之类的你直接问 AI 实现即可
ken2025
2 天前
rag 这个是不是还存在上下文的问题,之前试过直接挂载知识库,效果不好
oldlamp
1 天前
oldlamp
1 天前
jinsongzhaocn
17 小时 22 分钟前
参考这里的回复: https://www.v2ex.com/t/1210011?p=1#reply7
跑过 lightRAG 的配置

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1209904

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX