求本地部署的 AI 推荐~

145 天前
 WessonC
如果我想搞一个本地部署的 AI ,喂给它公司产品的所有资料,比如说明书之类的 PDF,PPT ,达到一个知识库的作用,有什么推荐吗?能详细一点最好,谢谢。
最好也有硬件的大概需求。
大概有 1-200 个产品。
1991 次点击
所在节点    Local LLM
11 条回复
iv8d
145 天前
ollama
murmur
145 天前
200 个产品本地部署你得几套 deepseek 才够用哦
coefu
145 天前
很拉,没效果的。
dualist
145 天前
你要做的是把知识库的每个文件元数据提取出来,然后存到 db 或者非关系数据库,暴露个接口参数让 AI 调用搜索结果,解析结果返回数据就行而不是全部喂给 AI
zxcvbnm001
145 天前
可以选择 rag ,目前看微调还是不如 rag 稳定
luny
145 天前
ollama+dify
444571840
144 天前
本地 AI 不是特别推荐,当玩具玩玩可以,生产力就算了
YsHaNg
144 天前
@murmur 不是 啥玩意为啥要 duplicate deepseek ?模型权重还有按套算的?
murmur
143 天前
@YsHaNg 国内现在买不到那种非常强的推理卡吧,你想跑并发不就得多部署几套
YsHaNg
143 天前
@murmur pcie 槽够多就行 200 也不是很大 多插点卡完事 这里也没什么并发需求 重要的是权重+上下文能塞进显存里 r1 模型卡 128k 属实不适合干这种事 实际召回率更低
happybabys
142 天前
模型没有最强的,只有最适合的,本地部署是正确的选择

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1135317

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX