大佬们,本地使用 ollama 部署的 DeepSeek-R1-32B 在 anythingllm 中发送图片,它说它没收到,应该怎么做?才能让他帮我识别图片?实现官网那种效果

186 天前
 cander0815
896 次点击
所在节点    Local LLM
4 条回复
cander0815
181 天前
请问有大佬知道吗?应该如何部署
hefish
181 天前
anyhingllm 非常傻,他 rag 只支持定长切片,实测基本不可用。网上搜的文档例子都很牛,碰到自己跑就完蛋。。

这个这个可能是模型的限制吧。 这个是 text-to-text 的模型吧。。。找个 text/image to text 的模型试试看。。。
coefu
181 天前
anythingllm 原生的嵌入模型 all-MiniLM-L6-v2 不是多模态的,并且也没有提到 vision 模型的集成,ds 的 671b 是 moe 专家模型,里面有原生 vision 处理的能力。
coefu
181 天前
或者你把嵌入模型 改成 granite3.2-vision ,然后看看情况。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1116459

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX