想让本地运行的大语言模型可联网该怎么做?

213 天前
 raw0xff

还是搞不清楚所谓的"模型"是什么东西,哪位神仙可以讲清楚.

本地装了 ollama 和 chatbox, 使用 chatbox app 访问本地 ollama 可以使用,但是无法联网. chatbox app 提示说 ollama API 不支持联网,其他的非本地的 API 支持.

ollama,chatbox 是使用模型的工具,llama3:xb deepseekr1:xb 是不同的模型,我理解的对吧?chatbox 对话框有联网设置,怎样让本地模型可以联网呢?

1544 次点击
所在节点    Local LLM
4 条回复
fengshils
213 天前
使用谷歌浏览器插件 page Assist
raw0xff
213 天前
@fengshils 感谢, page assist 好像只支持本地模型不支持 API.
ccxuy
213 天前
@raw0xff 刚看了下能支持啊,不过试了下没啥用,只是打通了几个部件,问答效果差,也不能操作网页
shuimugan
205 天前
https://docs.openwebui.com/features/ 这个集成了搜索,源码里集成了好几家搜索引擎,免费的话用的是 duckduckgo 的 https://github.com/open-webui/open-webui/blob/2017856791b666fac5f1c2f80a3bc7916439438b/backend/open_webui/retrieval/web/duckduckgo.py#L12 ,在容器里配个 http_proxy/https_proxy 或者丢海外部署就好了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1109613

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX