如何在 vs code 上应用自建的 ollama 模型

3 月 2 日
 davidyin
刚接触 vs code ,安装完,看到里面的已经有一些 ai 模型可用了,升级到 pro 账号,可以看到更多可用的模型。

我看是分三类,agent ,ask ,plan 。

当我在管理模型这里添加了自建的一个 ollama 地址。例如 http://192.168.100.139:11434
然后可以看到一些我安装的模型,比如 qwen2.5-coder:3b ,之类的。这个地址是局域网内另一台机器。

然后只能当做 ask 类用。
是否可以把它配置成 agent 类?这样它就可以直接读取文件,改文件了。
现在只当 ask ,就只能对话而已。

不知道我的问题说明白了没有。
1114 次点击
所在节点    Local LLM
9 条回复
coefu
3 月 5 日
你应该问 chatgpt 或者 gemini 。
davidyin
3 月 5 日
@coefu
问过,答案是不可行。
但是我总是不死心,觉得一定有人能做到,故有此一问。
coefu
3 月 5 日
@davidyin 搞是能搞成的,工程角度来看,是有办法的,只是麻烦。你自己要学一堆东西先。你这种需求,不是共性需求,没人造轮子的。
davidyin
3 月 6 日
@coefu

谢谢。能搞就行,花点时间而已。就怕是一条错误的道路,浪费时间精力。
coefu
3 月 12 日
@davidyin #4 搞定了没?我最近跑通了。你装个 continue 的插件就行了。
coefu
3 月 12 日
@davidyin #4 https://github.com/continuedev/continue ,比较爽,vscode 能直接读文件,改文件,还能读项目架构。不过,你要分成 3 个模型来搞。
chat,edit,apply 一个模型,通用模型最好,用来搞需求实现。顺便帮你直接 code 。
auto-complete 一个模型,用 qwen2.5 coder 0.5b 就 ok ,你自己想改动的时候,自动补全。
embed 一个模型,这个可能要大一点,上下文 128k 的那种,可以直接读 整个项目,梳理项目架构。
kafm
3 月 14 日
vscode 的 chat 模式已经可以 Agent 模式用本地模型了
kafm
3 月 14 日
chat: openchat 命令打开的对话框
oldlamp
3 月 15 日
以前有一个 void ,可以这样用本地模型,是个 vscode 开源版的修改版,后来好像不更新了,但依然能安装使用。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1195229

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX