有没有离线的代码补全软件?

249 天前
 YVAN7123

背景

期望

有没有相关的工具可以推荐一下。

4997 次点击
所在节点    程序员
29 条回复
Genshin2020
248 天前
ollama
oncethink
248 天前
推荐 tabby ,可以本地代码问答和,如果内存在 16GB 或以下,建议用 1.5b 的模型,再大速度就很慢了。

如果使用 macOS ,直接用 brew install tabbyml/tabby/tabby ,然后访问后台注册账户,在设置界面拿到 token ,然后在 vscode 中装上 tabby 扩展,填入本地 tabby 服务地址和 token

如果使用 ollama 做后端,可以参考下面配置:

下面是一个使用 qwen2.5-coder:7b 的参考配置,你需要先用 ollama pull qwen2.5-coder:7b-base 和 qwen2.5-coder:7b ,前者适合做补全,后者适合做问答。

~/.tabby/config.toml
```
# Completion model
[model.completion.http]
kind = "ollama/completion"
model_name = "qwen2.5-coder:7b-base"
api_endpoint = "http://localhost:11434"
# prompt_template 不同的模型配置可能不一样,需要自己注意一下
prompt_template = "<|fim_prefix|>{prefix}<|fim_suffix|>{suffix}<|fim_middle|>"

# Embedding model
[model.embedding.http]
kind = "ollama/embedding"
model_name = "bge-m3:latest"
api_endpoint = "http://localhost:11434"

# Chat model
[model.chat.http]
kind = "openai/chat"
model_name = "qwen2.5-coder:7b"
api_endpoint = "http://localhost:11434/v1"
```
HK560
248 天前
同问,为了代码安全公司想要本地部署 ai 模型服务来辅助开发,目前就在找这种类似的解决方案,
chenJianRong123
248 天前
Idea 最新版,不是可以补全吗
raycool
248 天前
@HK560 他们不都有私有化部署方案吗?一年几十万。
blackeeper
248 天前
docker 运行 openWebUI + ollama ,然后 vscode + continue 插件,离线写代码
dengji85
248 天前
@PolarisY 内网都是隔离的,没有外网,怎么穿透
YVAN7123
248 天前
@PolarisY #20 给叔叔网 内网穿透 你真想得到啊
kibble5788
247 天前
https://code.fittentech.com/ 支持私有化部署,收费的,不差钱可以看看

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1104897

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX