有没有离线的代码补全软件?

246 天前
 YVAN7123

背景

期望

有没有相关的工具可以推荐一下。

4990 次点击
所在节点    程序员
29 条回复
irrigate2554
246 天前
昨天刚看到一个站内人的项目: https://github.com/TabbyML/tabby 模型下载好后应该可以离线使用
securityCoding
246 天前
ollama 跑一个?
yunyuyuan
246 天前
ollama+continue+openwebui
chairuosen
246 天前
本机最大也就跑个 32b 的模型,跟在线 api 效果差得多
miniliuke
246 天前
idea2024 不是自带吗?就是能力一般就是了
clemente
246 天前
@chairuosen 今年不好说 嘿嘿
jaylee4869
246 天前
Ollama + continue.
话说 deepseek v3 已经支持 Ollama 了。
ganbuliao
246 天前
vscode server
配置 copilot 走本地网络
{
"remote.extensionKind": {
"GitHub.copilot": [
"ui"
],
"GitHub.copilot-chat": ["ui"],

"pub.name": [
"ui"
]
}
}
lyonll
246 天前
@yunyuyuan 有模型推荐么,现在用 starcoder2+qwen2.5
tomyark123
246 天前
lsp 不是离线的吗
mioktiar56
246 天前
离线了还怎么赚你钱
spike0100
246 天前
@jaylee4869 话说 671b 模型跑起来需要什么配置的机器啊😧
xing7673
246 天前
@spike0100 6 个 64g mac mini 或 3 个 m1u 128g mac studio 或 2 个 m2u 192 mac studio 或 4*80g a800+显卡 或者 8 * 48g 4090

至少要 7 万+的预算
isSamle
246 天前
8 * 48g 4090 何止 7W+ 😂 @xing7673
xing7673
246 天前
@isSamle 嘛,最低我是按照 6*64g macmini 算的
windgreen
246 天前
ollama + codegeex + visual code
yangth
246 天前
本机跑不动的,能跑动的不是智能是智障
yangth
246 天前
如果有实力,可以自建机房
yuedashi
246 天前
lmstudio
PolarisY
246 天前
或许你可以研究研究内网穿透😂

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1104897

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX