V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 181 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10  
dunhanson AI ollama 运行的 qwen3:8b 如何关闭思考模式?
dunhanson  •  5 天前  •  最后回复来自 lchynn
7
importmeta 有没有好用的本地翻译模型?
importmeta  •  7 天前  •  最后回复来自 molezznet
15
guoguobaba 大模型什么样的速度是靠谱的
guoguobaba  •  15 天前  •  最后回复来自 oldlamp
2
rocloong 有没有人尝试过用 ai 去整理自己的知识库
rocloong  •  30 天前  •  最后回复来自 lezhou
11
alanying Grok 4 发布
alanying  •  47 天前  •  最后回复来自 MaybeRichard
10
lihuashan 有人在本地跑模型吗?
lihuashan  •  52 天前  •  最后回复来自 lihuashan
6
Noby 目前哪个大模型适合本地部署用来纯翻译?
Noby  •  59 天前  •  最后回复来自 5had0w
23
laijh 个人电脑,适合跑哪个本地大模型?
laijh  •  13 天前  •  最后回复来自 kevin249
22
PalWorld 多卡部署 QWQ Q8 是否可行
PalWorld  •  77 天前  •  最后回复来自 coefuqin
3
abc0123xyz intel 显卡跑 Qwen3-14B-GGUF:Q8_0
abc0123xyz  •  83 天前  •  最后回复来自 coefuqin
6
cuteshell 学习大模型的显卡怎么选型
cuteshell  •  90 天前  •  最后回复来自 coefuqin
30
WessonC 求本地部署的 AI 推荐~
WessonC  •  91 天前  •  最后回复来自 happybabys
11
1  2  3  4  5  6  7  8  9  10  
第 1 到 20 / 共 181 个主题
192 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3531 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 26ms · UTC 10:35 · PVG 18:35 · LAX 03:35 · JFK 06:35
Developed with CodeLauncher
♥ Do have faith in what you're doing.