V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 206 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 11  
goashore 有开源的可联网搜索的 ollama UI 项目推荐吗
goashore  •  278 天前  •  最后回复来自 coefuqin
14
spitfireuptown 大佬们有没有基于大模型的推荐系统 demo
spitfireuptown  •  290 天前  •  最后回复来自 murmur
9
mrleft ollama 如何手动下载模型?
mrleft  •  287 天前  •  最后回复来自 h4ckm310n
15
lostsquirrelX Deepseek r1 14b 很有自己的想法
lostsquirrelX  •  294 天前  •  最后回复来自 lostsquirrelX
2
lucien94xxx Deepseek R1 671B 本地部署计算机硬件配置?
lucien94xxx  •  293 天前  •  最后回复来自 shuimugan
9
mingtdlb LLM 私有化部署
mingtdlb  •  295 天前  •  最后回复来自 Livid
10
raw0xff 想让本地运行的大语言模型可联网该怎么做?
raw0xff  •  293 天前  •  最后回复来自 shuimugan
4
Pbe2RsrnVcPrF 想在本地跑大模型, macmini 怎么选?
Pbe2RsrnVcPrF  •  322 天前  •  最后回复来自 flax5a98aa2
4
javazero 怎么没看到有人做嘴臭大模型
javazero  •  322 天前  •  最后回复来自 SakuraYuki
1
abc634 请教,关于显卡内存
abc634  •  315 天前  •  最后回复来自 YsHaNg
22
1  2  3  4  5  6  7  8  9  10 ... 11  
第 101 到 120 / 共 206 个主题
227 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1076 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms · UTC 23:07 · PVG 07:07 · LAX 15:07 · JFK 18:07
♥ Do have faith in what you're doing.