V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
41
相关节点
 显示 36 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 163 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  
mrleft ollama 如何手动下载模型?
mrleft  •  98 天前  •  最后回复来自 h4ckm310n
15
lostsquirrelX Deepseek r1 14b 很有自己的想法
lostsquirrelX  •  105 天前  •  最后回复来自 lostsquirrelX
2
lucien94xxx Deepseek R1 671B 本地部署计算机硬件配置?
lucien94xxx  •  104 天前  •  最后回复来自 shuimugan
9
mingtdlb LLM 私有化部署
mingtdlb  •  106 天前  •  最后回复来自 Livid
10
raw0xff 想让本地运行的大语言模型可联网该怎么做?
raw0xff  •  104 天前  •  最后回复来自 shuimugan
4
iv8d LLM local 模型入门和使用
iv8d  •  125 天前  •  最后回复来自 YsHaNg
10
dropdatabase 想在本地跑大模型, macmini 怎么选?
dropdatabase  •  134 天前  •  最后回复来自 flax5a98aa2
4
javazero 怎么没看到有人做嘴臭大模型
javazero  •  134 天前  •  最后回复来自 SakuraYuki
1
abc634 请教,关于显卡内存
abc634  •  126 天前  •  最后回复来自 YsHaNg
22
nlzy 三千预算本地 70b 大模型
nlzy  •  143 天前  •  最后回复来自 bash99
60
1  2  3  4  5  6  7  8  9  
第 61 到 80 / 共 163 个主题
159 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5377 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms · UTC 03:16 · PVG 11:16 · LAX 20:16 · JFK 23:16
Developed with CodeLauncher
♥ Do have faith in what you're doing.