V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 206 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 11  
fid 8x4090 离线部署 Qwen2.5 求助
fid  •  2024-12-04 17:59:09 +08:00  •  最后回复来自 fid
40
Livid exo + MindMac = 完全跑在 localhost 上的接近 ChatGPT 的体验
Livid  
PRO
 •  358 天前  •  最后回复来自 Livid
15
ttut 本地模型如何优化"大"文件?
ttut  •  2024-11-23 16:40:32 +08:00  •  最后回复来自 zachariahss
1
yir 推荐一个最近很喜欢的自部署书签管理 Hoarder
yir  •  2024-11-21 18:51:01 +08:00  •  最后回复来自 mooyo
1
Jaie mac 有什么方案本地跑 ai 字幕
Jaie  •  2024-11-22 11:41:37 +08:00  •  最后回复来自 qbmiller
9
ShadowPower 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
ShadowPower  •  2024-11-17 10:53:33 +08:00  •  最后回复来自 yanyuechuixue
98
raw0xff 代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算?
raw0xff  •  2024-11-11 08:54:49 +08:00  •  最后回复来自 poorcai
28
kevan 求助,我笔记本的 4060 跑 语言模型很困难吗?
kevan  •  2024-10-14 15:37:56 +08:00  •  最后回复来自 chronos
1
songray 本地跑大模型代码助手还挺好用
songray  •  2024-09-24 11:48:03 +08:00  •  最后回复来自 tabc2tgacd
6
mumbler gemma2 2B 一键整合包(2.3G),能力超过 gpt3.5, cpu 也能跑得飞快
mumbler  •  2024-10-22 16:43:26 +08:00  •  最后回复来自 Pepsigold
7
ChipWat mac mini 24g 大模型推理怎么样
ChipWat  •  2024-08-14 21:51:51 +08:00  •  最后回复来自 xing7673
27
ddvswgg 关于在本地部署开源模型的一些问题请教
ddvswgg  •  2024-08-13 17:42:35 +08:00  •  最后回复来自 CynicalRose
9
Vitta intel mbp 有办法用 gpu 给 ollama 提速吗
Vitta  •  2024-08-13 11:58:35 +08:00  •  最后回复来自 Vitta
6
mumbler win&mac 下开箱即用的本地大模型+知识库,支持数十种开源模型
mumbler  •  2024-08-28 08:46:50 +08:00  •  最后回复来自 mumbler
18
CNYoki ollama 本地模型 GPU 跑不满
CNYoki  •  2024-07-24 15:03:17 +08:00  •  最后回复来自 clemente
12
1  2  3  4  5  6  7  8  9  10 ... 11  
第 141 到 160 / 共 206 个主题
227 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1076 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms · UTC 23:07 · PVG 07:07 · LAX 15:07 · JFK 18:07
♥ Do have faith in what you're doing.