| 8x4090 离线部署 Qwen2.5 求助 fid • 2024-12-04 17:59:09 +08:00 • 最后回复来自 fid | 40 |
| exo + MindMac = 完全跑在 localhost 上的接近 ChatGPT 的体验
Livid PRO |
15 |
| 各位的 m4 设备都陆续到货了,能否跑一下 ollama/llama.cpp ,看看大模型这块的算力究竟比 m1 max m2 ultra , 提升有多少? beginor • 278 天前 • 最后回复来自 ohblue | 25 |
| 本地模型如何优化"大"文件? ttut • 2024-11-23 16:40:32 +08:00 • 最后回复来自 zachariahss | 1 |
| 推荐一个最近很喜欢的自部署书签管理 Hoarder yir • 2024-11-21 18:51:01 +08:00 • 最后回复来自 mooyo | 1 |
| mac 有什么方案本地跑 ai 字幕 Jaie • 2024-11-22 11:41:37 +08:00 • 最后回复来自 qbmiller | 9 |
| 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了 ShadowPower • 2024-11-17 10:53:33 +08:00 • 最后回复来自 yanyuechuixue | 98 |
| 代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算? raw0xff • 2024-11-11 08:54:49 +08:00 • 最后回复来自 poorcai | 28 |
| 在 mac 上安装 ollama,过几天再打开,为什么之前下载到本地的模型 ollama list 识别不了? cmichael • 2024-11-01 11:49:30 +08:00 |
| 有没有非常小型的开源 ai 项目,想根据每个账号的视频标题做分类 ayyayyayy2002 • 2024-10-28 17:28:37 +08:00 • 最后回复来自 june4 | 3 |
| 求助,我笔记本的 4060 跑 语言模型很困难吗? kevan • 2024-10-14 15:37:56 +08:00 • 最后回复来自 chronos | 1 |
| Meta 发布了 llama3.2,我试了一下 ollama 版本,发现这是假的 winglight2016 • 2024-09-28 21:34:16 +08:00 • 最后回复来自 yuting0501 | 14 |
| 本地跑大模型代码助手还挺好用 songray • 2024-09-24 11:48:03 +08:00 • 最后回复来自 tabc2tgacd | 6 |
| Llama3.1 8B 本地部署抢先体验, win&mac 一键启动整合包,图形化界面+知识库 mumbler • 287 天前 • 最后回复来自 yuandidi | 24 |
| gemma2 2B 一键整合包(2.3G),能力超过 gpt3.5, cpu 也能跑得飞快 mumbler • 2024-10-22 16:43:26 +08:00 • 最后回复来自 Pepsigold | 7 |
| mac mini 24g 大模型推理怎么样 ChipWat • 2024-08-14 21:51:51 +08:00 • 最后回复来自 xing7673 | 27 |
| 关于在本地部署开源模型的一些问题请教 ddvswgg • 2024-08-13 17:42:35 +08:00 • 最后回复来自 CynicalRose | 9 |
| intel mbp 有办法用 gpu 给 ollama 提速吗 Vitta • 2024-08-13 11:58:35 +08:00 • 最后回复来自 Vitta | 6 |
| win&mac 下开箱即用的本地大模型+知识库,支持数十种开源模型 mumbler • 2024-08-28 08:46:50 +08:00 • 最后回复来自 mumbler | 18 |
| ollama 本地模型 GPU 跑不满 CNYoki • 2024-07-24 15:03:17 +08:00 • 最后回复来自 clemente | 12 |