| 哪个 AI 的文生图/图生图,可以生成大尺度一点的图 noobma • 2024-12-29 16:53:30 +08:00 • 最后回复来自 cufezhusy | 43 |
| 通过雷电网桥连接三台 Mac(m1p/m2/m4)测试 Exo cluster 运行 Qwen 2.5 Coder 32B 结果 huaweigg • 2024-12-28 00:34:05 +08:00 • 最后回复来自 mortal | 6 |
| gemini-exp-1206 vs gemini-2.0-flash-thinking-exp-1219 reaCodes • 2024-12-23 22:25:33 +08:00 • 最后回复来自 mumbler | 3 |
| 有同时支持 openai 和本地模型的客户端吗? frankyzf • 2025-01-03 11:33:44 +08:00 • 最后回复来自 wangshushu | 4 |
| 如何根据微信聊天记录,训练出一个自己语气的机器人对外使用 ggbond2233 • 2024-12-13 13:09:33 +08:00 • 最后回复来自 manbamentality | 3 |
| cursor 搭配上自己的 openai apikey 实现的是完整功能吗? idblife • 2024-12-18 13:53:42 +08:00 • 最后回复来自 PlusW | 6 |
| 基于内部知识库管理,创建问答机器人 skykk1op • 2024-12-12 17:17:53 +08:00 • 最后回复来自 Barhe | 1 |
| Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型? adrianzhang • 2024-12-12 12:12:09 +08:00 • 最后回复来自 adrianzhang | 7 |
| 离网 Centos 服务器部署 Qwen-2.5-Coder leoSup • 2024-12-10 14:22:29 +08:00 • 最后回复来自 dcdlove | 6 |
| Llama 3.3 70B
Livid PRO |
21 |
| Qwen2.5 72B 是最好的本地代码补全模型 Leon6868 • 2024-12-08 19:33:13 +08:00 • 最后回复来自 pakro888 | 15 |
| 关于运行 Lightrag 官方示例报错的问题 mdb • 2024-12-05 02:32:10 +08:00 • 最后回复来自 Xs0ul | 1 |
| Apple 统一内存适合运行 LLM?理想很丰满,现实很骨感 hjc4869 • 252 天前 • 最后回复来自 noogler67 | 8 |
| 8x4090 离线部署 Qwen2.5 求助 fid • 2024-12-04 17:59:09 +08:00 • 最后回复来自 fid | 40 |
| exo + MindMac = 完全跑在 localhost 上的接近 ChatGPT 的体验
Livid PRO |
15 |
| 各位的 m4 设备都陆续到货了,能否跑一下 ollama/llama.cpp ,看看大模型这块的算力究竟比 m1 max m2 ultra , 提升有多少? beginor • 308 天前 • 最后回复来自 ohblue | 25 |
| 本地模型如何优化"大"文件? ttut • 2024-11-23 16:40:32 +08:00 • 最后回复来自 zachariahss | 1 |
| 推荐一个最近很喜欢的自部署书签管理 Hoarder yir • 2024-11-21 18:51:01 +08:00 • 最后回复来自 mooyo | 1 |
| mac 有什么方案本地跑 ai 字幕 Jaie • 2024-11-22 11:41:37 +08:00 • 最后回复来自 qbmiller | 9 |
| 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了 ShadowPower • 2024-11-17 10:53:33 +08:00 • 最后回复来自 yanyuechuixue | 98 |