exo + MindMac = 完全跑在 localhost 上的接近 ChatGPT 的体验

2024 年 11 月 24 日
 Livid


https://github.com/exo-explore/exo

https://mindmac.app/

macOS 上还有哪些可以填自定义 ChatGPT API endpoint 的客户端呢?
5080 次点击
所在节点    Local LLM
15 条回复
ccbikai
2024 年 11 月 24 日
自力的 ChatX
Livid
2024 年 11 月 24 日
@ccbikai 感谢。

配上了,能用!

Donaldo
2024 年 11 月 25 日
cluster 体验如何?
awah
2024 年 11 月 25 日
MindMac 不行阿, 自从 15 之后疯狂崩溃, 9 月之后都没更新修复. 买了后悔死了
Livid
2024 年 11 月 25 日
在 Windows 上可以跑在 WSL2 上:

Livid
2024 年 11 月 25 日
游戏卡用来干这个显存比较紧张。



运算的时候整个 Windows 的 UI 都会卡。
Livid
2024 年 11 月 25 日
zed 编辑器可能可以支持配合 exo 使用:

KcKXpykSg2777f5I
2024 年 11 月 25 日
CherryStudio ,功能非常全面
Vitta
2024 年 11 月 27 日
intel mac 是不是就跟本地模型无缘了
nutting
2024 年 11 月 27 日
我有个 24G 的 P40 ,有意义跑吗
Livid
2024 年 11 月 28 日
@nutting 如果已经有 Linux 环境的话,几分钟就可以跑起来。
wen20
2024 年 11 月 28 日
chatbox
nutting
2024 年 11 月 28 日
mac m4pro 48G 的,本地跑什么模型比较均衡啊,试了一下 qwen-coder:32B,内存嗖嗖增长
nrtEBH
2024 年 12 月 9 日
exo 和 LM studio 比有什么优势呢
Livid
2024 年 12 月 11 日
@nrtEBH exo 如果在内网的几台机器上启动,会自动组成一个群集。

只是,用一堆小机器跑超大模型这件事情可能本身就比较扯。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1092206

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX