本地 llm client

2025 年 4 月 17 日
 kid1412621

请问 local llm client 你在用什么?为什么?

lm studio/cherry studio?

Chathub/page assistant?

1346 次点击
所在节点    Local LLM
5 条回复
hefish
2025 年 4 月 17 日
arg 直接 maxkb 。
huluhulu
2025 年 4 月 17 日
Diss 下 cherry studio
协议变来变去(MIT->Apache2->AGPL->收费),最终变成开源但是商业用户不免费,最搞笑是下面一段话:

* 我们欢迎社区对 Cherry Studio 的贡献。所有向本项目提交的贡献都将被视为在 **AGPLv3** 许可证下提供。
* 通过向本项目提交贡献(例如通过 Pull Request ),即表示您同意您的代码以 AGPLv3 许可证授权给本项目及所有后续使用者(无论这些使用者最终遵循 AGPLv3 还是商业许可)。
* 您也理解并同意,您的贡献可能会被包含在根据商业许可证分发的 Cherry Studio 版本中。

MIT->Apache2->AGPL 阶段的贡献者代码都被你白吃了啊?
huluhulu
2025 年 4 月 17 日
商业用户不免费 -> 这个要求很严格,基本上你在企业用,就是违反协议的。
kid1412621
2025 年 4 月 18 日
@hefish #1 这是啥
@huluhulu #3 我该暂时没意识到,但 Cherry 对 multimodal 支持太局限了
kid1412621
2025 年 4 月 18 日
@hefish #1 哦,原来是 1panel 开发的,感觉像 dify ,我的需求是像 openui 那种,但想要原生 client

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1126305

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX