[造轮子] 怕跑 API 一觉醒来房子没了?随手写了个免安装的本地 OpenClaw 客户端(内置 QQ 机器人)

1 天前
 flygfch

大家好,本人野生程序员。

最近身边很多不懂代码的朋友想折腾 OpenClaw 玩玩。但拦住他们的除了“配环境”,还有一个最大的恐惧:“按 Token 计费的 API”。

现在很多自媒体博主讲的,那种“让他给我整理个桌面,花了几十刀”的鬼故事也非常多了。

既然现在开源模型这么强,买的电脑配置又处于性能过剩状态,为啥不直接跑本地呢?所以周末手搓了一个套壳桌面小工具,起名叫 WhereClaw (自由龙虾)

核心主打一个“安全感”和“零门槛”:

  1. 免费本地模型: 内置本地模型,吃的是你自己的电费。随你怎么造,无限火力,再也不用担心一觉醒来房子没了。
  2. 硬件要求丰俭由人: 有独立显卡最好起飞;用 Mac (M 系列芯片) 跑起来也很丝滑;甚至只有核显和 CPU 也能硬跑。
  3. 一键接入技能 skill: 完美接入了 Clawhub 插件生态,超过一万多个现成的技能工具,在软件里全部可以一键点击安装。
  4. 极致防呆: 各种环境依赖全打包了,去掉了复杂的网络配置。小白下载后,双击直接运行。
  5. 内置 QQ 通道: 顺手加了个一键接入 QQ 群机器人的功能,配好后直接使用 QQ 机器人控制电脑。
  6. 开源免费: 已经开源在 GitHub 上了,可以放心使用。

官网地址(直接下载): https://whereclaw.com

GitHub 地址: https://github.com/whereclaw/whereclaw

目前支持 Windows x64 和 macOS M 系列这两个平台。

丑话说在前面(一点真实的免责声明):

毕竟是本地运行大模型,为了不拉高小白的不合理预期,必须说明一下本地模型的“物理规律”:

  1. 智商高低,完全取决于你的机器配置: 如果你有 4090 或者高配 Mac Studio ,能部署高参数模型,那它的效果绝对媲美甚至替代顶级付费大模型。但如果你用的是普通轻薄本,受限于显存只能跑基础小模型,那它更适合做日常陪聊、翻译和基础问答。有多大锅,下多大米。

  2. 技能“装得上”,但能不能“用得准”也看模型:Clawhub 里的上万个工具虽然能一键安装,但“工具调用( Function Calling )”非常考验模型的智商。如果你的硬件只能跑弱一点的模型,它可能会面对复杂的技能不知道怎么触发;配置越高,模型越聪明,技能就越丝滑!

目前本项目纯用爱发电,完全免费。做得很糙,想请社区的大佬们帮忙内测一下,看看有没有什么 Bug 。拿去给身边不想花钱又想体验 AI 的家人朋友用,或者压榨一下自己过剩的电脑算力,挺合适的。

如果遇到安装报错或者想要的功能,欢迎在帖子里骂我,或者通过官网扫码进群反馈,我肝通宵也给大家修好!欢迎拍砖!

541 次点击
所在节点    分享创造
6 条回复
CKAJ555
1 天前
下载后 模型也下载了 对话没反应啊
CKAJ555
1 天前
大哥 怎么彻底删除啊
flygfch
1 天前
@CKAJ555 你机器配置是什么呀?本地跑模型一般会比较慢,尤其是模型太大的话,如果不是报错,那么等一等就会有反应。
flygfch
1 天前
@CKAJ555 Windows 是绿色版的,直接删除目录即可。mac 同样,将应用拉到回收站就行。
CKAJ555
1 天前
M3 MAX.
flygfch
1 天前
@CKAJ555 那应该没问题的,再等一等一般就会有结果。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1199518

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX