Hi V 友们,我是 OpenAgent 团队的开发者。
今天想给大家介绍一个我们打磨了很久的项目 —— OpenAgent,一个面向个人开发者和极客的开源本地 AI Agent 。定位跟 OpenClaw 、Hermes 类似,都是「个人本地助手」这个赛道,但我们走了一条完全不同的路:用 Go 语言写成一个单文件二进制,下载 exe 双击就能跑,零配置开箱即用。
一句话定位:开箱即用的单文件本地 Agent ,效果更稳、延迟更低、资源占用更少。
GitHub:github.com/the-open-agent/openagent(求 Star ⭐)
现在用 AI 干活的人越来越多 —— 不只是写代码,做 PPT 、跑脚本、查资料、整理文档,大家都在用 Agent 。但用过一段时间,绝大多数人都会撞上同一堵墙:部署成本。
市面上不少「知名」 Agent 是结构性的依赖怪兽 —— 一个完整环境下来,Node.js 、Python 、Docker 、WSL 层层嵌套。问题往往不在模型本身,而在 Agent 的交付形态:依赖膨胀、文件散落数万、配置繁琐、迁移困难。每一层都在消耗用户耐心,月底还要被账单教育一次。
OpenAgent 的取舍从第一天就很明确:把「单文件零配置」做成顶层设计目标,而不是事后打的补丁。我们选了一条更硬核的路 —— 用 Go 从零写成一个单二进制文件,没有运行时依赖,没有安装器,没有 Docker 。前端的 React 直接 embed 进二进制里,后端就是纯 Go ,一个进程监听 14000 端口。
这就是今天的 OpenAgent 。
OpenAgent 不只是一个跑得快的单文件,配套的是一整套日常工作流要用的能力:
架构做完了,效果到底怎么样?我们花了十多天做横向评测,把 OpenAgent 和 OpenClaw 拉到同一条起跑线。统一用 deepseek/deepseek-v4-flash 作为底层模型,这是目前性价比较高的模型,最容易暴露各家 Agent Harness 的真实水平。
12 个任务 × 3 轮 = 36 次计分,统一模型、统一 prompt:
| 指标 | OpenAgent | OpenClaw |
|---|---|---|
| 成功率 | **83.33%**( 30/36 ) | 61.11%( 22/36 ) |
| 平均耗时 | 14,183 ms | 26,128 ms |
| 平均 Token | 1,312 | 2,362 |
| 合规率 | 90.0 | 76.67 |
| 覆盖率 | 97.5 | 91.67 |
| 综合分 | 91.14 | 78.41 |
一句话总结:成功率更高、速度更快、Token 更省。OpenAgent 每轮平均耗时比 OpenClaw 少约 11.9 秒,Token 消耗少约 1,050 。36 轮真实执行,判分由自动化脚本完成,无人工干预。
| 指标 | OpenAgent | OpenClaw |
|---|---|---|
| 完成率 | 100% | 95% |
| 格式正确率 | 100% | 82.5% |
| 事实准确率 | 100% | 92.5% |
| 平均延迟 | 3,991 ms | 26,781 ms |
OpenAgent 在对话场景下完成率、格式正确率、事实准确率均达到 100%,平均延迟约 4 秒; OpenClaw 平均延迟约 26.8 秒。
| 维度 | OpenAgent | OpenClaw |
|---|---|---|
| 冷启动就绪 | ~2.7 s | ~29.2 s |
| 常驻内存 | ~110 MB | ~215–307 MB |
| 安装体积 | exe ~23 MB | ~382 MB / 42,000+ 文件 |
| TTFT (首包延迟) | ~23 ms | ~44 ms |
冷启动:OpenAgent 中位数 2.7 秒就能通过 health 检查返回 HTTP 200 ,OpenClaw 需要 29.2 秒。
体积:OpenAgent 单文件约 23 MB ,OpenClaw 整块目录约 382 MB ,文件数超过 4 万。这不是「精简功能换体积」,而是 Go 静态编译 + 前端 embed 的架构优势。
内存:空闲状态下 OpenAgent 约 110 MB ,OpenClaw 约 215–245 MB 。压测后 OpenAgent 约 120 MB ,OpenClaw 约 307 MB 。
不是「砍功能换性能」,是每一层都做对了选择。
Go 静态编译,前端 React build 后直接 embed 进二进制。Windows 用户下载 exe 双击就能跑,不需要 WSL 、不需要 Docker 、不需要 Node.js 。Mac/Linux 一条命令安装。这才是「个人本地 Agent 」该有的交付形态。
源码层面,tool/shell.go 定义了默认超时 30 秒、最大 300 秒、PTY 可选、会话式 poll/write/submit 等机制。Shell 能力在默认实现上是强约束的生产向工具,而非无限制远程执行。同时支持审计日志、SSO 、请求日志等企业级可观测性。
Go 的 goroutine + channel 模型让高并发场景下的内存增长非常克制。80 路并发 health 压测,内存仅增长 10 MB 。对比 Node.js 的内存曲线,这是语言层面的结构性优势。
离「完美」还有多远,先把几件事说清楚:
Authorization: Bearer <provider_key>,不是「完全零步骤」。但相比装 Node.js 、配 Docker 、拉数万文件,我们的摩擦已经降到极低。欢迎你来挑战:
可能有朋友会问:做 AI Agent 不是 Python 的天下吗,怎么用 Go ?
Agent 的瓶颈在 LLM 调用而非语言性能 —— 决定一个 Agent 跑得好不好的,是 Harness 层的架构设计,不是底层语言的执行速度。Go 的优势在于:静态编译单文件、内存可控、并发模型简洁、跨平台原生支持。这些特性对于「个人本地 Agent 」这个场景来说,比 Python 的动态灵活性更重要。
我们用 Go 写了三个月,从零到一,做出了这个内核。
🔧 程序员 / 开发者:CLI 形态直接替代 Claude Code ,BYOK 用自己的 Key ,本地 Shell 、Browser 、Office 工具一键调用。
🏠 个人用户 / 极客:同样的机器配置,原本跑一个 Agent 就卡,现在能轻松跑多个 —— 内存占用不到同类的一半。
💼 自由职业者 / 一人公司:做客户提案、写咨询报告、出竞品分析、整理材料 —— 本地跑,数据不出本机,省下来的就是安全感。
Windows (最省心,推荐)
openagent_windows_x86.exemacOS / Linux / WSL
curl -fsSL https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.sh | bash
Windows PowerShell
irm https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.ps1 | iex
模型怎么接
OpenAgent 是 Apache 2.0 开源项目,代码全在 GitHub 上,欢迎审阅、欢迎 Star 、欢迎提 issue 。
我们坚信:个人本地 Agent 的未来,不是越来越重,而是越来越轻。 一个文件,双击即用,这才是用户真正想要的。
GitHub:github.com/the-open-agent/openagent ⭐
测评集代码:github.com/the-open-agent/agentbench
QQ 群:963536134
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.