Hi V 友们,我是 OpenAgent 团队的开发者。
今天想给大家介绍一个我们打磨了很久的项目 —— OpenAgent,一个面向个人开发者和极客的开源本地 AI Agent 。定位跟 OpenClaw 、Hermes 类似,都是「个人本地助手」这个赛道,但我们走了一条完全不同的路:用 Go 语言写成一个单文件二进制,下载 exe 双击就能跑,零配置开箱即用。
一句话定位:开箱即用的单文件本地 Agent ,效果更稳、延迟更低、资源占用更少。
GitHub:github.com/the-open-agent/openagent(求 Star ⭐)
一、为什么做这件事
现在用 AI 干活的人越来越多 —— 不只是写代码,做 PPT 、跑脚本、查资料、整理文档,大家都在用 Agent 。但用过一段时间,绝大多数人都会撞上同一堵墙:部署成本。
市面上不少「知名」 Agent 是结构性的依赖怪兽 —— 一个完整环境下来,Node.js 、Python 、Docker 、WSL 层层嵌套。问题往往不在模型本身,而在 Agent 的交付形态:依赖膨胀、文件散落数万、配置繁琐、迁移困难。每一层都在消耗用户耐心,月底还要被账单教育一次。
OpenAgent 的取舍从第一天就很明确:把「单文件零配置」做成顶层设计目标,而不是事后打的补丁。我们选了一条更硬核的路 —— 用 Go 从零写成一个单二进制文件,没有运行时依赖,没有安装器,没有 Docker 。前端的 React 直接 embed 进二进制里,后端就是纯 Go ,一个进程监听 14000 端口。
这就是今天的 OpenAgent 。
二、不止轻量 —— 这是一个完整的 Agent 工作平台
OpenAgent 不只是一个跑得快的单文件,配套的是一整套日常工作流要用的能力:
- 🤖 30+ 模型提供商:OpenAI 、Claude 、DeepSeek 、Gemini 、Mistral 、Grok……随时切换,无需改代码
- 🌐 Browser-Use:驱动真实浏览器,导航、点击、填表、截图
- 🖥️ Shell Execution:本地命令执行,支持 PTY 交互式会话
- 📄 Office 自动化:读写 Word 、Excel 、PowerPoint
- 🔗 MCP 集成:任意 MCP 兼容服务器即插即用
- 📚 RAG 知识库:PDF/Word/Excel 自动切片、嵌入、索引
- ⚡ 工作流编排:BPMN 风格可视化拖拽编排
- 📊 管理后台:Token 用量统计、活动监控、工具管理、请求日志
三、直接亮数据:效果与延迟横评 OpenClaw
架构做完了,效果到底怎么样?我们花了十多天做横向评测,把 OpenAgent 和 OpenClaw 拉到同一条起跑线。统一用 deepseek/deepseek-v4-flash 作为底层模型,这是目前性价比较高的模型,最容易暴露各家 Agent Harness 的真实水平。
3.1 Agent Tool 调用对标(核心效果)
12 个任务 × 3 轮 = 36 次计分,统一模型、统一 prompt:
| 指标 | OpenAgent | OpenClaw |
|---|---|---|
| 成功率 | **83.33%**( 30/36 ) | 61.11%( 22/36 ) |
| 平均耗时 | 14,183 ms | 26,128 ms |
| 平均 Token | 1,312 | 2,362 |
| 合规率 | 90.0 | 76.67 |
| 覆盖率 | 97.5 | 91.67 |
| 综合分 | 91.14 | 78.41 |
一句话总结:成功率更高、速度更快、Token 更省。OpenAgent 每轮平均耗时比 OpenClaw 少约 11.9 秒,Token 消耗少约 1,050 。36 轮真实执行,判分由自动化脚本完成,无人工干预。
3.2 对话场景性能
| 指标 | OpenAgent | OpenClaw |
|---|---|---|
| 完成率 | 100% | 95% |
| 格式正确率 | 100% | 82.5% |
| 事实准确率 | 100% | 92.5% |
| 平均延迟 | 3,991 ms | 26,781 ms |
OpenAgent 在对话场景下完成率、格式正确率、事实准确率均达到 100%,平均延迟约 4 秒; OpenClaw 平均延迟约 26.8 秒。
3.3 项目本体性能
| 维度 | OpenAgent | OpenClaw |
|---|---|---|
| 冷启动就绪 | ~2.7 s | ~29.2 s |
| 常驻内存 | ~110 MB | ~215–307 MB |
| 安装体积 | exe ~23 MB | ~382 MB / 42,000+ 文件 |
| TTFT (首包延迟) | ~23 ms | ~44 ms |
冷启动:OpenAgent 中位数 2.7 秒就能通过 health 检查返回 HTTP 200 ,OpenClaw 需要 29.2 秒。
体积:OpenAgent 单文件约 23 MB ,OpenClaw 整块目录约 382 MB ,文件数超过 4 万。这不是「精简功能换体积」,而是 Go 静态编译 + 前端 embed 的架构优势。
内存:空闲状态下 OpenAgent 约 110 MB ,OpenClaw 约 215–245 MB 。压测后 OpenAgent 约 120 MB ,OpenClaw 约 307 MB 。
四、凭什么效果更好、延迟更低 —— 3 个工程决策
不是「砍功能换性能」,是每一层都做对了选择。
① Single Binary:一个文件,零依赖
Go 静态编译,前端 React build 后直接 embed 进二进制。Windows 用户下载 exe 双击就能跑,不需要 WSL 、不需要 Docker 、不需要 Node.js 。Mac/Linux 一条命令安装。这才是「个人本地 Agent 」该有的交付形态。
② Shell 执行带边界,安全可控
源码层面,tool/shell.go 定义了默认超时 30 秒、最大 300 秒、PTY 可选、会话式 poll/write/submit 等机制。Shell 能力在默认实现上是强约束的生产向工具,而非无限制远程执行。同时支持审计日志、SSO 、请求日志等企业级可观测性。
③ Go 原生并发,内存可控
Go 的 goroutine + channel 模型让高并发场景下的内存增长非常克制。80 路并发 health 压测,内存仅增长 10 MB 。对比 Node.js 的内存曲线,这是语言层面的结构性优势。
五、坦白说几句,欢迎来挑战
离「完美」还有多远,先把几件事说清楚:
- Lighthouse 综合分:OpenClaw 87 分,我们 45 分。这是前端加载性能,我们用的 Lighthouse 11 版本与 OpenClaw 测试版本可能不同,分数不宜跨版本强比。但确实说明我们的前端还有优化空间。
- 顺序 health P50:OpenClaw 约 20 ms ,我们约 33 ms 。毫秒级差距,对个人本地 Agent 参考意义有限。
- 配置前提:聊天 API 需要
Authorization: Bearer <provider_key>,不是「完全零步骤」。但相比装 Node.js 、配 Docker 、拉数万文件,我们的摩擦已经降到极低。
欢迎你来挑战:
- 下载 OpenAgent ,用你自己的 OpenRouter Key
- 跑同样的 prompt 对比账单
- 跑出比我们更快/更省的,欢迎 PR ;跑出我们更贵的,提 issue 我们改
六、关于 Go 重写
可能有朋友会问:做 AI Agent 不是 Python 的天下吗,怎么用 Go ?
Agent 的瓶颈在 LLM 调用而非语言性能 —— 决定一个 Agent 跑得好不好的,是 Harness 层的架构设计,不是底层语言的执行速度。Go 的优势在于:静态编译单文件、内存可控、并发模型简洁、跨平台原生支持。这些特性对于「个人本地 Agent 」这个场景来说,比 Python 的动态灵活性更重要。
我们用 Go 写了三个月,从零到一,做出了这个内核。
七、谁用谁爽 —— 几类典型场景
🔧 程序员 / 开发者:CLI 形态直接替代 Claude Code ,BYOK 用自己的 Key ,本地 Shell 、Browser 、Office 工具一键调用。
🏠 个人用户 / 极客:同样的机器配置,原本跑一个 Agent 就卡,现在能轻松跑多个 —— 内存占用不到同类的一半。
💼 自由职业者 / 一人公司:做客户提案、写咨询报告、出竞品分析、整理材料 —— 本地跑,数据不出本机,省下来的就是安全感。
八、怎么上手
Windows (最省心,推荐)
- 去 GitHub Releases 下载
openagent_windows_x86.exe - 双击即用,环境/依赖全自动就位
- 打开 http://localhost:14000
macOS / Linux / WSL
curl -fsSL https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.sh | bash
Windows PowerShell
irm https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.ps1 | iex
模型怎么接
- 项目启动前端界面一键配置,支持几乎所有主流大模型,包括本地部署的模型。
- 下载与文档:openagentai.org
九、最后
OpenAgent 是 Apache 2.0 开源项目,代码全在 GitHub 上,欢迎审阅、欢迎 Star 、欢迎提 issue 。
我们坚信:个人本地 Agent 的未来,不是越来越重,而是越来越轻。 一个文件,双击即用,这才是用户真正想要的。
GitHub:github.com/the-open-agent/openagent ⭐
测评集代码:github.com/the-open-agent/agentbench
QQ 群:963536134