OpenAgent:单文件版龙虾——仅有一个文件,双击就能跑的高性能 Agent

2 小时 54 分钟前
 veotax

Hi V 友们,我是 OpenAgent 团队的开发者。

今天想给大家介绍一个我们打磨了很久的项目 —— OpenAgent,一个面向个人开发者和极客的开源本地 AI Agent 。定位跟 OpenClaw 、Hermes 类似,都是「个人本地助手」这个赛道,但我们走了一条完全不同的路:用 Go 语言写成一个单文件二进制,下载 exe 双击就能跑,零配置开箱即用

一句话定位:开箱即用的单文件本地 Agent ,效果更稳、延迟更低、资源占用更少。

GitHub:github.com/the-open-agent/openagent(求 Star ⭐)

官网:openagentai.org


一、为什么做这件事

现在用 AI 干活的人越来越多 —— 不只是写代码,做 PPT 、跑脚本、查资料、整理文档,大家都在用 Agent 。但用过一段时间,绝大多数人都会撞上同一堵墙:部署成本

市面上不少「知名」 Agent 是结构性的依赖怪兽 —— 一个完整环境下来,Node.js 、Python 、Docker 、WSL 层层嵌套。问题往往不在模型本身,而在 Agent 的交付形态:依赖膨胀、文件散落数万、配置繁琐、迁移困难。每一层都在消耗用户耐心,月底还要被账单教育一次。

OpenAgent 的取舍从第一天就很明确:把「单文件零配置」做成顶层设计目标,而不是事后打的补丁。我们选了一条更硬核的路 —— 用 Go 从零写成一个单二进制文件,没有运行时依赖,没有安装器,没有 Docker 。前端的 React 直接 embed 进二进制里,后端就是纯 Go ,一个进程监听 14000 端口。

这就是今天的 OpenAgent 。


二、不止轻量 —— 这是一个完整的 Agent 工作平台

OpenAgent 不只是一个跑得快的单文件,配套的是一整套日常工作流要用的能力:


三、直接亮数据:效果与延迟横评 OpenClaw

架构做完了,效果到底怎么样?我们花了十多天做横向评测,把 OpenAgent 和 OpenClaw 拉到同一条起跑线。统一用 deepseek/deepseek-v4-flash 作为底层模型,这是目前性价比较高的模型,最容易暴露各家 Agent Harness 的真实水平。

3.1 Agent Tool 调用对标(核心效果)

12 个任务 × 3 轮 = 36 次计分,统一模型、统一 prompt:

指标 OpenAgent OpenClaw
成功率 **83.33%**( 30/36 ) 61.11%( 22/36 )
平均耗时 14,183 ms 26,128 ms
平均 Token 1,312 2,362
合规率 90.0 76.67
覆盖率 97.5 91.67
综合分 91.14 78.41

一句话总结:成功率更高、速度更快、Token 更省。OpenAgent 每轮平均耗时比 OpenClaw 少约 11.9 秒,Token 消耗少约 1,050 。36 轮真实执行,判分由自动化脚本完成,无人工干预。

3.2 对话场景性能

指标 OpenAgent OpenClaw
完成率 100% 95%
格式正确率 100% 82.5%
事实准确率 100% 92.5%
平均延迟 3,991 ms 26,781 ms

OpenAgent 在对话场景下完成率、格式正确率、事实准确率均达到 100%,平均延迟约 4 秒; OpenClaw 平均延迟约 26.8 秒。

3.3 项目本体性能

维度 OpenAgent OpenClaw
冷启动就绪 ~2.7 s ~29.2 s
常驻内存 ~110 MB ~215–307 MB
安装体积 exe ~23 MB ~382 MB / 42,000+ 文件
TTFT (首包延迟) ~23 ms ~44 ms

冷启动:OpenAgent 中位数 2.7 秒就能通过 health 检查返回 HTTP 200 ,OpenClaw 需要 29.2 秒。

体积:OpenAgent 单文件约 23 MB ,OpenClaw 整块目录约 382 MB ,文件数超过 4 万。这不是「精简功能换体积」,而是 Go 静态编译 + 前端 embed 的架构优势。

内存:空闲状态下 OpenAgent 约 110 MB ,OpenClaw 约 215–245 MB 。压测后 OpenAgent 约 120 MB ,OpenClaw 约 307 MB 。


四、凭什么效果更好、延迟更低 —— 3 个工程决策

不是「砍功能换性能」,是每一层都做对了选择。

① Single Binary:一个文件,零依赖

Go 静态编译,前端 React build 后直接 embed 进二进制。Windows 用户下载 exe 双击就能跑,不需要 WSL 、不需要 Docker 、不需要 Node.js 。Mac/Linux 一条命令安装。这才是「个人本地 Agent 」该有的交付形态。

② Shell 执行带边界,安全可控

源码层面,tool/shell.go 定义了默认超时 30 秒、最大 300 秒、PTY 可选、会话式 poll/write/submit 等机制。Shell 能力在默认实现上是强约束的生产向工具,而非无限制远程执行。同时支持审计日志、SSO 、请求日志等企业级可观测性。

③ Go 原生并发,内存可控

Go 的 goroutine + channel 模型让高并发场景下的内存增长非常克制。80 路并发 health 压测,内存仅增长 10 MB 。对比 Node.js 的内存曲线,这是语言层面的结构性优势。


五、坦白说几句,欢迎来挑战

离「完美」还有多远,先把几件事说清楚:

  1. Lighthouse 综合分:OpenClaw 87 分,我们 45 分。这是前端加载性能,我们用的 Lighthouse 11 版本与 OpenClaw 测试版本可能不同,分数不宜跨版本强比。但确实说明我们的前端还有优化空间。
  2. 顺序 health P50:OpenClaw 约 20 ms ,我们约 33 ms 。毫秒级差距,对个人本地 Agent 参考意义有限。
  3. 配置前提:聊天 API 需要 Authorization: Bearer <provider_key>,不是「完全零步骤」。但相比装 Node.js 、配 Docker 、拉数万文件,我们的摩擦已经降到极低。

欢迎你来挑战


六、关于 Go 重写

可能有朋友会问:做 AI Agent 不是 Python 的天下吗,怎么用 Go ?

Agent 的瓶颈在 LLM 调用而非语言性能 —— 决定一个 Agent 跑得好不好的,是 Harness 层的架构设计,不是底层语言的执行速度。Go 的优势在于:静态编译单文件、内存可控、并发模型简洁、跨平台原生支持。这些特性对于「个人本地 Agent 」这个场景来说,比 Python 的动态灵活性更重要。

我们用 Go 写了三个月,从零到一,做出了这个内核。


七、谁用谁爽 —— 几类典型场景

🔧 程序员 / 开发者:CLI 形态直接替代 Claude Code ,BYOK 用自己的 Key ,本地 Shell 、Browser 、Office 工具一键调用。

🏠 个人用户 / 极客:同样的机器配置,原本跑一个 Agent 就卡,现在能轻松跑多个 —— 内存占用不到同类的一半。

💼 自由职业者 / 一人公司:做客户提案、写咨询报告、出竞品分析、整理材料 —— 本地跑,数据不出本机,省下来的就是安全感。


八、怎么上手

Windows (最省心,推荐)

macOS / Linux / WSL

curl -fsSL https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.sh | bash

Windows PowerShell

irm https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.ps1 | iex

模型怎么接


九、最后

OpenAgent 是 Apache 2.0 开源项目,代码全在 GitHub 上,欢迎审阅、欢迎 Star 、欢迎提 issue 。

我们坚信:个人本地 Agent 的未来,不是越来越重,而是越来越轻。 一个文件,双击即用,这才是用户真正想要的。

GitHub:github.com/the-open-agent/openagent

测评集代码:github.com/the-open-agent/agentbench

QQ 群:963536134

162 次点击
所在节点    分享创造
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1213097

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX