爱意满满的作品展示区。
veotax

OpenAgent:单文件版龙虾——仅有一个文件,双击就能跑的高性能 Agent

  •  
  •   veotax ·
    PRO
    · 2h 9m ago · 129 views

    Hi V 友们,我是 OpenAgent 团队的开发者。

    今天想给大家介绍一个我们打磨了很久的项目 —— OpenAgent,一个面向个人开发者和极客的开源本地 AI Agent 。定位跟 OpenClaw 、Hermes 类似,都是「个人本地助手」这个赛道,但我们走了一条完全不同的路:用 Go 语言写成一个单文件二进制,下载 exe 双击就能跑,零配置开箱即用

    一句话定位:开箱即用的单文件本地 Agent ,效果更稳、延迟更低、资源占用更少。

    GitHub:github.com/the-open-agent/openagent(求 Star ⭐)

    官网:openagentai.org


    一、为什么做这件事

    现在用 AI 干活的人越来越多 —— 不只是写代码,做 PPT 、跑脚本、查资料、整理文档,大家都在用 Agent 。但用过一段时间,绝大多数人都会撞上同一堵墙:部署成本

    市面上不少「知名」 Agent 是结构性的依赖怪兽 —— 一个完整环境下来,Node.js 、Python 、Docker 、WSL 层层嵌套。问题往往不在模型本身,而在 Agent 的交付形态:依赖膨胀、文件散落数万、配置繁琐、迁移困难。每一层都在消耗用户耐心,月底还要被账单教育一次。

    OpenAgent 的取舍从第一天就很明确:把「单文件零配置」做成顶层设计目标,而不是事后打的补丁。我们选了一条更硬核的路 —— 用 Go 从零写成一个单二进制文件,没有运行时依赖,没有安装器,没有 Docker 。前端的 React 直接 embed 进二进制里,后端就是纯 Go ,一个进程监听 14000 端口。

    这就是今天的 OpenAgent 。


    二、不止轻量 —— 这是一个完整的 Agent 工作平台

    OpenAgent 不只是一个跑得快的单文件,配套的是一整套日常工作流要用的能力:

    • 🤖 30+ 模型提供商:OpenAI 、Claude 、DeepSeek 、Gemini 、Mistral 、Grok……随时切换,无需改代码
    • 🌐 Browser-Use:驱动真实浏览器,导航、点击、填表、截图
    • 🖥️ Shell Execution:本地命令执行,支持 PTY 交互式会话
    • 📄 Office 自动化:读写 Word 、Excel 、PowerPoint
    • 🔗 MCP 集成:任意 MCP 兼容服务器即插即用
    • 📚 RAG 知识库:PDF/Word/Excel 自动切片、嵌入、索引
    • ⚡ 工作流编排:BPMN 风格可视化拖拽编排
    • 📊 管理后台:Token 用量统计、活动监控、工具管理、请求日志

    三、直接亮数据:效果与延迟横评 OpenClaw

    架构做完了,效果到底怎么样?我们花了十多天做横向评测,把 OpenAgent 和 OpenClaw 拉到同一条起跑线。统一用 deepseek/deepseek-v4-flash 作为底层模型,这是目前性价比较高的模型,最容易暴露各家 Agent Harness 的真实水平。

    3.1 Agent Tool 调用对标(核心效果)

    12 个任务 × 3 轮 = 36 次计分,统一模型、统一 prompt:

    指标 OpenAgent OpenClaw
    成功率 **83.33%**( 30/36 ) 61.11%( 22/36 )
    平均耗时 14,183 ms 26,128 ms
    平均 Token 1,312 2,362
    合规率 90.0 76.67
    覆盖率 97.5 91.67
    综合分 91.14 78.41

    一句话总结:成功率更高、速度更快、Token 更省。OpenAgent 每轮平均耗时比 OpenClaw 少约 11.9 秒,Token 消耗少约 1,050 。36 轮真实执行,判分由自动化脚本完成,无人工干预。

    3.2 对话场景性能

    指标 OpenAgent OpenClaw
    完成率 100% 95%
    格式正确率 100% 82.5%
    事实准确率 100% 92.5%
    平均延迟 3,991 ms 26,781 ms

    OpenAgent 在对话场景下完成率、格式正确率、事实准确率均达到 100%,平均延迟约 4 秒; OpenClaw 平均延迟约 26.8 秒。

    3.3 项目本体性能

    维度 OpenAgent OpenClaw
    冷启动就绪 ~2.7 s ~29.2 s
    常驻内存 ~110 MB ~215–307 MB
    安装体积 exe ~23 MB ~382 MB / 42,000+ 文件
    TTFT (首包延迟) ~23 ms ~44 ms

    冷启动:OpenAgent 中位数 2.7 秒就能通过 health 检查返回 HTTP 200 ,OpenClaw 需要 29.2 秒。

    体积:OpenAgent 单文件约 23 MB ,OpenClaw 整块目录约 382 MB ,文件数超过 4 万。这不是「精简功能换体积」,而是 Go 静态编译 + 前端 embed 的架构优势。

    内存:空闲状态下 OpenAgent 约 110 MB ,OpenClaw 约 215–245 MB 。压测后 OpenAgent 约 120 MB ,OpenClaw 约 307 MB 。


    四、凭什么效果更好、延迟更低 —— 3 个工程决策

    不是「砍功能换性能」,是每一层都做对了选择。

    ① Single Binary:一个文件,零依赖

    Go 静态编译,前端 React build 后直接 embed 进二进制。Windows 用户下载 exe 双击就能跑,不需要 WSL 、不需要 Docker 、不需要 Node.js 。Mac/Linux 一条命令安装。这才是「个人本地 Agent 」该有的交付形态。

    ② Shell 执行带边界,安全可控

    源码层面,tool/shell.go 定义了默认超时 30 秒、最大 300 秒、PTY 可选、会话式 poll/write/submit 等机制。Shell 能力在默认实现上是强约束的生产向工具,而非无限制远程执行。同时支持审计日志、SSO 、请求日志等企业级可观测性。

    ③ Go 原生并发,内存可控

    Go 的 goroutine + channel 模型让高并发场景下的内存增长非常克制。80 路并发 health 压测,内存仅增长 10 MB 。对比 Node.js 的内存曲线,这是语言层面的结构性优势。


    五、坦白说几句,欢迎来挑战

    离「完美」还有多远,先把几件事说清楚:

    1. Lighthouse 综合分:OpenClaw 87 分,我们 45 分。这是前端加载性能,我们用的 Lighthouse 11 版本与 OpenClaw 测试版本可能不同,分数不宜跨版本强比。但确实说明我们的前端还有优化空间。
    2. 顺序 health P50:OpenClaw 约 20 ms ,我们约 33 ms 。毫秒级差距,对个人本地 Agent 参考意义有限。
    3. 配置前提:聊天 API 需要 Authorization: Bearer <provider_key>,不是「完全零步骤」。但相比装 Node.js 、配 Docker 、拉数万文件,我们的摩擦已经降到极低。

    欢迎你来挑战

    • 下载 OpenAgent ,用你自己的 OpenRouter Key
    • 跑同样的 prompt 对比账单
    • 跑出比我们更快/更省的,欢迎 PR ;跑出我们更贵的,提 issue 我们改

    六、关于 Go 重写

    可能有朋友会问:做 AI Agent 不是 Python 的天下吗,怎么用 Go ?

    Agent 的瓶颈在 LLM 调用而非语言性能 —— 决定一个 Agent 跑得好不好的,是 Harness 层的架构设计,不是底层语言的执行速度。Go 的优势在于:静态编译单文件、内存可控、并发模型简洁、跨平台原生支持。这些特性对于「个人本地 Agent 」这个场景来说,比 Python 的动态灵活性更重要。

    我们用 Go 写了三个月,从零到一,做出了这个内核。


    七、谁用谁爽 —— 几类典型场景

    🔧 程序员 / 开发者:CLI 形态直接替代 Claude Code ,BYOK 用自己的 Key ,本地 Shell 、Browser 、Office 工具一键调用。

    🏠 个人用户 / 极客:同样的机器配置,原本跑一个 Agent 就卡,现在能轻松跑多个 —— 内存占用不到同类的一半。

    💼 自由职业者 / 一人公司:做客户提案、写咨询报告、出竞品分析、整理材料 —— 本地跑,数据不出本机,省下来的就是安全感。


    八、怎么上手

    Windows (最省心,推荐)

    • GitHub Releases 下载 openagent_windows_x86.exe
    • 双击即用,环境/依赖全自动就位
    • 打开 http://localhost:14000

    macOS / Linux / WSL

    curl -fsSL https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.sh | bash
    

    Windows PowerShell

    irm https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.ps1 | iex
    

    模型怎么接

    • 项目启动前端界面一键配置,支持几乎所有主流大模型,包括本地部署的模型。
    • 下载与文档:openagentai.org

    九、最后

    OpenAgent 是 Apache 2.0 开源项目,代码全在 GitHub 上,欢迎审阅、欢迎 Star 、欢迎提 issue 。

    我们坚信:个人本地 Agent 的未来,不是越来越重,而是越来越轻。 一个文件,双击即用,这才是用户真正想要的。

    GitHub:github.com/the-open-agent/openagent

    测评集代码:github.com/the-open-agent/agentbench

    QQ 群:963536134

    No Comments Yet
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   997 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 41ms · UTC 18:54 · PVG 02:54 · LAX 11:54 · JFK 14:54
    ♥ Do have faith in what you're doing.