职位总结
我们正在寻找一位务实的数据自动化工程师。你将负责从大规模获取外部数据到自动化工作流的全流程,确保将清洗后的结构化数据交付给我们的内部系统与智能体( Agents )。你的工作将通过确保从各种内部和第三方来源可靠地获取关键商业数据,直接影响公司的决策制定。
核心职责
• 设计、开发并维护健壮、可扩展的数据管道。数据源涵盖内部和外部,包括实时馈送( Feeds )和批处理加载,涵盖结构化与非结构化数据。
• 从 HTML 、JS 渲染页面(使用无头浏览器)、API 、PDF 及其他非结构化格式中解析并提取结构化数据。
• 通过构建完善的监控、日志记录和数据新鲜度报警机制,确保数据质量与可靠性。
工作流自动化与编排 (~70%):
• 使用 OpenClaw 或类似框架作为核心编排层,定义、调度并管理基于聊天及自动化的智能体工作流( Agentic Workflows )。
• 构建整合数据库、数据仓库、内部 API 及报告工具的自动化管道。
• 实现具备容错能力的工作流逻辑,包括错误处理、重试机制、条件分支以及优雅的故障通知。
• 与数据分析师合作了解需求,并自动化手动的数据获取和处理任务,提高运营效率。
• 编写所负责系统的数据架构图( Schemas )、数据字典、管道设计及操作手册。
任职要求
• 1-5 年数据工程或自动化相关领域的实战经验。
• 具备使用 OpenClaw 、Hermes Agent 或类似 RPA/工作流编排工具(如 Apache Airflow, n8n, UI.Vision )构建、调度及监控自动化任务的实战经验。
• 深入了解中国互联网生态系统,包括主流平台的结构和访问模式。
• 具备使用 SQL 数据库(如 PostgreSQL, MySQL )及云存储(如 S3, OSS )进行数据存储和管道构建的经验。
• 具备在容器化/云环境中使用 Docker 的经验。
• 具备良好的英文读写能力,能与利益相关者进行有效沟通。
加分项
• 了解代理服务供应商( Proxy service providers )。
• 具备英语口语能力者优先,但非硬性要求。
• 具备初创公司或中小企业( SME )工作经验,能适应高度自主权并具备务实解决问题的能力。
• Base 在深圳是加分项。
工具与技术栈
• 主要语言:Python / Go
• 爬虫与浏览器自动化:Playwright, Puppeteer, Selenium, BeautifulSoup, Scrapy
• 工作流编排:OpenClaw, Apache Airflow
• 数据存储:PostgreSQL, S3 或同类产品 / 阿里云 OSS
• 基础设施:Docker, Git, Linux
• 代理与基础服务: 各种住宅/数据中心代理网络
我们提供
• 具备竞争力的薪酬
• 灵活的工作安排([远程办公政策 - 需位于 上海/深圳/北京])
• 用于提升个人技能的学习预算与时间
关于我们
Favorite Medium 是一家成立多年的数字产品设计与工程咨询公司,总部在海外,团队分布全球,主要业务在韩国、日本、香港等地。我们专注于帮助企业从 0 到 1 设计、开发并上线数字产品,涵盖产品策略、UI/UX 设计、软件开发、数据工程、AI 、及 web3 等领域。
关于投递简历、咨询、与面试详情
面试全程线上完成。简历通过后,我们会邮件约您线上面试。
如果你对这个岗位感兴趣,请附上简历发送邮件至 connect@favoritemedium.com
如有任何其他疑问,欢迎添加微信 atomkwk 咨询
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.