Skip to main content

Mastra vs DeerFlow:实测之后我留了哪个

作者: Jim Liu··8 分钟阅读

Mastra vs DeerFlow 同一个 GSC 关键词智能体我用两个框架都写了一遍。分享我留下哪个、为什么。

Mastra vs DeerFlow:实测之后我留了哪个

TL;DR

  • mastra vs deerflow 二选一:我线上跑的 TypeScript 项目留下 Mastra;涉及不可信工具代码的场景 DeerFlow 更合适。
  • Node/TS 技术栈 + 要求热更新 → Mastra;需要沙盒运行 shell/Python/用户上传代码 → DeerFlow。
  • 下一步:已经写 TS 的,直接 npm create mastra 开搞。
  • 边界:我测的是一个小的 GSC 关键词智能体,不是几十个工具的复杂编排。更重的图状工作流,结论可能不一样。

我的场景

我在悉尼做 5 个站,SEO 自动化基本都在 Node 上。这次有个具体活儿:拉 Google Search Console 数据,聚类查询词,挑出适合写新文章的候选词,写入 Postgres 队列。我不想为了编排层再重写一套 Python。所以我把同一个需求用两个框架各写了一遍,同样的规格、同样的验收条件,看谁先跑通冒烟测试。

我不是 LangChain 原教旨主义者,也不是"就写个 for 循环"派。我要的是一个能自己处理重试、schema 校验、有像样开发循环的智能体框架——我自己懒得把这些管道都手写一遍。

Mastra 是什么,DeerFlow 是什么

Mastra 是 Gatsby 团队做的 TypeScript 原生框架,拿了 YC 投资,4 月初 GitHub 大约 22K 星、npm 周下载差不多 30 万。自带本地 playground,改代码像 Next.js 那样热更新。npm create mastra 两分钟一个跑起来的智能体。

DeerFlow 2.0 是字节跳动 2026 年 2 月底开源的 Python 框架,MIT 许可,基于 LangGraph 1.0 和 LangChain。GitHub 星数看镜像大约 2.5 万到 4.4 万之间。它的招牌是:把子智能体(sub-agent)的工具调用丢进 Docker 沙盒里执行。子智能体哪怕被 LLM 诱导执行了 rm -rf,也只是把容器里的东西干掉。

决策分叉:语言 × 是否可信

mastra vs deerflow 本质就两个轴。

第一个轴是语言。 你的产品如果是 Node 或 Next.js,Mastra 直接进同一个 repo,没有 IPC 边界、没有第二个运行时、不用在 Python worker 和你的 API 之间来回 JSON 序列化。DeerFlow 默认你写 Python,这个默认值会渗透到工具签名、日志、部署的每一个角落。

第二个轴是工具代码是否可信。 Mastra 在进程内跑工具——你自己写的工具,没问题;LLM 在运行时生成代码再执行,风险就大。DeerFlow 每次子智能体调用工具都新起一个 Docker 容器。如果你在做"代码解释器"那类产品,或者让用户自己带工具,这是正确的默认值。代价是——我这边实测——冷启动差不多每次 40 秒,开发时迭代会被拖死。

我这次的 GSC 场景,所有工具都是自己写的——SQL reader、Gemini 调用、Postgres writer。不需要沙盒。所以 Mastra 的进程内模型对我来说是优点不是风险。

正面对比

维度MastraDeerFlow 2.0
语言TypeScript / NodePython 3.11+
从零到跑通(我的实测)大约一下午约两天,多半在搞 Docker
适合场景Node 团队、快速迭代、TS 优先不可信代码执行、多智能体图、Python 团队
我踩过的坑工具调用文档里 Zod schema 边界不全;状态调试工具成熟度不如 LangSmith每次新容器冷启约 40 秒;没用过 LangGraph 的话学习曲线偏陡
我这次的选择留下了,上线了先归档,留给下一个"需要沙盒"的项目

同一套规格,我自己的 eval harness 里 Mastra 跑到 ~94% 的任务完成率,DeerFlow 折腾完 Docker 基础镜像之后也差不多。质量差距不大。差距在别处——Mastra 我差不多一下午写完,DeerFlow 我写了两天,多半时间在跟 Docker 斗智斗勇、搞清楚 DeerFlow 到底包装了哪些 LangGraph 原语、哪些是原封不动 re-export 的。

如果想看 Mastra 单独的细节,我之前写过一篇:Mastra AI 框架评测。DeerFlow 的细节在这篇

国内替代方案顺带提一下。如果你的模型用 Kimi(月之暗面)、DeepSeek 或 Qwen,两个框架都能接——都走 OpenAI 兼容接口或者 AI SDK 的自定义 provider。我粗略算了下,用 DeepSeek 做生成部分,大约每月 350 元人民币的 API 费用能覆盖我这个 GSC 智能体每天跑一次的量,比 Claude 便宜一个数量级。

到底该选哪个

  • 主应用是 TypeScript/Next.js,想把智能体放同一个 repo → Mastra。
  • 要跑 LLM 生成的任意工具代码,或者允许用户自带工具 → DeerFlow。沙盒的冷启动成本,就是你选它的理由。
  • 团队 Python 优先,已经在用 LangGraph 或 LangChain → DeerFlow。税已经交了,享受一下退税。
  • 想要当下最舒服的开发循环(带热更新)→ Mastra。我用过的 Python 框架还没有哪个 dev loop 能和 Mastra playground 比。
  • 需要开箱即用的富追踪和单步调试 → 坦白说两个都还没到 LangSmith 的水平。DeerFlow 因为 LangChain 血统稍近一点;Mastra 的 tracing 在进步但还不成熟。

我第一次做错的地方

我一开始为了省那 40 秒冷启,把 DeerFlow 的 Docker 沙盒关了,全部进程内跑。工作了差不多一小时,某次 Gemini 响应里塞了一个我没预期到的工具调用,在我工作目录里放了个文件。不是恶意的,就是没预期到。教训:你要是选了 DeerFlow,就别把沙盒关掉。那是你选它的理由。冷启动疼得受不了,说明你选错框架了,不是选错配置。

FAQ

Mastra 在 2026 年 4 月能上生产吗? 中小规模智能体可以。我自己上了一个。不如 LangGraph 那样被大规模实战验证过,但核心原语——工具、工作流、记忆、RAG——已经稳定,playground 是我用过最好的开发体验。

DeerFlow 必须用字节跳动自己的基础设施吗? 不用。MIT 许可,能跑 Docker 加 Python 3.11+ 的地方都能跑。模型提供商可插拔:OpenAI、Anthropic、Gemini,vLLM 或 Ollama 自托管都行。

Mastra 能接 Ollama 或 LM Studio 这类本地模型吗? 可以。Mastra 底层用 Vercel 的 AI SDK,Ollama 和大多数 OpenAI 兼容的本地服务都有适配器。我用本地的 14B 模型做草稿生成没遇到问题。

为什么不直接用 LangGraph,何必多套一层 DeerFlow? 可以直接用。DeerFlow 就是 LangGraph 上的一层薄封装。它的价值是:Docker 沙盒默认开、项目结构有点"主张"。你要是不需要这两样,直接 LangGraph 更省事。

关于作者

Jim Liu,悉尼独立开发者,运营 5 个网站,包括 AI 工具目录 OpenAIToolsHub。TypeScript 和 Node.js 出身。智能体框架是作为我自己 SEO 自动化项目的一部分在测试。


JSON-LD

{
  "@context": "https://schema.org",
  "@graph": [
    {
      "@type": "Article",
      "headline": "Mastra vs DeerFlow:实测之后我留了哪个",
      "description": "Mastra vs DeerFlow 同一个 GSC 关键词智能体我用两个框架都写了一遍。分享我留下哪个、为什么。",
      "datePublished": "2026-04-17",
      "dateModified": "2026-04-17",
      "inLanguage": "zh-CN",
      "author": {
        "@type": "Person",
        "name": "Jim Liu",
        "url": "https://www.openaitoolshub.org/en/about"
      },
      "publisher": {
        "@type": "Organization",
        "name": "OpenAIToolsHub",
        "url": "https://www.openaitoolshub.org"
      },
      "mainEntityOfPage": {
        "@type": "WebPage",
        "@id": "https://www.openaitoolshub.org/zh-cn/blog/mastra-vs-deerflow"
      }
    },
    {
      "@type": "FAQPage",
      "mainEntity": [
        {
          "@type": "Question",
          "name": "Mastra 在 2026 年 4 月能上生产吗?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "中小规模智能体可以。核心原语(工具、工作流、记忆、RAG)已经稳定,playground 是目前最好的开发体验。还没到 LangGraph 那种大规模实战验证的水平。"
          }
        },
        {
          "@type": "Question",
          "name": "DeerFlow 必须用字节跳动自己的基础设施吗?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "不用。DeerFlow 是 MIT 许可,能跑 Docker 加 Python 3.11+ 的地方都能跑。模型可插拔,OpenAI、Anthropic、Gemini、vLLM 或 Ollama 自托管都支持。"
          }
        },
        {
          "@type": "Question",
          "name": "Mastra 能接 Ollama 或 LM Studio 这类本地模型吗?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "可以。Mastra 底层用 Vercel 的 AI SDK,Ollama 和大多数 OpenAI 兼容的本地服务都有适配器。本地 14B 模型做草稿生成没问题。"
          }
        },
        {
          "@type": "Question",
          "name": "为什么不直接用 LangGraph,何必多套一层 DeerFlow?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "可以直接用。DeerFlow 就是 LangGraph 1.0 上的一层薄封装。它的价值是 Docker 沙盒默认开和有主张的项目结构。不需要这两样就直接用 LangGraph。"
          }
        }
      ]
    },
    {
      "@type": "BreadcrumbList",
      "itemListElement": [
        { "@type": "ListItem", "position": 1, "name": "首页", "item": "https://www.openaitoolshub.org/zh-cn" },
        { "@type": "ListItem", "position": 2, "name": "博客", "item": "https://www.openaitoolshub.org/zh-cn/blog" },
        { "@type": "ListItem", "position": 3, "name": "Mastra vs DeerFlow", "item": "https://www.openaitoolshub.org/zh-cn/blog/mastra-vs-deerflow" }
      ]
    }
  ]
}

We use analytics to understand how visitors use the site — no ads, no cross-site tracking. Privacy Policy