Mastra vs DeerFlow:实测之后我留了哪个
Mastra vs DeerFlow 同一个 GSC 关键词智能体我用两个框架都写了一遍。分享我留下哪个、为什么。
Mastra vs DeerFlow:实测之后我留了哪个
TL;DR
- mastra vs deerflow 二选一:我线上跑的 TypeScript 项目留下 Mastra;涉及不可信工具代码的场景 DeerFlow 更合适。
- Node/TS 技术栈 + 要求热更新 → Mastra;需要沙盒运行 shell/Python/用户上传代码 → DeerFlow。
- 下一步:已经写 TS 的,直接
npm create mastra开搞。 - 边界:我测的是一个小的 GSC 关键词智能体,不是几十个工具的复杂编排。更重的图状工作流,结论可能不一样。
我的场景
我在悉尼做 5 个站,SEO 自动化基本都在 Node 上。这次有个具体活儿:拉 Google Search Console 数据,聚类查询词,挑出适合写新文章的候选词,写入 Postgres 队列。我不想为了编排层再重写一套 Python。所以我把同一个需求用两个框架各写了一遍,同样的规格、同样的验收条件,看谁先跑通冒烟测试。
我不是 LangChain 原教旨主义者,也不是"就写个 for 循环"派。我要的是一个能自己处理重试、schema 校验、有像样开发循环的智能体框架——我自己懒得把这些管道都手写一遍。
Mastra 是什么,DeerFlow 是什么
Mastra 是 Gatsby 团队做的 TypeScript 原生框架,拿了 YC 投资,4 月初 GitHub 大约 22K 星、npm 周下载差不多 30 万。自带本地 playground,改代码像 Next.js 那样热更新。npm create mastra 两分钟一个跑起来的智能体。
DeerFlow 2.0 是字节跳动 2026 年 2 月底开源的 Python 框架,MIT 许可,基于 LangGraph 1.0 和 LangChain。GitHub 星数看镜像大约 2.5 万到 4.4 万之间。它的招牌是:把子智能体(sub-agent)的工具调用丢进 Docker 沙盒里执行。子智能体哪怕被 LLM 诱导执行了 rm -rf,也只是把容器里的东西干掉。
决策分叉:语言 × 是否可信
mastra vs deerflow 本质就两个轴。
第一个轴是语言。 你的产品如果是 Node 或 Next.js,Mastra 直接进同一个 repo,没有 IPC 边界、没有第二个运行时、不用在 Python worker 和你的 API 之间来回 JSON 序列化。DeerFlow 默认你写 Python,这个默认值会渗透到工具签名、日志、部署的每一个角落。
第二个轴是工具代码是否可信。 Mastra 在进程内跑工具——你自己写的工具,没问题;LLM 在运行时生成代码再执行,风险就大。DeerFlow 每次子智能体调用工具都新起一个 Docker 容器。如果你在做"代码解释器"那类产品,或者让用户自己带工具,这是正确的默认值。代价是——我这边实测——冷启动差不多每次 40 秒,开发时迭代会被拖死。
我这次的 GSC 场景,所有工具都是自己写的——SQL reader、Gemini 调用、Postgres writer。不需要沙盒。所以 Mastra 的进程内模型对我来说是优点不是风险。
正面对比
| 维度 | Mastra | DeerFlow 2.0 |
|---|---|---|
| 语言 | TypeScript / Node | Python 3.11+ |
| 从零到跑通(我的实测) | 大约一下午 | 约两天,多半在搞 Docker |
| 适合场景 | Node 团队、快速迭代、TS 优先 | 不可信代码执行、多智能体图、Python 团队 |
| 我踩过的坑 | 工具调用文档里 Zod schema 边界不全;状态调试工具成熟度不如 LangSmith | 每次新容器冷启约 40 秒;没用过 LangGraph 的话学习曲线偏陡 |
| 我这次的选择 | 留下了,上线了 | 先归档,留给下一个"需要沙盒"的项目 |
同一套规格,我自己的 eval harness 里 Mastra 跑到 ~94% 的任务完成率,DeerFlow 折腾完 Docker 基础镜像之后也差不多。质量差距不大。差距在别处——Mastra 我差不多一下午写完,DeerFlow 我写了两天,多半时间在跟 Docker 斗智斗勇、搞清楚 DeerFlow 到底包装了哪些 LangGraph 原语、哪些是原封不动 re-export 的。
如果想看 Mastra 单独的细节,我之前写过一篇:Mastra AI 框架评测。DeerFlow 的细节在这篇。
国内替代方案顺带提一下。如果你的模型用 Kimi(月之暗面)、DeepSeek 或 Qwen,两个框架都能接——都走 OpenAI 兼容接口或者 AI SDK 的自定义 provider。我粗略算了下,用 DeepSeek 做生成部分,大约每月 350 元人民币的 API 费用能覆盖我这个 GSC 智能体每天跑一次的量,比 Claude 便宜一个数量级。
到底该选哪个
- 主应用是 TypeScript/Next.js,想把智能体放同一个 repo → Mastra。
- 要跑 LLM 生成的任意工具代码,或者允许用户自带工具 → DeerFlow。沙盒的冷启动成本,就是你选它的理由。
- 团队 Python 优先,已经在用 LangGraph 或 LangChain → DeerFlow。税已经交了,享受一下退税。
- 想要当下最舒服的开发循环(带热更新)→ Mastra。我用过的 Python 框架还没有哪个 dev loop 能和 Mastra playground 比。
- 需要开箱即用的富追踪和单步调试 → 坦白说两个都还没到 LangSmith 的水平。DeerFlow 因为 LangChain 血统稍近一点;Mastra 的 tracing 在进步但还不成熟。
我第一次做错的地方
我一开始为了省那 40 秒冷启,把 DeerFlow 的 Docker 沙盒关了,全部进程内跑。工作了差不多一小时,某次 Gemini 响应里塞了一个我没预期到的工具调用,在我工作目录里放了个文件。不是恶意的,就是没预期到。教训:你要是选了 DeerFlow,就别把沙盒关掉。那是你选它的理由。冷启动疼得受不了,说明你选错框架了,不是选错配置。
FAQ
Mastra 在 2026 年 4 月能上生产吗? 中小规模智能体可以。我自己上了一个。不如 LangGraph 那样被大规模实战验证过,但核心原语——工具、工作流、记忆、RAG——已经稳定,playground 是我用过最好的开发体验。
DeerFlow 必须用字节跳动自己的基础设施吗? 不用。MIT 许可,能跑 Docker 加 Python 3.11+ 的地方都能跑。模型提供商可插拔:OpenAI、Anthropic、Gemini,vLLM 或 Ollama 自托管都行。
Mastra 能接 Ollama 或 LM Studio 这类本地模型吗? 可以。Mastra 底层用 Vercel 的 AI SDK,Ollama 和大多数 OpenAI 兼容的本地服务都有适配器。我用本地的 14B 模型做草稿生成没遇到问题。
为什么不直接用 LangGraph,何必多套一层 DeerFlow? 可以直接用。DeerFlow 就是 LangGraph 上的一层薄封装。它的价值是:Docker 沙盒默认开、项目结构有点"主张"。你要是不需要这两样,直接 LangGraph 更省事。
关于作者
Jim Liu,悉尼独立开发者,运营 5 个网站,包括 AI 工具目录 OpenAIToolsHub。TypeScript 和 Node.js 出身。智能体框架是作为我自己 SEO 自动化项目的一部分在测试。
JSON-LD
{
"@context": "https://schema.org",
"@graph": [
{
"@type": "Article",
"headline": "Mastra vs DeerFlow:实测之后我留了哪个",
"description": "Mastra vs DeerFlow 同一个 GSC 关键词智能体我用两个框架都写了一遍。分享我留下哪个、为什么。",
"datePublished": "2026-04-17",
"dateModified": "2026-04-17",
"inLanguage": "zh-CN",
"author": {
"@type": "Person",
"name": "Jim Liu",
"url": "https://www.openaitoolshub.org/en/about"
},
"publisher": {
"@type": "Organization",
"name": "OpenAIToolsHub",
"url": "https://www.openaitoolshub.org"
},
"mainEntityOfPage": {
"@type": "WebPage",
"@id": "https://www.openaitoolshub.org/zh-cn/blog/mastra-vs-deerflow"
}
},
{
"@type": "FAQPage",
"mainEntity": [
{
"@type": "Question",
"name": "Mastra 在 2026 年 4 月能上生产吗?",
"acceptedAnswer": {
"@type": "Answer",
"text": "中小规模智能体可以。核心原语(工具、工作流、记忆、RAG)已经稳定,playground 是目前最好的开发体验。还没到 LangGraph 那种大规模实战验证的水平。"
}
},
{
"@type": "Question",
"name": "DeerFlow 必须用字节跳动自己的基础设施吗?",
"acceptedAnswer": {
"@type": "Answer",
"text": "不用。DeerFlow 是 MIT 许可,能跑 Docker 加 Python 3.11+ 的地方都能跑。模型可插拔,OpenAI、Anthropic、Gemini、vLLM 或 Ollama 自托管都支持。"
}
},
{
"@type": "Question",
"name": "Mastra 能接 Ollama 或 LM Studio 这类本地模型吗?",
"acceptedAnswer": {
"@type": "Answer",
"text": "可以。Mastra 底层用 Vercel 的 AI SDK,Ollama 和大多数 OpenAI 兼容的本地服务都有适配器。本地 14B 模型做草稿生成没问题。"
}
},
{
"@type": "Question",
"name": "为什么不直接用 LangGraph,何必多套一层 DeerFlow?",
"acceptedAnswer": {
"@type": "Answer",
"text": "可以直接用。DeerFlow 就是 LangGraph 1.0 上的一层薄封装。它的价值是 Docker 沙盒默认开和有主张的项目结构。不需要这两样就直接用 LangGraph。"
}
}
]
},
{
"@type": "BreadcrumbList",
"itemListElement": [
{ "@type": "ListItem", "position": 1, "name": "首页", "item": "https://www.openaitoolshub.org/zh-cn" },
{ "@type": "ListItem", "position": 2, "name": "博客", "item": "https://www.openaitoolshub.org/zh-cn/blog" },
{ "@type": "ListItem", "position": 3, "name": "Mastra vs DeerFlow", "item": "https://www.openaitoolshub.org/zh-cn/blog/mastra-vs-deerflow" }
]
}
]
}