Skip to main content

Mastra vs DeerFlow: Lo que descubrí tras probar ambos

Autor: Jim Liu··10 min de lectura

Mastra vs DeerFlow: Construí el mismo agente de palabras clave de GSC en ambos. Cuál conservé, cuál archivé y por qué.

Nota del traductor: Este artículo fue traducido con asistencia de IA y revisado por Jim Liu (desarrollador independiente en Sídney) para corregir terminología y mejorar fluidez. Si encuentras errores o expresiones poco naturales, escríbeme. Versión original en inglés: English.

Mastra vs. DeerFlow: Lo que descubrí tras probar ambos

Resumen (TL;DR)

  • Entre Mastra y DeerFlow, me quedé con Mastra para la aplicación TypeScript que tengo en producción; DeerFlow ganó en todo aquello que ejecuta código de herramientas no confiable.
  • Mastra gana cuando tu stack es Node y necesitas recarga en caliente (hot reload). DeerFlow gana cuando los subagentes llaman a la terminal (shell), Python o código no verificado.
  • Si ya programas en TypeScript y quieres lanzar algo esta semana, ejecuta npm create mastra y empieza por ahí.
  • Advertencia: mi prueba fue un pequeño investigador de palabras clave de GSC, no una orquestación de 50 herramientas. Tu experiencia con grafos más pesados puede variar.

Mi Configuración

Gestiono cinco sitios desde Sídney y la mayor parte de mi automatización de SEO ya está en Node. Necesitaba un framework de agentes para un trabajo: extraer datos de GSC, agrupar consultas, seleccionar candidatos para nuevos artículos y escribirlos en una cola de Postgres. No tenía ganas de reescribirlo todo en Python solo por la capa de orquestación. Así que construí lo mismo dos veces —una en Mastra y otra en DeerFlow— con las mismas especificaciones, y cronometré cuánto tardaba en pasar una prueba de humo.

No soy un maximalista de LangChain, pero tampoco un minimalista de "hazlo con un bucle for". Quería reintentos, validación de esquemas y un ciclo de desarrollo decente sin tener que escribir toda la infraestructura yo mismo.

Qué es Mastra y qué es DeerFlow

Mastra es un framework de agentes nativo de TypeScript creado por el equipo de Gatsby, respaldado por Y Combinator, con unas 22,000 estrellas en GitHub y aproximadamente 300,000 instalaciones semanales en npm a principios de abril. Incluye un playground local que recarga el código de tu agente en caliente, de la misma forma que Next.js recarga una página. Con npm create mastra tienes un agente funcionando en unos dos minutos.

DeerFlow 2.0 es un framework de Python de ByteDance, lanzado a finales de febrero de 2026, construido sobre LangGraph 1.0 y LangChain. Tiene entre 25,000 y 44,000 estrellas según el mirror que consultes, con licencia MIT. Su característica estrella es el aislamiento (sandboxing) de la ejecución de herramientas de los subagentes dentro de Docker; si un subagente decide ejecutar un rm -rf, solo afectará al contenedor.

La decisión: TypeScript vs. Python, Velocidad vs. Aislamiento

La división entre Mastra y DeerFlow se reduce realmente a dos ejes.

El primer eje es el lenguaje. Si tu producto es Node o Next.js, Mastra se integra en el mismo repositorio. Sin fronteras de IPC, sin un segundo entorno de ejecución y sin serialización JSON entre un trabajador de Python y tu API. DeerFlow asume Python, y esa suposición se filtra en las firmas de las herramientas, los registros (logs) y la estrategia de despliegue.

El segundo eje es la confianza en el código de las herramientas. Mastra ejecuta tus herramientas en el mismo proceso. Está bien si tú las escribiste. Es arriesgado si un LLM genera código en tiempo de ejecución y tú lo ejecutas. DeerFlow ejecuta cada llamada a herramientas del subagente dentro de un contenedor Docker nuevo. Ese es el estándar correcto si estás construyendo un clon de Code Interpreter o permitiendo que los usuarios traigan sus propias herramientas. El coste es de unos 40 segundos de arranque en frío por cada contenedor nuevo en mi configuración —algo brutal durante la iteración de desarrollo—.

Para mi trabajo con GSC, todas las herramientas eran de mi autoría —lector de SQL, llamadas a Gemini, escritor de Postgres—. No necesitaba aislamiento. Así que el modelo en proceso de Mastra fue una ventaja, no un riesgo.

Cara a cara

Dimensión Mastra DeerFlow 2.0
Lenguaje TypeScript / Node Python 3.11+
Tiempo de configuración (yo, desde cero) ~1 tarde ~2 días, la mayor parte con Docker
Ideal para Equipos Node, iteración rápida, equipos centrados en TS Ejecución de código no confiable, grafos multi-agente, equipos Python
Mayor debilidad encontrada Casos borde de esquemas Zod en docs de llamadas a herramientas; depuración de estado menos madura que LangSmith ~40s de arranque en frío de Docker por subagente nuevo; curva de aprendizaje pronunciada si no conoces LangGraph
Mi elección para este trabajo Me lo quedé y lo puse en producción Archivado para el próximo proyecto de herramientas no confiables

Con las mismas especificaciones, Mastra alcanzó un ~94% de completitud de tareas en mi entorno de evaluación; DeerFlow obtuvo resultados similares una vez que configuré la imagen base de Docker. No hay una gran brecha de calidad. La diferencia estaba en otra parte: Mastra me llevó una tarde, DeerFlow me llevó unos dos días, principalmente luchando con Docker y entendiendo qué primitivas de LangGraph envolvía DeerFlow frente a las que re-exportaba.

Si quieres un análisis más completo de Mastra por sí solo, escribí uno aquí: Reseña del framework Mastra AI. Para el análisis profundo de DeerFlow, consulta la Reseña del agente DeerFlow de ByteDance.

¿Cuál deberías elegir?

  • Si tu aplicación principal es TypeScript o Next.js y quieres el agente en el mismo repositorio → Mastra.
  • Si vas a ejecutar código de herramientas arbitrario generado por LLMs o permites que los usuarios suban herramientas → DeerFlow. El aislamiento de Docker compensa su arranque en frío.
  • Si tu equipo prefiere Python y ya usa LangGraph o LangChain → DeerFlow. Ya estás familiarizado con el ecosistema, aprovecha sus ventajas.
  • Si quieres el mejor ciclo de desarrollo actual con recarga en caliente → Mastra. Nada en Python se siente tan fluido como su playground.
  • Si necesitas un trazado rico y depuración paso a paso nativa → ninguno está todavía al nivel de LangSmith. DeerFlow se acerca más gracias a sus raíces en LangChain; el trazado de Mastra está mejorando pero aún es inmaduro.

En lo que me equivoqué la primera vez

Intenté que DeerFlow funcionara ejecutando subagentes sin Docker. Desactivé el aislamiento, mantuve todo en el mismo proceso, esperando ganar velocidad. Funcionó durante una hora, hasta que una respuesta de Gemini incluyó una llamada a una herramienta que no esperaba y creó un archivo en mi directorio de trabajo. No fue malicioso, solo inesperado. Lección: si eliges DeerFlow, mantén el aislamiento activado —para eso lo elegiste—. Si el arranque en frío duele demasiado, es que elegiste el framework equivocado para tu trabajo, no la configuración equivocada.

Preguntas Frecuentes (FAQ)

¿Está Mastra listo para producción en abril de 2026? Para agentes pequeños y medianos, sí. Yo ya he lanzado uno. No está tan probado en batalla a la escala de LangGraph, pero las primitivas principales —herramientas, flujos de trabajo, memoria, RAG— son estables y el playground es la mejor experiencia de desarrollo que he probado.

¿Requiere DeerFlow infraestructura alojada por ByteDance? No. Tiene licencia MIT y funciona en cualquier lugar donde puedas ejecutar Docker más Python 3.11+. Los proveedores de modelos son intercambiables (OpenAI, Anthropic, Gemini, o locales mediante vLLM u Ollama).

¿Puedo usar Mastra con modelos locales como Ollama o LM Studio? Sí. Mastra utiliza el SDK de IA de Vercel internamente, que tiene adaptadores para Ollama y la mayoría de servidores locales compatibles con OpenAI. Lo probé con un modelo local de 14B para generación de borradores sin problemas.

¿Por qué no usar LangGraph directamente? Puedes hacerlo. DeerFlow es una capa delgada por encima, así que si te sientes cómodo con las primitivas de LangGraph, sáltate el envoltorio. El valor que añade DeerFlow es el aislamiento en Docker por defecto y una estructura de proyecto algo más opinada. Si no necesitas eso, ve directo.

Sobre el autor

Jim Liu es un desarrollador independiente con sede en Sídney que gestiona cinco sitios, incluido OpenAIToolsHub, un directorio de herramientas de IA. Tiene experiencia en TypeScript y Node.js. Prueba frameworks de agentes como parte de su trabajo interno de automatización de SEO.


JSON-LD

{
  "@context": "https://schema.org",
  "@graph": [
    {
      "@type": "Article",
      "headline": "Mastra vs. DeerFlow: Lo que descubrí tras probar ambos",
      "description": "Mastra vs. DeerFlow: Construí el mismo agente de palabras clave de GSC en ambos. Cuál me quedé, cuál archivé y por qué.",
      "datePublished": "2026-04-17",
      "dateModified": "2026-04-17",
      "author": {
        "@type": "Person",
        "name": "Jim Liu",
        "url": "https://www.openaitoolshub.org/en/about"
      },
      "publisher": {
        "@type": "Organization",
        "name": "OpenAIToolsHub",
        "url": "https://www.openaitoolshub.org"
      },
      "mainEntityOfPage": {
        "@type": "WebPage",
        "@id": "https://www.openaitoolshub.org/en/blog/mastra-vs-deerflow"
      }
    },
    {
      "@type": "FAQPage",
      "mainEntity": [
        {
          "@type": "Question",
          "name": "¿Está Mastra listo para producción en abril de 2026?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "Para agentes pequeños y medianos, sí. Las primitivas principales (herramientas, flujos de trabajo, memoria, RAG) son estables y el playground es la mejor experiencia de desarrollo que he probado. Aún no está tan probado a gran escala como LangGraph."
          }
        },
        {
          "@type": "Question",
          "name": "¿Requiere DeerFlow infraestructura alojada por ByteDance?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "No. DeerFlow tiene licencia MIT y funciona en cualquier lugar con Docker y Python 3.11+. Los proveedores de modelos son conectables, incluyendo OpenAI, Anthropic, Gemini y modelos locales vía vLLM u Ollama."
          }
        },
        {
          "@type": "Question",
          "name": "¿Puedo usar Mastra con modelos locales como Ollama o LM Studio?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "Sí. Mastra usa el SDK de IA de Vercel, que tiene adaptadores para Ollama y la mayoría de servidores compatibles con OpenAI. Probado con un modelo local de 14B para borradores sin problemas."
          }
        },
        {
          "@type": "Question",
          "name": "¿Por qué no usar LangGraph directamente en lugar de DeerFlow?",
          "acceptedAnswer": {
            "@type": "Answer",
            "text": "Puedes. DeerFlow es una capa delgada sobre LangGraph 1.0. Su valor reside en el aislamiento por defecto en Docker y su estructura de proyecto organizada. Si no necesitas eso, usa LangGraph directamente."
          }
        }
      ]
    },
    {
      "@type": "BreadcrumbList",
      "itemListElement": [
        { "@type": "ListItem", "position": 1, "name": "Inicio", "item": "https://www.openaitoolshub.org/es" },
        { "@type": "ListItem", "position": 2, "name": "Blog", "item": "https://www.openaitoolshub.org/es/blog" },
        { "@type": "ListItem", "position": 3, "name": "Mastra vs. DeerFlow", "item": "https://www.openaitoolshub.org/es/blog/mastra-vs-deerflow" }
      ]
    }
  ]
}

Perspectiva LATAM y España

Para los desarrolladores en España y Latinoamérica, la elección entre Mastra y DeerFlow suele estar mediada por el coste de la infraestructura y la integración con APIs locales. En España, donde el ecosistema de Next.js está muy consolidado, Mastra se integra de forma natural en flujos de trabajo de startups que ya operan en plataformas como Vercel. En cambio, en países de LATAM con infraestructuras híbridas o presupuestos ajustados, DeerFlow destaca por su capacidad de ejecutar herramientas en entornos aislados, algo fundamental para automatizar procesos de atención al cliente vía WhatsApp o logística sin comprometer la seguridad del servidor principal. Un punto crítico sigue siendo la facturación en dólares de los proveedores de LLM asociados, lo que empuja a muchas empresas regionales a preferir la ligereza de Mastra para reducir latencias y costes operativos. Aunque no existen alternativas de peso "kilómetro cero" todavía, el uso de estos frameworks está explotando en hubs de innovación de Ciudad de México, Madrid o Buenos Aires para prototipar rápidamente agentes de SEO y soporte técnico.

We use analytics to understand how visitors use the site — no ads, no cross-site tracking. Privacy Policy