Reseña del Framework Mastra AI: Una Opinión Sincera
He probado Mastra para construir agentes de IA en TypeScript. Aquí detallo lo que funcionó, lo que no y cómo se compara con LangGraph y CrewAI.
Nota del traductor: Este artículo fue traducido con asistencia de IA y revisado por Jim Liu (desarrollador independiente en Sídney) para corregir terminología y mejorar fluidez. Si encuentras errores o expresiones poco naturales, escríbeme. Versión original en inglés: English.
TL;DR — Mastra en 30 segundos
Mastra es un framework de agentes de IA nativo de TypeScript, desarrollado por el equipo detrás de Gatsby. Incluye agentes, flujos de trabajo (workflows), RAG, memoria y una herramienta de depuración visual llamada Mastra Studio. En mis pruebas, la configuración del agente tomó aproximadamente 18 horas, frente a las 41 horas con LangChain para una tarea de producción similar. La tasa de finalización de tareas alcanzó el 94.2% frente al 87.4% de LangChain. El framework cuenta con más de 22,000 estrellas en GitHub, 300,000 descargas semanales en npm y el respaldo de YC. Si programas en TypeScript y necesitas agentes de IA sin la sobrecarga de Python, Mastra es la opción más sólida actualmente. El principal inconveniente: el ecosistema es joven y los tutoriales de terceros aún son escasos.
Qué hace realmente Mastra
Mastra te ofrece primitivas para construir agentes de IA en TypeScript; no son simples envoltorios (wrappers), sino bloques de construcción reales. Obtienes:
- Agentes con llamada a herramientas (tool-calling), memoria y salida estructurada.
- Workflows con ramificaciones, condiciones, reintentos y pasos de "humano en el bucle" (human-in-the-loop).
- RAG con integraciones nativas de bases de datos vectoriales (Pinecone, pgvector, Qdrant).
- Memoria persistente entre conversaciones mediante un modelo basado en hilos (threads).
- Integraciones a través de una biblioteca de conectores preconstruidos (GitHub, Slack, Google, etc.).
- Mastra Studio: una interfaz web local para probar agentes e inspeccionar trazas.
- OpenTelemetry integrado, para tener observabilidad desde el primer día.
El framework se ejecuta en Node.js. Puedes desplegarlo en Vercel, Cloudflare Workers o Netlify con un solo comando. Sin Docker, sin entornos virtuales de Python y sin conflictos de dependencias con tu stack web actual.
El equipo de Gatsby construyó esto tras años trabajando con sistemas de build, y se nota: la experiencia de desarrollo (DX) en torno a la configuración y los mensajes de error es notablemente mejor que en la mayoría de los frameworks de IA que he probado.
Cómo configuré mi primer agente
Quería un agente de investigación que pudiera buscar en la web, resumir hallazgos y guardar resultados. Aquí tienes la versión simplificada de cómo quedó:
import { Agent } from '@mastra/core';
import { searchTool, saveTool } from './tools';
const researcher = new Agent({
name: 'researcher',
instructions: 'Investigas temas y guardas resúmenes estructurados.',
model: { provider: 'ANTHROPIC', name: 'claude-sonnet-4-20250514' },
tools: { searchTool, saveTool },
});
const result = await researcher.generate(
'Encuentra benchmarks recientes que comparen frameworks de IA en TypeScript'
);
Eso es todo. Sin configuración de cadenas (chains), sin definición de grafos, sin boilerplate de ejecutores. El agente determinó por sí mismo la secuencia de llamadas a las herramientas.
Llegar a un prototipo funcional me tomó unas 3 horas. La mayor parte del tiempo la dediqué a escribir las definiciones de las herramientas (que son simples funciones con esquemas de Zod). El agente en sí tomó quizás 15 minutos. Comparado con mi experiencia en LangGraph, donde pasé una tarde entera solo para configurar correctamente la topología del grafo, esto se sintió como una categoría diferente de experiencia de desarrollo.
Algo que valoré mucho: Mastra Studio te permite reproducir cualquier ejecución del agente, inspeccionar cada llamada a herramientas y ver el consumo de tokens. Detecté un problema en el prompt en 10 minutos que me habría tomado mucho más tiempo encontrar mediante logs en la consola.
Mastra vs LangGraph vs CrewAI
Sometí a los tres frameworks al mismo conjunto de tareas: un agente de investigación que extrae datos, los procesa y redacta un informe estructurado. Esto es lo que encontré:
| Característica | Mastra | LangGraph | CrewAI |
|---|---|---|---|
| Lenguaje | TypeScript | Python | Python |
| Arquitectura | Primitivas de Agente + Workflow | Máquinas de estado basadas en grafos | Tripulaciones multi-agente basadas en roles |
| Estrellas en GitHub | 22K+ | Parte de LangChain (98K+) | 25K+ |
| Descargas semanales | ~300K (npm) | ~6.17M (PyPI, LangGraph) | ~450K (PyPI) |
| Tasa de finalización | 94.2% | 87.4% | ~89% (benchmarks comunidad) |
| Latencia P95 | 1,240ms | 2,450ms | ~2,100ms |
| Tasa de error | 5.8% | 8.9% | ~7.5% |
| Tiempo de config. (producción) | ~18h | ~41h | ~28h |
| RAG integrado | Sí | Vía LangChain | Sí (básico) |
| Depurador visual | Mastra Studio | LangSmith (de pago) | Ninguno integrado |
| Destino de despliegue | Vercel / CF Workers / Netlify | LangGraph Cloud / Autohospedado | Autohospedado |
| Observabilidad | OpenTelemetry integrado | LangSmith | Configuración manual |
La diferencia en la latencia P95 fue la mayor sorpresa. Los 1,240ms de Mastra frente a los 2,450ms de LangGraph representan casi el doble de rapidez, algo que se percibe claramente durante las pruebas interactivas. Parte de esto se debe al bucle de eventos de TypeScript frente al async de Python, y otra parte a la menor sobrecarga de abstracción.
LangGraph sigue ganando en amplitud de ecosistema: 6.17 millones de descargas semanales significan más respuestas en Stack Overflow, más artículos de blog y más casos de estudio en producción. Si tu equipo ya está inmerso en herramientas de ML en Python, cambiar a Mastra solo por los agentes no tiene mucho sentido.
CrewAI ocupa un terreno intermedio. Su metáfora basada en roles (gestor, investigador, redactor) es intuitiva para configuraciones multi-agente, pero me resultó más difícil personalizar el comportamiento individual de los agentes cuando algo fallaba.
Lo que me gusta de Mastra
Seguridad de tipos (Type safety) en todas partes. Las entradas y salidas de las herramientas se validan con Zod. Cuando cometía un error en el esquema, el error me indicaba exactamente qué campo falló y por qué. En LangChain, errores similares suelen aparecer como trazas de Python crípticas a tres niveles de profundidad.
Despliegues con un solo comando. Ejecutar npx mastra deploy subió mi agente a Vercel en unos 90 segundos. Sin Dockerfile, sin pipeline de CI, sin configuración de infraestructura. Para prototipos y cargas de trabajo de producción pequeñas, esto elimina un día entero de trabajo de DevOps.
Mastra Studio es genuinamente útil. La mayoría de las herramientas de "playground" en frameworks de IA son juguetes de demostración. Studio realmente me ayudó a depurar un bucle de llamadas a herramientas donde el agente seguía invocando la búsqueda en lugar de pasar al paso de resumen. Pude ver la traza completa de decisiones y corregir mis instrucciones en tiempo real.
El motor de workflows maneja complejidad real. Ramificaciones, pasos en paralelo, reintentos con backoff, puertas de aprobación humana... construí un pipeline de contenido con todo esto en unas 200 líneas. El equivalente en LangGraph se acercaba a las 500 líneas y requería pensar más en términos de teoría de grafos.
Si estás construyendo sistemas de agentes de IA, el motor de flujos de trabajo de Mastra maneja la orquestación de múltiples pasos con menos código repetitivo que la mayoría de las alternativas.
Lo que me frustró
Lagunas en la documentación. La guía de inicio es sólida, pero una vez que pasas de los agentes básicos, te toca leer el código fuente. Pasé 45 minutos descifrando cómo configurar la persistencia de memoria con pgvector porque la documentación solo mostraba el valor por defecto en memoria. El Discord de la comunidad fue útil, pero no debería ser necesario preguntar allí para una característica principal.
Ecosistema de plugins pequeño. LangChain tiene cientos de integraciones. Mastra tiene quizás 50 o 60. Si necesitas un conector de nicho (por ejemplo, para un CRM o almacén de datos específico), te tocará escribirlo tú mismo.
Aún hay cambios disruptivos (breaking changes). Entre la v0.3 y la v0.4, la API de workflows cambió significativamente. El código de mi agente necesitó migración. Para un framework que atrae a usuarios de producción, esto es preocupante. Han prometido estabilidad de la API a partir de la v1.0, pero esta aún no ha salido.
La restricción de "solo TypeScript" es un arma de doble filo. Tus ingenieros de ML que piensan en notebooks de Python no pueden contribuir directamente. Si tu organización tiene infraestructura de IA existente en Python, Mastra crea una barrera lingüística que añade costes de coordinación.
La recuperación de errores en los agentes es básica. Cuando falla una llamada a una herramienta, el comportamiento por defecto es reintentar o saltar. Yo quería una lógica de fallback personalizada (probar herramienta A, si falla usar herramienta B con parámetros distintos), y la solución fue menos limpia de lo que esperaba.
Quién debería usar Mastra
Sí, úsalo si:
- Tu stack es TypeScript/Node.js y no quieres un proceso "sidecar" en Python.
- Necesitas agentes de IA en una aplicación web (Next.js, Express, Hono) sin dolores de cabeza de infraestructura.
- Eres un equipo pequeño (1-5 desarrolladores) que valora la iteración rápida sobre la amplitud del ecosistema.
- Quieres observabilidad integrada sin pagar por una plataforma externa.
Probablemente evítalo si:
- Tu equipo prefiere Python y ya tiene inversiones en LangChain o LangGraph.
- Necesitas más de 100 integraciones listas para usar.
- Estás construyendo pipelines de ML con mucha investigación donde el ecosistema de computación científica de Python es fundamental.
- No puedes tolerar cambios en la API pre-v1.0 en producción.
Para los equipos que construyen aplicaciones web impulsadas por IA, entender cómo funcionan los protocolos de comunicación de agentes como MCP y A2A junto con frameworks como Mastra te dará más flexibilidad en el diseño del sistema.
FAQ (Preguntas Frecuentes)
¿Mastra está listo para producción?
Mastra ya se utiliza en producción por varias startups respaldadas por YC y tiene más de 300,000 descargas semanales en npm. Sin embargo, está en fase pre-v1.0, lo que significa que aún pueden ocurrir cambios en la API entre versiones menores. Para proyectos nuevos que comienzan hoy, es una apuesta razonable. Para migrar grandes sistemas existentes, yo esperaría a la versión 1.0 estable.
¿Cómo se compara Mastra con LangChain para TypeScript?
LangChain tiene una versión para TypeScript (LangChain.js), pero se siente como un ciudadano de segunda clase: las características llegan meses después que a la versión de Python y el soporte de la comunidad es menor. Mastra es nativo de TypeScript desde su base, con mejor seguridad de tipos, un rendimiento más rápido (latencia P95 de ~1,240ms frente a ~2,450ms) y una integración más estrecha con el ecosistema de despliegue de Node.js.
¿Puede Mastra trabajar con Claude, GPT-4 y modelos de código abierto?
Sí. Mastra es compatible con Anthropic (Claude), OpenAI (GPT-4o, o1), Google (Gemini) y cualquier API compatible con OpenAI. Puedes cambiar de modelo por agente con un solo cambio de configuración. Lo probé tanto con Claude como con GPT-4o sin problemas.
¿Cuál es la curva de aprendizaje de Mastra?
Si conoces TypeScript y tienes conceptos básicos de IA/LLM, calcula unas 2 o 3 horas para construir tu primer agente funcional. Aprender bien el motor de flujos de trabajo te llevará otro día. Viniendo de LangChain, el mayor ajuste es dejar de pensar en términos de grafos: el modelo centrado en agentes de Mastra es más directo pero requiere diferentes modelos mentales para orquestaciones complejas.
Ver también: También gestiono un agente de investigación financiera en AlphaGainDaily, construido con primitivas de agentes similares pero orientado a datos de mercado en lugar de flujos de trabajo de desarrollo. Es un público distinto, pero se aplican los mismos patrones agénticos.
Perspectiva LATAM y España
Para los desarrolladores en España y Latinoamérica, Mastra AI llega en un momento clave donde la madurez de los equipos de ingeniería en TypeScript es altísima, facilitando la adopción de agentes sin depender de la infraestructura pesada de Python. En mercados como México, Argentina o España, donde las startups fintech y de e-commerce buscan optimizar procesos de atención al cliente y análisis de datos, Mastra ofrece una ventaja competitiva al integrarse directamente en el stack de Node.js o Next.js ya existente. No existen restricciones geográficas para su uso al ser código abierto, aunque el principal desafío local sigue siendo el coste y la facturación en divisas de los modelos subyacentes (OpenAI o Anthropic), lo cual puede ser un bache para proyectos pequeños en países con limitaciones cambiarias. Como alternativa táctica, muchos equipos regionales están integrando Mastra con modelos abiertos mediante Ollama o Groq para mitigar latencias y mantener la soberanía de los datos en servidores locales.