El reciente artículo de MIT ""Recursive Language Models"" demostró que los LLMs pueden procesar entradas 100x más allá de sus ventanas de contexto, no expandiendo la ventana, sino tratando los prompts como entornos externos que el modelo explora programáticamente. Los resultados son sorprendentes: GPT-5-mini superó a GPT-5 en tareas de contexto largo mientras usaba un cómputo comparable. Esta charla demuestra cómo construir la misma arquitectura en TypeScript usando LangGraph y Node.js.
Implementaremos un sistema RLM en el que un agente raíz orquesta sub-agentes recursivos, cada uno operando en un segmento de contexto enfocado sin sufrir ""context rot."" Veremos cómo aprovechar la ejecución de gráficos cíclicos de LangGraph para generar agentes hijos, agregar sus hallazgos en un estado compartido y permitir que el orquestador sintetice resultados, todo mientras mantenemos las ventanas de contexto individuales pequeñas y frescas.
Al final, tendrás un patrón de trabajo para procesar documentos masivos, bases de código o conjuntos de datos que ahogarían una sola llamada LLM, usando herramientas que puedes desplegar hoy.
Puntos clave:
- - Por qué las ventanas de contexto más grandes no resuelven el context rot
- - Arquitectura de gráficos de agentes recursivos en LangGraph
- - Gestión del estado y ejecución de herramientas a través de jerarquías de agentes
- - Compromisos de costo y latencia en producción
This talk has been presented at Node Congress 2026, check out the latest edition of this JavaScript Conference.






















Comments