Cómo Ayudar a los Agentes a Recordar

This ad is not shown to multipass and full ticket holders
React Summit
React Summit 2026
June 11 - 15, 2026
Amsterdam & Online
The biggest React conference worldwide
Upcoming event
React Summit 2026
React Summit 2026
June 11 - 15, 2026. Amsterdam & Online
Learn more
Bookmark
Rate this content
Sentry
Promoted
Code breaks, fix it faster

Crashes, slowdowns, regressions in prod. Seer by Sentry unifies traces, replays, errors, profiles to find root causes fast.

Los LLMs necesitan acceso al contexto relevante para tener éxito. Un elemento clave de la Ingeniería de Contexto que podemos usar para ayudar a los agentes a recordar es la Memoria.

Adentrémonos en el mundo de la gestión de memoria para agentes. Discutiremos la diferencia entre la memoria a corto y largo plazo, cómo gestionar la memoria, y la importancia de prevenir el envenenamiento y el choque de contextos utilizando técnicas como el recorte y la resumización.

This talk has been presented at AI Coding Summit 2026, check out the latest edition of this Tech Conference.

Carly Richmond
Carly Richmond
20 min
26 Feb, 2026

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Carly discute la memoria, el contexto en LLMs, y la gestión de la información para obtener resultados efectivos en sistemas agénticos. Los LLMs alucinan debido a lagunas de conocimiento, sesgos, sobreajuste e incentivos. Importancia del contexto para minimizar las alucinaciones y enfoque en el almacenamiento de memoria para la toma de decisiones. La memoria a corto plazo actúa como RAM, mientras que la memoria a largo plazo almacena conocimientos y experiencias. Almacenamiento eficiente de memoria usando disco, sistemas de archivos y memoria semántica. Énfasis en la gestión del contexto de los mensajes, la recuperación y concatenación para la entrada de LLM. Atención a la longitud del contexto, evaluación de la información y optimización de la memoria para respuestas precisas.
Available in English: How to Help Agents Remember

1. Memory and Context in Agentic Systems

Short description:

Carly discute sobre la memoria, el contexto en LLMs y la gestión de la información para obtener resultados efectivos en sistemas agénticos. Conéctate con Carly para más ayuda.

Hola a todos. Es genial estar en línea con todos ustedes. Mi nombre es Carly, y hoy voy a hablarles sobre agentes y específicamente sobre la memoria también. Así que lo que vamos a cubrir es, ya saben, por qué realmente nos importa la memoria, qué contexto necesitan los LLMs y qué sucede cuando no tenemos esa información relevante. También vamos a hablar sobre la memoria, a corto y largo plazo, tanto en humanos como en agentes para mostrar los paralelismos. Hablaremos sobre la memoria semántica como ejemplo, junto con las diversas formas en que podemos almacenar la memoria a largo plazo en agentes. Y luego hablaremos sobre algunas técnicas de gestión que podrías encontrar al comenzar a construir tus propios sistemas genéticos.

Así que si no me has conocido antes, es un placer conocerte. Mi nombre es Carly Richmond. Dirijo el equipo de defensa del desarrollador dentro de DevRel en Elastic. He estado allí por poco menos de cuatro años y antes de eso fui ingeniera de front-end durante 10. Ahora, si tienes preguntas, por favor encuéntrame en Discord. Me encantaría ayudarte. Pero si piensas en algo después y dices, realmente desearía haberle preguntado eso a Carly, solo escanea el código QR y encuéntrame en cualquier red social en la que estés y estaré más que feliz de hacer lo mejor para ayudarte.

Así que si viste mi última charla en el AI Coding Summit el año pasado, me habrías escuchado hablar sobre la ingeniería de contexto y qué es esto un conjunto de prácticas y herramientas que tenemos para gestionar la ventana de contexto de un modelo de lenguaje grande cuando construimos sistemas agénticos. Y para aquellos que necesitan un recordatorio sobre qué es la ventana de contexto, esto es en términos simples, el número máximo de tokens que un LLM puede procesar a la vez. Así que los LLMs tienen un límite particular en el número de tokens que pueden recordar efectivamente y cualquier cosa por encima de eso, básicamente no la tendrán en cuenta en los resultados que generen para ti. Y esto se conoce como desbordamiento, como puedes ver en la imagen. Pero incluso con ventanas de contexto más grandes que estamos viendo de todos estos LLMs, también necesitamos pensar en la calidad de la información que está dentro de una ventana de contexto para asegurarnos de que le damos la información para que realmente pueda realizar las tareas relevantes que queremos y generar los resultados correctos, y que no estamos pasando información que podría potencialmente causar contradicciones, puede llevar a información incorrecta o algo así.

2. Challenges in LLMs and Model Hallucination

Short description:

Los LLMs alucinan debido a lagunas de conocimiento, sesgos, sobreajuste e incentivos. Ser consciente de estos problemas es crucial para obtener resultados precisos.

Así que no sé si has tenido las noticias o has visto alguna situación particular donde un LLM te ha devuelto la respuesta incorrecta. Sé que ciertamente yo sí. Los LLMs inventan cosas. No es, ya sabes, esto no es digno de noticias. Esto es algo que hemos sabido durante mucho tiempo. Y los LLMs alucinan porque por varias razones clave. En primer lugar, se debe a la base de conocimiento que tienen, de la cual están entrenados. Así que, por ejemplo, podrían no estar entrenados en la información propietaria sobre la que estás construyendo sistemas agénticos para tomar decisiones críticas clave o para interactuar con los usuarios, y quieres asegurarte de que van a proporcionar las respuestas correctas sobre datos que no han sido entrenados.

Además, si estás construyendo algo usando un modelo más antiguo que quizás tiene una fecha de corte de conocimiento de, digamos, noviembre de 2025, si intentamos hacerle preguntas sobre lo que ha estado sucediendo en política durante la última semana, no lo va a saber y probablemente inventará una respuesta, o podría, si tienes suerte, venir y decir, no lo sé. Cuando se trata de elecciones de modelos, también tenemos problemas como el sobreajuste y términos de aprendizaje automático. Esto es básicamente donde los parámetros de un modelo son demasiado estrictos y no tienen la flexibilidad para realizar la tarea que hemos pedido al modelo particular que haga. El tercero es sobre los sesgos. Así que esto, nuevamente, es algo con lo que podrías haberte encontrado que los sesgos inherentes en el conjunto de datos en el que estos modelos particulares han sido entrenados, no solo en términos de género, sino también otras características pueden llevarlos a producir respuestas que no son necesariamente del todo correctas. Y si realmente discriminan, pueden terminar metiéndonos en problemas con respecto a reputación o problemas legales.

Está el hecho de que el idioma inglés e incluso a veces otros idiomas tienen ambigüedad dentro de ellos y eso puede confundir a un LLM, aunque se está volviendo menos y menos común. Y luego está esta cosa interesante llamada olvido catastrófico, que es donde espontáneamente un LLM simplemente olvida grandes oleadas de datos de entrenamiento y algo sale absolutamente desastrosamente mal. Pero una de las otras cosas que necesitamos tener en cuenta cuando se trata de alucinaciones es que los modelos alucinan porque han sido incentivados para hacerlo. Así que si miras este documento de algunos de los investigadores de OpenAI y Georgia Tech de septiembre del año pasado, verás que presentan el caso de que los procedimientos de entrenamiento y evaluación recompensan a un LLM por adivinar y darnos una respuesta en lugar de reconocer la incertidumbre y simplemente decir, no lo sé. Y necesitamos estar atentos a estos.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Construyendo un Asistente AI Activado por Voz con Javascript
JSNation 2023JSNation 2023
21 min
Construyendo un Asistente AI Activado por Voz con Javascript
Top Content
This Talk discusses building a voice-activated AI assistant using web APIs and JavaScript. It covers using the Web Speech API for speech recognition and the speech synthesis API for text to speech. The speaker demonstrates how to communicate with the Open AI API and handle the response. The Talk also explores enabling speech recognition and addressing the user. The speaker concludes by mentioning the possibility of creating a product out of the project and using Tauri for native desktop-like experiences.
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
JSNation US 2024JSNation US 2024
31 min
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
Top Content
AI is transforming software engineering by using agents to help with coding. Agents can autonomously complete tasks and make decisions based on data. Collaborative AI and automation are opening new possibilities in code generation. Bolt is a powerful tool for troubleshooting, bug fixing, and authentication. Code generation tools like Copilot and Cursor provide support for selecting models and codebase awareness. Cline is a useful extension for website inspection and testing. Guidelines for coding with agents include defining requirements, choosing the right model, and frequent testing. Clear and concise instructions are crucial in AI-generated code. Experienced engineers are still necessary in understanding architecture and problem-solving. Energy consumption insights and sustainability are discussed in the Talk.
El Ascenso del Ingeniero de IA
React Summit US 2023React Summit US 2023
30 min
El Ascenso del Ingeniero de IA
Top Content
The rise of AI engineers is driven by the demand for AI and the emergence of ML research and engineering organizations. Start-ups are leveraging AI through APIs, resulting in a time-to-market advantage. The future of AI engineering holds promising results, with a focus on AI UX and the role of AI agents. Equity in AI and the central problems of AI engineering require collective efforts to address. The day-to-day life of an AI engineer involves working on products or infrastructure and dealing with specialties and tools specific to the field.
IA y Desarrollo Web: ¿Exageración o Realidad?
JSNation 2023JSNation 2023
24 min
IA y Desarrollo Web: ¿Exageración o Realidad?
Top Content
This talk explores the use of AI in web development, including tools like GitHub Copilot and Fig for CLI commands. AI can generate boilerplate code, provide context-aware solutions, and generate dummy data. It can also assist with CSS selectors and regexes, and be integrated into applications. AI is used to enhance the podcast experience by transcribing episodes and providing JSON data. The talk also discusses formatting AI output, crafting requests, and analyzing embeddings for similarity.
El Ingeniero de Software Nativo de AI
JSNation US 2025JSNation US 2025
35 min
El Ingeniero de Software Nativo de AI
Software engineering is evolving with AI and VIBE coding reshaping work, emphasizing collaboration and embracing AI. The future roadmap includes transitioning from augmented to AI-first and eventually AI-native developer experiences. AI integration in coding practices shapes a collaborative future, with tools evolving for startups and enterprises. AI tools aid in design, coding, and testing, offering varied assistance. Context relevance, spec-driven development, human review, and AI implementation challenges are key focus areas. AI boosts productivity but faces verification challenges, necessitating human oversight. The impact of AI on code reviews, talent development, and problem-solving evolution in coding practices is significant.
Aplicaciones Web del Futuro con Web AI
JSNation 2024JSNation 2024
32 min
Aplicaciones Web del Futuro con Web AI
Web AI in JavaScript allows for running machine learning models client-side in a web browser, offering advantages such as privacy, offline capabilities, low latency, and cost savings. Various AI models can be used for tasks like background blur, text toxicity detection, 3D data extraction, face mesh recognition, hand tracking, pose detection, and body segmentation. JavaScript libraries like MediaPipe LLM inference API and Visual Blocks facilitate the use of AI models. Web AI is in its early stages but has the potential to revolutionize web experiences and improve accessibility.

Workshops on related topic

IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.
AI para Desarrolladores de React
React Advanced 2024React Advanced 2024
142 min
AI para Desarrolladores de React
Top Content
Featured Workshop
Eve Porcello
Eve Porcello
El conocimiento de las herramientas de AI es fundamental para preparar el futuro de las carreras de los desarrolladores de React, y la suite de herramientas de AI de Vercel es una vía de acceso accesible. En este curso, examinaremos más de cerca el Vercel AI SDK y cómo esto puede ayudar a los desarrolladores de React a construir interfaces de transmisión con JavaScript y Next.js. También incorporaremos APIs de terceros adicionales para construir y desplegar una aplicación de visualización de música.
Temas:- Creación de un Proyecto de React con Next.js- Elección de un LLM- Personalización de Interfaces de Transmisión- Construcción de Rutas- Creación y Generación de Componentes - Uso de Hooks (useChat, useCompletion, useActions, etc)
Building Full Stack Apps With Cursor
JSNation 2025JSNation 2025
46 min
Building Full Stack Apps With Cursor
Featured Workshop
Mike Mikula
Mike Mikula
En esta masterclass cubriré un proceso repetible sobre cómo iniciar aplicaciones full stack en Cursor. Espere comprender técnicas como el uso de GPT para crear requisitos de producto, esquemas de base de datos, hojas de ruta y usarlos en notas para generar listas de verificación que guíen el desarrollo de aplicaciones. Profundizaremos más en cómo solucionar alucinaciones/errores que ocurren, indicaciones útiles para hacer que su aplicación se vea y se sienta moderna, enfoques para conectar cada capa y más. Al final, ¡espere poder ejecutar su propia aplicación full stack generada por IA en su máquina!
Por favor, encuentre las preguntas frecuentes aquí
How to 9,2x Your Development Speed with Cline
JSNation 2025JSNation 2025
64 min
How to 9,2x Your Development Speed with Cline
Featured Workshop
Nik Pash
Nik Pash
La forma en que escribimos código está cambiando fundamentalmente. En lugar de quedar atrapado en bucles anidados y detalles de implementación, imagine enfocarse puramente en la arquitectura y la resolución creativa de problemas mientras su programador de pares de IA maneja la ejecución. En esta masterclass práctica, te mostraré cómo aprovechar Cline (un agente de codificación autónomo que recientemente alcanzó 1M de descargas en VS Code) para acelerar drásticamente tu flujo de trabajo de desarrollo a través de una práctica que llamamos "vibe coding" - donde los humanos se enfocan en el pensamiento de alto nivel y la IA maneja la implementación.Descubrirás:Los principios fundamentales del "vibe coding" y cómo se diferencia del desarrollo tradicionalCómo diseñar soluciones a un alto nivel y hacer que la IA las implemente con precisiónDemostración en vivo: Construcción de un sistema de almacenamiento en caché de grado de producción en Go que nos ahorró $500/semanaTécnicas para usar IA para entender bases de código complejas en minutos en lugar de horasMejores prácticas para solicitar a los agentes de IA que obtengan exactamente el código que deseasErrores comunes a evitar al trabajar con asistentes de codificación de IAEstrategias para usar IA para acelerar el aprendizaje y reducir la dependencia de ingenieros seniorCómo combinar efectivamente la creatividad humana con las capacidades de implementación de IAYa sea que seas un desarrollador junior que busca acelerar tu aprendizaje o un ingeniero senior que desea optimizar tu flujo de trabajo, saldrás de esta masterclass con experiencia práctica en desarrollo asistido por IA que puedes aplicar inmediatamente a tus proyectos. A través de demostraciones de codificación en vivo y ejercicios prácticos, aprenderás cómo aprovechar Cline para escribir mejor código más rápido mientras te enfocas en lo que importa: resolver problemas reales.
La Guía del Desarrollador de React para la Ingeniería de AI
React Summit US 2025React Summit US 2025
96 min
La Guía del Desarrollador de React para la Ingeniería de AI
Featured WorkshopFree
Niall Maher
Niall Maher
Una masterclass integral diseñada específicamente para desarrolladores de React listos para convertirse en ingenieros de AI. Aprende cómo tus habilidades existentes de React—pensamiento en componentes, gestión de estado, manejo de efectos y optimización del rendimiento—se traducen directamente en la construcción de aplicaciones de AI sofisticadas. Cubriremos todo el stack: integración de API de AI, respuestas en streaming, manejo de errores, persistencia de estado con Supabase y despliegue con Vercel.Traducción de habilidades:- Ciclo de vida de componentes → Ciclo de vida de conversación de AI- Gestión de estado → Gestión de contexto y memoria de AI- Manejo de efectos → Streaming de respuestas de AI y efectos secundarios- Optimización del rendimiento → Caché de AI y optimización de solicitudes- Patrones de prueba → Estrategias de prueba de interacción de AILo que construirás: Una herramienta completa de gestión de proyectos impulsada por AI que muestra patrones de integración de AI a nivel empresarial.
Construir agentes LLM en TypeScript con Mastra y Vercel AI SDK
React Advanced 2025React Advanced 2025
145 min
Construir agentes LLM en TypeScript con Mastra y Vercel AI SDK
Featured WorkshopFree
Eric Burel
Eric Burel
Los LLMs no son solo motores de búsqueda sofisticados: sientan las bases para construir piezas de software autónomas e inteligentes, también conocidas como agentes.
Las empresas están invirtiendo masivamente en infraestructuras de IA generativa. Para obtener el valor de su inversión, necesitan desarrolladores que puedan sacar el máximo provecho de un LLM, y ese podrías ser tú.
Descubre la pila de TypeScript para el desarrollo basado en LLM en esta masterclass de 3 horas. Conéctate a tu modelo favorito con el Vercel AI SDK y convierte líneas de código en agentes de IA con Mastra.ai.