Escalando Agentes de AI para Bases de Código de Producción: Patrones para Precisión y Eficiencia

This ad is not shown to multipass and full ticket holders
JS Nation
JSNation 2026
June 11 - 15, 2026
Amsterdam & Online
The main JavaScript conference of the year
Upcoming event
JSNation 2026
JSNation 2026
June 11 - 15, 2026. Amsterdam & Online
Learn more
Bookmark
Rate this content
Sentry
Promoted
Code breaks, fix it faster

Crashes, slowdowns, regressions in prod. Seer by Sentry unifies traces, replays, errors, profiles to find root causes fast.

A medida que las bases de código crecen, los asistentes de codificación de AI tienen dificultades. Las ventanas de contexto se desbordan, los agentes pierden el seguimiento de las dependencias y la búsqueda de texto simple no logra capturar las relaciones semánticas que definen el software real. Esta masterclass explora tres patrones arquitectónicos probados que permiten a los agentes de AI trabajar eficazmente con bases de código a escala de producción: inteligencia de código semántico a través de la integración del Language Server Protocol, habilidades especializadas de agentes mediante el agrupamiento de contexto y herramientas, y delegación de subagentes para una gestión eficiente del contexto. A través de demostraciones en vivo en un proyecto popular de código abierto como ShadCN, verás cómo estas técnicas abordan la complejidad del software del mundo real: refactorizaciones de múltiples archivos, cambios entre módulos y seguimiento de dependencias que abrumarían los enfoques tradicionales.

Te irás con estrategias prácticas y agnósticas al producto para construir o mejorar agentes de AI que puedan manejar grandes bases de código con precisión y eficiencia. Examinaremos por qué la comprensión semántica supera la búsqueda de texto, cómo diseñar habilidades de agentes enfocadas que mejoren la finalización de tareas y cómo las arquitecturas de subagentes en paralelo previenen el agotamiento de las ventanas de contexto. Ya sea que estés construyendo herramientas de desarrollo de AI, arquitecturando sistemas de múltiples agentes o contribuyendo a código abierto, estos patrones te ayudarán a cerrar la brecha entre las demostraciones de juguete y la asistencia de AI de grado de producción.

This talk has been presented at AI Coding Summit 2026, check out the latest edition of this Tech Conference.

Saurabh Dahal
Saurabh Dahal
24 min
26 Feb, 2026

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Discutiendo las mejores prácticas de codificación de AI en 2026, incluyendo la comprensión semántica y la gestión de ventanas de contexto. Explorando el papel del Language Server Protocol (LSP) en la refactorización de código. Cambio de nombre de código eficiente usando LSP e inteligencia de código en Kiro. Impacto de no usar LSP en la eficiencia del cambio de nombre de código. Los enfoques manuales sin LSP impactan significativamente la eficiencia y el consumo de recursos. El uso de ventanas de contexto se duplica sin LSP, afectando el manejo del código. Utilizar subagentes para tareas especializadas mejora la seguridad de la base de código. Desarrollo impulsado por especificaciones y documentos de diseño detallados para una alineación eficiente de agentes.

1. AI Coding Best Practices in 2026

Short description:

Discutiendo las mejores prácticas de codificación de IA en 2026 para grandes bases de código de producción, incluyendo consejos, herramientas y estrategias. Explorando la importancia de la comprensión semántica en la codificación y trucos de gestión de ventanas de contexto para salidas de IA.

Hola a todos. Hoy quiero hablar sobre las tres mejores prácticas de codificación de IA de 2026, especialmente en lo que respecta a grandes bases de código de producción. Y es particularmente importante cuando hablamos de grandes bases de código de producción, porque ahí es donde la IA realmente puede estropear mucho. Y si la IA estropea las cosas en producción, entonces tu aplicación no está produciendo y eso puede ser un problema. Así que hablemos de algunos consejos, herramientas y estrategias que podemos usar hoy en 2026 para comenzar bien cuando se trata de trabajar con grandes bases de código de producción y usar asistencia de codificación de IA.

Mi nombre es Saurabh Dhalal. Soy un defensor de desarrolladores aquí en Amazon Web Services en el equipo de la plataforma Agentic AI. Y te guiaré a través de estas tres mejores prácticas. Aquí está la agenda del día. Primero vamos a echar un vistazo a un ejemplo de una base de código de producción de código abierto con más de medio millón de líneas de código. Así es. Medio millón de líneas de código. Así que es una gran base de código. Y luego vamos a hablar sobre la única herramienta que debes usar al refactorizar bases de código, especialmente cuando se trata de bases de código de producción, para que no desperdicies tu dinero, tus tokens o tus créditos de IA. Y también reduces errores. Vamos a hablar sobre la diferencia entre la comprensión semántica de tu código frente a la coincidencia de texto por fuerza bruta y lo que eso implica y por qué es relevante para ti.

Y por último, vamos a hablar sobre trucos de gestión de ventanas de contexto para que obtengas las mejores salidas de tu IA y también cómo puedes aprovechar eso hacia el desarrollo impulsado por especificaciones cuando estás construyendo una nueva característica en una base de código de producción. Así que comencemos. Así que la base de código de producción de la que vamos a hablar hoy. Código abierto, repositorio ShadCN aquí. Hay dos repositorios que en realidad voy a cubrir de la página de GitHub de ShadCN. El repositorio de UI, que es muy, muy grande. Más de medio millón de líneas de código. Y luego la base de código de Taxonomy, que también es bastante grande. Esta va a ser una aplicación de pila completa. Así que quiero mostrar algo con una aplicación de pila completa, pero también algo con una base de código realmente, realmente grande, ya sea de pila completa o no. Así que comencemos. Echa un vistazo a un caso de uso. Entonces, ¿cuál es la herramienta secreta? La herramienta que resultará en la diferencia entre escribir los mismos prompts para refactorizar una base de código, el resultado sería ya sea 38 segundos para que ese prompt se complete sin errores o más de 10 minutos con múltiples errores y luego probablemente horas de depuración después de que esos 10 minutos hayan terminado debido a los errores. La herramienta secreta, LSP, Language Server Protocol.

2. LSP Tool for Code Refactoring

Short description:

Explorando el papel crítico del Language Server Protocol (LSP) en la comprensión semántica y la refactorización dentro de grandes bases de código de producción.

Eso es lo que significa LSP. Es la misma herramienta que está en tus IDEs que cuando pasas el cursor sobre, por ejemplo, cuando paso el cursor sobre algún código. Como justo aquí. Correcto. Si paso el cursor sobre algún código, es la misma herramienta que podrá entender de qué tipo son mis ciertas variables, qué tipo de entradas y salidas tienen mis funciones. Cosas así. Así que eso es el language server protocol. Y eso es LSP.

Y vamos a hablar sobre cómo esta herramienta LSP es súper crítica cuando se trata de refactorizar una gran base de código de producción. Así que echemos un vistazo a lo que realmente implica. Así que con LSP, es la diferencia entre la comprensión semántica y AST, que significa comprensión del árbol de sintaxis abstracta de tu base de código, donde tu agente realmente entiende los símbolos y las conexiones de todos los archivos de código y funciones e importaciones, exportaciones, interfaces, clases, objetos en tu código como código real en lugar de solo coincidencia de texto por fuerza bruta de tu código, que es la búsqueda grep. Así que no queremos hacer la búsqueda grep. Queremos hacer comprensión semántica y AST. Y eso es lo que el agente de codificación habilitado por LSP nos permite hacer.

Así que echemos un vistazo a una demostración para renombrar este nombre de función comúnmente usado llamado CN a un nombre diferente. Así que una vez más, nuestra gran base de código de producción, voy a proceder a clonarla. Estoy en GitHub, chat CN UI. Este es el que quiero clonar. Así que procedamos a hacer git clone. Muy bien, así que he clonado una base de código de producción muy grande con más de quinientas mil líneas de código. Voy a entrar en esta base de código. Y luego PNPM. Vamos a instalar las dependencias usando PNPM install y una vez que eso haya terminado, echemos un vistazo a cómo el language server protocol hace una gran diferencia cuando se trata de refactorizar nuestra base de código. Muy bien, así que ahora que los paquetes han sido instalados, voy a limpiar mi terminal y estoy en Kiro I.D.E. Así que esta es una aplicación llamada Kiro. Puedes encontrarla en. Kiro dot dev. Es una plataforma de desarrollo de AI agentic. Así que bifurcación de V.S. code y tiene agentes aquí y en el terminal, estaré demostrando el concepto de language server protocol siendo usado por agentes para refactorizar una base de código.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Escalando con Remix y Micro Frontends
Remix Conf Europe 2022Remix Conf Europe 2022
23 min
Escalando con Remix y Micro Frontends
Top Content
This talk discusses the usage of Microfrontends in Remix and introduces the Tiny Frontend library. Kazoo, a used car buying platform, follows a domain-driven design approach and encountered issues with granular slicing. Tiny Frontend aims to solve the slicing problem and promotes type safety and compatibility of shared dependencies. The speaker demonstrates how Tiny Frontend works with server-side rendering and how Remix can consume and update components without redeploying the app. The talk also explores the usage of micro frontends and the future support for Webpack Module Federation in Remix.
Entendiendo la Arquitectura Fiber de React
React Advanced 2022React Advanced 2022
29 min
Entendiendo la Arquitectura Fiber de React
Top Content
This Talk explores React's internal jargon, specifically fiber, which is an internal unit of work for rendering and committing. Fibers facilitate efficient updates to elements and play a crucial role in the reconciliation process. The work loop, complete work, and commit phase are essential steps in the rendering process. Understanding React's internals can help with optimizing code and pull request reviews. React 18 introduces the work loop sync and async functions for concurrent features and prioritization. Fiber brings benefits like async rendering and the ability to discard work-in-progress trees, improving user experience.
Thinking Like an Architect
Node Congress 2025Node Congress 2025
31 min
Thinking Like an Architect
Top Content
In modern software development, architecture is more than just selecting the right tech stack; it involves decision-making, trade-offs, and considering the context of the business and organization. Understanding the problem space and focusing on users' needs are essential. Architectural flexibility is key, adapting the level of granularity and choosing between different approaches. Holistic thinking, long-term vision, and domain understanding are crucial for making better decisions. Effective communication, inclusion, and documentation are core skills for architects. Democratizing communication, prioritizing value, and embracing adaptive architectures are key to success.
Componentes de Full Stack
Remix Conf Europe 2022Remix Conf Europe 2022
37 min
Componentes de Full Stack
Top Content
RemixConf EU discussed full stack components and their benefits, such as marrying the backend and UI in the same file. The talk demonstrated the implementation of a combo box with search functionality using Remix and the Downshift library. It also highlighted the ease of creating resource routes in Remix and the importance of code organization and maintainability in full stack components. The speaker expressed gratitude towards the audience and discussed the future of Remix, including its acquisition by Shopify and the potential for collaboration with Hydrogen.
El Lado Oscuro de los Micro-Frontends
React Advanced 2025React Advanced 2025
29 min
El Lado Oscuro de los Micro-Frontends
In the Talk, various key points were discussed regarding micro-front-end architecture. These included challenges with micro-intents, common mistakes in system design, the differences between micro-intents and components, granularity in software architecture, optimizing micro-front-end architecture, efficient routing and deployment strategies, edge computing strategies, global state and data sharing optimization, managing data context, governance and fitness functions, architectural testing, adaptive growth, value of micro-frontends, repository selection, repo structures, and web component usage.

Workshops on related topic

IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.
Masterclass de alto rendimiento Next.js
React Summit 2022React Summit 2022
50 min
Masterclass de alto rendimiento Next.js
Workshop
Michele Riva
Michele Riva
Next.js es un marco convincente que facilita muchas tareas al proporcionar muchas soluciones listas para usar. Pero tan pronto como nuestra aplicación necesita escalar, es esencial mantener un alto rendimiento sin comprometer el mantenimiento y los costos del servidor. En este masterclass, veremos cómo analizar el rendimiento de Next.js, el uso de recursos, cómo escalarlo y cómo tomar las decisiones correctas al escribir la arquitectura de la aplicación.
Model Context Protocol (MCP) Deep Dive: 2-Hour Interactive Masterclass
AI Coding Summit 2025AI Coding Summit 2025
86 min
Model Context Protocol (MCP) Deep Dive: 2-Hour Interactive Masterclass
Workshop
Stepan Suvorov
Stepan Suvorov
Únete a una sesión enfocada de 2 horas que cubre el propósito de MCP, su arquitectura, implementación práctica de servidores y direcciones futuras. Diseñado para desarrolladores y arquitectos de sistemas que buscan integrar datos contextuales con modelos de ML de manera efectiva. Agenda:- Introducción & ¿Por qué MCP? Desafíos clave que MCP resuelve y beneficios principales.- Profundización en la Arquitectura: componentes, interacciones, principios de escalabilidad. - Construyendo tu propio Servidor MCP: recorrido guiado con fragmentos de código y mejores prácticas; demostración en vivo o revisión de código.- Futuro de los Desarrollos de MCP: potenciales mejoras, tendencias emergentes, escenarios del mundo real.
Puntos Clave:- Comprensión clara del razonamiento detrás de MCP.- Perspectiva sobre patrones de diseño y consideraciones de escalado.- Pasos prácticos para implementar un servidor prototipo.- Conciencia de las tendencias futuras y cómo aplicar MCP en proyectos. 
Concurrencia de Node Con la Fuerza de un Toro Con BullMQ
Node Congress 2026Node Congress 2026
95 min
Concurrencia de Node Con la Fuerza de un Toro Con BullMQ
Workshop
Edy Silva
Douglas Marques
2 authors
La naturaleza concurrente de Node ya es poderosa, pero a menudo necesitamos sacar trabajo del servidor principal por varias razones. En este trabajo, exploraremos algunos escenarios en los que el trabajo se empuja inteligentemente a otro proceso de Node para resolver.
Una vez que usamos una cola para distribuir cargas de trabajo, necesitamos identificar la naturaleza del trabajo a realizar. Para trabajos intensivos en I/O o CPU, el primero ya está perfectamente cubierto por un solo proceso de Node.js; necesitaremos ajustar la configuración del trabajador para que coincida con los recursos disponibles y el rendimiento.