NodeJS & AI: Building Smarter Applications

This ad is not shown to multipass and full ticket holders
React Summit US
React Summit US 2025
November 18 - 21, 2025
New York, US & Online
The biggest React conference in the US
Learn More
In partnership with Focus Reactive
Upcoming event
React Summit US 2025
React Summit US 2025
November 18 - 21, 2025. New York, US & Online
Learn more
Bookmark
Rate this content

Desbloquea el potencial de la IA en aplicaciones de Node.js a través de implementaciones prácticas y del mundo real. Esta sesión demuestra cómo integrar tanto modelos de IA de código abierto como cerrados para construir características inteligentes como la búsqueda semántica y agentes autónomos. Los asistentes aprenderán patrones listos para producción para sistemas RAG, incrustaciones vectoriales y agentes de IA, mientras comprenden las decisiones arquitectónicas clave detrás de cada implementación. Perfecto para desarrolladores listos para ir más allá de las llamadas básicas a la API y construir aplicaciones sofisticadas mejoradas con IA.

This talk has been presented at Node Congress 2025, check out the latest edition of this JavaScript Conference.

Aileen Villanueva
Aileen Villanueva
19 min
17 Apr, 2025

Comments

Sign in or register to post your comment.
  • Christos kuznos
    Christos kuznos
    None
    are they more than the 2 types of models, closed and open source?
Video Summary and Transcription
La charla de hoy exploró la combinación de Node.js e inteligencia artificial para construir aplicaciones inteligentes. Se discutieron dos tipos de modelos, cerrados y de código abierto, con modelos cerrados accesibles a través de una API y modelos de código abierto alojados localmente o en la nube. Se explicó el uso de RAC (Recuperación de Generación de Métodos) para mejorar los modelos, junto con el proceso de obtención de datos y mejora del rendimiento de recuperación. Se introdujeron técnicas de chunking, incrustación y bases de datos vectoriales como métodos para organizar y transformar datos. La charla también cubrió la recuperación de datos utilizando búsqueda semántica y la generación de respuestas legibles por humanos utilizando modelos. Se discutió el concepto de mejorar modelos con agentes, centrándose en cómo los agentes descomponen objetivos complejos y utilizan funciones externas. Se destacó el uso de herramientas y el patrón de React en la implementación de agentes. Por último, la charla tocó la implementación de patrones de agentes y la mejora de LLMs, con demostraciones y código disponibles para una exploración adicional.

1. Introducción a Node.js y AI

Short description:

Hoy exploraremos la combinación de Node.js y la inteligencia artificial para construir aplicaciones inteligentes. Los modelos son programas especializados entrenados con datos para reconocer patrones y hacer predicciones. Usaremos modelos de lenguaje grande que sobresalen en la comprensión y generación del lenguaje humano. Hay dos tipos de modelos: cerrados y de código abierto. Los modelos cerrados como chat GPT y Gemini se acceden a través de una API. Los modelos de código abierto como Lama y Gemma se pueden alojar localmente o en la nube. Aunque estos modelos son poderosos, tienen limitaciones. Ahí es donde entran en juego nuevas técnicas.

Hola a todos, estoy emocionada de hablar hoy sobre cómo podemos combinar Node.js y una parte de la inteligencia artificial para construir aplicaciones que no solo sean funcionales, sino inteligentes. Ha habido una creciente importancia de la inteligencia artificial en el software, y yo quiero animar a ustedes, desarrolladores de TypeScript y JavaScript, a aprender y aplicar estas tecnologías.

Mi nombre es Aileen. Actualmente trabajo como desarrolladora de software en Orama, y he estado haciendo software durante 10 años. Organizo encuentros tecnológicos en mi ciudad, y estoy realmente apasionada por la intersección de la IA y el software.

Pero antes de sumergirnos, quiero que nos alineemos con algunos conceptos de los que hablaremos. Y empecemos definiendo qué es un modelo. Y quiero que piensen en un modelo como un programa especializado que ha sido entrenado con enormes cantidades de datos para reconocer patrones y hacer predicciones o decisiones. Estos modelos han sido entrenados para realizar tareas específicas, como entender texto, generar contenido o clasificar imágenes. Y vamos a interactuar con ellos proporcionando a estos modelos una entrada. Utilizaría todos estos patrones aprendidos y generaría una salida. Esta salida podría ser una inferencia, una generación o una predicción.

Hoy vamos a utilizar modelos de lenguaje grande. Y un modelo de lenguaje grande es un modelo que es bueno para entender y generar el lenguaje humano. Se basan en la arquitectura de transformadores. Hay un artículo llamado Attention is All You Need, y realmente lo recomiendo para leerlo si realmente quieres entender cómo funcionan por debajo. Están entrenados con grandes cantidades de datos, y funcionan para muchas tareas. Así que pueden hacer resúmenes. Pueden hacer respuestas a preguntas o traducción. Hoy vamos a hablar sobre dos tipos de modelos, que son los modelos cerrados. Y estos modelos son modelos como chat GPT, como Cloud, de Anthropic, como Gemini, y algunos de los modelos de Mistral. Estos modelos se acceden a través de una API, y tienen un costo. No puedes descargarlos, así que básicamente dependes de estos proveedores para usar estos modelos. El otro tipo de modelos son los modelos de código abierto. Y estos modelos, puedes encontrarlos alojados en Hug y Face. Puedes descargarlos y ejecutarlos en tu máquina local usando Olama. También podrías descargarlos y alojarlos en cualquier infraestructura en la nube, y estos modelos son modelos como Lama, como DeepSeq, o como Gemma de Google. Pero como puedes ver, estos modelos son realmente poderosos, y definitivamente podemos hacerlos más poderosos. Recordemos que estos modelos han sido entrenados con enormes cantidades de datos, y no hay duda de que estos modelos no son buenos en matemáticas o en necesidades muy específicas o nichos de una industria. Así que ahí es cuando entra en juego una nueva técnica.

2. Usando RAC para Mejorar Modelos

Short description:

RAC (Retrieve of Method Generation) reduce la alucinación al proporcionar información precisa a los modelos. El uso de datos privados y RAC puede hacer que los modelos sean más poderosos. Sin embargo, los modelos pueden estar desactualizados o carecer de conocimiento. Por ejemplo, cuando se preguntó sobre los oradores del Node Congress 2025, el conocimiento de un modelo se cortó en octubre de 2024. Para abordar esto, vamos a recorrer el proceso de crear y mejorar el modelo con RAC. El primer paso es obtener datos, que pueden estar en varios formatos como PDFs, JSON, o extraídos de sitios web. A continuación, utilizamos la división para facilitar la búsqueda de información relevante y mejorar el rendimiento de recuperación. La biblioteca LimeChain y la función de divisor de texto de caracteres recursivos se pueden usar para este propósito.

Y esa técnica es RAC. RAC significa Retrieve of Method Generation. Y RAC definitivamente ayuda en cosas como la alucinación. Aunque no elimina la alucinación, definitivamente podría reducirla. Porque si un modelo no sabe algo, podría haber inventado una respuesta que no es precisa. Así que con RAC, si proporcionamos esa información, ese modelo puede responder correctamente. O podemos habilitar el uso de datos privados. Así que definitivamente, si no fueron entrenados con datos que tienes disponibles solo para ti, definitivamente ayudaría a hacer tu modelo más poderoso.

Pero también, recordemos que tal vez todos estos modelos no se entrenan diariamente. Así que hay conocimiento que no tienen, o podrían estar desactualizados. Y hay un caso de uso específico que quiero mostrarte. Así que le pregunté a Claude quiénes van a ser los oradores del Node Congress 2025. Y como puedes ver en la respuesta, menciona que el conocimiento de ese modelo en esta fecha actual se cortó en octubre de 2024. Así que no sabe quiénes van a ser los oradores de esta conferencia. Y así que para el ejercicio de hoy, voy a ir y guiarte a través de cómo crear y mejorar este modelo con RAC para realmente responder a esta pregunta. Vamos a seguir un par de pasos. Y nuestro primer paso es datos. Así que hay muchas maneras en las que puedes encontrar datos para esta mejora de nuestros modelos con RAC. Y eso podría ser un PDF, podría ser un JSON, un archivo CSV, un crawler, un sitio de DocuSign, o una base de datos. En este caso, estoy usando un crawler para ir a toda la página web del Node Congress. Y solo estoy añadiendo algunos archivos markdown que más tarde tendré disponibles para que los lean. Así que este es un ejemplo de cómo se ve el markdown basado en el crawler que hice para esta página web.

El siguiente paso es la división. Así que los documentos grandes pueden ser abrumadores, y nuestro modelo de IA puede dificultar que encuentres información relevante a través de todos estos datos. Así que con la división, vamos a cortarlo y tal vez hacer más fácil buscar algo como en un libro. Así que puedes buscar información en un capítulo en lugar de leer todo el libro. Así que la división es una buena técnica que se usa para mejorar el rendimiento de recuperación. Y también, es muy buena para representar el contexto. Aquí, estoy usando una biblioteca llamada LimeChain, y estoy usando la función de divisor de texto de caracteres recursivos. Esto también es algo que necesitarás decidir según tu caso de uso.

3. Chunking, Embedding, and Vector Databases

Short description:

Para dividir información, podemos dividir por oraciones, párrafos o caracteres. Los solapamientos de fragmentos son cruciales para mantener el contexto. La incrustación transforma el texto en una lista de números, posicionando significados similares más cerca en un espacio de alta dimensión. OpenAI Ada es un modelo de incrustación utilizado para transformar fragmentos de datos. Las bases de datos vectoriales almacenan el contenido y los vectores correspondientes, permitiendo la recuperación a través de búsqueda de similitud.

Puedes dividir por oraciones, puedes dividir por párrafos, puedes dividir por caracteres y cuántas oraciones, cuántos párrafos y cuántos caracteres. Hay algunas cosas que serían muy específicas de tu caso de uso que realmente necesitarás probar y testear cuál funciona para ti. En este caso, estoy usando un tamaño de fragmento y caracteres de 15,000 y un solapamiento de fragmento de 150.

Los solapamientos de fragmento son cruciales y básicamente aseguran que no perdamos contexto en cada fragmento. Así que a medida que vamos a fragmentar toda esta información, es importante tener una pequeña vista previa de lo que sigue y también del siguiente capítulo o si estamos hablando de un ejemplo de libros. Así que los solapamientos son muy importantes de tener. Así que lo que estamos haciendo es básicamente pasar por cada una de esta información, caracteres, fragmentar ellos, y luego ahora que tenemos este fragmento de datos, ¿qué sigue? Vamos a pasar por algo llamado incrustación.

Así que la incrustación es una técnica que transforma datos, en este caso texto, para capturar el significado semántico de esto. Así que cada incrustación es esencialmente una lista de números, típicamente entre 700 y 1,000, y posiciona el texto en un espacio de alta dimensión donde significados similares están más cerca. Como mencioné, son 700 y 1,000 dimensiones. Si queremos hacerlo o verlo en un ejemplo muy básico, podemos mirar esta imagen de SuperBase. Así que esto es una dos dimensiones y cómo se va a mapear las cosas. Así que si tengo la oración, el gato persigue al ratón, es muy similar a la siguiente oración. Así que estarán cerca uno del otro. Pero otra oración que no tiene nada que ver con eso, estaría lejos. Y esto es solo en una dos dimensiones. Así que vamos a depender de modelos de incrustación para transformar estos fragmentos de datos y poner en un espacio dimensional para que más tarde podamos recuperar esa información basada en cuán cerca y semánticamente estos significados están.

Así que como mencioné, vamos a usar un modelo de incrustación. En este caso, estoy usando OpenAI Ada. Y voy a ir de cada uno de estos fragmentos y hacer una incrustación. Así que los fragmentos que hice para 15,000, estos se van a transformar en una incrustación. Y son básicamente vectores, un número representacional de dónde están en una dimensión. Y ahora que tengo estos datos, voy a necesitar un lugar para encontrarlos más tarde. Y aquí es donde entran en juego las bases de datos vectoriales. Necesitaré almacenar estos datos en este tipo especial de bases de datos, bases de datos vectoriales. Y se vería algo así. Recuerda, tengo mi contenido de 15,000 caracteres. Así que este es básicamente el contenido. Y en el otro lado, tengo todos los vectores que tienen el significado de ese contenido. Esto se va a usar para recuperar esta información más tarde con algo llamado búsqueda de similitud.

4. Data Retrieval and Semantic Search

Short description:

Para recuperar datos, hay diferentes tipos de recuperaciones: basadas en palabras clave o términos, semánticas e híbridas. Usaremos la recuperación semántica para este caso. El proceso implica transformar la consulta del usuario en una incrustación y realizar una búsqueda de similitud para encontrar información similar. Seguiremos instrucciones paso a paso, utilizando el mismo modelo para la incrustación y la recuperación.

Increíble. Así que tenemos nuestros datos. Los hemos dividido. Y los hemos almacenado. Ahora necesitamos recuperar esos datos. ¿Cómo vamos a encontrar esa información más tarde? Hay muchos tipos de recuperaciones que podemos usar. Esto puede ser basado en palabras clave o términos, que básicamente busca esa consulta exacta o palabra o frase. También hay semántica, que probablemente busca cosas similares basadas en el significado. Y hay híbrido. Así que, básicamente, es una combinación de los dos. Esto también es algo en lo que necesitarás confiar según tu caso de uso. En algunos lugares, podría ser genial usar uno u otro. Y esto es algo que podrías querer explorar según lo que te dé los mejores resultados para tu usuario, que es el objetivo.

En este caso, vamos a usar semántica. Y así, para recuperar, vamos a seguir estos pasos. Primero, necesitaremos la consulta del usuario. En este caso, necesitamos esa pregunta. Así que la pregunta es, ¿quiénes son los oradores? Así que esa sería nuestra consulta. Para hacer una búsqueda de similitud, necesitamos transformar esa consulta en una incrustación 2. Esa es la única manera en que podríamos encontrar algo similar a ella. Y esto encontraría cualquier cosa que sea similar y la devolvería. Así que paso a paso. Tenemos un endpoint API de búsqueda. Vamos a obtener la incrustación de la consulta, que es cualquier cosa que el usuario pregunte. Y luego encontraríamos cualquier cosa que coincida con esa incrustación en una búsqueda de similitud. Y finalmente, vamos a generar una respuesta.

Así que vamos paso a paso. De nuevo, estoy usando el mismo modelo que usé antes, para que realmente pueda tener sentido. No es una buena idea usar diferentes incrustaciones para diferentes para almacenar y para consultar. Así que estoy usando el mismo modelo.

5. Búsqueda de Similitud y Respuesta Humana

Short description:

Para recuperar los resultados de la búsqueda de similitud, utilizo la función match conference docs en super base. Establezco un umbral de 0.5 para la similitud y limito el número de resultados a ocho. Después de obtener los resultados, genero una respuesta legible por humanos utilizando el modelo Gemini. Al proporcionar el contexto y la consulta, el modelo produce información sobre los oradores en node Congress, incluyendo sus nombres, empresas y títulos de las charlas.

Ahora que tengo mi incrustación, haré una búsqueda de similitud. Esto va a utilizar una función llamada match conference docs en super base. Con la incrustación que he transformado. Y voy a obtener... Quiero un umbral de coincidencia de 0.5, que es básicamente 50% de similitud. Cualquier cosa que esté por encima del 50%, la quiero de vuelta. Pero solo dame ocho. Si tengo 10%, solo quiero ocho de vuelta. Y esto es algo que también, es algo que puedes cambiar. Esta no es la respuesta correcta para todos los casos de uso. Esta es la que uso para el mío. Así que esto podría ser 70%.

Esto podría ser cinco conteos. Depende de ti. Así que una vez que tengo esto, ¿qué sigue? Necesito generar. Recuerda que los modelos de lenguaje grande son buenos para generar lenguaje humano. Así que no puedo simplemente devolver los resultados. Necesito dar una respuesta humana. Así que en este caso, lo que estoy usando es un modelo Gemini, y voy a dar el contexto. El contexto va a ser todo lo que recupere de mi base de datos vectorial. Y la consulta.

Así que le estoy diciendo al modelo Gemini, necesito información sobre las siguientes preguntas respecto a node Congress, que es la consulta. Y aquí está la información que es relevante, que es el contexto. Y este modelo generará una respuesta legible por humanos. Así que veamos cómo funciona. Así que esta es la página web, y estoy preguntando quién está hablando en node Congress. Genial.

6. Enhancing Models with Agents

Short description:

Los agentes son una forma de mejorar los modelos al trabajar para lograr objetivos específicos. A diferencia de los sistemas simples de preguntas y respuestas, los agentes planifican su enfoque, utilizan herramientas y se adaptan cuando se enfrentan a obstáculos. Descomponen objetivos complejos en pasos lógicos, piensan paso a paso a través de los problemas, mantienen el contexto y utilizan funciones externas. Para implementar agentes, comenzamos definiendo funciones.

Así que si ves, estoy obteniendo el nombre, las empresas e incluso el título de la charla de la conferencia de estos oradores. Y esto es algo que hicimos más poderoso. Así que estamos confiando en un modelo, un modelo de lenguaje grande, y pudimos responder a esta pregunta porque proporcionamos esta respuesta. Podríamos proporcionar una respuesta al usuario y no alucinamos al crear información falsa.

Genial. ¿Y qué sigue? Hay muchas, hay otra forma en que definitivamente podríamos mejorar estos modelos. Y esto es a través de agentes. Pero, ¿qué es un agente? Y un agente es un sistema que no solo responde a indicaciones. Así que no es como lo hacíamos. Como mencioné, Cloud haciendo preguntas. Ellos realmente trabajan para lograr esos objetivos. Así que si un usuario tiene una pregunta, ese agente va a cumplir con el objetivo para el que fue creado. Así que piensa que es muy diferente de lo que hicimos en Cloud haciendo preguntas. Es muy similar a si has utilizado un asistente de codificación o cualquier planificación para un viaje o algo así. Así que te daría información, pero intentaría cumplir con una tarea. Y lo que los hace especiales es que planifican su enfoque, utilizan herramientas cuando es necesario, y se adaptan cuando se encuentran con un obstáculo. Así que en lugar de devolver una respuesta que no conocen, intentarían buscar y adaptarse y usar algo para cumplir con la misión o el objetivo.

Así que planificación. Los agentes descomponen objetivos complejos en pasos lógicos. Si pides un análisis competitivo de cinco empresas, un agente planificará cómo investigar cada una, qué aspectos comparar y cómo estructurar el informe final. Razonamiento. Aquí es donde entra en juego una cadena de pensamiento. Así que los agentes piensan paso a paso a través de los problemas, así como lo hacemos nosotros al resolver algo que es complejo paso a paso. Los agentes mantienen el contexto a través de las interacciones. Así que recuerdan lo que han aprendido y construyen sobre el trabajo previo. Esto es muy común en los asistentes de codificación. Y recuerda, herramientas. Las herramientas son una de las cosas más importantes, y esto es crucial porque pueden llamar a funciones externas como buscar en la web o consultar una base de datos o hacer cálculos. Así que esto básicamente extiende una capacidad que va más allá de los datos de entrenamiento del modelo.

Así que, ¿cómo se ve esto en código? Así que primero, vamos a definir funciones.

7. Using Tools and the React Pattern

Short description:

El agente utiliza herramientas para buscar información y tiene funciones disponibles para recuperar información de eventos y datos de hoteles. La misión del agente es ayudar a los usuarios con sus consultas de viaje. El patrón React se utiliza para el razonamiento, con el modelo analizando la solicitud del usuario y ejecutando funciones apropiadas. El agente recopila datos a través de observaciones y sintetiza una respuesta con contexto. Como planificador de viajes AI, el agente puede encontrar hoteles según los criterios especificados por el usuario.

Esta es básicamente las herramientas que el agente puede usar para buscar información. Así que vamos a hacer un viaje, un agente de planificación de viajes. Así que tengo estas funciones disponibles. El LLM puede que no esté entrenado con toda la lista de hoteles o eventos. Así que vamos a hacer algo para buscar esta información. Así que tengo estas funciones.

Una, recuperar información de eventos basada en la consulta, filtros de opción, o encontrar la API de hoteles. Así que estas son dos funciones que el agente tiene disponibles. Vamos a necesitar una misión. Así que aquí definimos cuál es la misión de este agente. ¿Cuál es el objetivo? Así que eres un asistente de planificación de viajes AI. Ayuda al usuario con su consulta de viaje. Así que esta es la misión que el agente necesita. Es muy importante definir eso.

A continuación, está el patrón React. Básicamente es el razonamiento. El modelo analiza la solicitud del usuario a través de la misión. Así que tengo una misión, pero también necesito que el modelo la analice. Tenemos la acción. ¿Cuál es el siguiente paso? El modelo llama a las funciones apropiadas si es necesario. Y luego ejecuta la función para obtener esos datos. Una vez que tengo eso, hago una observación, que es recopilar los datos de las llamadas a las funciones. Y luego finalmente, sintetizo en una respuesta con un contexto. Así que voy a depender de cuáles son los pasos que el agente necesita hacer. Y luego solo lo junto todo para dar una respuesta.

Veamos cómo funciona esto. Este es un planificador de viajes AI. Y estoy encontrando hoteles de Nueva York para el próximo mes. Así que esta es la información que tengo, pero también está pidiendo más contexto. ¿Cuáles son los días? ¿Cuál es el presupuesto? ¿Dónde te vas a quedar? ¿Cuáles son las prioridades? Así que esto definitivamente puede dar una respuesta más específica basada en las necesidades del usuario.

8. Implementing Agent Patterns and Enhancing LLMs

Short description:

El agente utiliza información de la API de hoteles y también puede buscar habitaciones disponibles según los requisitos de los huéspedes. Implementar los patrones y necesidades del agente ayuda a cumplir su misión y mejora los LLMs. No dudes en conectarte conmigo para cualquier pregunta o discusión adicional. Las demostraciones estarán disponibles con el código. ¡Gracias por unirte!

En este momento, ya se ha proporcionado información de los hoteles que está utilizando de la API de hoteles. Y también está pidiendo más información, para que pueda ir y buscar habitaciones disponibles según los huéspedes que se necesiten. Así es como funciona.

Tenemos estos patrones y tenemos estas necesidades para hacer que un agente funcione y cumpla la misión que tiene. Hay muchos casos de uso comunes, como mencionamos anteriormente. Y esta es una herramienta muy poderosa que también mejoraría nuestros LLMs.

Espero que encuentres esta charla increíble y que hayas aprendido mucho. Y por favor, conéctate conmigo si tienes alguna pregunta o si te gustaría preguntar más sobre ello. Estas demostraciones estarán disponibles con el código. Y sí. Muchas gracias por unirte.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Es una jungla ahí fuera: ¿Qué está pasando realmente dentro de tu carpeta Node_Modules?
Node Congress 2022Node Congress 2022
26 min
Es una jungla ahí fuera: ¿Qué está pasando realmente dentro de tu carpeta Node_Modules?
Top Content
The talk discusses the importance of supply chain security in the open source ecosystem, highlighting the risks of relying on open source code without proper code review. It explores the trend of supply chain attacks and the need for a new approach to detect and block malicious dependencies. The talk also introduces Socket, a tool that assesses the security of packages and provides automation and analysis to protect against malware and supply chain attacks. It emphasizes the need to prioritize security in software development and offers insights into potential solutions such as realms and Deno's command line flags.
Construyendo un Asistente AI Activado por Voz con Javascript
JSNation 2023JSNation 2023
21 min
Construyendo un Asistente AI Activado por Voz con Javascript
Top Content
This Talk discusses building a voice-activated AI assistant using web APIs and JavaScript. It covers using the Web Speech API for speech recognition and the speech synthesis API for text to speech. The speaker demonstrates how to communicate with the Open AI API and handle the response. The Talk also explores enabling speech recognition and addressing the user. The speaker concludes by mentioning the possibility of creating a product out of the project and using Tauri for native desktop-like experiences.
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
JSNation US 2024JSNation US 2024
31 min
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
Top Content
AI is transforming software engineering by using agents to help with coding. Agents can autonomously complete tasks and make decisions based on data. Collaborative AI and automation are opening new possibilities in code generation. Bolt is a powerful tool for troubleshooting, bug fixing, and authentication. Code generation tools like Copilot and Cursor provide support for selecting models and codebase awareness. Cline is a useful extension for website inspection and testing. Guidelines for coding with agents include defining requirements, choosing the right model, and frequent testing. Clear and concise instructions are crucial in AI-generated code. Experienced engineers are still necessary in understanding architecture and problem-solving. Energy consumption insights and sustainability are discussed in the Talk.
IA y Desarrollo Web: ¿Exageración o Realidad?
JSNation 2023JSNation 2023
24 min
IA y Desarrollo Web: ¿Exageración o Realidad?
Top Content
This talk explores the use of AI in web development, including tools like GitHub Copilot and Fig for CLI commands. AI can generate boilerplate code, provide context-aware solutions, and generate dummy data. It can also assist with CSS selectors and regexes, and be integrated into applications. AI is used to enhance the podcast experience by transcribing episodes and providing JSON data. The talk also discusses formatting AI output, crafting requests, and analyzing embeddings for similarity.
El Ascenso del Ingeniero de IA
React Summit US 2023React Summit US 2023
30 min
El Ascenso del Ingeniero de IA
Top Content
The rise of AI engineers is driven by the demand for AI and the emergence of ML research and engineering organizations. Start-ups are leveraging AI through APIs, resulting in a time-to-market advantage. The future of AI engineering holds promising results, with a focus on AI UX and the role of AI agents. Equity in AI and the central problems of AI engineering require collective efforts to address. The day-to-day life of an AI engineer involves working on products or infrastructure and dealing with specialties and tools specific to the field.
Cargadores ESM: Mejorando la carga de módulos en Node.js
JSNation 2023JSNation 2023
22 min
Cargadores ESM: Mejorando la carga de módulos en Node.js
Top Content
ESM Loaders enhance module loading in Node.js by resolving URLs and reading files from the disk. Module loaders can override modules and change how they are found. Enhancing the loading phase involves loading directly from HTTP and loading TypeScript code without building it. The loader in the module URL handles URL resolution and uses fetch to fetch the source code. Loaders can be chained together to load from different sources, transform source code, and resolve URLs differently. The future of module loading enhancements is promising and simple to use.

Workshops on related topic

IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.
AI para Desarrolladores de React
React Advanced 2024React Advanced 2024
142 min
AI para Desarrolladores de React
Top Content
Featured Workshop
Eve Porcello
Eve Porcello
El conocimiento de las herramientas de AI es fundamental para preparar el futuro de las carreras de los desarrolladores de React, y la suite de herramientas de AI de Vercel es una vía de acceso accesible. En este curso, examinaremos más de cerca el Vercel AI SDK y cómo esto puede ayudar a los desarrolladores de React a construir interfaces de transmisión con JavaScript y Next.js. También incorporaremos APIs de terceros adicionales para construir y desplegar una aplicación de visualización de música.
Temas:- Creación de un Proyecto de React con Next.js- Elección de un LLM- Personalización de Interfaces de Transmisión- Construcción de Rutas- Creación y Generación de Componentes - Uso de Hooks (useChat, useCompletion, useActions, etc)
Building Full Stack Apps With Cursor
JSNation 2025JSNation 2025
46 min
Building Full Stack Apps With Cursor
Featured Workshop
Mike Mikula
Mike Mikula
En esta masterclass cubriré un proceso repetible sobre cómo iniciar aplicaciones full stack en Cursor. Espere comprender técnicas como el uso de GPT para crear requisitos de producto, esquemas de base de datos, hojas de ruta y usarlos en notas para generar listas de verificación que guíen el desarrollo de aplicaciones. Profundizaremos más en cómo solucionar alucinaciones/errores que ocurren, indicaciones útiles para hacer que su aplicación se vea y se sienta moderna, enfoques para conectar cada capa y más. Al final, ¡espere poder ejecutar su propia aplicación full stack generada por IA en su máquina!
Por favor, encuentre las preguntas frecuentes aquí
How to 9,2x Your Development Speed with Cline
JSNation 2025JSNation 2025
64 min
How to 9,2x Your Development Speed with Cline
Featured Workshop
Nik Pash
Nik Pash
La forma en que escribimos código está cambiando fundamentalmente. En lugar de quedar atrapado en bucles anidados y detalles de implementación, imagine enfocarse puramente en la arquitectura y la resolución creativa de problemas mientras su programador de pares de IA maneja la ejecución. En esta masterclass práctica, te mostraré cómo aprovechar Cline (un agente de codificación autónomo que recientemente alcanzó 1M de descargas en VS Code) para acelerar drásticamente tu flujo de trabajo de desarrollo a través de una práctica que llamamos "vibe coding" - donde los humanos se enfocan en el pensamiento de alto nivel y la IA maneja la implementación.Descubrirás:Los principios fundamentales del "vibe coding" y cómo se diferencia del desarrollo tradicionalCómo diseñar soluciones a un alto nivel y hacer que la IA las implemente con precisiónDemostración en vivo: Construcción de un sistema de almacenamiento en caché de grado de producción en Go que nos ahorró $500/semanaTécnicas para usar IA para entender bases de código complejas en minutos en lugar de horasMejores prácticas para solicitar a los agentes de IA que obtengan exactamente el código que deseasErrores comunes a evitar al trabajar con asistentes de codificación de IAEstrategias para usar IA para acelerar el aprendizaje y reducir la dependencia de ingenieros seniorCómo combinar efectivamente la creatividad humana con las capacidades de implementación de IAYa sea que seas un desarrollador junior que busca acelerar tu aprendizaje o un ingeniero senior que desea optimizar tu flujo de trabajo, saldrás de esta masterclass con experiencia práctica en desarrollo asistido por IA que puedes aplicar inmediatamente a tus proyectos. A través de demostraciones de codificación en vivo y ejercicios prácticos, aprenderás cómo aprovechar Cline para escribir mejor código más rápido mientras te enfocas en lo que importa: resolver problemas reales.
Webinar gratuito: Construyendo aplicaciones Full Stack con Cursor
Productivity Conf for Devs and Tech LeadersProductivity Conf for Devs and Tech Leaders
71 min
Webinar gratuito: Construyendo aplicaciones Full Stack con Cursor
Top Content
WorkshopFree
Mike Mikula
Mike Mikula
Para asistir al webinar, por favor regístrate aquí.En este webinar cubriré un proceso repetible sobre cómo iniciar aplicaciones Full Stack en Cursor. Espera entender técnicas como usar GPT para crear requisitos de producto, esquemas de base de datos, hojas de ruta y usar esos en notas para generar listas de verificación que guíen el desarrollo de la aplicación. Profundizaremos más en cómo corregir alucinaciones/errores que ocurren, indicaciones útiles para hacer que tu aplicación se vea y se sienta moderna, enfoques para conectar cada capa y más. Al final, ¡espera poder ejecutar tu propia aplicación Full Stack generada por IA en tu máquina!
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
React Advanced 2023React Advanced 2023
98 min
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
Top Content
Workshop
Richard Moss
Richard Moss
En esta masterclass daremos un recorrido por la IA aplicada desde la perspectiva de los desarrolladores de front end, enfocándonos en las mejores prácticas emergentes cuando se trata de trabajar con LLMs para construir grandes productos. Esta masterclass se basa en los aprendizajes obtenidos al trabajar con la API de OpenAI desde su debut en noviembre pasado para construir un MVP funcional que se convirtió en PowerModeAI (una herramienta de creación de ideas y presentaciones orientada al cliente).
En la masterclass habrá una mezcla de presentación y ejercicios prácticos para cubrir temas que incluyen:
- Fundamentos de GPT- Trampas de los LLMs- Mejores prácticas y técnicas de ingeniería de prompts- Uso efectivo del playground- Instalación y configuración del SDK de OpenAI- Enfoques para trabajar con la API y la gestión de prompts- Implementación de la API para construir una aplicación orientada al cliente potenciada por IA- Ajuste fino y embeddings- Mejores prácticas emergentes en LLMOps