Construyendo tu Aplicación de IA Generativa

Rate this content
Bookmark

La IA generativa está emocionando a los entusiastas de la tecnología y a las empresas con su vasto potencial. En esta sesión, presentaremos Retrieval Augmented Generation (RAG), un marco que proporciona contexto a los Modelos de Lenguaje Grande (LLMs) sin necesidad de volver a entrenarlos. Te guiaremos paso a paso en la construcción de tu propia aplicación RAG, culminando en un chatbot completamente funcional.


Conceptos Clave: IA Generativa, Retrieval Augmented Generation


Tecnologías: OpenAI, LangChain, AstraDB Vector Store, Streamlit, Langflow

This workshop has been presented at React Summit 2024, check out the latest edition of this React Conference.

Dieter Flick
Dieter Flick
82 min
06 Jun, 2024

Comments

Sign in or register to post your comment.

Video Summary and Transcription

Bienvenido a esta masterclass en línea donde construiremos nuestro propio chatbot con IA generativa. Datastacks proporciona tecnologías para implementar aplicaciones de IA generativa, incluyendo AstraDB como un vector store para generación aumentada de recuperación. El repositorio build-your-own-Rack chatbot contiene iteraciones de aplicaciones, cada una agregando funcionalidades adicionales para crear un chatbot completamente funcional con capacidades de streaming. Implementar la primera aplicación con Streamlit implica dibujar una interfaz de usuario e integrarla con los modelos de chat de OpenAI. Despliega la aplicación del chatbot de la masterclass en Streamlit y utiliza Langflow para implementar aplicaciones generativas sin programación.

1. Introducción al Masterclass

Short description:

Bienvenido a este masterclass en línea donde construiremos nuestro propio chatbot con IA generativa. La agenda incluye una introducción a la IA generativa, generación aumentada por recuperación y un taller práctico para implementar nuestra propia aplicación de chatbot. También hay una descripción general de Langflow, un entorno sin código para aplicaciones de IA generativa.

¡Hola, bienvenido a este masterclass en línea! Hoy vamos a construir nuestro propio chatbot con IA generativa. Así que es un masterclass práctico que haremos juntos. Siéntete libre de encender tu cámara si quieres. Intentemos que esto sea lo más interactivo posible.

Soy Dieter. Soy un ingeniero de soluciones. Trabajo para DATAstacks. Y trabajo con las tecnologías que tenemos en DATAstacks. Y las presentaré en un momento.

La agenda para hoy es la siguiente. Primero, algunas diapositivas para introducirte al panorama general de la IA generativa. Luego me gustaría presentar la generación aumentada por recuperación y qué es, qué se puede hacer con ella, para qué es buena. Y la parte principal de todo esto, por supuesto, son solo algunas diapositivas, es un taller práctico. Vamos a implementar nuestra propia aplicación de chatbot. Y espero que al final de este masterclass, cada uno de ustedes esté orgulloso de haber implementado nuestro propio chatbot funcional que puedan mostrar y experimentar. Como pueden ver, hay un punto adicional en la agenda. Hoy se trata de programar. Se trata de programar nuestra aplicación de chatbot. Pero hay otras formas de implementar aplicaciones de IA generativa. Y hoy también me gustaría presentarles Langflow, un proyecto de código abierto, un entorno sin código que permite implementar aplicaciones de IA generativa sin una sola línea de code. Pero eso será al final. Y primero, algunas diapositivas.

2. Datastacks y Generación Aumentada por Recuperación

Short description:

Datastacks proporciona tecnologías para implementar aplicaciones de IA generativa, incluyendo AstraDB como un almacén de vectores para la generación aumentada por recuperación. La IA generativa aprovecha modelos de lenguaje grandes, pero es posible que no tengan nuestros datos privados, por lo que podemos utilizar el ajuste fino o la generación aumentada por recuperación con un almacén de vectores. La búsqueda de vectores nos permite encontrar un contexto similar a un vector de consulta para responder preguntas.

Y luego hacemos un poco de trabajo juntos, un poco de programación. Así que unas palabras sobre Datastacks. Datastacks es una empresa de IA en tiempo real. Proporcionamos tecnologías que permiten a los desarrolladores implementar sus aplicaciones generativas de IA. ¿Data es igual a IA, verdad?

Y así, en el núcleo de Datastacks, tenemos tecnologías de gestión de datos, como nuestra base de datos en la nube llamada AstraDB. Y hoy vamos a aprovechar AstraDB como nuestro almacén de vectores. Entonces, ¿qué es un almacén de vectores? Explicaré todo esto. Y si algo no está claro, por favor avísame.

Así que AstraDB, lo usamos como un almacén de vectores para implementar nuestras capacidades de rack, es decir, la generación aumentada por recuperación, y esto es lo que quieres usar tan pronto como implementes el chatbot que funciona con tus datos privados. También discutiremos algunas bibliotecas y frameworks dentro de nuestro trabajo práctico. Así que pasemos a la siguiente diapositiva. Así que establezcamos los fundamentos.

Esto se trata de la inteligencia artificial, por lo que un subdominio de la inteligencia artificial es la IA generativa. Y la IA generativa se ha vuelto muy famosa en los últimos meses porque todos la usamos a diario para generar contenido, como texto, audio y video. Y aprovechamos dentro del subdominio de la inteligencia artificial dentro de la IA generativa grandes modelos de lenguaje. No hay mucho que decir sobre los grandes modelos de lenguaje. Creo que todos nosotros ya hemos tenido contacto con ellos y hemos trabajado con un gran modelo de lenguaje. Pero hay un punto que me gustaría destacar un poco.

El gran modelo de lenguaje fue entrenado con grandes cantidades de datos, datos que están disponibles públicamente. Pero no fue entrenado con nuestros datos privados, eso seguro, ¿verdad? Y por eso el LLM alucinaría si lo usamos directamente sin proporcionar algún contexto adicional sobre el contexto en el que nos encontramos, sobre los productos, sobre los servicios, ¿verdad? Y por eso hoy implementamos este chatbot RAC, para que el LLM, que puede estar desactualizado, fue entrenado hace meses. Y no tiene nuestros datos privados. Y alucinará si le preguntamos algo y realmente no tiene los datos para generar una respuesta precisa. Y podría ser inseguro si lo usamos como un servicio. Así que no hay IA sin datos. Y hay formas de proporcionar al LLM nuestro contexto. Y las dos formas que me gustaría explicar son el ajuste fino y la generación aumentada por recuperación.

Una opción es ajustar finamente el gran modelo de lenguaje con nuestro propio contexto. Esto requiere un poco de entrenamiento. Y lleva un tiempo hasta que el gran modelo de lenguaje esté entrenado con nuestro contexto. Y después de eso, el LLM está listo para responder preguntas basadas en nuestro contexto privado. Pero tendríamos que hacerlo cada vez que este contexto privado se actualice o cambie. La otra opción disponible es la generación aumentada por recuperación. Y esto funciona con un almacén de vectores. Así que vectorizamos nuestro contexto y gestionamos los vectores. Y gestionamos nuestro contexto en un almacén de vectores y recuperamos de ese almacén de vectores. Así que podemos tener millones de documentos allí. Recuperamos de todos estos documentos y de todo ese contexto el contexto que se requiere para responder nuestra pregunta. ¿Cómo funciona? Lo aprenderás. Y lo harás en la práctica en un segundo.

Entonces, ¿qué es la búsqueda de vectores? Como puedes ver aquí en ese gráfico, todos aprendimos eso en la escuela. Y principalmente espacios vectoriales bidimensionales y tridimensionales. También lo usamos en el mundo de la IA generativa y en ese mundo de la búsqueda de vectores. Y como puedes ver en el gráfico, tenemos objetos como un pantalón y una falda. Y están más cerca uno del otro. En ese mundo de búsqueda de vectores, eso significa que ambos objetos son más similares entre sí que el pantalón lo es con la camiseta. Así es como funciona la búsqueda de vectores. Y por lo tanto, un almacén de vectores tiene algoritmos implementados para encontrar los vectores que son similares al vector de consulta. Y vamos a aprovechar eso para encontrar el contexto adecuado que nuestro chatbot necesita para responder una pregunta. Así se ve en el lado izquierdo. Hay un fragmento de texto.

Watch more workshops on topic

IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
JSNation 2024JSNation 2024
108 min
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
Featured Workshop
Roy Derks
Shivay Lamba
2 authors
Hoy en día, todos los desarrolladores están utilizando LLMs en diferentes formas y variantes, desde ChatGPT hasta asistentes de código como GitHub CoPilot. Siguiendo esto, muchos productos han introducido capacidades de IA integradas, y en este masterclass haremos que los LLMs sean comprensibles para los desarrolladores web. Y nos adentraremos en la codificación de tu propia aplicación impulsada por IA. No se necesita experiencia previa en trabajar con LLMs o aprendizaje automático. En su lugar, utilizaremos tecnologías web como JavaScript, React que ya conoces y amas, al mismo tiempo que aprendemos sobre algunas nuevas bibliotecas como OpenAI, Transformers.js
Masterclass: Qué son y cómo aprovechar los LLMs
React Summit 2024React Summit 2024
66 min
Masterclass: Qué son y cómo aprovechar los LLMs
Featured Workshop
Nathan Marrs
Haris Rozajac
2 authors
Únete a Nathan en esta sesión práctica donde primero aprenderás a alto nivel qué son los modelos de lenguaje grandes (LLMs) y cómo funcionan. Luego sumérgete en un ejercicio de codificación interactivo donde implementarás la funcionalidad de LLM en una aplicación de ejemplo básica. Durante este ejercicio, adquirirás habilidades clave para trabajar con LLMs en tus propias aplicaciones, como la ingeniería de indicaciones y la exposición a la API de OpenAI.
Después de esta sesión, tendrás una idea de qué son los LLMs y cómo se pueden utilizar prácticamente para mejorar tus propias aplicaciones.
Tabla de contenidos:- Demostración interactiva de la implementación de funciones básicas impulsadas por LLM en una aplicación de demostración- Discutir cómo decidir dónde aprovechar los LLMs en un producto- Lecciones aprendidas sobre la integración con OpenAI / descripción general de la API de OpenAI- Mejores prácticas para la ingeniería de indicaciones- Desafíos comunes específicos de React (gestión de estado :D / buenas prácticas de UX)
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
React Advanced Conference 2023React Advanced Conference 2023
98 min
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
Top Content
Workshop
Richard Moss
Richard Moss
En esta masterclass daremos un recorrido por la IA aplicada desde la perspectiva de los desarrolladores de front end, enfocándonos en las mejores prácticas emergentes cuando se trata de trabajar con LLMs para construir grandes productos. Esta masterclass se basa en los aprendizajes obtenidos al trabajar con la API de OpenAI desde su debut en noviembre pasado para construir un MVP funcional que se convirtió en PowerModeAI (una herramienta de creación de ideas y presentaciones orientada al cliente).
En la masterclass habrá una mezcla de presentación y ejercicios prácticos para cubrir temas que incluyen:
- Fundamentos de GPT- Trampas de los LLMs- Mejores prácticas y técnicas de ingeniería de prompts- Uso efectivo del playground- Instalación y configuración del SDK de OpenAI- Enfoques para trabajar con la API y la gestión de prompts- Implementación de la API para construir una aplicación orientada al cliente potenciada por IA- Ajuste fino y embeddings- Mejores prácticas emergentes en LLMOps
Construyendo Aplicaciones AI para la Web
React Day Berlin 2023React Day Berlin 2023
98 min
Construyendo Aplicaciones AI para la Web
Workshop
Roy Derks
Roy Derks
Hoy en día, cada desarrollador está utilizando LLMs en diferentes formas y figuras. Muchos productos han introducido capacidades AI incorporadas, y en esta masterclass aprenderás cómo construir tu propia aplicación AI. No se necesita experiencia en la construcción de LLMs o en el aprendizaje automático. En cambio, utilizaremos tecnologías web como JavaScript, React y GraphQL que ya conoces y amas.
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
C3 Dev Festival 2024C3 Dev Festival 2024
48 min
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
WorkshopFree
Andreia Ocanoaia
Andreia Ocanoaia
Sientes las limitaciones de los LLMs? Pueden ser creativos, pero a veces carecen de precisión o se basan en información desactualizada. En esta masterclass, desglosaremos el proceso de construir y desplegar fácilmente un sistema de Generación con Recuperación Mejorada. Este enfoque te permite aprovechar el poder de los LLMs con el beneficio adicional de precisión factual e información actualizada.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Construyendo un Asistente AI Activado por Voz con Javascript
JSNation 2023JSNation 2023
21 min
Construyendo un Asistente AI Activado por Voz con Javascript
Top Content
This Talk discusses building a voice-activated AI assistant using web APIs and JavaScript. It covers using the Web Speech API for speech recognition and the speech synthesis API for text to speech. The speaker demonstrates how to communicate with the Open AI API and handle the response. The Talk also explores enabling speech recognition and addressing the user. The speaker concludes by mentioning the possibility of creating a product out of the project and using Tauri for native desktop-like experiences.
IA y Desarrollo Web: ¿Exageración o Realidad?
JSNation 2023JSNation 2023
24 min
IA y Desarrollo Web: ¿Exageración o Realidad?
Top Content
This talk explores the use of AI in web development, including tools like GitHub Copilot and Fig for CLI commands. AI can generate boilerplate code, provide context-aware solutions, and generate dummy data. It can also assist with CSS selectors and regexes, and be integrated into applications. AI is used to enhance the podcast experience by transcribing episodes and providing JSON data. The talk also discusses formatting AI output, crafting requests, and analyzing embeddings for similarity.
El Ascenso del Ingeniero de IA
React Summit US 2023React Summit US 2023
30 min
El Ascenso del Ingeniero de IA
The rise of AI engineers is driven by the demand for AI and the emergence of ML research and engineering organizations. Start-ups are leveraging AI through APIs, resulting in a time-to-market advantage. The future of AI engineering holds promising results, with a focus on AI UX and the role of AI agents. Equity in AI and the central problems of AI engineering require collective efforts to address. The day-to-day life of an AI engineer involves working on products or infrastructure and dealing with specialties and tools specific to the field.
Aplicaciones Web del Futuro con Web AI
JSNation 2024JSNation 2024
32 min
Aplicaciones Web del Futuro con Web AI
Web AI in JavaScript allows for running machine learning models client-side in a web browser, offering advantages such as privacy, offline capabilities, low latency, and cost savings. Various AI models can be used for tasks like background blur, text toxicity detection, 3D data extraction, face mesh recognition, hand tracking, pose detection, and body segmentation. JavaScript libraries like MediaPipe LLM inference API and Visual Blocks facilitate the use of AI models. Web AI is in its early stages but has the potential to revolutionize web experiences and improve accessibility.
Construyendo la IA para Athena Crisis
JS GameDev Summit 2023JS GameDev Summit 2023
37 min
Construyendo la IA para Athena Crisis
Join Christoph from Nakazawa Tech in building the AI for Athena Crisis, a game where the AI performs actions just like a player. Learn about the importance of abstractions, primitives, and search algorithms in building an AI for a video game. Explore the architecture of Athena Crisis, which uses immutable persistent data structures and optimistic updates. Discover how to implement AI behaviors and create a class for the AI. Find out how to analyze units, assign weights, and prioritize actions based on the game state. Consider the next steps in building the AI and explore the possibility of building an AI for a real-time strategy game.
Cobertura de código con IA
TestJS Summit 2023TestJS Summit 2023
8 min
Cobertura de código con IA
Codium is a generative AI assistant for software development that offers code explanation, test generation, and collaboration features. It can generate tests for a GraphQL API in VS Code, improve code coverage, and even document tests. Codium allows analyzing specific code lines, generating tests based on existing ones, and answering code-related questions. It can also provide suggestions for code improvement, help with code refactoring, and assist with writing commit messages.