¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos

Rate this content
Bookmark
Github

Sientes las limitaciones de los LLMs? Pueden ser creativos, pero a veces carecen de precisión o se basan en información desactualizada. En esta masterclass, desglosaremos el proceso de construir y desplegar fácilmente un sistema de Generación con Recuperación Mejorada. Este enfoque te permite aprovechar el poder de los LLMs con el beneficio adicional de precisión factual e información actualizada.

This workshop has been presented at C3 Dev Festival 2024, check out the latest edition of this Tech Conference.

Andreia Ocanoaia
Andreia Ocanoaia
48 min
12 Jun, 2024

Comments

Sign in or register to post your comment.
Video Summary and Transcription
La masterclass de hoy presentó el concepto de los LLMs y su potencial para liberar tiempo para los ingenieros de software. Se discutió cómo configurar los LLMs para chatear con datos propietarios, utilizando la generación con recuperación mejorada para pequeñas conversaciones y construyendo una aplicación de recomendación de oradores utilizando este enfoque. La masterclass también abordó las preocupaciones sobre el manejo de datos en OpenAI y exploró el proceso de dividir y almacenar datos en una base de datos vectorial. Concluyó con el despliegue de una aplicación de extremo a extremo utilizando Genesio e invitó a los asistentes a proporcionar comentarios y mantenerse en contacto.

1. Introducción a LLMs y IA Generativa

Short description:

Hoy vamos a hablar sobre LLMs y cómo pueden liberar tiempo para que los ingenieros de software se centren en el desarrollo de productos y arquitecturas robustas.

Bueno, hola a todos. Soy Andrea. Trabajo en Genesio y estoy muy feliz de estar aquí y emocionada de hablar sobre LLMs y IA generativa porque es un tema bastante interesante en este momento.

Hoy vamos a hablar sobre LLMs y estoy bastante seguro de que también están emocionados acerca del tema porque están aquí en el masterclass donde pueden aprender cómo integrar LLMs, OpenAI y modelos de IA en general en sus propias aplicaciones.

En realidad, estoy muy apasionada por este tema porque OpenAI nos está dando a nosotros, y los LLMs en general, nos están dando el regalo del tiempo. Así que voy a ser honesta, he tenido varias conversaciones con ChatGPT hasta ahora y me ha ahorrado bastante tiempo con la depuración y la escritura de código. Y ahora puedo enfocarme más en aprender, en diseñar arquitecturas, en cosas que ChatGPT no puede hacer pero yo sí puedo y tengo más tiempo para hacerlo. Así que en realidad estoy muy emocionada por este tema porque quiero ver los LLMs y los modelos de IA más integrados en nuestro trabajo como ingenieros de software para poder liberar nuestro tiempo para pensar en productos y en arquitecturas robustas, entre otras cosas.

2. Configuración de LLMs para chatear con datos propietarios

Short description:

Hoy les mostraré cómo configurar un LLM, como OpenAI, para chatear con sus propios datos. Un desafío es que si tienen datos propietarios, el modelo no sabrá cómo responder. Para superar esto, podemos proporcionar los datos propietarios y el contexto al modelo. Hay diferentes enfoques, incluyendo el ajuste fino del modelo con datos propietarios, pero esto es costoso y requiere experiencia. Otro enfoque es incluir todos los datos propietarios en la propia solicitud.

Dicho esto y teniendo eso en cuenta, lo que quiero mostrarles hoy es cómo pueden configurar un LLM, como OpenAI, para chatear con sus propios datos.

Entonces, bien. Hasta ahora, cómo nos comunicamos con modelos LLM como OpenAI o LLAMA o cualquier otro modelo, simplemente hacemos algunas preguntas, tenemos un usuario, él tiene una pregunta y el modelo nos responderá. Pero el problema aquí es que si tenemos algunos datos propietarios, el modelo, desafortunadamente, no está entrenado con esos datos y no sabrá cómo responder a su pregunta.

Vi un ejemplo muy claro de esto estos días. Por ejemplo, si quieres preguntar sobre algunas políticas de tu empresa, por ejemplo, los días de vacaciones que tienes, no puedes preguntarle a un modelo. Tienes que ir a las directrices internas y políticas de tu empresa o a RRHH y tienes que preguntarle a una persona y tienes que invertir tiempo en todo este proceso de ida y vuelta. Entonces, lo que realmente podemos hacer es encontrar una manera de proporcionar los datos propietarios y dar un contexto al modelo para ayudarnos a hacer este tipo de preguntas.

Ahora hay algunos enfoques que podemos tomar. En primer lugar, quiero enfatizar cuando digo datos propietarios, algunos de ustedes probablemente piensen directamente en preocupaciones de privacidad. Entonces hay dos cosas que pueden hacer aquí. Si les preocupa la privacidad de sus datos, pueden usar un modelo que alojen ustedes mismos. Por ejemplo, pueden obtener modelos Lama tres que son de código abierto. Pueden alojarlos en cualquier proveedor de nube y así se aseguran de que sus datos nunca salgan de este entorno y esta arquitectura. Así tienen un control total y total privacidad para este masterclass. Yo uso Open AI solo por conveniencia porque ya es público. Ya está ahí y no tengo que invertir tiempo en configurarlo. Pero tengan en cuenta que si quieren total privacidad, pueden alojar su propio modelo. Pero no todos los datos propietarios son también datos sensibles. Así que en realidad podemos tener una documentación pública para un proyecto de código abierto y cosas como esa, que simplemente podemos proporcionar a un modelo de terceros. Así que no tienen que preocuparse por eso todo el tiempo.

Volviendo a la presentación y al enfoque en sí, lo primero que se me ocurre es que podemos ajustar finamente el modelo con los datos propietarios. Pero desafortunadamente, aunque esto es lo mejor que podemos hacer, porque entonces el modelo conocerá nativamente las cosas sobre los datos, esto es muy costoso y requiere experiencia en aprendizaje automático. Ajustar finamente es realmente un arte y tienes que saber cómo hacerlo para hacerlo correctamente. Y también tienes que tener muchos datos propietarios porque de lo contrario, si no tienes muchos datos sobre el tema, realmente no marcará la diferencia en el modelo en sí porque el modelo es enorme. Conoce muchos datos. Entonces, si solo agrego algunas oraciones sobre un tema en particular, se perderán en todos los datos que ya están allí. Entonces, para este tipo de aplicación, el ajuste fino puede que no sea realmente una solución. Así que podemos seguir y hacer el enfoque ingenuo y poner todos los datos propietarios en la propia solicitud. Así que antes de hacer una pregunta, podemos decirle al modelo, aquí están todos los datos de mi empresa, todas las directrices o todas las políticas.

QnA

Watch more workshops on topic

IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.
AI para Desarrolladores de React
React Advanced 2024React Advanced 2024
142 min
AI para Desarrolladores de React
Featured Workshop
Eve Porcello
Eve Porcello
El conocimiento de las herramientas de AI es fundamental para preparar el futuro de las carreras de los desarrolladores de React, y la suite de herramientas de AI de Vercel es una vía de acceso accesible. En este curso, examinaremos más de cerca el Vercel AI SDK y cómo esto puede ayudar a los desarrolladores de React a construir interfaces de transmisión con JavaScript y Next.js. También incorporaremos APIs de terceros adicionales para construir y desplegar una aplicación de visualización de música.
Temas:- Creación de un Proyecto de React con Next.js- Elección de un LLM- Personalización de Interfaces de Transmisión- Construcción de Rutas- Creación y Generación de Componentes - Uso de Hooks (useChat, useCompletion, useActions, etc)
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
JSNation 2024JSNation 2024
108 min
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
Featured Workshop
Roy Derks
Shivay Lamba
2 authors
Hoy en día, todos los desarrolladores están utilizando LLMs en diferentes formas y variantes, desde ChatGPT hasta asistentes de código como GitHub CoPilot. Siguiendo esto, muchos productos han introducido capacidades de IA integradas, y en este masterclass haremos que los LLMs sean comprensibles para los desarrolladores web. Y nos adentraremos en la codificación de tu propia aplicación impulsada por IA. No se necesita experiencia previa en trabajar con LLMs o aprendizaje automático. En su lugar, utilizaremos tecnologías web como JavaScript, React que ya conoces y amas, al mismo tiempo que aprendemos sobre algunas nuevas bibliotecas como OpenAI, Transformers.js
Masterclass: Qué son y cómo aprovechar los LLMs
React Summit 2024React Summit 2024
66 min
Masterclass: Qué son y cómo aprovechar los LLMs
Featured Workshop
Nathan Marrs
Haris Rozajac
2 authors
Únete a Nathan en esta sesión práctica donde primero aprenderás a alto nivel qué son los modelos de lenguaje grandes (LLMs) y cómo funcionan. Luego sumérgete en un ejercicio de codificación interactivo donde implementarás la funcionalidad de LLM en una aplicación de ejemplo básica. Durante este ejercicio, adquirirás habilidades clave para trabajar con LLMs en tus propias aplicaciones, como la ingeniería de indicaciones y la exposición a la API de OpenAI.
Después de esta sesión, tendrás una idea de qué son los LLMs y cómo se pueden utilizar prácticamente para mejorar tus propias aplicaciones.
Tabla de contenidos:- Demostración interactiva de la implementación de funciones básicas impulsadas por LLM en una aplicación de demostración- Discutir cómo decidir dónde aprovechar los LLMs en un producto- Lecciones aprendidas sobre la integración con OpenAI / descripción general de la API de OpenAI- Mejores prácticas para la ingeniería de indicaciones- Desafíos comunes específicos de React (gestión de estado :D / buenas prácticas de UX)
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
React Advanced 2023React Advanced 2023
98 min
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
Top Content
Workshop
Richard Moss
Richard Moss
En esta masterclass daremos un recorrido por la IA aplicada desde la perspectiva de los desarrolladores de front end, enfocándonos en las mejores prácticas emergentes cuando se trata de trabajar con LLMs para construir grandes productos. Esta masterclass se basa en los aprendizajes obtenidos al trabajar con la API de OpenAI desde su debut en noviembre pasado para construir un MVP funcional que se convirtió en PowerModeAI (una herramienta de creación de ideas y presentaciones orientada al cliente).
En la masterclass habrá una mezcla de presentación y ejercicios prácticos para cubrir temas que incluyen:
- Fundamentos de GPT- Trampas de los LLMs- Mejores prácticas y técnicas de ingeniería de prompts- Uso efectivo del playground- Instalación y configuración del SDK de OpenAI- Enfoques para trabajar con la API y la gestión de prompts- Implementación de la API para construir una aplicación orientada al cliente potenciada por IA- Ajuste fino y embeddings- Mejores prácticas emergentes en LLMOps
Construyendo Aplicaciones AI para la Web
React Day Berlin 2023React Day Berlin 2023
98 min
Construyendo Aplicaciones AI para la Web
Workshop
Roy Derks
Roy Derks
Hoy en día, cada desarrollador está utilizando LLMs en diferentes formas y figuras. Muchos productos han introducido capacidades AI incorporadas, y en esta masterclass aprenderás cómo construir tu propia aplicación AI. No se necesita experiencia en la construcción de LLMs o en el aprendizaje automático. En cambio, utilizaremos tecnologías web como JavaScript, React y GraphQL que ya conoces y amas.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Construyendo un Asistente AI Activado por Voz con Javascript
JSNation 2023JSNation 2023
21 min
Construyendo un Asistente AI Activado por Voz con Javascript
Top Content
This Talk discusses building a voice-activated AI assistant using web APIs and JavaScript. It covers using the Web Speech API for speech recognition and the speech synthesis API for text to speech. The speaker demonstrates how to communicate with the Open AI API and handle the response. The Talk also explores enabling speech recognition and addressing the user. The speaker concludes by mentioning the possibility of creating a product out of the project and using Tauri for native desktop-like experiences.
IA y Desarrollo Web: ¿Exageración o Realidad?
JSNation 2023JSNation 2023
24 min
IA y Desarrollo Web: ¿Exageración o Realidad?
Top Content
This talk explores the use of AI in web development, including tools like GitHub Copilot and Fig for CLI commands. AI can generate boilerplate code, provide context-aware solutions, and generate dummy data. It can also assist with CSS selectors and regexes, and be integrated into applications. AI is used to enhance the podcast experience by transcribing episodes and providing JSON data. The talk also discusses formatting AI output, crafting requests, and analyzing embeddings for similarity.
El Ascenso del Ingeniero de IA
React Summit US 2023React Summit US 2023
30 min
El Ascenso del Ingeniero de IA
The rise of AI engineers is driven by the demand for AI and the emergence of ML research and engineering organizations. Start-ups are leveraging AI through APIs, resulting in a time-to-market advantage. The future of AI engineering holds promising results, with a focus on AI UX and the role of AI agents. Equity in AI and the central problems of AI engineering require collective efforts to address. The day-to-day life of an AI engineer involves working on products or infrastructure and dealing with specialties and tools specific to the field.
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
TensorFlow.js enables machine learning in the browser and beyond, with features like face mesh, body segmentation, and pose estimation. It offers JavaScript prototyping and transfer learning capabilities, as well as the ability to recognize custom objects using the Image Project feature. TensorFlow.js can be used with Cloud AutoML for training custom vision models and provides performance benefits in both JavaScript and Python development. It offers interactivity, reach, scale, and performance, and encourages community engagement and collaboration between the JavaScript and machine learning communities.
Aplicaciones Web del Futuro con Web AI
JSNation 2024JSNation 2024
32 min
Aplicaciones Web del Futuro con Web AI
Web AI in JavaScript allows for running machine learning models client-side in a web browser, offering advantages such as privacy, offline capabilities, low latency, and cost savings. Various AI models can be used for tasks like background blur, text toxicity detection, 3D data extraction, face mesh recognition, hand tracking, pose detection, and body segmentation. JavaScript libraries like MediaPipe LLM inference API and Visual Blocks facilitate the use of AI models. Web AI is in its early stages but has the potential to revolutionize web experiences and improve accessibility.
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
JSNation US 2024JSNation US 2024
31 min
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
AI is transforming software engineering by using agents to help with coding. Agents can autonomously complete tasks and make decisions based on data. Collaborative AI and automation are opening new possibilities in code generation. Bolt is a powerful tool for troubleshooting, bug fixing, and authentication. Code generation tools like Copilot and Cursor provide support for selecting models and codebase awareness. Cline is a useful extension for website inspection and testing. Guidelines for coding with agents include defining requirements, choosing the right model, and frequent testing. Clear and concise instructions are crucial in AI-generated code. Experienced engineers are still necessary in understanding architecture and problem-solving. Energy consumption insights and sustainability are discussed in the Talk.