Masterclass: Qué son y cómo aprovechar los LLMs

Rate this content
Bookmark

Únete a Nathan en esta sesión práctica donde primero aprenderás a alto nivel qué son los modelos de lenguaje grandes (LLMs) y cómo funcionan. Luego sumérgete en un ejercicio de codificación interactivo donde implementarás la funcionalidad de LLM en una aplicación de ejemplo básica. Durante este ejercicio, adquirirás habilidades clave para trabajar con LLMs en tus propias aplicaciones, como la ingeniería de indicaciones y la exposición a la API de OpenAI.


Después de esta sesión, tendrás una idea de qué son los LLMs y cómo se pueden utilizar prácticamente para mejorar tus propias aplicaciones.


Tabla de contenidos:

- Demostración interactiva de la implementación de funciones básicas impulsadas por LLM en una aplicación de demostración

- Discutir cómo decidir dónde aprovechar los LLMs en un producto

- Lecciones aprendidas sobre la integración con OpenAI / descripción general de la API de OpenAI

- Mejores prácticas para la ingeniería de indicaciones

- Desafíos comunes específicos de React (gestión de estado :D / buenas prácticas de UX)

This workshop has been presented at React Summit 2024, check out the latest edition of this React Conference.

Nathan Marrs
Nathan Marrs
Haris Rozajac
Haris Rozajac
66 min
28 Jun, 2024

Comments

Sign in or register to post your comment.
Video Summary and Transcription
La Masterclass de hoy presentó los modelos de lenguaje grandes (LLMs) y su implementación utilizando C. El proceso de entrenamiento implica comprimir una gran cantidad de texto en parámetros, lo que resulta en una aproximación con pérdida. Los LLMs generan texto basado en su entrenamiento, pero el contenido generado puede incluir alucinaciones o respuestas parcialmente correctas. Las etapas de ajuste fino y aprendizaje por refuerzo mejoran el rendimiento de los LLMs. En el contexto de Grafana, los LLMs se utilizan para tareas como generar títulos y descripciones, comprender datos de perfil de gráficos de llama y generar nombres de pizzas.

1. Introducción a los Modelos de Lenguaje Grandes

Short description:

Hoy vamos a ver la introducción a los modelos de lenguaje grandes. Primero comenzaremos con una introducción a los modelos de lenguaje grandes y luego revisaremos algunas aplicaciones tempranas dentro de Grafana. El modelo LLAMA 2 70B es un modelo de lenguaje grande lanzado por Meta.ai y tiene modelos que van desde 7 mil millones hasta 70 mil millones de parámetros. El modelo LLAMA 2 70B es solo dos archivos en tu sistema, un archivo de parámetros y un archivo de ejecución. El archivo de parámetros tiene 140 gigabytes y cada parámetro se almacena como dos bytes. El archivo de ejecución contiene el código que ejecuta la red neuronal.

Así que, bienvenidos a todos. Hoy vamos a ver la introducción a los modelos de lenguaje grandes. Así que, presentaciones rápidas. Puedo empezar y luego mi colega, Horace, puede seguir. Mi nombre es Nathan Mars y soy el líder técnico del equipo de DataViz en Grafana Labs. He estado experimentando en este mundo de los modelos de lenguaje grandes y cómo se pueden aplicar en el mundo de la observabilidad durante el último año y medio. Y estoy muy emocionado acerca de este espacio.

Horace, si quieres presentarte. Sí, por supuesto. Sí, mi nombre es Horace Rzajac. También trabajo en Grafana Labs. Soy un ingeniero de software en el equipo de Explore. Y también, sí, he estado experimentando con LLMs durante aproximadamente un año y pensando en cómo implementarlos en Grafana y en algunos otros proyectos personales.

Así que vamos a comenzar aquí. Para empezar, vamos a ver esta agenda de alto nivel aquí. Primero comenzaremos con una introducción a los modelos de lenguaje grandes y luego revisaremos algunas aplicaciones tempranas de los modelos de lenguaje grandes dentro de Grafana. Luego tendremos un descanso corto de cinco minutos, aproximadamente, y pasaremos a nuestra actividad práctica trabajando con modelos de lenguaje grandes que liderará Horace. Vamos a comenzar. Déjenme agregar a estas personas a la llamada.

Muy bien. En primer lugar, quiero dar un gran crédito a Andrej Karpathy por la mayoría de este contenido y estructura de esta introducción. Un recurso muy útil para crear esto. Entonces, ¿qué es un modelo de lenguaje grande? En realidad, son solo dos archivos. En este ejemplo aquí, estamos viendo un modelo LLAMA 2 70B de 70 mil millones. Este es un modelo de lenguaje grande lanzado por Meta.ai. Y esta es una segunda iteración del modelo LLAMA. LLAMA 2 tiene modelos que van desde 7 mil millones, 13 mil millones y hasta 70 mil millones de parámetros. 70 mil millones es el más grande y a mucha gente le gusta este modelo específicamente porque es el modelo de pesos abiertos más poderoso. Los pesos y la arquitectura de este modelo fueron lanzados por Meta. Cualquiera puede trabajar en este modelo por sí mismo. Esto es diferente a muchos otros modelos de lenguaje con los que puedes estar familiarizado. Por ejemplo, si estás usando chatTBT o algo similar, la arquitectura de ese modelo nunca fue lanzada y es propiedad de AI abierta. Puedes usarlo a través de una interfaz web, pero no tienes acceso real al modelo subyacente en sí. Sin embargo, una actualización rápida en el mundo de LLAMA. Meta lanzó LLAMA 3 hace unos meses. Y esto tiene una variante de modelo de 8 mil millones y 70 mil millones. Los conceptos subyacentes que vamos a discutir y explorar hoy se aplican tanto a LLAMA 2 como a 3, así como a otros modelos de lenguaje grandes disponibles hoy en día.

En este caso, el modelo LLAMA 2 70B en realidad son solo dos archivos en tu sistema. Hay un archivo de parámetros y luego el archivo de ejecución, que es solo un poco de código que ejecuta esos parámetros. Echaremos un vistazo a alto nivel al archivo de ejecución en unos minutos. Los parámetros son básicamente los pesos de la red neuronal que es el modelo de lenguaje. Cada uno de esos parámetros se almacena como dos bytes. Y debido a que este es un modelo de 70 mil millones de parámetros, el archivo de parámetros tiene 140 gigabytes. Cada parámetro son dos bytes porque son números de punto flotante de 16 bits. Y este es un formato de datos bastante estándar que proporciona la precisión suficiente a costa de cuántos datos se necesitan para almacenar y ejecutar. Cuánta memoria se necesita para ejecutar el modelo. Así que tienes el archivo de parámetros. También necesitas algo que ejecute la red neuronal. Y esta pieza de código se implementa en nuestro archivo de ejecución. Esto podría ser un archivo en C, Python o cualquier otro lenguaje de programación realmente.

2. Implementación del Modelo de Lenguaje Grande

Short description:

Puedes usar JavaScript o cualquier otro lenguaje arbitrario, pero se recomienda C por su simplicidad y eficiencia. Implementar la arquitectura de la red neuronal que utiliza los parámetros para ejecutar el modelo solo requeriría alrededor de 500 líneas de código en C. El modelo se puede utilizar en tu computadora sin conexión a Internet, ya que es un paquete completamente autónomo. Al compilar el código en C, puedes interactuar con el modelo de lenguaje grande proporcionando indicaciones y recibiendo texto generado como resultado. La complejidad computacional radica en cómo se forman los parámetros, mientras que el archivo de ejecución en C contiene la lógica principal para cargar y ejecutar el modelo utilizando multiplicación de matrices para cálculos de rendimiento.

Puedes hacerlo en JavaScript si quieres. Puede estar escrito en cualquier lenguaje arbitrario, pero C es un lenguaje muy simple y eficiente desde el punto de vista de la memoria, especialmente. Solo para darte una idea, solo requeriría alrededor de 500 líneas de código en C sin ninguna dependencia adicional para implementar la arquitectura de la red neuronal que utiliza los parámetros para ejecutar el modelo. Por lo tanto, puedes tomar estos dos archivos y puedes tomar tu MacBook o cualquier otra computadora que tengas y usar el modelo. Este es un paquete completamente autónomo que tiene todo lo necesario. No necesitas ninguna conexión a Internet ni nada más. Puedes compilar tu código en C y obtendrás un archivo binario al que simplemente puedes apuntar los parámetros y puedes interactuar con este modelo de lenguaje grande.

Por lo tanto, en este ejemplo, puedes enviarle una indicación para escribir un poema sobre esta conferencia y obtener texto generado por el modelo de lenguaje. En este caso, seguiré solicitándolo una y otra vez, le di las instrucciones, le pedí un poema sobre la cumbre React. Está ejecutando el modelo y podemos ver que genera algo de texto sobre un poema. Por lo tanto, este es un paquete muy pequeño, pero la complejidad computacional realmente radica en cómo se forman estos parámetros. El archivo de ejecución en C no contiene sorpresas y todo se entiende algorítmicamente y está abierto. Esta es una vista real dentro de un archivo de ejecución en C. Puedes ver que es un archivo C básico. Básicamente, es la lógica principal para cargar y ejecutar el modelo. Aquí hay una abstracción de lo que está sucediendo aquí. Por lo tanto, el modelo LLAMA2 y otros modelos utilizan multiplicación de matrices para cálculos de rendimiento. El modelo tiene una gran cantidad de parámetros que se almacenan en matrices. El modelo realiza multiplicación de matrices en estos parámetros para generar el texto de salida. Y este programa de ejecución en C es un programa relativamente simple. Consiste en una función principal y algunas funciones auxiliares. La función principal es responsable de leer el archivo de texto de entrada, llamar al modelo para generar el texto de salida y escribir el texto de salida en el archivo de texto de salida. Las funciones auxiliares realizan diversas tareas, como leer y escribir archivos, asignar memoria, que es una parte importante de esto, y realizar multiplicación de matrices.

Watch more workshops on topic

IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.
AI para Desarrolladores de React
React Advanced 2024React Advanced 2024
142 min
AI para Desarrolladores de React
Featured Workshop
Eve Porcello
Eve Porcello
El conocimiento de las herramientas de AI es fundamental para preparar el futuro de las carreras de los desarrolladores de React, y la suite de herramientas de AI de Vercel es una vía de acceso accesible. En este curso, examinaremos más de cerca el Vercel AI SDK y cómo esto puede ayudar a los desarrolladores de React a construir interfaces de transmisión con JavaScript y Next.js. También incorporaremos APIs de terceros adicionales para construir y desplegar una aplicación de visualización de música.
Temas:- Creación de un Proyecto de React con Next.js- Elección de un LLM- Personalización de Interfaces de Transmisión- Construcción de Rutas- Creación y Generación de Componentes - Uso de Hooks (useChat, useCompletion, useActions, etc)
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
React Advanced 2023React Advanced 2023
98 min
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
Top Content
Workshop
Richard Moss
Richard Moss
En esta masterclass daremos un recorrido por la IA aplicada desde la perspectiva de los desarrolladores de front end, enfocándonos en las mejores prácticas emergentes cuando se trata de trabajar con LLMs para construir grandes productos. Esta masterclass se basa en los aprendizajes obtenidos al trabajar con la API de OpenAI desde su debut en noviembre pasado para construir un MVP funcional que se convirtió en PowerModeAI (una herramienta de creación de ideas y presentaciones orientada al cliente).
En la masterclass habrá una mezcla de presentación y ejercicios prácticos para cubrir temas que incluyen:
- Fundamentos de GPT- Trampas de los LLMs- Mejores prácticas y técnicas de ingeniería de prompts- Uso efectivo del playground- Instalación y configuración del SDK de OpenAI- Enfoques para trabajar con la API y la gestión de prompts- Implementación de la API para construir una aplicación orientada al cliente potenciada por IA- Ajuste fino y embeddings- Mejores prácticas emergentes en LLMOps
Construyendo Aplicaciones AI para la Web
React Day Berlin 2023React Day Berlin 2023
98 min
Construyendo Aplicaciones AI para la Web
Workshop
Roy Derks
Roy Derks
Hoy en día, cada desarrollador está utilizando LLMs en diferentes formas y figuras. Muchos productos han introducido capacidades AI incorporadas, y en esta masterclass aprenderás cómo construir tu propia aplicación AI. No se necesita experiencia en la construcción de LLMs o en el aprendizaje automático. En cambio, utilizaremos tecnologías web como JavaScript, React y GraphQL que ya conoces y amas.
Construyendo tu Aplicación de IA Generativa
React Summit 2024React Summit 2024
82 min
Construyendo tu Aplicación de IA Generativa
WorkshopFree
Dieter Flick
Dieter Flick
La IA generativa está emocionando a los entusiastas de la tecnología y a las empresas con su vasto potencial. En esta sesión, presentaremos Retrieval Augmented Generation (RAG), un marco que proporciona contexto a los Modelos de Lenguaje Grande (LLMs) sin necesidad de volver a entrenarlos. Te guiaremos paso a paso en la construcción de tu propia aplicación RAG, culminando en un chatbot completamente funcional.
Conceptos Clave: IA Generativa, Retrieval Augmented Generation
Tecnologías: OpenAI, LangChain, AstraDB Vector Store, Streamlit, Langflow
Building Your Own GenAI Agent Application
React Summit US 2024React Summit US 2024
87 min
Building Your Own GenAI Agent Application
WorkshopFree
Amit Mandelbaum
Idan Rozin
2 authors
Los agentes GenAI son una de las direcciones más prometedoras para aplicaciones complejas basadas en GenAI. Estos agentes pueden buscar en la web, codificar y realizar tareas complejas de manera completamente autónoma para el usuario. En esta masterclass aprenderemos los conceptos básicos de los agentes GenAI. Definiremos los términos y marcos básicos y entenderemos cómo se diferencian del uso tradicional de LLMs.Entenderemos las técnicas de prompting para agentes LLM y específicamente la técnica de React prompting para agentes de IA (no confundir con React el lenguaje de programación). Construiremos, desde cero, nuestro propio agente GenAI que puede interactuar con el usuario, realizar búsquedas en la web y codificar y ejecutar en Javascript.Tabla de contenidos:- Introducción a los agentes GenAI- Entendiendo el marco de React- Construcción práctica de un agente GenAI simple- Despliegue del Agente con streamlit- Consejos y marcos para desarrollar agentes GenAI

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Construyendo un Asistente AI Activado por Voz con Javascript
JSNation 2023JSNation 2023
21 min
Construyendo un Asistente AI Activado por Voz con Javascript
Top Content
This Talk discusses building a voice-activated AI assistant using web APIs and JavaScript. It covers using the Web Speech API for speech recognition and the speech synthesis API for text to speech. The speaker demonstrates how to communicate with the Open AI API and handle the response. The Talk also explores enabling speech recognition and addressing the user. The speaker concludes by mentioning the possibility of creating a product out of the project and using Tauri for native desktop-like experiences.
IA y Desarrollo Web: ¿Exageración o Realidad?
JSNation 2023JSNation 2023
24 min
IA y Desarrollo Web: ¿Exageración o Realidad?
Top Content
This talk explores the use of AI in web development, including tools like GitHub Copilot and Fig for CLI commands. AI can generate boilerplate code, provide context-aware solutions, and generate dummy data. It can also assist with CSS selectors and regexes, and be integrated into applications. AI is used to enhance the podcast experience by transcribing episodes and providing JSON data. The talk also discusses formatting AI output, crafting requests, and analyzing embeddings for similarity.
El Ascenso del Ingeniero de IA
React Summit US 2023React Summit US 2023
30 min
El Ascenso del Ingeniero de IA
Top Content
The rise of AI engineers is driven by the demand for AI and the emergence of ML research and engineering organizations. Start-ups are leveraging AI through APIs, resulting in a time-to-market advantage. The future of AI engineering holds promising results, with a focus on AI UX and the role of AI agents. Equity in AI and the central problems of AI engineering require collective efforts to address. The day-to-day life of an AI engineer involves working on products or infrastructure and dealing with specialties and tools specific to the field.
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
JSNation US 2024JSNation US 2024
31 min
El Flujo de Trabajo del Desarrollador Asistido por IA: Construye Más Rápido e Inteligente Hoy
AI is transforming software engineering by using agents to help with coding. Agents can autonomously complete tasks and make decisions based on data. Collaborative AI and automation are opening new possibilities in code generation. Bolt is a powerful tool for troubleshooting, bug fixing, and authentication. Code generation tools like Copilot and Cursor provide support for selecting models and codebase awareness. Cline is a useful extension for website inspection and testing. Guidelines for coding with agents include defining requirements, choosing the right model, and frequent testing. Clear and concise instructions are crucial in AI-generated code. Experienced engineers are still necessary in understanding architecture and problem-solving. Energy consumption insights and sustainability are discussed in the Talk.
Aplicaciones Web del Futuro con Web AI
JSNation 2024JSNation 2024
32 min
Aplicaciones Web del Futuro con Web AI
Web AI in JavaScript allows for running machine learning models client-side in a web browser, offering advantages such as privacy, offline capabilities, low latency, and cost savings. Various AI models can be used for tasks like background blur, text toxicity detection, 3D data extraction, face mesh recognition, hand tracking, pose detection, and body segmentation. JavaScript libraries like MediaPipe LLM inference API and Visual Blocks facilitate the use of AI models. Web AI is in its early stages but has the potential to revolutionize web experiences and improve accessibility.
Cobertura de código con IA
TestJS Summit 2023TestJS Summit 2023
8 min
Cobertura de código con IA
Codium is a generative AI assistant for software development that offers code explanation, test generation, and collaboration features. It can generate tests for a GraphQL API in VS Code, improve code coverage, and even document tests. Codium allows analyzing specific code lines, generating tests based on existing ones, and answering code-related questions. It can also provide suggestions for code improvement, help with code refactoring, and assist with writing commit messages.