Charla sobre café con documentación, ¿Estás listo?

Rate this content
Bookmark

La introducción de ChatGPT, Whisper API y su herramienta de orquestación como Langchain, Semantic Kernel genera mucha expectativa sobre la IA y lo que podemos construir con ella, como un asistente de documentos. Pero ¿estamos listos para escalar nuestro proyecto de IA para cumplir con más requisitos y escenarios más amplios, como manejar múltiples procesos dentro de un flujo de preguntas y respuestas de documentos, o ofrecer respuestas específicas de la industria con la base de código existente? ¿Cómo podemos, como desarrolladores, aprovechar estas herramientas para ofrecer una mejor experiencia en la documentación para los desarrolladores como nuestros usuarios? Únete a mi charla y descubrámoslo.

This talk has been presented at JSNation 2024, check out the latest edition of this JavaScript Conference.

Maya Shavin
Maya Shavin
34 min
13 Jun, 2024

Comments

Sign in or register to post your comment.

Video Summary and Transcription

Maya Chavin, una ingeniera de software senior en Microsoft, habla sobre IA generativa y el modelo central para LM. Se exploran el flujo de un servicio de preguntas y respuestas de documentos y la importancia de las indicaciones para mejorarlo. Se explican las fases de inyección y consulta de preguntas y respuestas de documentos, haciendo hincapié en la necesidad de un almacenamiento eficiente, indexación y cálculo de indicaciones relevantes. La charla también aborda el uso de modelos de incrustación, estrategias de optimización y los desafíos de probar y validar los resultados de IA. Se mencionan usos creativos de LLMs y el impacto de la IA en la seguridad laboral.

1. Introducción a la IA generativa y LM

Short description:

Hola a todos. Soy Maya Chavin, una ingeniera de software senior en Microsoft. La charla de hoy trata sobre la IA generativa y el modelo central para LM. Discutiremos el flujo de un servicio de preguntas y respuestas de documentos y cómo mejorarlo utilizando indicaciones. LM es un modelo de lenguaje grande que nos permite procesar la entrada humana y entrenar sus propios datos. Funciona con tokens. Un token es una pieza de palabras que deben traducirse para que el modelo las entienda. Para contar los tokens, podemos usar una aplicación contador de tokens.

Hola a todos. ¿Ya almorzaron? ¿Están despiertos o somnolientos? Bueno, porque no tengo café real aquí, así que espero que ya tengan su café. Si no, lo siento, pero esta va a ser la charla más aburrida de su vida. No, realmente espero que no. Pero de todos modos, antes que nada, mi nombre es Maya Chavin. Soy una ingeniera de software senior en Microsoft. Trabajo en un equipo llamado Microsoft Industrial AI, en el que aprovechamos diferentes tecnologías de AI para construir soluciones y aplicaciones integradas de AI para sectores específicos de la industria.

Disculpen mi voz hoy, se perdió durante el vuelo, así que no sé qué pasó. Si les resulta difícil entenderme, lo siento mucho. Y si quieren entenderme mejor, no duden en contactarme después de la charla, ¿de acuerdo? He estado trabajando con web y JavaScript y TypeScript, pero la charla de hoy no tiene nada que ver con TypeScript o JavaScript o cualquier cosa. Se trata de IA. Y en primer lugar, ¿cuántas personas aquí trabajan con IA o IA generativa? Bueno, entonces podemos saltarnos esta diapositiva.

Ahora, de todos modos, para las personas que no conocen la IA generativa o tal vez conocen el término pero nunca tuvieron la oportunidad de experimentarlo. La IA generativa es una IA que puede generar texto y medios a partir de una variedad de datos de entrada, que llamamos indicaciones, básicamente texto o cualquier cosa, ahora también podemos enviarle alguna imagen para que la analice y también aprenda de sus datos del sistema. Y eso es de lo que trata nuestra charla, en la que nos basaremos para hablar sobre cuáles son los modelos centrales, cuáles son los modelos centrales para LM o IA generativa que se utilizan. Y nuestra charla también se centrará en cómo vamos a utilizar el modelo y definir cuál es el flujo central de un servicio muy simple, preguntas y respuestas de documentos, que se puede encontrar en Google cientos de veces cuando buscas preguntas y respuestas de documentos utilizando IA. Pero en esta charla, aprenderemos un poco más sobre el flujo detrás de él, qué podemos, qué tipo de servicio podemos utilizar para cada componente diferente dentro del flujo en LM, y finalmente cómo podemos mejorar y expandir el servicio utilizando indicaciones o cualquier técnica a la que podamos prestar atención cuando desarrollamos un nuevo servicio de preguntas y respuestas de documentos como un servicio genérico. De acuerdo.

Pero en primer lugar, LM. ¿Cuántas personas aquí trabajan con LM, algún modelo de LM? ¿Qué LM utilizan? GPT? GPT? Text embedded? DALY? Levanten la mano. Vamos, creo que ya tienen café, ¿verdad? De todos modos, solo un resumen, LM como servicio es un modelo de lenguaje grande que nos permite, que es capaz de procesar la entrada humana. Y luego también es capaz de entrenar sus propios datos, ya sea supervisados o no supervisados, y funciona con tokens. Y lo bueno de LM es que proporciona un conjunto de API en la caja negra que ayudan a los desarrolladores a desarrollar aplicaciones de IA de manera más directa y sencilla que antes. De acuerdo. Algunos de los LM que podemos ver aquí son OpenAI, Google, Microsoft, Meta, Anthropic, Hugging Face, nada nuevo aquí. De acuerdo. Entonces hablamos de que LM funciona con tokens, ¿verdad? ¿Qué es exactamente un token? Bueno, para simplificarlo, un token es simplemente una pieza de palabras, lo que significa que cada palabra individual en una oración debe traducirse a un token. Y para contar los tokens, tenemos una calculadora que podemos usar para contar los tokens. Se llama contador de tokens, que está aquí.

2. Funcionalidades principales para preguntas y respuestas de documentos

Short description:

En esta parte, discutiremos las funcionalidades principales para preguntas y respuestas de documentos, incluyendo completado, chat y recuperación. La API de completado permite que la IA complete las tareas del usuario, mientras que el chat es una extensión del completado. La recuperación permite la búsqueda, generando representaciones vectoriales del texto. Las preguntas y respuestas de documentos no son complejas, pero es crucial implementarlas correctamente para evitar problemas como el chatbot de IA utilizado por Air Canada. Como servicio, las preguntas y respuestas de documentos son una entrada de texto simple y un botón donde los usuarios hacen preguntas y reciben respuestas generadas por IA.

Lo tengo aquí, estas son aplicaciones, puedes ir aquí y escribir tu texto aquí y te generará cuántos tokens te llevará, cuánto te costará pasar esta cadena a la IA. De acuerdo. Esto es solo un token y también puedes ver el cálculo aproximado de tokens basado en el sitio web de OpenAI. Y es muy importante porque el token es dinero. Literalmente. No trabajamos con dinero, con IA, trabajamos con tokens.

Entonces, cuando hablamos de las capacidades principales de LM, tenemos varias capacidades hasta ahora, seis diferentes y está mejorando. En esta charla, nos enfocaremos solo en tres capacidades principales para preguntas y respuestas de documentos. Completado y chat. Completado y chat, el chat es en realidad una extensión del completado, por lo general, cuando comienzas una API de completado, verás que la API para chat tiene una barra diagonal como una extensión, no es nada, no es un modelo separado, utiliza el mismo completado.

Entonces, ¿qué es la API de completado? La API de completado es la API que permite que la IA realice, complete la tarea dada por el usuario y el chat también es una tarea dada por el usuario. Algunas de las famosas API de completado son GPT, Gemini, Cloudy y Lama, es muy difícil pronunciar este tipo de palabras. De todos modos. Entonces, algunas de estas famosas completaciones que siempre usamos cuando chateamos o completamos texto y demás, la otra es recuperación. ¿Qué es la recuperación? Recuperación significa búsqueda. Básicamente, este es un modelo que te permite tomar, dar, generar alguna incrustación en la representación vectorial de un cierto texto.

Y uno de los modelos más populares de esto, API de esto es la incrustación de texto. Text Embedding AIDA, si alguna vez has oído hablar de eso para OpenAI, lo usamos mucho para crear, para ayudarnos a crear una representación vectorial de un documento para que el algoritmo de búsqueda pueda basarse en eso para encontrar las coincidencias. Entonces, estos son los tres modelos que vamos a usar mucho en preguntas y respuestas de documentos. De acuerdo. Pero antes de pasar a las preguntas y respuestas de documentos, como dije antes, no es algo listo para usar. No es algo realmente complejo, pero es algo que puede salir mal fácilmente. Por ejemplo, Air Canada, bueno, tuvieron problemas con el chatbot de IA y tuvieron que pagar por eso. Ahora, hay un argumento de que el chatbot de IA aquí en realidad no es un chatbot de IA. Como, fueron escritos con algún algoritmo tonto detrás y realmente no usan GPT de chat o cualquier GPT detrás de eso. Pero de nuevo, esa es otra historia. Todo lo que sé es que el chatbot salió mal y ahora las aerolíneas tienen que pagar por eso porque proporcionó información engañosa. Y eso es solo una parte del problema al que se enfrenta las preguntas y respuestas de documentos si no prestas atención a lo que implementas o no entiendes lo que implementas. Así que veamos qué es preguntas y respuestas de documentos como servicio. Entonces, para decirlo de manera simple, es solo una entrada de texto y un botón donde el usuario escribiría dentro una pregunta y enviaría las preguntas a la IA y pediría una respuesta.

QnA

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Construyendo un Asistente AI Activado por Voz con Javascript
JSNation 2023JSNation 2023
21 min
Construyendo un Asistente AI Activado por Voz con Javascript
Top Content
This Talk discusses building a voice-activated AI assistant using web APIs and JavaScript. It covers using the Web Speech API for speech recognition and the speech synthesis API for text to speech. The speaker demonstrates how to communicate with the Open AI API and handle the response. The Talk also explores enabling speech recognition and addressing the user. The speaker concludes by mentioning the possibility of creating a product out of the project and using Tauri for native desktop-like experiences.
IA y Desarrollo Web: ¿Exageración o Realidad?
JSNation 2023JSNation 2023
24 min
IA y Desarrollo Web: ¿Exageración o Realidad?
Top Content
This talk explores the use of AI in web development, including tools like GitHub Copilot and Fig for CLI commands. AI can generate boilerplate code, provide context-aware solutions, and generate dummy data. It can also assist with CSS selectors and regexes, and be integrated into applications. AI is used to enhance the podcast experience by transcribing episodes and providing JSON data. The talk also discusses formatting AI output, crafting requests, and analyzing embeddings for similarity.
El Ascenso del Ingeniero de IA
React Summit US 2023React Summit US 2023
30 min
El Ascenso del Ingeniero de IA
The rise of AI engineers is driven by the demand for AI and the emergence of ML research and engineering organizations. Start-ups are leveraging AI through APIs, resulting in a time-to-market advantage. The future of AI engineering holds promising results, with a focus on AI UX and the role of AI agents. Equity in AI and the central problems of AI engineering require collective efforts to address. The day-to-day life of an AI engineer involves working on products or infrastructure and dealing with specialties and tools specific to the field.
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
TensorFlow.js enables machine learning in the browser and beyond, with features like face mesh, body segmentation, and pose estimation. It offers JavaScript prototyping and transfer learning capabilities, as well as the ability to recognize custom objects using the Image Project feature. TensorFlow.js can be used with Cloud AutoML for training custom vision models and provides performance benefits in both JavaScript and Python development. It offers interactivity, reach, scale, and performance, and encourages community engagement and collaboration between the JavaScript and machine learning communities.
Aplicaciones Web del Futuro con Web AI
JSNation 2024JSNation 2024
32 min
Aplicaciones Web del Futuro con Web AI
Web AI in JavaScript allows for running machine learning models client-side in a web browser, offering advantages such as privacy, offline capabilities, low latency, and cost savings. Various AI models can be used for tasks like background blur, text toxicity detection, 3D data extraction, face mesh recognition, hand tracking, pose detection, and body segmentation. JavaScript libraries like MediaPipe LLM inference API and Visual Blocks facilitate the use of AI models. Web AI is in its early stages but has the potential to revolutionize web experiences and improve accessibility.
Construyendo la IA para Athena Crisis
JS GameDev Summit 2023JS GameDev Summit 2023
37 min
Construyendo la IA para Athena Crisis
Join Christoph from Nakazawa Tech in building the AI for Athena Crisis, a game where the AI performs actions just like a player. Learn about the importance of abstractions, primitives, and search algorithms in building an AI for a video game. Explore the architecture of Athena Crisis, which uses immutable persistent data structures and optimistic updates. Discover how to implement AI behaviors and create a class for the AI. Find out how to analyze units, assign weights, and prioritize actions based on the game state. Consider the next steps in building the AI and explore the possibility of building an AI for a real-time strategy game.

Workshops on related topic

IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
JSNation 2024JSNation 2024
108 min
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
Featured Workshop
Roy Derks
Shivay Lamba
2 authors
Hoy en día, todos los desarrolladores están utilizando LLMs en diferentes formas y variantes, desde ChatGPT hasta asistentes de código como GitHub CoPilot. Siguiendo esto, muchos productos han introducido capacidades de IA integradas, y en este masterclass haremos que los LLMs sean comprensibles para los desarrolladores web. Y nos adentraremos en la codificación de tu propia aplicación impulsada por IA. No se necesita experiencia previa en trabajar con LLMs o aprendizaje automático. En su lugar, utilizaremos tecnologías web como JavaScript, React que ya conoces y amas, al mismo tiempo que aprendemos sobre algunas nuevas bibliotecas como OpenAI, Transformers.js
Masterclass: Qué son y cómo aprovechar los LLMs
React Summit 2024React Summit 2024
66 min
Masterclass: Qué son y cómo aprovechar los LLMs
Featured Workshop
Nathan Marrs
Haris Rozajac
2 authors
Únete a Nathan en esta sesión práctica donde primero aprenderás a alto nivel qué son los modelos de lenguaje grandes (LLMs) y cómo funcionan. Luego sumérgete en un ejercicio de codificación interactivo donde implementarás la funcionalidad de LLM en una aplicación de ejemplo básica. Durante este ejercicio, adquirirás habilidades clave para trabajar con LLMs en tus propias aplicaciones, como la ingeniería de indicaciones y la exposición a la API de OpenAI.
Después de esta sesión, tendrás una idea de qué son los LLMs y cómo se pueden utilizar prácticamente para mejorar tus propias aplicaciones.
Tabla de contenidos:- Demostración interactiva de la implementación de funciones básicas impulsadas por LLM en una aplicación de demostración- Discutir cómo decidir dónde aprovechar los LLMs en un producto- Lecciones aprendidas sobre la integración con OpenAI / descripción general de la API de OpenAI- Mejores prácticas para la ingeniería de indicaciones- Desafíos comunes específicos de React (gestión de estado :D / buenas prácticas de UX)
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
React Advanced Conference 2023React Advanced Conference 2023
98 min
Trabajando con OpenAI y la Ingeniería de Prompts para Desarrolladores de React
Top Content
Workshop
Richard Moss
Richard Moss
En esta masterclass daremos un recorrido por la IA aplicada desde la perspectiva de los desarrolladores de front end, enfocándonos en las mejores prácticas emergentes cuando se trata de trabajar con LLMs para construir grandes productos. Esta masterclass se basa en los aprendizajes obtenidos al trabajar con la API de OpenAI desde su debut en noviembre pasado para construir un MVP funcional que se convirtió en PowerModeAI (una herramienta de creación de ideas y presentaciones orientada al cliente).
En la masterclass habrá una mezcla de presentación y ejercicios prácticos para cubrir temas que incluyen:
- Fundamentos de GPT- Trampas de los LLMs- Mejores prácticas y técnicas de ingeniería de prompts- Uso efectivo del playground- Instalación y configuración del SDK de OpenAI- Enfoques para trabajar con la API y la gestión de prompts- Implementación de la API para construir una aplicación orientada al cliente potenciada por IA- Ajuste fino y embeddings- Mejores prácticas emergentes en LLMOps
Construyendo Aplicaciones AI para la Web
React Day Berlin 2023React Day Berlin 2023
98 min
Construyendo Aplicaciones AI para la Web
Workshop
Roy Derks
Roy Derks
Hoy en día, cada desarrollador está utilizando LLMs en diferentes formas y figuras. Muchos productos han introducido capacidades AI incorporadas, y en esta masterclass aprenderás cómo construir tu propia aplicación AI. No se necesita experiencia en la construcción de LLMs o en el aprendizaje automático. En cambio, utilizaremos tecnologías web como JavaScript, React y GraphQL que ya conoces y amas.
Construyendo tu Aplicación de IA Generativa
React Summit 2024React Summit 2024
82 min
Construyendo tu Aplicación de IA Generativa
WorkshopFree
Dieter Flick
Dieter Flick
La IA generativa está emocionando a los entusiastas de la tecnología y a las empresas con su vasto potencial. En esta sesión, presentaremos Retrieval Augmented Generation (RAG), un marco que proporciona contexto a los Modelos de Lenguaje Grande (LLMs) sin necesidad de volver a entrenarlos. Te guiaremos paso a paso en la construcción de tu propia aplicación RAG, culminando en un chatbot completamente funcional.
Conceptos Clave: IA Generativa, Retrieval Augmented Generation
Tecnologías: OpenAI, LangChain, AstraDB Vector Store, Streamlit, Langflow