Hola a todos. ¿Ya almorzaron? ¿Están despiertos o somnolientos? Bueno, porque no tengo café real aquí, así que espero que ya tengan su café. Si no, lo siento, pero esta va a ser la charla más aburrida de su vida. No, realmente espero que no. Pero de todos modos, antes que nada, mi nombre es Maya Chavin. Soy una ingeniera de software senior en Microsoft. Trabajo en un equipo llamado Microsoft Industrial AI, en el que aprovechamos diferentes tecnologías de AI para construir soluciones y aplicaciones integradas de AI para sectores específicos de la industria.
Disculpen mi voz hoy, se perdió durante el vuelo, así que no sé qué pasó. Si les resulta difícil entenderme, lo siento mucho. Y si quieren entenderme mejor, no duden en contactarme después de la charla, ¿de acuerdo? He estado trabajando con web y JavaScript y TypeScript, pero la charla de hoy no tiene nada que ver con TypeScript o JavaScript o cualquier cosa. Se trata de IA. Y en primer lugar, ¿cuántas personas aquí trabajan con IA o IA generativa? Bueno, entonces podemos saltarnos esta diapositiva.
Ahora, de todos modos, para las personas que no conocen la IA generativa o tal vez conocen el término pero nunca tuvieron la oportunidad de experimentarlo. La IA generativa es una IA que puede generar texto y medios a partir de una variedad de datos de entrada, que llamamos indicaciones, básicamente texto o cualquier cosa, ahora también podemos enviarle alguna imagen para que la analice y también aprenda de sus datos del sistema. Y eso es de lo que trata nuestra charla, en la que nos basaremos para hablar sobre cuáles son los modelos centrales, cuáles son los modelos centrales para LM o IA generativa que se utilizan. Y nuestra charla también se centrará en cómo vamos a utilizar el modelo y definir cuál es el flujo central de un servicio muy simple, preguntas y respuestas de documentos, que se puede encontrar en Google cientos de veces cuando buscas preguntas y respuestas de documentos utilizando IA. Pero en esta charla, aprenderemos un poco más sobre el flujo detrás de él, qué podemos, qué tipo de servicio podemos utilizar para cada componente diferente dentro del flujo en LM, y finalmente cómo podemos mejorar y expandir el servicio utilizando indicaciones o cualquier técnica a la que podamos prestar atención cuando desarrollamos un nuevo servicio de preguntas y respuestas de documentos como un servicio genérico. De acuerdo.
Pero en primer lugar, LM. ¿Cuántas personas aquí trabajan con LM, algún modelo de LM? ¿Qué LM utilizan? GPT? GPT? Text embedded? DALY? Levanten la mano. Vamos, creo que ya tienen café, ¿verdad? De todos modos, solo un resumen, LM como servicio es un modelo de lenguaje grande que nos permite, que es capaz de procesar la entrada humana. Y luego también es capaz de entrenar sus propios datos, ya sea supervisados o no supervisados, y funciona con tokens. Y lo bueno de LM es que proporciona un conjunto de API en la caja negra que ayudan a los desarrolladores a desarrollar aplicaciones de IA de manera más directa y sencilla que antes. De acuerdo. Algunos de los LM que podemos ver aquí son OpenAI, Google, Microsoft, Meta, Anthropic, Hugging Face, nada nuevo aquí. De acuerdo. Entonces hablamos de que LM funciona con tokens, ¿verdad? ¿Qué es exactamente un token? Bueno, para simplificarlo, un token es simplemente una pieza de palabras, lo que significa que cada palabra individual en una oración debe traducirse a un token. Y para contar los tokens, tenemos una calculadora que podemos usar para contar los tokens. Se llama contador de tokens, que está aquí.
Comments