ChatGPT está revolucionando Internet. En enero de 2023, ChatGPT alcanzó más de 100 millones de usuarios, convirtiéndose en la aplicación de consumo de más rápido crecimiento hasta la fecha. No te pierdas esta charla y aprende cómo usar ChatGPT en una aplicación Node.js. Utilizaremos la API de OpenAI para interactuar con el modelo ChatGPT, obtendremos una clave de API de OpenAI y luego utilizaremos una biblioteca de cliente de API para realizar solicitudes a la API desde tu código Node.js. ¡Aprende trucos sobre cómo optimizar tu productividad con ChatGPT y diviértete con la inteligencia artificial!
This talk has been presented at Node Congress 2023, check out the latest edition of this JavaScript Conference.
FAQ
Chat GPT es un modelo de lenguaje de última generación desarrollado por OpenAI que genera respuestas en lenguaje natural a una amplia gama de entradas. Se destaca por su excepcional rendimiento, versatilidad, disponibilidad gratuita y la capacidad de generar respuestas que a menudo son indistinguibles de las humanas. Chat GPT revolucionó el mundo de la IA al alcanzar cien millones de usuarios en solo dos meses después de su lanzamiento.
Para obtener una clave de API de OpenAI, debes registrarte o iniciar sesión en la plataforma de OpenAI. Una vez dentro, puedes acceder a la sección de claves de API, donde podrás crear una nueva clave secreta que te permitirá interactuar con Chat GPT.
Para integrar Chat GPT con Node.js, primero debes obtener una clave de API de OpenAI registrándote en su plataforma. Luego, puedes usar esta clave en tu código Node.js para enviar solicitudes a la API de Chat GPT y recibir respuestas basadas en las indicaciones dadas por los usuarios.
Los parámetros en el contexto de Chat GPT son elementos de configuración del modelo que determinan su comportamiento y capacidad de respuesta. El modelo más reciente de Chat GPT antes de GPT-4, conocido como GPT-3.5 Turbo, tiene aproximadamente 175 mil millones de parámetros.
ChatGPT puede ser utilizado para diversas aplicaciones prácticas como diagnósticos médicos preliminares, asistencia en servicio al cliente, extracción de información importante de textos y más. Un ejemplo notable incluye el caso donde ChatGPT ayudó a diagnosticar y salvar la vida de un perro enfermo interpretando resultados de exámenes de sangre.
RunMe es una extensión para Visual Studio Code desarrollada para ejecutar scripts desde archivos markdown (MD) directamente en el editor. Permite a los usuarios ejecutar comandos configurados en los archivos MD con solo hacer clic en un botón, facilitando la implementación y la demostración de código.
La charla de hoy presenta Chat GPT y su integración con Node.js, destacando su rendimiento excepcional y sus capacidades de lenguaje natural. El orador demuestra cómo interactuar con ChatGPT utilizando Node.js y muestra ejemplos como seleccionar avatares y obtener chistes. La charla también discute el uso de ChargePT para extraer información importante e interactuar con bases de datos. También se abordan consideraciones importantes al usar ChatGPT, el potencial de GPT-4 y el impacto de la inteligencia artificial en los empleos. También se mencionan las preocupaciones de seguridad y el uso de extensiones como Runme en Visual Code.
1. Introducción a la integración de Chat GPT y Node.js
Short description:
Hoy vamos a aprender cómo chatear con GPT usando Node.js. Chat GPT revolucionó el mundo de la IA con su rendimiento excepcional y respuestas asombrosas en lenguaje natural. Es un modelo de lenguaje de última generación capaz de generar respuestas similares a las de un ser humano. Chat GPT tiene 175 mil millones de parámetros, más de 100 veces más grande que la versión anterior. Para integrar Node.js con Chat GPT, debes ir a la API de OpenAI, obtener una clave de API y usar cinco líneas de código para crear una respuesta basada en las indicaciones del usuario.
Gracias. Probablemente ya me hayan visto antes. Soy Liz. Hoy vamos a aprender cómo chatear con GPT usando Node.js. Soy de Colombia, soy la defensora principal del desarrollo en una empresa muy genial llamada Stateful. Soy líder de la comunidad, oradora, evangelista de Node.js y bloguera. Este es mi Twitter, Liz Parody en Stateful Twitter, por si quieres chatear o hacer preguntas o conectarte, podemos conectarnos allí. Entonces, la inteligencia artificial se puede dividir en antes y después de Chat GPT. Antes, había algunas IA, algunas funcionales pero no tan populares o precisas como Chat GPT, incluyendo IBM Watson, Google DeepMind, Microsoft Cortana, Amazon Alexa y otros. Pero Chat GPT revolucionó rápidamente todo el mundo de la IA debido a su excepcional rendimiento, versatilidad, disponibilidad gratuita y respuestas asombrosas en lenguaje natural. Estoy bastante segura de que la mayoría de ustedes, probablemente todos ustedes, han usado Chat GPT en este momento. Y no será una sorpresa porque Chat GPT alcanzó cien millones de usuarios en solo dos meses después de su lanzamiento. Y debido a esto, estableció un récord en la historia al convertirse en la aplicación de consumo de más rápido crecimiento hasta la fecha. En caso de que no hayas usado Chat GPT, es un modelo de lenguaje de última generación desarrollado por OpenAI y es capaz de generar respuestas similares a las de un ser humano a una amplia gama de entradas en lenguaje natural. Fue entrenado con un conjunto masivo de datos de textos de Internet, lo que le permitió adquirir un amplio conocimiento y patrones de lenguaje. Una de las cosas más interesantes de Chat GPT es que es difícil distinguir lo que fue escrito por un humano y lo que fue generado por el modelo. Por ejemplo, lo que acabo de decir, no podrías decir si fue producto de mi propia investigación y análisis o si Chat GPT me dijo que dijera esto. Entonces, ¿cómo lo hicieron? Imagina que cada uno de estos puntos es mil millones. Entonces, Chat GPT tiene la asombrosa cantidad de 175 mil millones de parámetros, es como un número muy grande. Pero para los humanos es realmente difícil procesar números tan grandes. Para ponerlo en escala, mil millones de segundos equivalen a 31.7 años, por lo que 175 mil millones de segundos equivalen a 5545 años, es como un número realmente grande. La versión anterior de Chat GPT que se lanzó en 2019 tenía 1.5 mil millones de parámetros, por lo que el modelo más reciente es más de 100 veces más grande. Ahora, ¿cómo puedes integrar Node.js con Chat GPT? Vamos a verlo. Bueno, primero debes ir a la API de OpenAI, que es la mejor y más fácil forma de interactuar con Chat GPT, y proporciona una forma simple y directa de, sí, interactuar con Chat GPT, y luego obtienes una clave de API que puedes poner en tu código. Entonces, ¿cómo obtienes esta clave de API? Vas a la API de OpenAI, te registras o inicias sesión, y luego haces clic en ver claves de API, y luego haces clic en el botón crear nueva clave secreta. Esta clave, simplemente la copias y pegas en tu código, y te permitirá interactuar con Chat GPT. Ahora muéstrame el código. Con estas cinco líneas de código, puedes hacer cosas maravillosas usando aplicaciones de Node.js. Primero creas una respuesta que enviará una solicitud a OpenAI, y luego creará una respuesta basada en una indicación dada por el usuario, y tiene propiedades de modelo y mensaje. La propiedad del modelo especificará qué versión
2. Interactuando con ChatGPT y la extensión RunMeme
Short description:
En este caso, es GPT 3.5 Turbo, y el mensaje, que incluye al usuario y el contenido que será la indicación. Voy a hacer una demostración usando RunMeme, una extensión desarrollada por mi empresa. Así que vamos aquí. Solo voy a hacer un ejemplo básico de interacción con ChatGPT. Importo las dependencias, creo una configuración con la clave de API y una API de IA con una entrada y una salida. Luego, le hago una pregunta al chatbot, espero la respuesta y manejo los errores. Eso es todo lo que necesitas para integrar un chatbot con Node.js. Sería aún mejor si pudiera seleccionar avatares desde la CLI, como Leonardo da Vinci o Yoda.
de ChatGPT que se utilizará. En este caso, es GPT 3.5 Turbo, y el mensaje, que incluye al usuario y el contenido que será la indicación. Y al final, simplemente devolverá el contenido con la primera respuesta, así que eso es todo lo que necesitas. Voy a hacer una demostración usando RunMeme. Esta extensión fue desarrollada por mi empresa, así que si puedes echarle un vistazo, sería genial. Así que vamos aquí. Solo voy a hacer un ejemplo básico de interacción con ChatGPT donde puedo hacer preguntas a ChatGPT desde mi terminal, y luego ChatGPT responderá.
Esta es la extensión de la que estaba hablando, que es este botón. Puedes ejecutar read-me's dentro de VS Code. Si hago clic en este botón, dirá, ¿qué tipo de chatbot te gustaría crear? Así que simplemente diría, ChatBot de Steve Jobs. Entonces digo, hola, y luego, hola allí, soy el ChatBot de Steve Jobs, ¿en qué puedo ayudarte hoy? Así que diré, dime algo que todo desarrollador debería saber. Y luego tomará unos segundos para llamar a la API, y si la conexión a internet es rápida, no debería tardar mucho. Una de las cosas más importantes que todo desarrollador debería saber es nunca dejar de aprender. La tecnología es un programa, y los lenguajes de programación evolucionan rápidamente, por lo que mantenerse al día con las últimas tendencias y técnicas es crucial para mantenerse competitivo en la industria. Gracias, Steve Jobs. Entonces, ¿cómo hice esto? Solo con 38, 39 líneas de código pude hacer esto. Primero importamos todas las dependencias, luego creo una nueva configuración basada en la clave de API proporcionada por OpenAI. Luego creo una nueva API de IA con la configuración, y creo una interfaz, pero con una entrada y una salida. La entrada serían mis preguntas, la salida sería la respuesta del chatbot, y luego tengo la primera pregunta, qué tipo de chatbot te gustaría crear, esto es lo que yo digo, Steve Jobs. Y luego tengo la entrada del usuario que dice, saluda al nuevo asistente. Y estas son algunas de las líneas de código que mencioné antes, son bastante importantes, que es crear una finalización de chat con un mensaje y un modelo, como dijimos antes, vamos a usar el GPT 3.5 Turbo, ese es el modelo que vamos a usar. Y aquí tendremos la primera respuesta. Luego aquí se le pide al usuario que ingrese la siguiente entrada, y si no hay respuesta de la API, dirá que no hay respuesta, por favor inténtalo de nuevo. Y si hay un error, lo capturará aquí. Y eso es todo. Eso es todo lo que necesitas hacer para crear, para integrar un chatbot con Node.js. Pero sería aún mejor si pudiera seleccionar desde la CLI algunos avatares. Por ejemplo, si pudiera elegir entre Leonardo da Vinci, o William Shakespeare, o Yoda, o Steve Jobs,
3. Ejecutando ChatGPT y Ejemplos
Short description:
Si ejecuto esto, puedo elegir un tipo de chatbot como Yoda. Le pido que me cuente un chiste que haga reír a todos. Responde con un chiste de programador. ChatGPT es más que solo un chatbot. Puede impulsar la carrera de tu proyecto, empresa y vida personal. Incluso salvó al perro de una persona al diagnosticar su enfermedad. Otro ejemplo es un cliente que busca soporte para un SmartWatch que no se enciende.
Si ejecuto esto, puedo elegir desde aquí. ¿Qué tipo de chatbot te gustaría crear? Digamos que soy Yoda. Entonces dice, perfecto, ahora dime tu pregunta. Así que diré, bien, estoy frente a tal vez 100 desarrolladores, no sé cuántos hay aquí, 100 desarrolladores. Cuéntame un chiste que haga reír a todos. Veamos qué dice.
Ok, tengo un chiste para ti. ¿Por qué renunció el programador a su trabajo? Porque no le dieron un aumento, jajaja, oh dios mío, es tan malo. Eso es realmente malo. No tengo más preguntas para ti, Laura. No, gracias. Entonces, ¿cómo hago esto? Primero, tengo los utils aquí, pero tengo cuatro avatares, puedo incluir más, o eliminar uno, o sí. Así que aquí los tengo, y luego en el índice aquí está el código. No voy a profundizar en esto, pero estoy usando ink para seleccionar los colores y para interactuar en la terminal. Y luego tengo tres pasos. Uno será seleccionar el chatbot, el prompt y mostrar la respuesta. Aquí está el estado inicial de ChatGPT. Sí. Ese es el resto del código que se publicará. Ok. Pero ChatGPT es más que solo un chat que da respuestas y cuenta chistes malos. También es un modelo poderoso que puede impulsar la carrera, empresa y vida personal de tu proyecto al siguiente nivel. Un ejemplo de vida personal es cuando ChatGPT salvó la vida del perro de esta persona porque el perro estaba muy enfermo y lo llevó al veterinario y el veterinario hizo algunos exámenes de sangre, pero no estaban seguros de qué tenía. Entonces, esta persona puso todos los exámenes de sangre en ChatGPT y ChatGPT le dijo exactamente qué tenía y pudo salvar a su perro. Quiero decir, esta tecnología es bastante increíble. Digamos otro ejemplo. Digamos que soy un cliente y necesito soporte de uno de los productos que compré. Si digo, Hola Superequipo, tengo problemas con SmartWatch 1.1.1 que compré. Recibí un paquete hace una semana, pagué en efectivo y ahora no se enciende. Verifiqué la batería, intenté
4. Extracción de Información Importante con ChargePT
Short description:
Para extraer información importante utilizando ChargePT, podemos utilizar el procesamiento de lenguaje natural para identificar el nombre del producto, la descripción del problema, el resumen del problema y el método de pago de un mensaje dado. ChargePT puede automatizar el proceso de extracción y proporcionar resultados precisos. Esta capacidad es beneficiosa para automatizar el soporte al cliente y brindar respuestas personalizadas. El impacto en el personal de soporte al cliente se discutirá más adelante.
Si tengo este mensaje y quiero extraer la información más importante utilizando ChargePT, lo que puedo hacer es ir aquí a leerlo, y solo quiero obtener el nombre del producto, la descripción del problema, el resumen del problema y el método de pago. Solo quiero saber estas cuatro cosas utilizando ChargePT. Entonces, ChargePT es capaz de leer ese mensaje, hay lenguaje natural, y luego podrá extraer que el nombre del producto es SmartWatch111, la descripción del problema es el ajuste en el producto, el resumen del problema es la solicitud de reembolso o reemplazo, y el método de pago es efectivo. Con esto, permítanme verificar el código. Estoy importando todo lo que necesito y utilizando la biblioteca Minds aquí. Luego crearé estas cuatro entidades, el nombre del producto, la descripción del problema, el resumen del problema, el método de pago, en este caso es efectivo o tarjeta de crédito, pero puede ser otra cosa. Y ahora tengo el mensaje y lo imprimo en la consola. Y eso es todo, así es como podemos extraer información de ChatGPT. Esto es bastante genial. Cosas como esta pueden ayudarte a automatizar mensajes, correos electrónicos, chats y proporcionar a los clientes exactamente lo que necesitan. Entonces, ahora podemos preguntar, ¿qué sucederá con las personas que trabajan en el soporte al cliente? Bueno, eso es algo de lo que hablaremos más adelante.
5. Interactuando con Bases de Datos utilizando ChargePT
Short description:
Consideremos otro ejemplo en el que tenemos una gran base de datos de productos. Mediante el uso de ChargePT, podemos verificar la disponibilidad de productos específicos según el inventario. ChargePT interactúa con la base de datos y proporciona la respuesta a la consulta del cliente. El código de este ejemplo implica importar dependencias, crear una IA con la clave de API y definir la base de datos y la consulta del cliente. Esto demuestra cómo ChatGPT puede revolucionar las interacciones en varios ámbitos, incluido el soporte al cliente.
Otro ejemplo sería este. Digamos que tengo una gran base de datos con muchos productos o cualquier cosa que desees. Solo quiero saber, según el inventario, si hay disponibilidad de algunos productos. Por ejemplo, si digo: ¿tienen cinco MacBook Pro con M.2, con 96 gigabytes de RAM, y tres iPads en una pila? Hay una gran base de datos y si simplemente hago clic en este botón, leería la base de datos, y luego si tienes la pregunta aquí, ¿hay iPads en la pila? Y luego ChargePT está buscando, y la respuesta será, para los clientes, sí, tenemos cinco MacBook Pro con M.2 en una pila, pero no tenemos ningún iPad. Entonces sí, así es como ChargePT puede interactuar con bases de datos y cosas así. Así que veamos muy rápidamente el código. Sí, solo importo todo de todas las dependencias. Creo una nueva IA con la clave de API de OpenAI, y luego esta es una base de datos muy pequeña. Son solo dos productos, pero imagina que hay miles allí. Sí, tenemos un nombre, una descripción, y cuántos productos hay en esta pila. Y luego aquí tenemos la lista de acciones disponibles para la IA. Tenemos el nombre, la descripción, la acción, y tenemos la memoria, el estímulo y la consulta del cliente es, si tenemos cinco MacBook Pro y si tenemos tres iPads. La pregunta, y luego simplemente traemos la respuesta a la consola. Entonces sí, todo esto, como ChatGPT, realmente puede cambiar cómo interactuamos con Internet y el soporte al cliente, y sí, muchas cosas en la vida personal y en el trabajo. Todo este código estará aquí en una demostración de ChatGPT con estado, si quieres echarle un vistazo. Además, las diapositivas estarán allí.
6. Consideraciones Importantes al Usar chatGPT
Short description:
Consideraciones importantes al usar chatGPT: comprender las limitaciones, elegir el formato de entrada correcto, monitorear el uso de la API, proporcionar suficiente contexto, manejar errores y excepciones, garantizar la privacidad y seguridad de los datos, ingeniería de prompts, cumplir con las políticas de uso de la API, evitar sesgos en los datos de entrenamiento y utilizar el ajuste fino si es necesario.
Entonces, algunas cosas importantes a tener en cuenta al usar chatGPT, para garantizar la mejor experiencia tanto para los desarrolladores como para los usuarios. La primera es comprender sus limitaciones. ChatGPT es un modelo de aprendizaje automático que se basa en datos de entrenamiento y algoritmos para proporcionar respuestas, y a veces puede que no pueda brindar las mejores, más precisas o relevantes respuestas a todas tus consultas o preguntas, aunque a veces veas que chatGPT puede hacer absolutamente cualquier cosa, darte el código exacto que necesitas para salvar la vida de tu perro. La verdad es que chatGPT hace muchas cosas que yo también hago. Por ejemplo, podemos hacer tu café, aunque aún no lo hacemos, pero tal vez en el futuro, ¿quién sabe? Elegir el formato de entrada correcto. ChatGPT permite diferentes formatos de entrada, incluyendo texto plano, html y JSON. Así que sí, solo necesitamos asegurarnos de elegir la entrada correcta que se ajuste a nuestras necesidades. Monitorear el uso de la API es importante para evitar exceder los límites de velocidad o tener problemas de facturación, porque puede volverse bastante costoso si no prestas atención a eso.
Además, chatGPT funciona mejor cuando se proporciona suficiente contexto. Por ejemplo, puede generar respuestas más precisas y relevantes. Esta persona pudo crear un juego fantástico, quiero decir, a través de chatGPT al proporcionar una serie de pasos y mucho contexto sobre cómo debería ser el juego, y chatGPT simplemente creó este juego. Además, aunque el contexto es realmente importante, también es importante proporcionar una entrada clara y concisa, evitar secuencias o preguntas demasiado complejas y enrevesadas, simplemente ser claro, simple y directo, pero también con contexto. Manejar errores y excepciones. La API de chatGPT, la API de OpenAI, al igual que cualquier otra API, a veces puede generar errores o excepciones, y cuando esto sucede, debemos proporcionar a los usuarios un mensaje de error claro e instrucciones sobre cómo proceder y tener un plan de contingencia. Así que en caso de que la API fallara hoy y yo no pudiera hacer mi demostración, simplemente tenía una captura de pantalla de lo que se supone que debe responder. Además, garantizar la privacidad y seguridad de los datos, incluyendo el cifrado y el almacenamiento seguro de información sensible. Tuve una clave de API bloqueada porque la puse accidentalmente en GitHub, así que simplemente no hagas este tipo de cosas. También, la ingeniería de prompts es la descripción de la tarea que chatGPT o cualquier IA debe cumplir. Cuanto mejor sea el prompt, mejor será el resultado. Entonces hay todo un tema sobre la ingeniería de prompts y voy a proporcionar algunos recursos al final de esta charla. Cumplir con las políticas y directrices de uso de la API para evitar posibles problemas legales u otras consecuencias, y también evitar sesgos en los datos de entrenamiento. Ten en cuenta posibles sesgos en los datos de entrenamiento utilizados para entrenar el modelo de chatGPT. Los datos deben ser lo más diversos y representativos posible. Por ejemplo, chatGPT enfrentará su tercer demanda por parte del alcalde australiano debido a un escándalo de soborno. Así que sí, es importante tener en cuenta los sesgos y los asuntos legales para no meterse en problemas. Utilizar el ajuste fino si es necesario. Entonces, el ajuste fino, si no estás satisfecho con el resultado de chatGPT o las IA, debes considerar ajustarlo con datos de entrenamiento iniciales o ajustar los parámetros de hardware del modelo. El ajuste fino básicamente significa hacer que el modelo funcione mejor para tu caso de uso. Así que podemos encontrar el ajuste fino en la esquina inferior derecha aquí. Y el ajuste fino te permite obtener mejores resultados de mayor calidad y un diseño de prompt, ahorro de tokens debido a prompts más cortos.
7. Ajuste Fino y Plugins de ChatGPT
Short description:
El ajuste fino mejora el aprendizaje al entrenar con más ejemplos, proporcionando mejores resultados. No es necesario proporcionar ejemplos al ajustar fino para tu caso de uso. La información es hasta septiembre de 2021. OpenAI lanzó plugins de ChatGPT para obtener información actualizada, realizar cálculos y utilizar servicios de terceros. Hay plugins disponibles como Expedia, Kayak, Shopify y OpenTable. También puedes crear tus propios plugins. Versión alfa limitada.
y solicitudes de baja latencia. Entonces, el ajuste fino básicamente mejora el aprendizaje al entrenar con muchos más ejemplos que pueden caber en un prompt, brindándote mejores resultados en una amplia variedad de tareas. Cuando ajustas fino tu modelo para tu caso de uso, ya no es necesario proporcionar ejemplos. Esto puede ayudarte a ahorrar código y tener solicitudes de baja latencia. También es importante tener en cuenta que toda la información es hasta septiembre de 2021, por lo que si intentas preguntar las noticias más importantes en enero de 2023, dirá algo como: no sé cómo acceder a eventos y información futura, pero mi entrenamiento se basa en datos actualizados hasta septiembre de 2021. Entonces, sí, este es un pequeño problema, un gran problema en ChatGPT. Pero para resolver parcialmente este problema, OpenAI lanzó plugins de ChatGPT que te permiten acceder a información actualizada, realizar cálculos o utilizar servicios de terceros. Estos plugins te permiten obtener información en tiempo real, como resultados deportivos, precios de acciones y últimas noticias. Con este plugin, podré decir cuáles fueron las noticias más importantes en 2022 en enero y obtener información basada en conocimientos, como documentos de la empresa, notas personales y realizar acciones en nombre del usuario, como reservar un vuelo o hacer un pedido de comida. Podremos reservar nuestras vacaciones y organizar nuestras vidas enteras, básicamente, con ChatGPT. Y estos son algunos de los plugins disponibles, incluyendo Expedia, Kayak, Shopify y OpenTable. Así que podré decir: estoy buscando un restaurante vegano en Berlín, ¿puedes reservarme un buen restaurante para el viernes por la noche a las 8 p.m.? Y ChatGPT podrá hacer esto por nosotros. Los plugins te permiten crear tus propios plugins que funcionen para ti, como para tu documentación, para tus cosas personales. Y también es una versión alfa limitada, por lo que la mayoría de
8. GPT-4 y sus Capacidades
Short description:
GPT-4 es la versión mejorada de ChalGPT, capaz de procesar videos, imágenes, voz y texto. Puede crear sitios web completamente funcionales y desarrollar videojuegos sin experiencia en programación. GPT-4 también puede explicar chistes y demuestra un rendimiento superior en textos académicos y estandarizados. OpenAI tiene colaboraciones con Microsoft, Morgan Stanley, Duolingo, Strive y Khan Academy. GPT-4 puede detectar problemas en contratos inteligentes de Ethereum y Microsoft anunció que Bing funcionará con GPT-4. Según el último informe de Goldman Sachs, se estima que 300 millones de empleos podrían verse afectados por la IA, siendo los trabajadores administrativos, abogados, arquitectos e ingenieros los más impactados.
de los desarrolladores aún no tendrán acceso a esto. Ahora, hablemos brevemente sobre GPT-4. GPT-4 es la versión mejorada de ChalGPT. Puede procesar videos, imágenes, voz, texto y sí, es simplemente increíble. Por ejemplo, puedes dibujar algo, como un sitio web, y GPT-4 es capaz de crear un sitio web completamente funcional basado en tus dibujos. Además, GPT-4 puede desarrollar un juego completo para ti. Esta persona pudo crear el famoso juego de Pong en menos de 60 segundos. Así que ni siquiera necesitas tener experiencia en programación para crear juegos. Solo necesitas GPT-4. Además, GPT-4 es capaz de explicar chistes. Esto será genial para mí porque a veces soy muy malo entendiendo los chistes. Así que solo le pasas un meme o un chiste y te explicará por qué es gracioso. Y además, GPT-4, el informe técnico, demuestra un rendimiento superior en textos académicos y estandarizados, como el examen de abogacía. En comparación, ChalGPT obtuvo el percentil 10 y GPT-4 alcanzó el percentil 90. Eso significa que GPT-4 superó al 90 por ciento de las personas que tomaron el examen de abogacía.
Entre los colaboradores de OpenAI se encuentran Microsoft, Morgan Stanley, Duolingo, Strive, Khan Academy. Duolingo está utilizando GPT-4 para tener conversaciones más atractivas, Strive para prevenir fraudes, y Khan Academy para hacer preguntas individuales a los estudiantes y mejorar sus conocimientos. GPT-4 es capaz de detectar problemas en contratos inteligentes de Ethereum. Esta persona es el director de CONCASE y a través de GPT-4 pudo identificar vulnerabilidades y áreas de explotación en los contratos. Esto puede ayudarte a ahorrar mucho dinero. Además, Microsoft anunció que Bing funcionará con OpenAI GPT-4. ¿Te imaginas si Bing se vuelve más popular que Google? Quiero decir, esto solo sería posible a través de la IA. Eso... sí. Y finalmente, algunos aspectos éticos. Según el último informe de Goldman Sachs, se estima que 300 millones de empleos podrían verse afectados por la última ola de IA. Los trabajos que se verán más afectados son los trabajadores administrativos, abogados, arquitectos e ingenieros. Espero que no se refieran a los ingenieros de software. Pero bueno, ¿quién sabe? Ahora... y los trabajos que se verán menos afectados
9. Impacto de la IA en los empleos
Short description:
En el corto y mediano plazo, experimentaremos un impulso en la productividad. La mayoría de los empleos serán complementados por Chargipiti, con solo un pequeño porcentaje siendo sustituidos. La sustitución de empleos debido a la automatización históricamente ha sido compensada por la creación de nuevos empleos, ahorros de costos y aumento de la productividad. La IA, incluyendo chatGPT y GPT-4, presenta emocionantes oportunidades de adaptación. Aunque puede ser aterrador, GPT es confiable y tenemos control. ¡Gracias!
. Pero la pregunta es, ¿qué sucederá con nuestros empleos? ¿Qué pasará cuando un desarrollador pueda hacer lo que diez desarrolladores están haciendo? Como el famoso desarrollador 10x. Bueno, la verdad es que hay tanto software por construir y tanto producto y backlog de hoja de ruta que es muy probable que en el corto y mediano plazo experimentemos un impulso en la productividad. También es importante diferenciar entre sustituir y complementar. Porque la mayoría de los empleos, el 63%, serán complementados. Quiero decir, Chargipiti complementará estos empleos. Estoy bastante seguro de que todos nosotros ya hemos estado utilizando Chargipiti para complementar nuestros empleos, para ayudarnos con muchas cosas, y solo el 7% de esos empleos serán sustituidos, y el 30% de los empleos permanecerán sin cambios. Además, la sustitución de empleos debido a la automatización, que ya ha ocurrido muchas veces en el pasado, como la revolución agrícola, la revolución industrial, y más eventos históricos. Cuando esto ha sucedido, normalmente ha sido compensado por la creación de nuevos empleos, ahorros significativos en costos laborales, alta productividad para los trabajadores no desplazados. Además, la IA puede aumentar el crecimiento anual de la productividad laboral utilizada en un 1.5% durante un período de 10 años. Personalmente, estoy muy emocionado por el futuro de la IA. Creo que todos deberíamos trabajar profundamente con la IA y chatGPT, GPT-4, para que esto funcione para nosotros. Y todo se trata de adaptación antes de llegar a este punto. ¿Eres real? Bueno, si puedes decirlo, ¿importa? Quiero decir, tenemos que admitir que es un poco aterrador. Pero no te preocupes, GPT es bueno. No terminaremos como en Terminator o cosas así. Todo está bien. Tenemos esto bajo control. Así que gracias. Y hasta la vista, baby. Si tienes alguna pregunta, este es mi Twitter. Y aquí tienes algunos recursos que puedes utilizar para GPT y chatGPT y todo. Muchas gracias. Eso es todo.
10. Asegurando la seguridad de los datos internos de la empresa
Short description:
¿Cómo podemos asegurar la seguridad de nuestros datos internos de la empresa compartidos con la API de OpenAI? La documentación proporciona una serie de instrucciones claras y paso a paso para asegurar su aplicación. Ha habido informes de información robada por ChatGPT, lo que plantea preocupaciones sobre la seguridad.
Muy bien. Muchas gracias, Liz. Tenemos muchas preguntas como esperaba, para ser honesto. Sí. Comencemos con la primera. ¿Cómo podemos asegurarnos de la seguridad de nuestros datos internos de la empresa compartidos con la API de OpenAI? Quiero decir, hay una sección completa cuando vas a la documentación de IA en OpenAI sobre seguridad. No leí todo, pero hay una serie de pasos claros y detallados sobre cómo puedes asegurar tu aplicación. Además, creo que también ha habido un escándalo, porque ha habido información que ha sido robada por Chad, GPT, y sí. Quiero decir, hay todo un asunto al respecto.
11. Extensión para ejecutar scripts en Visual Code
Short description:
La extensión utilizada para ejecutar scripts en Visual Code desde archivos MD se llama Runme. Te permite ejecutar comandos desde los readmes, lo que facilita la documentación y las demostraciones. Instala Runme en VS Code para simplificar la instalación de múltiples comandos de Docker.
security. Sí, entiendo. ¿Cuál es el nombre de la extensión que utilizas para ejecutar estos scripts en Visual Code desde archivos MD? Sí, por favor, instálalo. Mi empresa está trabajando en ello. Estoy trabajando en ello ahora mismo. Se llama Runme. Si vas a VS Code, simplemente instala Runme y podrás ejecutar todos tus comandos desde los readmes, lo cual te puede ayudar con la documentación, con las demostraciones, si quieres, si tienes como 10 comandos de Docker que quieres instalar, simplemente haces clic en los botones y los instala por ti. Así que por favor, adelante e instala Runme. Muy bien.
12. Usage of ChatGPT and Database Access
Short description:
Puedes limitar la conversación a un tema específico utilizando la API. Las empresas que brindan acceso a la base de datos de JetGPT pueden representar riesgos. La diapositiva 96GB m2 muestra la disponibilidad del producto. Es poco probable que las herramientas de IA reemplacen a Node.js en un futuro cercano.
Sí. El siguiente tema es sobre el uso de ChatGPT. ¿Puedes limitar la conversación a un tema específico utilizando la API? Sí. Quiero decir, al igual que puedes configurar el avatar, quiero decir, puedes decir, quiero hablar como, sí, como Steve Jobs o Yoda o lo que sea. También puedes limitar la conversación a ChatGPT. Puedes decir algo como, está bien, vas a ser como, dame respuestas que sean de 160 caracteres de longitud. Y solo habla sobre, no sé, el cosmos o el espacio o lo que sea. Y definitivamente puedes limitar las conversaciones. Solo tienes que hacerlo al principio, en el mensaje de inicio cuando configuras la conversación. Muy bien. Tuviste una diapositiva con los puntos, si recuerdas. Entonces, ¿qué significan estos parámetros en los 1.7, 5 mil millones? Los 7 mil millones de parámetros son todos los que se recopilaron de Internet y todos estos diferentes parámetros que se utilizaron para poder proporcionar respuestas a los usuarios. Así que, sí. Correcto. Y creo que, en comparación con lo que teníamos, ¿qué empresas realmente quieren proporcionar acceso a la base de datos de JetGPT? ¿No es realmente arriesgado y no cumple con las normas? Lo siento, ¿puedes repetir la pregunta? ¿Qué empresas realmente quieren proporcionar acceso a la base de datos de JetGPT? ¿No es realmente arriesgado y no cumple con las normas? Bueno, para ser honesto, no lo sé. Sí. Otro tema se refería a una de las diapositivas, la de 96GB m2. ¿Qué pasó con eso? Si lo recuerdas, por supuesto. No, quiero decir, oh, lo siento, me lo perdí. Oops. Ahora lo vas a pensar. Sí. Básicamente, mostrará si había disponibilidad de este producto. Olvidé por completo mostrar eso, pero buen detalle. Genial. ¿Crees que las herramientas de IA pueden reemplazar a Node.js en un futuro cercano? ¿Quién va a reemplazarlo? Las herramientas de IA inteligencia artificial. No creo que en un futuro cercano. Tal vez podría suceder, pero en un futuro lejano. A largo plazo. No creo que eso suceda realmente.
13. Using chatGPT with Node.js and RunMe Extension
Short description:
¿Qué tal usar chatGPT con Node.js para habilitar su uso en países prohibidos? Dado que OpenAI utiliza texto humano para entrenar a ChatGPT, es crucial asegurarse de que nuestras aplicaciones Node.js excluyan cualquier sesgo. Al proporcionar un conjunto de datos diverso y representativo, se pueden evitar los sesgos. Además, RunMe es una extensión que simplifica la ejecución de comandos en VS Code, facilitando la incorporación de nuevos miembros del equipo y probando la funcionalidad de publicaciones de blog o documentación.
¿Qué tal usar chatGPT con Node.js para habilitar su uso en países prohibidos? En países prohibidos donde no está disponible. Hmm. Wow. Realmente no lo sé. Un tema muy complejo. Sí. Es algo que está en auge. Tenemos cada vez más preguntas y solo nos quedan unos minutos. Pero después de la charla. Después de las preguntas. Así que también pueden encontrar a Lise en la sala de preguntas y respuestas. Por supuesto. ¿Algunas más tal vez? Sí. ¿Qué tal usar ChatGPT con Node.js para... Oh, ¿eso es lo que pregunté? Lo siento. Dado que OpenAI utiliza texto humano para entrenar a ChatGPT, ¿cómo podemos asegurarnos de que nuestras aplicaciones Node.js excluyan cualquier sesgo? Bueno, ahí es cuando tienes que dar... Los data deben ser lo más amplios y representativos posible porque es fácil caer en sesgos si entrenas al modelo para que piense de una cierta manera. Entonces, si tienes un conjunto diverso de data y es representativo, así es como puedes evitar sesgos en tus aplicaciones Node.js. Sí, creo que te gustaría responder a eso. ¿Puedes contar un poco más sobre RunMe? ¿RunMe? ¡Oh, sí, claro! Entonces, sí, básicamente estoy trabajando en eso con mi empresa, y sí, es solo una extensión que es muy genial y agradecería mucho que fueras a VS Code e instalaras. Puedes encontrarlo en el Marketplace o puedes ir directamente a VS Code y buscar RunMe e instalarlo y luego, sí, básicamente con solo un botón puedes ejecutar todos los comandos que necesitas y puedes hacer cosas como, por ejemplo incorporar personas. Podría ser aún mejor porque a veces cuando hay personas nuevas hay tantas cosas que instalar y hay tanta documentación y cosas. Si solo tienes todo claro y solo haces clic en botones e instalas todo, eso también es bueno. Además, para publicaciones de blog o documentación que tienes ahí fuera, si quieres verificar que funcionan correctamente, puedes usar RunMe para hacer clic en botones y ver que funcionan correctamente. Así que sí, estoy muy emocionado de trabajar en este producto, así que por favor descárgalo e instálalo. A mi empresa le gustará. Me permitirá seguir asistiendo a eventos como este, así que por favor. Genial. Muchas gracias, Lis. Gracias.
The talk discusses the importance of supply chain security in the open source ecosystem, highlighting the risks of relying on open source code without proper code review. It explores the trend of supply chain attacks and the need for a new approach to detect and block malicious dependencies. The talk also introduces Socket, a tool that assesses the security of packages and provides automation and analysis to protect against malware and supply chain attacks. It emphasizes the need to prioritize security in software development and offers insights into potential solutions such as realms and Deno's command line flags.
There is a need for a standard library of APIs for JavaScript runtimes, as there are currently multiple ways to perform fundamental tasks like base64 encoding. JavaScript runtimes have historically lacked a standard library, causing friction and difficulty for developers. The idea of a small core has both benefits and drawbacks, with some runtimes abusing it to limit innovation. There is a misalignment between Node and web browsers in terms of functionality and API standards. The proposal is to involve browser developers in conversations about API standardization and to create a common standard library for JavaScript runtimes.
ESM Loaders enhance module loading in Node.js by resolving URLs and reading files from the disk. Module loaders can override modules and change how they are found. Enhancing the loading phase involves loading directly from HTTP and loading TypeScript code without building it. The loader in the module URL handles URL resolution and uses fetch to fetch the source code. Loaders can be chained together to load from different sources, transform source code, and resolve URLs differently. The future of module loading enhancements is promising and simple to use.
This talk covers various techniques for getting diagnostics information out of Node.js, including debugging with environment variables, handling warnings and deprecations, tracing uncaught exceptions and process exit, using the v8 inspector and dev tools, and generating diagnostic reports. The speaker also mentions areas for improvement in Node.js diagnostics and provides resources for learning and contributing. Additionally, the responsibilities of the Technical Steering Committee in the TS community are discussed.
Deno aims to provide Node.js compatibility to make migration smoother and easier. While Deno can run apps and libraries offered for Node.js, not all are supported yet. There are trade-offs to consider, such as incompatible APIs and a less ideal developer experience. Deno is working on improving compatibility and the transition process. Efforts include porting Node.js modules, exploring a superset approach, and transparent package installation from npm.
Today's Talk is about logging with Pino, one of the fastest loggers for Node.js. Pino's speed and performance are achieved by avoiding expensive logging and optimizing event loop processing. It offers advanced features like async mode and distributed logging. The use of Worker Threads and Threadstream allows for efficient data processing. Pino.Transport enables log processing in a worker thread with various options for log destinations. The Talk concludes with a demonstration of logging output and an invitation to reach out for job opportunities.
¿Alguna vez has tenido dificultades para diseñar y estructurar tus aplicaciones Node.js? Construir aplicaciones que estén bien organizadas, sean probables y extensibles no siempre es fácil. A menudo puede resultar ser mucho más complicado de lo que esperas. En este evento en vivo, Matteo te mostrará cómo construye aplicaciones Node.js desde cero. Aprenderás cómo aborda el diseño de aplicaciones y las filosofías que aplica para crear aplicaciones modulares, mantenibles y efectivas.
Platformatic te permite desarrollar rápidamente APIs GraphQL y REST con un esfuerzo mínimo. La mejor parte es que también te permite aprovechar todo el potencial de Node.js y Fastify cuando lo necesites. Puedes personalizar completamente una aplicación de Platformatic escribiendo tus propias características y complementos adicionales. En el masterclass, cubriremos tanto nuestros módulos de código abierto como nuestra oferta en la nube:- Platformatic OSS (open-source software) — Herramientas y bibliotecas para construir rápidamente aplicaciones robustas con Node.js (https://oss.platformatic.dev/).- Platformatic Cloud (actualmente en beta) — Nuestra plataforma de alojamiento que incluye características como aplicaciones de vista previa, métricas integradas e integración con tu flujo de Git (https://platformatic.dev/). En este masterclass aprenderás cómo desarrollar APIs con Fastify y desplegarlas en la nube de Platformatic.
Construyendo un Servidor Web Hiper Rápido con Deno
WorkshopFree
2 authors
Deno 1.9 introdujo una nueva API de servidor web que aprovecha Hyper, una implementación rápida y correcta de HTTP para Rust. El uso de esta API en lugar de la implementación std/http aumenta el rendimiento y proporciona soporte para HTTP2. En este masterclass, aprende cómo crear un servidor web utilizando Hyper en el fondo y mejorar el rendimiento de tus aplicaciones web.
La autenticación sin contraseña puede parecer compleja, pero es fácil de agregar a cualquier aplicación utilizando la herramienta adecuada. Mejoraremos una aplicación JS de pila completa (backend de Node.JS + frontend de React) para autenticar usuarios con OAuth (inicio de sesión social) y contraseñas de un solo uso (correo electrónico), incluyendo:- Autenticación de usuario - Administrar interacciones de usuario, devolver JWT de sesión / actualización- Gestión y validación de sesiones - Almacenar la sesión para solicitudes de cliente posteriores, validar / actualizar sesiones Al final del masterclass, también tocaremos otro enfoque para la autenticación de código utilizando Flujos Descope en el frontend (flujos de arrastrar y soltar), manteniendo solo la validación de sesión en el backend. Con esto, también mostraremos lo fácil que es habilitar la biometría y otros métodos de autenticación sin contraseña. Tabla de contenidos- Una breve introducción a los conceptos básicos de autenticación- Codificación- Por qué importa la autenticación sin contraseña Requisitos previos- IDE de tu elección- Node 18 o superior
Cómo construir una aplicación GraphQL fullstack (Postgres + NestJs + React) en el menor tiempo posible. Todos los comienzos son difíciles. Incluso más difícil que elegir la tecnología es desarrollar una arquitectura adecuada. Especialmente cuando se trata de GraphQL. En este masterclass, obtendrás una variedad de mejores prácticas que normalmente tendrías que trabajar en varios proyectos, todo en solo tres horas. Siempre has querido participar en un hackathon para poner algo en funcionamiento en el menor tiempo posible, entonces participa activamente en este masterclass y únete a los procesos de pensamiento del instructor.
Node.js test runner es moderno, rápido y no requiere bibliotecas adicionales, pero entenderlo y usarlo bien puede ser complicado. Aprenderás a utilizar Node.js test runner a su máximo potencial. Te mostraremos cómo se compara con otras herramientas, cómo configurarlo y cómo ejecutar tus pruebas de manera efectiva. Durante la masterclass, haremos ejercicios para ayudarte a sentirte cómodo con el filtrado, el uso de afirmaciones nativas, la ejecución de pruebas en paralelo, el uso de CLI y más. También hablaremos sobre trabajar con TypeScript, hacer informes personalizados y la cobertura de código.
Comments