Esta charla cubre el registro, las métricas y el rastreo con Node.js. Explora la configuración de registro con Winston y las convenciones y soluciones de registro. La charla también discute los paneles de registro y las métricas, así como las métricas y el rastreo distribuido. Se abordan las herramientas de rastreo y visualizaciones, async-await y el registro en Node.js, y el registro específico de solicitudes y el rastreo distribuido. Además, se cubren los middleware de registro y las funciones sin servidor, y la diferencia entre la instrumentación automática y manual.
From Author:
El registro, las métricas y el rastreo distribuido son tres herramientas vitales para observar los servicios de Node.js. En esta charla consideraremos los diferentes escenarios en los que cada herramienta prospera, analizaremos paneles y visualizaciones, e incluso examinaremos el código necesario para instrumentar estas herramientas en un servicio de Node.js.
This talk has been presented at Node Congress 2021, check out the latest edition of this JavaScript Conference.
FAQ
El registro es una manera de extraer el estado granular de un programa, similar al 'console.log' pero orientado a la nube. Los datos de registro suelen presentarse en formato JSON estructurado y pueden tener niveles de gravedad asociados para su filtrado.
Los niveles de gravedad comunes en los registros son error, warn, info, HTTP, verbose, debug y silly. Estos niveles permiten filtrar los registros según la importancia y el detalle que se requiera.
Se puede configurar una aplicación para que en producción solo reciba mensajes con un nivel de gravedad mayor que debug, mientras que en el entorno local se reciben todos los mensajes. Esto ayuda a controlar la cantidad y tipo de datos de registro según el entorno.
Winston es uno de los paquetes populares para manejar el registro en aplicaciones Node.js. Permite crear instancias de registros, configurar niveles de gravedad y definir formatos de salida, como JSON, ayudando a gestionar mejor los datos de registro.
Las métricas son datos numéricos agregados que permiten analizar la salud de la aplicación, como el rendimiento de las solicitudes o el uso de memoria. A diferencia de los registros, que proporcionan información granular del estado, las métricas ofrecen una vista agregada y numérica.
El tracing distribuido es una técnica para seguir las comunicaciones a medida que cruzan diferentes servicios en un sistema. Utiliza IDs de solicitud y span para asociar las solicitudes relacionadas, lo que permite visualizar la jerarquía de llamadas y diagnosticar problemas en servicios específicos.
Hola. Soy Thomas Hunter y bienvenidos a mi charla sobre Registro, Métricas y Rastreo con Node. Primero, vamos a hablar sobre el registro. El registro es una forma de extraer el estado granular de un programa. Los registros a menudo tienen un nivel de gravedad asociado, que se utiliza para filtrar. Puede configurar una aplicación para escribir registros en la salida estándar, el sistema de archivos o enviarlos directamente a través de la red. El servicio central de registro captura estos registros globalmente en todas sus aplicaciones.
Hola. Soy Thomas Hunter y bienvenidos a mi charla sobre Registro, Métricas y Rastreo con Node. Todo el contenido de esta charla está adaptado de un capítulo de mi libro recientemente publicado, Sistemas Distribuidos con Node. Primero, vamos a hablar sobre el registro. Puedes pensar en el registro como el console.log de la nube. ¿Qué es exactamente el registro? Es una forma de extraer el estado granular de un programa. Por lo general, el estado termina pareciendo datos JSON bien estructurados en lugar de las palabras o objetos aleatorios que tú o yo podríamos registrar localmente. Estos registros a menudo tienen un nivel de gravedad asociado, que se utiliza para filtrar. Por ejemplo, los niveles de gravedad que se hicieron populares gracias a NPM son error, warn, info, HTTP, verbose, debug y silly. Puedes configurar una aplicación para que, tal vez, en producción solo recibas mensajes que tengan un nivel de gravedad mayor que debug, mientras que localmente recibas todos los mensajes. Por lo tanto, estos registros se pueden escribir en la salida estándar, en el sistema de archivos o incluso enviarse directamente a través de la red por la aplicación. Si decides enviarlos desde la aplicación directamente a través de la red, eso aumentaría la complejidad de la aplicación, sin embargo, también podría agilizar la entrega de esos registros. La razón por la que necesita funcionar de esta manera es que tenemos un servicio central de registro que captura
2. Configuración de registro con Winston
Short description:
Uno de los paquetes populares para el registro en Node.js es Winston. Te permite crear una instancia de Winston y exportarla como una representación Singleton. Puedes configurar la instancia para capturar niveles de registro específicos y mostrarlos en formato JSON. Se pueden establecer propiedades meta predeterminadas para todos los registros, como el entorno de Node y el nombre de la aplicación. Se pueden configurar transportes para escribir los registros en un archivo e imprimirlos en la consola.
Uno de los paquetes populares para hacer esto es Winston, y eso es lo que vamos a ver en estos ejemplos. Aquí tenemos un archivo que crea una instancia de Winston y exporta una representación Singleton de la misma. Importamos el paquete Winston, creamos una instancia y establecemos el nivel de registro para capturar solo mensajes de información y superiores. El campo de formato indica que queremos que la salida esté en formato JSON. Las propiedades meta predeterminadas representan los campos que aparecerán en todos los registros de esta aplicación. En este caso, estamos utilizando la variable de entorno de Node para el campo 'env' y estamos nombrando la aplicación como 'profile service' en el campo 'app'. Esto es útil para diferenciar los registros de diferentes entornos y aplicaciones dentro de nuestra infraestructura. La configuración de transportes define dos salidas diferentes para estos registros. El primero indica que los registros se escriben en el archivo 'var log node app.log' y el segundo
3. Convenciones y Soluciones de Registro
Short description:
Podemos crear un registro global o un registro específico de la solicitud. Un patrón común es crear un ID de solicitud asociado con cada registro. En el ejemplo, requerimos el registro global, generamos un ID de solicitud para cada solicitud y creamos un registro secundario. El registro secundario incluye el ID de solicitud como propiedad predeterminada. Podemos usar el registro secundario para generar registros con información contextual, como la URL y el método. Otro ejemplo muestra cómo manejar errores y registrar trazas de pila. Las soluciones populares de registro incluyen Elk Stack, Splunk, Datadog y Sumo Logic.
Uno dice que se imprimen en la consola. Por lo tanto, tenemos algunas convenciones de registro bastante comunes en aplicaciones de nodo y también en aplicaciones que no son de nodo. Y así, tal vez creamos un registro global, pero también podemos tener un registro específico de la solicitud. Entonces, el registro que vimos en la pantalla anterior, eso representaría el registro global. Un patrón común también es crear un ID de solicitud, que generalmente es un valor UUID, que luego se puede asociar con cada uno de los registros para cada solicitud dada. En este ejemplo aquí abajo, estamos requiriendo el registro global. Luego, agregamos un controlador de solicitud a Fastify. Y así, dentro de cada solicitud, generamos un ID de solicitud, que es solo un UUID aleatorio, y luego creamos un registro secundario. Y así, esa es una convención de Winston para crear un nuevo registro con propiedades predeterminadas. En este caso, la única propiedad predeterminada es el ID de solicitud. Luego, adjuntamos eso al objeto de solicitud para poder usarlo en otras solicitudes. Entonces, el último fragmento de código al final, eso extrae la URL y el método del objeto de solicitud y luego genera un registro. Entonces, request.logger.info es una forma de crear un mensaje de información. Y así, el nombre del registro es on request. Y las dos propiedades adicionales que estamos agregando contextualmente son la URL y el método. Aquí hay un ejemplo de otro registro. Esta vez, estamos intentando guardar datos en una base de datos. Sin embargo, ha ocurrido un problema. Entonces, envolvemos eso en un try catch. Y luego capturamos el error y registramos la traza de la pila. Entonces, aquí estamos llamando a request.logger.error. Por supuesto, creando un mensaje de error. El nombre del mensaje es DB persists error. Y luego asignamos el mensaje de error, la traza de error e incluso el ID de registro a ese registro. De esa manera, un desarrollador puede ingresar más tarde e intentar descubrir por qué ese mensaje no se persistió. Aquí hay algunas soluciones de registro que podemos usar. Una bastante popular se llama Elk Stack y esto se puede alojar en tu propio servidor o incluso puedes pagar a empresas para que lo alojen por ti. Entonces, es una combinación de la base de datos Elasticsearch, el demonio Logstash y el panel de gráficos Kibana. Y así, otras alternativas que son de pago incluyen Splunk, Datadog como proyecto de registros y Sumo Logic también. Entonces, ¿cómo se ven realmente estos registros? Bueno, aquí hay una captura de pantalla de un panel de control de mi empleador, lob.com, que está contratando, de
4. Panel de Control de Registro y Métricas
Short description:
Este panel de control muestra registros que coinciden con la consulta, junto con los registros en bruto. La consulta se escribe en KQL, que significa Kibana Query Language. Por otro lado, las métricas proporcionan datos numéricos agregados y ayudan a comprender la salud de la aplicación. Las métricas incluyen nombres y etiquetas asociadas para consultas. Proporcionan mediciones del mundo real que los puntos de referencia no pueden. Las métricas pueden rastrear el rendimiento de las solicitudes, el tiempo, el uso de memoria, los códigos de estado e incluso datos relacionados con el negocio. Las métricas suelen ser más económicas que los registros. El código de ejemplo demuestra el uso del paquete cliente StatsD para crear y rastrear métricas de tiempo de solicitud, códigos de estado y métodos.
En este panel de control se muestra un gráfico de registros que coinciden con la consulta y luego los registros en bruto debajo. La consulta en la parte superior de la pantalla se escribe en KQL, que significa Kibana Query Language, y así es como estoy consultando estos registros aquí. En este caso, estoy buscando registros con un mensaje de solicitud manejada y donde el código de estado sea al menos 500. Así es como se muestran todos los errores del lado del servidor. Aquí vemos que en las últimas 24 horas tuvimos seis de estos errores 500. Y todos estos datos que estamos viendo hoy son datos de series temporales y se filtran según el tiempo. Ahora vamos a ver las métricas. Mientras que los registros analizan datos más individuales, las métricas analizarán datos numéricos agregados. ¿Qué son las métricas? Bueno, nuevamente, son datos de series temporales, casi completamente numéricos. Es una forma de comprender la salud de la aplicación. Por lo general, estas métricas aún tienen un nombre y tal vez algunas etiquetas asociadas con ellas. Las etiquetas son pares clave-valor que se pueden usar para consultas. Y eso depende de la implementación que elijas. Esto te va a proporcionar información que los puntos de referencia del mundo real no pueden. Esto te va a proporcionar información del mundo real que los puntos de referencia no pueden proporcionar. Un punto de referencia es como una estimación de cómo funcionará la aplicación, mientras que las métricas son mediciones reales de cómo funciona la aplicación. Es común almacenar métricas para cosas como el rendimiento de las solicitudes, el tiempo de las solicitudes, el uso de memoria de la aplicación. Incluso puedes rastrear los códigos de estado, ya sabes, 500 versus 200, o tal vez la popularidad de los puntos finales. Incluso puedes rastrear cosas que no son necesariamente basadas en ingeniería. Cosas más relacionadas con el negocio, como cuánto dinero se gasta, cómo es la rotación de usuarios, si se hacen clic en los anuncios, etc. Por lo general, las métricas resultan ser más económicas que los registros, tanto en costo computacional como en costo de transmisión. Aquí hay un código de ejemplo. Aquí estamos usando el paquete cliente StatsD y creamos una nueva instancia de StatsD. Al crearlo, pasamos alguna configuración. Estoy pasando por alto los detalles de conexión, pero en este caso, puedes ver que el prefijo para estas métricas es myapp. Y así, es común usar este patrón para agregar un prefijo a estas métricas con el nombre de una aplicación. Luego, separas el nombre de estas métricas usando puntos y luego puedes definir una jerarquía de solicitudes. Y así, nuevamente, estamos agregando un middleware de Fastify. Esta vez, ocurre a nivel de respuesta, por lo que vamos a rastrear el tiempo de la solicitud, así como el código de estado que se recibió e incluso el método. Y así, usando esta información,
5. Métricas y Tracing Distribuido
Short description:
Entonces, existen diferentes soluciones de métricas como statsd, graphite y grafana o prometheus y grafana. La empresa Datadog también tiene un producto de métricas. Las métricas se pueden representar en gráficos, mostrando las solicitudes salientes, el tiempo de las solicitudes y los códigos de estado entrantes. El tracing distribuido permite rastrear las comunicaciones entre servicios, asociar solicitudes relacionadas y visualizar la jerarquía de solicitudes.
Aquí podemos ver el tiempo que una solicitud tarda a lo largo del tiempo. Entonces, hay algunas soluciones de métricas diferentes, no tan populares como la escena de registro, pero definitivamente hay más de una opción. Una pila común es usar statsd, que es un demonio para recopilar estas métricas, graphite, que es una base de datos para el almacenamiento, y luego grafana, que es un panel de control. Otra combinación popular es prometheus y grafana. Y finalmente, la empresa Datadog también tiene un producto de métricas. ¿Cómo se ven realmente estas métricas? Bueno, aquí hay un gráfico. Este es solo un ejemplo utilizando algunas entradas falsas. Pero aquí podemos ver en la parte superior izquierda, esto está contando las solicitudes salientes. Y así, podemos ver que por segundo, tenemos 50 solicitudes desde aproximadamente las 15:27 hasta las 15:33. En la parte superior derecha, tenemos el tiempo de las solicitudes salientes. Entonces, eso nos muestra cuánto tiempo tarda la solicitud en tener éxito. Y en la parte inferior, tenemos una lista de los códigos de estado entrantes. O como puedes ver, tenemos una larga línea triste de códigos de error 500 y luego una ráfaga de códigos de error 200. En la parte inferior, esa es una consulta que he escrito en Grafana para consultar estos datos. Estoy mirando las métricas myapp.requests.status.anything y luego simplemente envolviendo eso en una función que cambia el nombre de la salida. Entonces, eso nos da el gráfico inferior. Y finalmente, vamos a ver el tracing distribuido. Y así, esto nos permite realizar un seguimiento de las comunicaciones a medida que cruzan los servicios. ¿Qué es el tracing distribuido? Bueno, es una forma de asociar estas solicitudes relacionadas a medida que fluyen a través de tu sistema. Y así, tal vez tengas un servicio superficial y luego servicios más profundos. Una solicitud pasa por el superficial y luego se envía a los más profundos, que luego pueden enviarse a otros aún más profundos. Y así, terminas con una estructura de árbol de solicitudes. Clásicamente, visualizar eso es un poco difícil, y por eso tenemos el tracing distribuido. Y así, a alto nivel, estas diferentes implementaciones finalmente llegan a algún tipo de ID de solicitud, que es como un valor aleatorio para identificar todas estas solicitudes relacionadas. Y luego, dependiendo de la implementación, incluso obtienes algo llamado un ID de span, que es una forma de identificar y asociar pares de solicitud-respuesta individuales. Y así, cuando un servidor superficial se comunica con un servidor más profundo, obtendrá su propio ID de span. Estos IDs se pasan a menudo como encabezados HTTP. Si estás utilizando una herramienta como gRPC, necesitarías encontrar una forma diferente de pasar estos encabezados. Toda esta información se envía a un servicio de gestión central, al igual que con el registro y las métricas. Y como mencioné, te permitirá ver visualmente la jerarquía de la solicitud. Es útil ver qué servicio fue lento o si una solicitud falla, ya sabes,
6. Tracing Distribuido e Instrumentación
Short description:
Puedes proporcionar el UUID de solicitud generado a tu registro para asociar registros en todos tus servicios. Se muestra un ejemplo utilizando el paquete zipkin lite con Fastify y node fetch. La aplicación se instrumenta agregando una ruta para obtener un widget. El ID de solicitud se registra y se puede acceder en toda la solicitud. El código también establece el nombre de la solicitud y prepara la solicitud de Zipkin para una solicitud saliente. Soluciones de tracing como Zipkin y Jaeger son populares y se pueden alojar en tu propio servidor.
qué servicio fue el responsable de eso. Y como bonificación, en realidad puedes tomar ese UUID de solicitud que es generado por el tracing distribuido, y proporcionarlo a tu registro. Y así es como puedes asociar fácil y rápidamente registros en todos tus servicios.
Aquí tienes un ejemplo de implementación de tracing. Esto utiliza el paquete zipkin lite. Y nuevamente, estamos usando Fastify. También se utilizará el paquete node fetch. Creamos una conexión de zipkin. Y especificamos el host al que vamos a enviar esta información de zipkin, siendo zipkin una implementación de tracing. También tenemos que nombrar el servicio, llevar un registro del puerto del servicio y la IP del servicio. Finalmente, instanciamos el servidor Fastify y luego agregamos dos hooks a él. El primero ocurre cuando se recibe una solicitud y el segundo ocurre cuando se envía la respuesta. Estos dos middlewares realizan tareas como llevar un registro del tiempo de inicio de la solicitud, generar un ID de solicitud, y finalmente transmitir toda esa información al servidor central de zipkin.
Ahora, aquí tienes un ejemplo de cómo instrumentar la aplicación en sí misma. Lo que estamos haciendo es agregar una ruta en la aplicación. Entonces, cuando el usuario obtiene un widget, se llama a esta ruta. Lo primero que sucede aquí es que se registra el ID de solicitud. Y esto es solo una forma de mostrar cómo se puede acceder a ese ID de solicitud. Idealmente, tendrías un middleware que luego toma ese ID de solicitud y lo adjunta al registro de solicitud para que puedas usarlo en toda la solicitud. Y este código también genera o establece el nombre de la solicitud, en este caso, para obtener el widget y se usa más adelante para informes. Y finalmente, tal vez haya mucho otro código que ocurre dentro de la aplicación a lo largo de la solicitud, pero llegamos a un punto en el que estamos listos para hacer una solicitud saliente. Lo primero que hacemos es preparar la solicitud de Zipkin. También tenemos acceso a esta URL. Y luego hacemos una llamada fetch. Entonces, la llamada fetch es en su mayoría la misma, excepto que específicamente tenemos que proporcionar los encabezados que se generan a partir de esta preparación de solicitud de Zipkin. Una vez que se completa la solicitud, llamamos a este método complete y pasamos el método HTTP y una URL. Y finalmente, terminamos la solicitud.
Entonces, hay varias soluciones de tracing disponibles. La que acabamos de ver es Zipkin. Otra alternativa popular de código abierto es Jaeger. Estas son dos opciones que puedes alojar en tu propio servidor.
7. Herramientas de Tracing y Visualizaciones
Short description:
Tanto Zipkin como data.dog.apm ofrecen formas excelentes de rastrear y monitorear tus aplicaciones. Zipkin ofrece una vista jerárquica de los servicios y su información de tiempo, mientras que data.dog.apm proporciona una línea de tiempo de rendimiento similar a las herramientas del navegador. Estas herramientas capturan automáticamente metadatos y pueden modificar tu aplicación para pasar encabezados para un rastreo de servicios más profundo. Si deseas obtener más información, puedes seguirme en Twitter o consultar la presentación sobre sistemas distribuidos con Node.
Y ambas herramientas pueden seguir algo llamado especificación OpenTelemetry, que es una forma de definir, ¿sabes?, ¿qué son los encabezados que se pasan? ¿Qué tipo de información de tiempo estás rastreando? ¿Cómo se envía al servidor central, etc.? La compañía Datadog también tiene un producto APM. Y New Relic es otra solución de rastreo popular.
Entonces, ¿cómo se ve realmente el rastreo? Bueno, con Zipkin, terminas obteniendo una jerarquía bastante agradable. Esta es una captura de pantalla tomada del sitio web de Zipkin. Podemos ver a la izquierda que tenemos una jerarquía de los servicios. Tenemos, por ejemplo, el servicio de enrutamiento. Debajo de eso está Memcached, Yelp, Main, etc. Junto a eso, tenemos una línea de tiempo agradable que muestra el tiempo real que lleva. Y utilizando esa línea de tiempo, podemos ver que la solicitud general ocurre en la parte superior, tardó aproximadamente 131 milisegundos. Luego, las diferentes operaciones debajo de eso tomaron más tiempo. Y así, la profundidad de este gráfico representa la profundidad de la cadena de solicitudes dentro de tu aplicación. A la derecha, vemos algunas anotaciones de metadatos que también se rastrean.
data.dog.apm es otra herramienta alternativa. Esta se parece un poco más a la línea de tiempo de rendimiento que podrías ver en el navegador mientras mides la eficiencia de tu JavaScript. En este caso, el eje X también representa el tiempo, pero el eje Y representa de manera aproximada diferentes cosas que están sucediendo dentro de la aplicación. data.dog.apm es una forma agradable de instrumentar automáticamente tu base de código. Todas estas cosas diferentes que se muestran aquí se capturan automáticamente desde la aplicación. Y aquí tienes una captura de pantalla en vivo real de una solicitud en lob.com. Ves que tardó aproximadamente 850 milisegundos. Y así, he ampliado este gráfico, pero antes de esto, estábamos haciendo cosas como descargar un recurso de una postal de un cliente. También podemos ver cosas como las solicitudes a Postgres, una llamada a AWS, etc. Y así, el APM de Datadog modifica automáticamente la aplicación y pasa cosas como encabezados, que luego se envían a servicios más profundos. Bien, eso es todo. Siéntete libre de seguirme en Twitter. La presentación está disponible en esta URL. Por supuesto, este contenido fue tomado de sistemas distribuidos con Node. Si deseas obtener más información, no dudes en visitar esa URL.
QnA
Async-Await and Logging in Node.js
Short description:
La sintaxis de async-await es agradable. También es la más nueva. Aún tienes ese problema de anidamiento y eso se resuelve con async-await. El papel del registro en las funciones de Node.js es tan útil como en cualquier otra aplicación. Quieres saber la salud de tu aplicación, si las cosas siguen funcionando, si hay retrasos. La mejor manera de organizar los registros de series temporales de los dispositivos IoT es estableciendo métricas utilizando una jerarquía. Asígnalos según el componente IoT y las regiones donde se ejecuta el equipo. El enfoque de registro mostrado en la presentación utiliza dos registradores, uno de ellos siendo un registrador universal.
Creo que eso es de esperar, sí. La sintaxis de async-await es agradable. También es la más nueva. Sí, es bastante común en este momento usar async-await. Y las promesas siguen siendo bastante populares, creo. Pero sí, aún tienes ese problema de anidamiento y eso se resuelve con async-await. Así que eso es agradable. Así que la sesión de preguntas y respuestas es bastante emocionante ahora, porque vas a regalar tu gran libro. Así que vamos a las preguntas. Y espero que podamos responder a todas ellas. La primera es de Brian Howe. Hugh, ¿qué papel desempeña el registro para las funciones de Node.js? Supongo que por funciones se refieren a funciones lambda, cosas así. Así que quiero decir que es tan útil como en cualquier otra aplicación. Quieres saber la salud de tu aplicación, quieres saber si las cosas siguen funcionando, si hay retrasos. Así que definitivamente es útil al enviar, tal vez, métricas mientras invocas funciones, luego puedes construir un panel que te muestre, tal vez, cuántas funciones simultáneas tienes en ejecución, cosas así. Creo que mucha de esta información probablemente la puedas obtener de quien aloja las funciones como AWS, pero también puedes extraer tus propios datos de eso.
Ok. La siguiente pregunta es de chshirendra2010. ¿Cuál es la mejor manera de organizar los registros de series temporales que provienen de los dispositivos IoT? Bueno, supongo que primero admitiré que nunca he trabajado con IoT. Sabes, gran parte de todos los datos de los que hablé en esta charla se trata de datos de series temporales. Datos que están vinculados a un cierto punto en el tiempo. Y así, sabes, creo que con las aplicaciones quieres organizar tus métricas utilizando una jerarquía donde el nivel superior sea tu aplicación. Entonces, por ejemplo, tal vez tengas una aplicación de vista de perfil, como una aplicación de galería, una aplicación de autenticación, pero con IoT, tal vez quieras asignarles un espacio de nombres basado en el componente IoT que tengas. Y luego, tal vez, si tienes regiones donde se ejecuta el equipo IoT, creo que podrías tener, por ejemplo, temperatura de la cama en América del Norte, sabes, creo que solo quieres crear una jerarquía que se ajuste a tu caso de uso. Sí, exactamente, sí. Bien. La siguiente pregunta es de Alexey. ¿Has creado en el ejemplo inicial un registrador de instancia de solicitud? ¿Cómo puedes recomendar proporcionar dos niveles que están por debajo del servidor web, como la lógica empresarial o los repositorios de bases de datos? Sí, supongo que lo complicado con eso es que con el enfoque de registro que mostré en la presentación, tienes los dos registradores,
Request-specific Logging and Distributed Tracing
Short description:
El contexto dentro de un script de PHP representa la solicitud que se está realizando. En el seguimiento distribuido, puedes adjuntar el ID de solicitud al registrador específico de la solicitud. Para aplicaciones sin servidor, es difícil pasar encabezados de solicitud, pero puedes insertar el ID de solicitud en la carga útil. Existen formas de enviar estos datos a una herramienta de seguimiento distribuido. También existen herramientas o middleware que evitan el registro de información confidencial.
uno es como un registrador universal. El otro es específico de la solicitud. Y si estuviéramos construyendo aplicaciones utilizando un lenguaje como PHP, bueno, globalmente, el contexto dentro de un script de PHP representa la solicitud que se está realizando, tanto en Node, sabes, tenemos que mantener un seguimiento de ese contexto y pasarlo. Así que puedes usar, sabes, creo que patrones como el almacenamiento local continuo para facilitar el paso de estos registradores. De lo contrario, podrías encontrarte modificando, sabes, códigos anidados profundamente para pasar el registrador de solicitud más profundo en la aplicación. Eso es un poco desordenado, pero, sabes, sí, puedes usar algo como CLS para facilitar eso.
Genial. Otra pregunta de Java task. ¿Cuál es la mejor manera de correlacionar los registros con los rastreos en DT? ¿En DT? No sé qué... Oh, en seguimiento distribuido. Por ejemplo, en la presentación, mostré cómo un... creas un middleware que crea el registrador específico de la solicitud. Entonces, en ese momento, si estás utilizando una herramienta de seguimiento distribuido y recibes una solicitud entrante con un ID de solicitud, puedes adjuntarlo al registrador. Sin embargo, si eres la aplicación más superficial dentro de la pila, sabes, la que recibe la primera solicitud en ese momento, entonces generarías el ID de solicitud para pasarlo a los servicios más profundos. Así que, al adjuntar ese ID de solicitud al registrador específico de la solicitud, luego puedes buscar todos esos registros usando tus herramientas de registro como Kibana. Genial. La siguiente pregunta es de Brian H. Yoo nuevamente. Cuando hablas de seguimiento distribuido, ¿cómo funciona el registro o cómo se vería en la nube para aplicaciones sin servidor? Sí, ¿cómo funciona con sin servidor? Entonces, sí, supongo que, nuevamente, cosas como Lambda. Sí. Creo que cuando invocas una Lambda, no necesariamente tienes una solicitud HTTP visible con ella. Por lo tanto, es difícil pasar estos encabezados de solicitud. Dicho esto, cuando invocas una Lambda, proporcionas algún tipo de solicitud como carga útil. Y luego podrías hacer cosas como tomar ese ID de solicitud y simplemente insertarlo en esa carga útil. Y luego hay formas de tomar esos datos y enviarlos a una herramienta de seguimiento distribuido. La versión más larga de esta presentación mostró un desglose de todos los paquetes y mensajes reales que se envían. Y así, es posible, sabes, reconstruir estas representaciones de tramos HTTP y luego enviarlas al servicio de seguimiento distribuido. De acuerdo. Otra pregunta de Alexey. ¿Conoces alguna herramienta o middleware que evite que la aplicación registre información confidencial como contraseñas y tokens?
Logging Middleware and Serverless Functions
Short description:
En lob.com, utilizamos un middleware para crear una lista de denegación de campos que no deben registrarse. Hay herramientas disponibles para eliminar automáticamente o permitir listas de denegación manuales. Para funciones sin servidor, puedes instanciar un registrador que envíe registros a un servicio diferente, como una instancia de Logstash. Puedes medir aspectos internos de Node.js, como los retrasos del bucle de eventos o la frecuencia de recolección de basura, accediendo a las métricas expuestas dentro de Node mismo. Las métricas suelen tener menos sobrecarga, mientras que el seguimiento puede ser más pesado, especialmente con soluciones de seguimiento automático.
No se me ocurre ninguna de inmediato. Ciertamente existen. En lob.com, utilizamos un middleware donde podemos crear una lista de denegación de campos que queremos evitar que se registren. Por ejemplo, no queremos registrar nombres y direcciones. Y, por supuesto, existen herramientas que pueden eliminarlos automáticamente o permitirte proporcionar tu propia lista de denegación. LUC BANSALIN Puedes simplemente dar algunas claves, como si esta es la clave, no registres el valor, por favor. Lo cual también se puede hacer fácilmente a mano. Sí. La siguiente pregunta es de Alejandro. Excelente charla. Siempre es bueno escuchar eso. ¿Algún consejo o experiencia utilizando el registro para funciones sin servidor, como por ejemplo, funciones de Firebase o GoogleCloud o AWS Lambda? MICHAEL LEMERON Lamentablemente, no tengo mucha experiencia práctica con funciones sin servidor en lo que respecta al registro. Ciertamente, herramientas como CloudFormation extraen algunos de esos registros por ti. Pero al final del día, puedes instanciar un registrador que envíe registros a un servicio diferente. Por ejemplo, puedes tener una instancia de Logstash escuchando en un puerto, que luego recibe mensajes UDP que contienen cargas útiles JSON, y puedes transmitir esos mensajes a ese receptor desde tu entorno sin servidor. Así que esa es una forma de enviar registros, lo que podría facilitar en una situación sin servidor. Muy bien. Veamos cuánto tiempo nos queda. Ok, la siguiente pregunta es de David Lime. ¿Puedes recomendar formas de instrumentar aspectos internos deNode.js como los retrasos del bucle de eventos o la frecuencia de recolección de basura para enviar a los servicios? Esa es una buena pregunta. Me gusta esa. Sí, absolutamente puedes hacerlo. Hay un montón de métricas diferentes que se exponen dentro de Node mismo, por lo que puedes medir el tamaño del montón o algunas de las que introduje recientemente en una aplicación en vivo, como el número de controladores de archivos abiertos y el número de conexiones concurrentes en un servidor web. Y así, no sé de memoria dónde se encuentran esas propiedades, pero si compras mi libro, ciertamente hay una sección allí con muchos ejemplos. Buen anuncio. La siguiente pregunta es de 1LV4N ¿cuál es la sobrecarga esperada al recopilar registros, trazas, etc. en tu sistema? Excelente pregunta. Cosas como las métricas suelen tener una sobrecarga menor porque con las métricas, con los datos que envías a StatsD, en realidad solo estás enviando pequeñas cadenas de texto plano que estás enviando mediante UDP, lo cual tiene una sobrecarga muy, muy mínima. Incluso los registros suelen tener una sobrecarga bastante baja. Sabes, hay un costo de serializar el registro, pero generalmente esa información se envía de forma asíncrona y no debería ralentizar los componentes principales de la aplicación. Sin embargo, el seguimiento, el seguimiento puede ser un poco más pesado, especialmente si estás utilizando una solución de seguimiento automático. Creo que el impacto en el rendimiento de eso será un poco mayor.
Instrumentación Automática vs Manual
Short description:
Si estás utilizando una herramienta automática, como una herramienta de estilo APM, puede ser más pesada. Pero si estás instrumentando manualmente y pasando encabezados, tendrá un impacto mínimo. Console.log y process.stdout/process.write tienen un rendimiento similar. Console.log es más fácil de usar y ampliamente compatible. Thomas eligió la pregunta de David Lane como la mejor y se pondrá en contacto con él para el libro.
Entonces, si estás utilizando una herramienta automática, como una herramienta de estilo APM, se va a instrumentar básicamente todo. Y por lo tanto, inyecta código que se sitúa entre una llamada entre la aplicación y la biblioteca. Y esto puede volverse un poco más pesado. Pero si estás instrumentando manualmente y pasando manualmente solo algunos encabezados en tu aplicación, como en el ejemplo que utilicé en la sección de seguimiento distribuido, eso probablemente tendrá un impacto en el rendimiento más mínimo.
Muy bien. Gracias. Otra pregunta de André Calasanz. ¿Hay algún impacto/sobrecarga en el uso de console.log en comparación con process.stdout/process.write? ¿O cuál recomiendas para el registro? Si estás haciendo algo como, ya sabes, dentro de un camino de código activo, si estás registrando, podrías encontrar una diferencia entre ellos. Pero si estás registrando un mensaje como parte de una solicitud HTTP o si hay muchas cosas asíncronas sucediendo, básicamente si no estás simplemente enviando estos mensajes, probablemente no verás una diferencia de rendimiento. Personalmente, me encanta console.log porque puedo usarlo en el front-end de JavaScript, en el back-end de JavaScript, y es más fácil de recordar. Eso es generalmente lo primero que haces y luego cuando dices, bien, ahora tengo 20 registros. Ahora necesito usar las herramientas de depuración.
Entonces, Thomas, nos quedan solo unos momentos. Pero en lugar de hacer una pregunta, me gustaría que leas las preguntas que se han hecho en el canal de preguntas y respuestas de Notalk. Así puedes elegir la mejor pregunta para el ganador, para tu libro. Y mientras Thomas hace eso, te informaré cómo funcionará este proceso. Entonces Thomas va a leer las preguntas ahora y tomará una decisión informada sobre cuál es la mejor, la pregunta más profunda que se haya hecho. Y luego Thomas anunciará al ganador y se pondrá en contacto con esa persona en Discord para compartir su correo electrónico y él se encargará de enviar el libro a tu lugar lo antes posible. Entonces, Thomas, ¿estás listo? ¿Has leído el resto de las preguntas? Sí. Creo que... Sí, disfruté más la pregunta de David. David Lane. Entonces la pregunta fue, ¿puedes recomendar formas de instrumentar los aspectos internos de Node.js, como los retrasos del bucle de eventos o la frecuencia de recolección de basura, para enviar a estos servicios? Entonces, David, Thomas se pondrá en contacto contigo, así que revisa tu bandeja de entrada en Discord y disfruta de tu libro. Asegúrate, cuando lo hayas leído, de enviar un tweet en nuestro camino en Node congress, y también, por supuesto, hazle saber a Thomas porque siempre es agradable recibir comentarios, ¿verdad? Absolutamente. Muy bien, Thomas. Bueno, muchas gracias por unirte a nosotros. Y para las personas que quieran hacer sus preguntas a Thomas que no tuvieron la oportunidad de responder, Thomas estará en su sala de altavoces de chat espacial si quieren unirse a él. Thomas, muchas gracias. Espero verte de nuevo pronto. Gracias. Adiós.
The talk discusses the importance of supply chain security in the open source ecosystem, highlighting the risks of relying on open source code without proper code review. It explores the trend of supply chain attacks and the need for a new approach to detect and block malicious dependencies. The talk also introduces Socket, a tool that assesses the security of packages and provides automation and analysis to protect against malware and supply chain attacks. It emphasizes the need to prioritize security in software development and offers insights into potential solutions such as realms and Deno's command line flags.
There is a need for a standard library of APIs for JavaScript runtimes, as there are currently multiple ways to perform fundamental tasks like base64 encoding. JavaScript runtimes have historically lacked a standard library, causing friction and difficulty for developers. The idea of a small core has both benefits and drawbacks, with some runtimes abusing it to limit innovation. There is a misalignment between Node and web browsers in terms of functionality and API standards. The proposal is to involve browser developers in conversations about API standardization and to create a common standard library for JavaScript runtimes.
ESM Loaders enhance module loading in Node.js by resolving URLs and reading files from the disk. Module loaders can override modules and change how they are found. Enhancing the loading phase involves loading directly from HTTP and loading TypeScript code without building it. The loader in the module URL handles URL resolution and uses fetch to fetch the source code. Loaders can be chained together to load from different sources, transform source code, and resolve URLs differently. The future of module loading enhancements is promising and simple to use.
This talk covers various techniques for getting diagnostics information out of Node.js, including debugging with environment variables, handling warnings and deprecations, tracing uncaught exceptions and process exit, using the v8 inspector and dev tools, and generating diagnostic reports. The speaker also mentions areas for improvement in Node.js diagnostics and provides resources for learning and contributing. Additionally, the responsibilities of the Technical Steering Committee in the TS community are discussed.
Deno aims to provide Node.js compatibility to make migration smoother and easier. While Deno can run apps and libraries offered for Node.js, not all are supported yet. There are trade-offs to consider, such as incompatible APIs and a less ideal developer experience. Deno is working on improving compatibility and the transition process. Efforts include porting Node.js modules, exploring a superset approach, and transparent package installation from npm.
Today's Talk is about logging with Pino, one of the fastest loggers for Node.js. Pino's speed and performance are achieved by avoiding expensive logging and optimizing event loop processing. It offers advanced features like async mode and distributed logging. The use of Worker Threads and Threadstream allows for efficient data processing. Pino.Transport enables log processing in a worker thread with various options for log destinations. The Talk concludes with a demonstration of logging output and an invitation to reach out for job opportunities.
¿Alguna vez has tenido dificultades para diseñar y estructurar tus aplicaciones Node.js? Construir aplicaciones que estén bien organizadas, sean probables y extensibles no siempre es fácil. A menudo puede resultar ser mucho más complicado de lo que esperas. En este evento en vivo, Matteo te mostrará cómo construye aplicaciones Node.js desde cero. Aprenderás cómo aborda el diseño de aplicaciones y las filosofías que aplica para crear aplicaciones modulares, mantenibles y efectivas.
Platformatic te permite desarrollar rápidamente APIs GraphQL y REST con un esfuerzo mínimo. La mejor parte es que también te permite aprovechar todo el potencial de Node.js y Fastify cuando lo necesites. Puedes personalizar completamente una aplicación de Platformatic escribiendo tus propias características y complementos adicionales. En el masterclass, cubriremos tanto nuestros módulos de código abierto como nuestra oferta en la nube:- Platformatic OSS (open-source software) — Herramientas y bibliotecas para construir rápidamente aplicaciones robustas con Node.js (https://oss.platformatic.dev/).- Platformatic Cloud (actualmente en beta) — Nuestra plataforma de alojamiento que incluye características como aplicaciones de vista previa, métricas integradas e integración con tu flujo de Git (https://platformatic.dev/). En este masterclass aprenderás cómo desarrollar APIs con Fastify y desplegarlas en la nube de Platformatic.
Construyendo un Servidor Web Hiper Rápido con Deno
WorkshopFree
2 authors
Deno 1.9 introdujo una nueva API de servidor web que aprovecha Hyper, una implementación rápida y correcta de HTTP para Rust. El uso de esta API en lugar de la implementación std/http aumenta el rendimiento y proporciona soporte para HTTP2. En este masterclass, aprende cómo crear un servidor web utilizando Hyper en el fondo y mejorar el rendimiento de tus aplicaciones web.
La autenticación sin contraseña puede parecer compleja, pero es fácil de agregar a cualquier aplicación utilizando la herramienta adecuada. Mejoraremos una aplicación JS de pila completa (backend de Node.JS + frontend de React) para autenticar usuarios con OAuth (inicio de sesión social) y contraseñas de un solo uso (correo electrónico), incluyendo:- Autenticación de usuario - Administrar interacciones de usuario, devolver JWT de sesión / actualización- Gestión y validación de sesiones - Almacenar la sesión para solicitudes de cliente posteriores, validar / actualizar sesiones Al final del masterclass, también tocaremos otro enfoque para la autenticación de código utilizando Flujos Descope en el frontend (flujos de arrastrar y soltar), manteniendo solo la validación de sesión en el backend. Con esto, también mostraremos lo fácil que es habilitar la biometría y otros métodos de autenticación sin contraseña. Tabla de contenidos- Una breve introducción a los conceptos básicos de autenticación- Codificación- Por qué importa la autenticación sin contraseña Requisitos previos- IDE de tu elección- Node 18 o superior
Cómo construir una aplicación GraphQL fullstack (Postgres + NestJs + React) en el menor tiempo posible. Todos los comienzos son difíciles. Incluso más difícil que elegir la tecnología es desarrollar una arquitectura adecuada. Especialmente cuando se trata de GraphQL. En este masterclass, obtendrás una variedad de mejores prácticas que normalmente tendrías que trabajar en varios proyectos, todo en solo tres horas. Siempre has querido participar en un hackathon para poner algo en funcionamiento en el menor tiempo posible, entonces participa activamente en este masterclass y únete a los procesos de pensamiento del instructor.
Node.js test runner es moderno, rápido y no requiere bibliotecas adicionales, pero entenderlo y usarlo bien puede ser complicado. Aprenderás a utilizar Node.js test runner a su máximo potencial. Te mostraremos cómo se compara con otras herramientas, cómo configurarlo y cómo ejecutar tus pruebas de manera efectiva. Durante la masterclass, haremos ejercicios para ayudarte a sentirte cómodo con el filtrado, el uso de afirmaciones nativas, la ejecución de pruebas en paralelo, el uso de CLI y más. También hablaremos sobre trabajar con TypeScript, hacer informes personalizados y la cobertura de código.
Comments