En Memoria de las Dificultades

Rate this content
Bookmark

Dos aspectos de los resolvers tienen una influencia desproporcionada en su rendimiento: el tamaño del contexto de ejecución y la forma en que calculamos su valor. En la implementación de Node.js de graphql, las promesas que envuelven valores primitivos son especialmente disruptivas, ya que añaden una gran sobrecarga computacional. El tamaño del contexto crea una línea base de uso de memoria que puede aumentar muy rápidamente incluso con pequeñas adiciones al contexto, cuando hay muchos contextos concurrentes. La ejecución puede crear objetos temporales, aumentando el uso de memoria. Los resolvers que se ejecutan con frecuencia, como aquellos responsables de completar grandes matrices de objetos, pueden convertirse en cuellos de botella de rendimiento.

En Auction.com, nuestra página de resultados de búsqueda (SRP) solicita hasta 500 elementos de aproximadamente 80 campos cada uno. La consulta que resuelve estos campos estaba sufriendo una alta latencia. Examinaremos las herramientas para instrumentar nuestro código e identificar los cuellos de botella en el uso de memoria y la utilización de CPU.

Nuestros elementos en tiempo real (por ejemplo, actualizaciones en tiempo real del estado de las propiedades actualmente vistas) se implementan utilizando una traducción de mensajes kafka a actualizaciones graphql. Presentaremos las herramientas y procedimientos para reducir el uso de memoria y CPU al distribuir tales mensajes.

This talk has been presented at JSNation US 2024, check out the latest edition of this JavaScript Conference.

Gabriel Schulhof
Gabriel Schulhof
28 min
21 Nov, 2024

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Hola, mi nombre es Gabriel. Trabajo en auction.com y voy a hablar sobre cómo mejoramos el rendimiento de los resolvers de GraphQL para nuestro servicio de GraphQL. Tuvimos un problema con nuestra implementación de suscripción, donde experimentábamos un alto número de reinicios debido a fallos en la asignación de memoria. Esto nos llevó a investigar y optimizar el consumo de memoria de nuestros resolvers. Para evaluar el rendimiento, configuramos un entorno local con Kafka, Graph y un cliente que conectó 4000 WebSockets a Graph. Después de realizar la prueba, descubrimos que solo podíamos procesar y distribuir 16 mensajes a nuestros clientes. Yay. El gráfico de consumo de memoria mostró picos y valles a medida que se entregaban los mensajes. Se observaron tres fases distintas: inactivo, Sockets conectados sin mensajes y mensajes siendo procesados. Decidimos optimizar el contexto, que contiene información específica de la solicitud y detalles del backend. Dado que las suscripciones implican principalmente el envío de mensajes Kafka, nos dimos cuenta de que el mensaje en sí a menudo tiene toda la información necesaria. Por lo tanto, solo creamos backends cuando se realiza una llamada a ellos. Optimizamos nuestro proceso de creación de backends utilizando el objeto proxy, lo que nos permite crear backends de manera perezosa solo cuando se acceden. Esto resultó en un menor consumo de memoria sin cambiar el código o el esquema. El menor consumo de memoria es evidente en la segunda fase de la grabación, donde el plateau formado por tener múltiples contextos es significativamente más bajo. La mayoría de los ahorros se lograron reduciendo objetos temporales y utilizando iteradores nativos en lugar de llamadas Lodash para convertir nombres de claves a Snakecase. De repente, el rendimiento aumentó en un 18%, lo que resultó en un mayor consumo de memoria. Actualizar a versiones más nuevas de GraphQL Redis subscriptions no tuvo un impacto significativo en el uso de memoria. Sin embargo, optimizar la conversión de nombres de claves a snake case mediante el uso de memoización mejoró la eficiencia computacional. Nuestro rendimiento mejoró significativamente después de implementar snake case. Sin embargo, el consumo de memoria seguía siendo alto. Para abordar la fuga de memoria, introdujimos autoescalado y reiniciamos el servicio cada noche. Además, optimizamos el proceso de generación de código para mejorar el consumo de memoria. Exploramos el uso de instantáneas de heap en Google Dev tools para analizar y reducir el consumo de memoria. Al identificar objetos innecesarios y eliminarlos, pudimos liberar memoria y mejorar el rendimiento. Corregimos el objeto de ubicación para mejorar el rendimiento y reducir el consumo de memoria. También optimizamos los cargadores de datos para evitar consultas N+1 y mejorar la eficiencia.
Available in English: In Memory of Travails

1. Introduction

Short description:

Hola, mi nombre es Gabriel. Trabajo en auction.com y voy a hablar sobre cómo mejoramos el rendimiento de los resolvers de GraphQL para nuestro servicio de GraphQL. Tuvimos un problema con nuestra implementación de suscripción, donde experimentábamos un alto número de reinicios debido a fallos en la asignación de memoria. Esto nos llevó a investigar y optimizar el consumo de memoria de nuestros resolvers. Para evaluar el rendimiento, configuramos un entorno local con Kafka, Graph y un cliente que conectó 4000 WebSockets a Graph. Después de ejecutar la prueba, descubrimos que solo podíamos procesar y distribuir 16 mensajes a nuestros clientes.

Hola, mi nombre es Gabriel. Trabajo en auction.com y voy a hablar sobre cómo mejoramos el rendimiento de los resolvers de GraphQL para nuestro servicio de GraphQL.

Entonces, el problema que encontramos fue que en el caso de nuestra implementación de suscripción, estábamos teniendo muchos reinicios. Así que este es el número de reinicios y como pueden ver, estamos en el orden de 200, 300 reinicios en nuestro clúster de Kubernetes y todos los reinicios estaban ocurriendo debido a este mensaje de error mágico que decía reached heap limit allocation failed. Y esto es básicamente el motor de JavaScript diciéndole a Node.js que se quedó sin memoria. Node.js muere y se acabó el juego. Tienes que reiniciar el pod. Y entonces comenzamos a investigar cómo podemos mejorar el consumo de memoria de nuestros resolvers.

Así que veamos un poco de contexto. ¿Cómo hacemos GraphQL en auction.com, verdad? Entonces usamos para nuestras suscripciones, usamos temas de Kafka y suscripción de GraphQL, Redis para PubSub. Entonces llega el mensaje de Kafka, entra en Redis, sale de Redis donde necesita. Y luego se envía a los clientes a través de WebSockets.

Así que para hacer la prueba de consumo de memoria y rendimiento en general, lo que hice fue ejecutar Kafka localmente, ejecuté Graph localmente y ejecuté un cliente localmente que produciría un gran número de WebSockets y los conectaría a Graph. Así que conecté 4000 WebSockets y usé KCAT para básicamente enviar mensajes al broker local de Kafka, que los envió a Graph, que los envió a Redis, que los envió a esos 4000 Sockets. Así que esa fue la configuración. Y este fue el resultado inicial en, ¿qué es? Veamos 250 segundos, eso son cuatro minutos y 10 segundos, supongo. Sí, algo así. Pudimos procesar y distribuir a nuestros clientes la asombrosa cantidad de 16 mensajes.

2. Optimizing the Context

Short description:

Yay. El gráfico de consumo de memoria mostró picos y valles a medida que se entregaban los mensajes. Se observaron tres fases distintas: inactivo, Sockets conectados sin mensajes y mensajes siendo procesados. Decidimos optimizar el contexto, que contiene información específica de la solicitud y detalles del backend. Dado que las suscripciones principalmente implican el envío de mensajes de Kafka, nos dimos cuenta de que el mensaje en sí a menudo tiene toda la información necesaria. Por lo tanto, solo creamos backends cuando se realiza una llamada a ellos.

Yay. Así que como puedes imaginar, eso no es exactamente un rendimiento estelar y puedes ver el consumo de memoria aquí. Tiene todos estos como picos y valles, picos y valles. Así que puedes ver que para cualquier mensaje dado, asignaría un montón de memoria y luego finalmente entregaría el mensaje y luego haría eso 15 veces más. Y puedes ver abajo los pequeños picos verdes en la parte inferior donde está el eje X, ahí es cuando los mensajes fueron realmente entregados.

Así que un poco más sobre la configuración experimental. Así que puedes ver que hay como tres fases distintas en el gráfico de consumo de memoria. Una de ellas es cuando todo el proceso está simplemente inactivo. Eso es solo, ya sabes, para que puedas tener como una línea base de consumo de memoria. Y luego la segunda es donde tenemos 4000 Sockets conectados, pero no hay absolutamente ningún mensaje. Así que hay cero tráfico, solo los Sockets. Y finalmente, la última fase del gráfico es donde tienes los mensajes entrando y el gráfico intentando procesarlos.

Así que veamos. Una de las cosas que inmediatamente pensamos en hacer fue atacar el contexto, por así decirlo. Así que el contexto, como puedes o no saber, es la cosa que cada solicitud o suscripción de GraphQL o lo que sea tiene para que se ejecute de una manera específica de la solicitud. Así que cualquier cosa que sea específica para esa solicitud, como las credenciales del usuario, la solicitud en sí, como qué es lo que el usuario quería, todo eso está adjunto al contexto. Correcto. Y en nuestro caso, dado que podríamos estar accediendo a cosas detrás del servidor de Graph, como backends, tenemos esas cosas adjuntas al contexto también. Correcto. Y cada backend tiene como, ya sabes, cinco métodos diferentes, ya sabes, get, put, post, delete y patch. Y así para cada uno de esos backends y para cada uno de esos métodos, teníamos un pequeño envoltorio que, ya sabes, encapsularía los detalles específicos del backend de ese backend. Y así, ya sabes, cosas como URL y demás. Así que podrías simplemente, ya sabes, llamar al backend, llamar al método, ya sabes, y simplemente obtener los datos sin tener que poner cosas como el servidor o el dominio en como un millón de lugares en tu código. Y ponerlo en un solo lugar y eso es todo. Así que si cambiamos el backend, podríamos simplemente cambiarlo en un solo lugar. Pero el problema es que todo esto requiere que los objetos envoltorios se almacenen en el contexto. Y así estábamos como, bueno, las suscripciones, apenas hacen llamadas al backend porque realmente son solo mensajes de Kafka siendo enviados. Ya hay toda la información que la gente podría querer en el mensaje en sí. Rara vez acceden a los backends.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Una Guía del Comportamiento de Renderizado de React
React Advanced 2022React Advanced 2022
25 min
Una Guía del Comportamiento de Renderizado de React
Top Content
This transcription provides a brief guide to React rendering behavior. It explains the process of rendering, comparing new and old elements, and the importance of pure rendering without side effects. It also covers topics such as batching and double rendering, optimizing rendering and using context and Redux in React. Overall, it offers valuable insights for developers looking to understand and optimize React rendering.
Acelerando tu aplicación React con menos JavaScript
React Summit 2023React Summit 2023
32 min
Acelerando tu aplicación React con menos JavaScript
Top Content
Mishko, the creator of Angular and AngularJS, discusses the challenges of website performance and JavaScript hydration. He explains the differences between client-side and server-side rendering and introduces Quik as a solution for efficient component hydration. Mishko demonstrates examples of state management and intercommunication using Quik. He highlights the performance benefits of using Quik with React and emphasizes the importance of reducing JavaScript size for better performance. Finally, he mentions the use of QUIC in both MPA and SPA applications for improved startup performance.
Concurrencia en React, Explicada
React Summit 2023React Summit 2023
23 min
Concurrencia en React, Explicada
Top Content
React 18's concurrent rendering, specifically the useTransition hook, optimizes app performance by allowing non-urgent updates to be processed without freezing the UI. However, there are drawbacks such as longer processing time for non-urgent updates and increased CPU usage. The useTransition hook works similarly to throttling or bouncing, making it useful for addressing performance issues caused by multiple small components. Libraries like React Query may require the use of alternative APIs to handle urgent and non-urgent updates effectively.
El Futuro de las Herramientas de Rendimiento
JSNation 2022JSNation 2022
21 min
El Futuro de las Herramientas de Rendimiento
Top Content
Today's Talk discusses the future of performance tooling, focusing on user-centric, actionable, and contextual approaches. The introduction highlights Adi Osmani's expertise in performance tools and his passion for DevTools features. The Talk explores the integration of user flows into DevTools and Lighthouse, enabling performance measurement and optimization. It also showcases the import/export feature for user flows and the collaboration potential with Lighthouse. The Talk further delves into the use of flows with other tools like web page test and Cypress, offering cross-browser testing capabilities. The actionable aspect emphasizes the importance of metrics like Interaction to Next Paint and Total Blocking Time, as well as the improvements in Lighthouse and performance debugging tools. Lastly, the Talk emphasizes the iterative nature of performance improvement and the user-centric, actionable, and contextual future of performance tooling.
How React Compiler Performs on Real Code
React Advanced 2024React Advanced 2024
31 min
How React Compiler Performs on Real Code
Top Content
I'm Nadia, a developer experienced in performance, re-renders, and React. The React team released the React compiler, which eliminates the need for memoization. The compiler optimizes code by automatically memoizing components, props, and hook dependencies. It shows promise in managing changing references and improving performance. Real app testing and synthetic examples have been used to evaluate its effectiveness. The impact on initial load performance is minimal, but further investigation is needed for interactions performance. The React query library simplifies data fetching and caching. The compiler has limitations and may not catch every re-render, especially with external libraries. Enabling the compiler can improve performance but manual memorization is still necessary for optimal results. There are risks of overreliance and messy code, but the compiler can be used file by file or folder by folder with thorough testing. Practice makes incredible cats. Thank you, Nadia!
Depuración de JS
React Summit 2023React Summit 2023
24 min
Depuración de JS
Top Content
Debugging JavaScript is a crucial skill that is often overlooked in the industry. It is important to understand the problem, reproduce the issue, and identify the root cause. Having a variety of debugging tools and techniques, such as console methods and graphical debuggers, is beneficial. Replay is a time-traveling debugger for JavaScript that allows users to record and inspect bugs. It works with Redux, plain React, and even minified code with the help of source maps.

Workshops on related topic

Masterclass de Depuración de Rendimiento de React
React Summit 2023React Summit 2023
170 min
Masterclass de Depuración de Rendimiento de React
Top Content
Featured WorkshopFree
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Vería una interacción lenta, intentaría una optimización aleatoria, vería que no ayudaba, y seguiría intentando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Haría una grabación en Chrome DevTools o React Profiler, la examinaría, intentaría hacer clic en cosas aleatorias, y luego la cerraría frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos a analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, estaremos cubriendo el rendimiento de la interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Construyendo aplicaciones web que iluminan Internet con QwikCity
JSNation 2023JSNation 2023
170 min
Construyendo aplicaciones web que iluminan Internet con QwikCity
Featured WorkshopFree
Miško Hevery
Miško Hevery
Construir aplicaciones web instantáneas a gran escala ha sido elusivo. Los sitios del mundo real necesitan seguimiento, análisis y interfaces y interacciones de usuario complejas. Siempre comenzamos con las mejores intenciones pero terminamos con un sitio menos que ideal.
QwikCity es un nuevo meta-framework que te permite construir aplicaciones a gran escala con un rendimiento de inicio constante. Veremos cómo construir una aplicación QwikCity y qué la hace única. El masterclass te mostrará cómo configurar un proyecto QwikCity. Cómo funciona el enrutamiento con el diseño. La aplicación de demostración obtendrá datos y los presentará al usuario en un formulario editable. Y finalmente, cómo se puede utilizar la autenticación. Todas las partes básicas para cualquier aplicación a gran escala.
En el camino, también veremos qué hace que Qwik sea único y cómo la capacidad de reanudación permite un rendimiento de inicio constante sin importar la complejidad de la aplicación.
Construye Aplicaciones Modernas Utilizando GraphQL y Javascript
Node Congress 2024Node Congress 2024
152 min
Construye Aplicaciones Modernas Utilizando GraphQL y Javascript
Featured Workshop
Emanuel Scirlet
Miguel Henriques
2 authors
Ven y aprende cómo puedes potenciar tus aplicaciones modernas y seguras utilizando GraphQL y Javascript. En este masterclass construiremos una API de GraphQL y demostraremos los beneficios del lenguaje de consulta para APIs y los casos de uso para los que es adecuado. Se requiere conocimiento básico de Javascript.
Next.js 13: Estrategias de Obtención de Datos
React Day Berlin 2022React Day Berlin 2022
53 min
Next.js 13: Estrategias de Obtención de Datos
Top Content
WorkshopFree
Alice De Mauro
Alice De Mauro
- Introducción- Prerrequisitos para la masterclass- Estrategias de obtención: fundamentos- Estrategias de obtención – práctica: API de obtención, caché (estática VS dinámica), revalidar, suspense (obtención de datos en paralelo)- Prueba tu construcción y sírvela en Vercel- Futuro: Componentes de servidor VS Componentes de cliente- Huevo de pascua de la masterclass (no relacionado con el tema, destacando la accesibilidad)- Conclusión
Construyendo una Aplicación de Shopify con React & Node
React Summit Remote Edition 2021React Summit Remote Edition 2021
87 min
Construyendo una Aplicación de Shopify con React & Node
Top Content
WorkshopFree
Jennifer Gray
Hanna Chen
2 authors
Los comerciantes de Shopify tienen un conjunto diverso de necesidades, y los desarrolladores tienen una oportunidad única para satisfacer esas necesidades construyendo aplicaciones. Construir una aplicación puede ser un trabajo duro, pero Shopify ha creado un conjunto de herramientas y recursos para ayudarte a construir una experiencia de aplicación sin problemas lo más rápido posible. Obtén experiencia práctica construyendo una aplicación integrada de Shopify utilizando el CLI de la aplicación Shopify, Polaris y Shopify App Bridge.Te mostraremos cómo crear una aplicación que acceda a la información de una tienda de desarrollo y pueda ejecutarse en tu entorno local.
Depuración del Rendimiento de React
React Advanced 2023React Advanced 2023
148 min
Depuración del Rendimiento de React
Workshop
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Veía una interacción lenta, probaba una optimización aleatoria, veía que no ayudaba, y seguía probando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Hacía una grabación en Chrome DevTools o React Profiler, la examinaba, intentaba hacer clic en cosas al azar, y luego la cerraba frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos cómo analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, cubriremos el rendimiento de interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)