Búsqueda Rápida: Haciendo los Vuelos de Expedia Más Rápidos

Rate this content
Bookmark

El rendimiento juega un papel crucial en asegurar la capacidad de respuesta y las funcionalidades de una aplicación. Se aprenderá un conocimiento más profundo sobre prefetching, búsqueda preemptiva, almacenamiento en caché más rápido y optimizaciones de frontend y muchas otras iniciativas de rendimiento. 

This talk has been presented at React Summit US 2024, check out the latest edition of this React Conference.

Heena Gupta
Heena Gupta
10 min
22 Nov, 2024

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Hola a todos. Soy Hina de Expedia Group. Esta charla trata sobre hacer los vuelos de Expedia más rápidos. Nos centraremos en iniciativas de rendimiento en la página de Búsqueda de Vuelos, incluyendo prefetching y búsqueda preemptiva. El monitoreo es crucial con métricas personalizadas como el tiempo de uso de la página y el overhead no suministrado. Prefetching obtiene paquetes JS de antemano para una recuperación más rápida de la ruta CDN, mientras que la búsqueda preemptiva predice las respuestas de Búsqueda de Vuelos antes de que el usuario llegue a la página. El rendimiento de la página mejoró hasta un 50% tanto en web como en nativo. Se implementaron búsqueda preemptiva y microconsultas para mejorar la ruta y el rendimiento. La carga asíncrona y la optimización de consultas cargadas resultaron en una mejora del 8%. La arquitectura de micro-front-end mejoró el tamaño del paquete y la reutilización de componentes, lo que llevó a ganancias significativas en el rendimiento.

1. Optimizing Flight Search Performance

Short description:

Hola a todos. Soy Hina de Expedia Group. Esta charla trata sobre hacer que los vuelos de Expedia sean más rápidos. Nos centraremos en las iniciativas de rendimiento en la página de Búsqueda de Vuelos, incluyendo la precarga y la búsqueda preventiva. El monitoreo es crucial con métricas personalizadas como el tiempo de uso de la página y la sobrecarga no suministrada. La precarga obtiene paquetes de JS de antemano para una recuperación más rápida de la ruta CDN, mientras que la búsqueda preventiva predice las respuestas de Búsqueda de Vuelos antes de que el usuario llegue a la página.

Hola a todos. Soy Hina. Soy de Expedia Group. Esta charla trata sobre la velocidad de búsqueda que está haciendo que los vuelos de Expedia sean más rápidos. Nos centraremos en las iniciativas de rendimiento que se llevan a cabo en la página de Búsqueda de Vuelos en Expedia y las investigaciones realizadas hasta ahora.

Así que, en primer lugar, la motivación detrás de esto fue que en la página de Búsqueda de Vuelos hay un tráfico de búsqueda máximo que llega a FSR, que es la página de Búsqueda de Vuelos. Y luego va a la Información de Vuelos y de ahí a la página de Pago. Así que con la latencia la experiencia del usuario se estaba viendo afectada y, por lo tanto, también las reservas. También era muy importante retener a los usuarios mejorando el rendimiento.

Así que cuando se trata de rendimiento, también observamos que el monitoreo es muy crucial. Y para ello, se definieron algunas métricas personalizadas. Una de ellas es el tiempo de uso de la página, es decir, el tiempo que tarda un componente en renderizarse en la página de Búsqueda de Vuelos. El componente principal en la página de Búsqueda de Vuelos es la lista de ofertas que aparece. Así que tan pronto como la página se renderiza y la lista de ofertas se renderiza, se marca el tiempo de uso de la página. La segunda métrica es la sobrecarga no suministrada, que también es una métrica PERF personalizada. Esto significa que el tiempo total que la página de Búsqueda de Vuelos va a tomar menos el tiempo de sobrecarga de suministro. También hay algunas otras métricas comunes de Lighthouse, como First Contentful Paint, First Input Delay, Cumulative Layout Shift, y Time to Interactive que también fueron monitoreadas. Aparte de eso, asegurar que el tamaño del paquete no esté aumentando el umbral sugerido y asegurar que la aplicación sea ligera es también muy crucial cuando se trata de rendimiento.

Ahora, hablaré sobre la precarga. Esta es una de las iniciativas PERF que se llevó a cabo en la página de Búsqueda de Vuelos. Así que la precarga se refiere a obtener los paquetes de JS de antemano para que tan pronto como el usuario llegue a la página de Búsqueda de Vuelos, el tiempo que se consume en obtener las rutas CDN se pueda ahorrar al almacenar en caché esos paquetes de JS de antemano. Así que lo que hicimos aquí es que obtuvimos los paquetes en la página anterior, que es la página de inicio, y la obtención de recursos ocurrió durante el tiempo inactivo del navegador. Esto significa que no había restricción en la página de inicio cuando se trata de rendimiento, y los recursos se obtienen utilizando la caché de precarga. Esto es impactante para los nuevos usuarios, para los usuarios existentes si en caso de que los usuarios estén navegando en la página de Búsqueda de Vuelos, los paquetes ya están en caché utilizando la caché del navegador. El experimento de precarga es algo que es bueno tener en las páginas web, y la iniciativa PERF, esta iniciativa PERF nos ayudó a ganar alrededor de 100ms. No fue una mejora muy significativa, pero fue bueno tenerla y hizo que la recuperación de la ruta CDN fuera muy rápida en comparación con la experiencia del usuario anterior.

Luego, el siguiente experimento que tenemos es la búsqueda preventiva. Así que por búsqueda preventiva, queremos decir que podemos predecir la respuesta de Búsqueda de Vuelos incluso antes de que el usuario llegue a la página de búsqueda. Es decir, en la página anterior, que es la página de inicio en sí, pudimos averiguar la respuesta utilizando las entradas que dieron los usuarios, como siempre que el usuario proporciona origen, destino, fecha de salida, fecha de llegada, pudimos averiguar la respuesta, y en el lado del servidor, almacenamos en caché la respuesta para una recuperación más rápida. Tan pronto como el usuario llega a la página de Búsqueda de Vuelos, los datos vienen entonces de la caché en lugar de recuperarlos en tiempo de ejecución.

2. PERP Initiatives and Micro-Front-End Architecture

Short description:

El rendimiento de la página mejoró hasta un 50% tanto en web como en nativo. Se implementaron la búsqueda preventiva y las microconsultas para mejorar la ruta y el rendimiento. La carga asíncrona y la optimización de consultas cargadas resultaron en una mejora del 8%. La arquitectura de micro-front-end mejoró el tamaño del paquete y la reutilización de componentes, lo que llevó a ganancias significativas en el rendimiento.

Así que esto nos ayudó a mejorar el rendimiento de la página hasta un 50% tanto en web como en nativo, y esto es algo que nos ayudó a llevar a una experiencia de usuario más rápida. Además, la búsqueda preventiva es algo que no estaba dirigido al 100% del tráfico porque estamos prediciendo la respuesta. No sabemos si el usuario va a aterrizar en la misma entrada de búsqueda o no, pero nos ayudó a mejorar la ruta mediante el análisis de productos. Así que, sabíamos para qué campo el usuario iba a aterrizar más en la página de Búsqueda de Vuelos, y esos datos nos ayudaron a determinar cuándo deberíamos almacenar en caché y cuándo deberíamos movernos.

Luego, la siguiente iniciativa PERP son las microconsultas. Así que, por microconsultas, queremos decir que realmente desglosamos las consultas voluminosas en microconsultas. Así que, en la página de Búsqueda de Vuelos, inicialmente, había una consulta que nos ayudaba a obtener toda la lista de ofertas de búsqueda, y eso consumía mucho tiempo debido al hecho de que hay muchas ofertas de búsqueda involucradas y el cálculo aumenta debido a la voluminosidad. Lo que hicimos aquí es que desglosamos la consulta en subconsultas y esas consultas ocurrieron en paralelo. Así que, por ejemplo, obtuvimos las digamos las primeras cinco ofertas y luego las ofertas subsiguientes y así sucesivamente. Así que esto nos ayudó a asegurar que tan pronto como el usuario aterriza en la página de Búsqueda de Vuelos, el usuario pueda ver algunos fragmentos de las ofertas de búsqueda en lugar de no mostrar nada en absoluto. Y esto también nos ayudó a desglosar las consultas que no se necesitan de inmediato, como la información detallada de tarifas, y pudimos ver una mejora significativa con esta iniciativa que es casi un 20% de mejora en el rendimiento de la iniciativa PERP.

Luego, la siguiente iniciativa que se llevó a cabo es la Carga Asíncrona y la Consulta Cargada. Así que, por Carga Asíncrona y Consulta Cargada, quiero decir que necesitamos analizar el diagrama de cascada de la página, y siempre que miramos las consultas, necesitamos verificar si realmente necesitamos esperar o no para las llamadas de red. Para la página de Búsqueda de Vuelos, según el análisis del diagrama de cascada, supimos que la consulta cargada se estaba ejecutando en una etapa muy posterior. Luego, lo que se espera para lo mismo. Las consultas de carga y cargadas podrían ser obtenidas al mismo tiempo en paralelo, pero eso no estaba sucediendo. Y una vez que se hizo este cambio, nuevamente observamos casi un 8% de mejora en el rendimiento. Todo depende de la página. Esto fue específico para la página de Búsqueda de Vuelos, pero nuevamente es muy importante cuando se trata de la iniciativa PERP que analicemos el diagrama de cascada y observemos cómo se están ejecutando las llamadas de red. ¿Se están ejecutando secuencialmente cuando no debería ser el caso?

El siguiente trabajo aquí es la Arquitectura de Micro-Front-end. Así que, dentro de Expedia, en vuelos, nos aseguramos de que nuestros componentes a nivel de página se desglosen en paquetes compartibles para que puedan ser reutilizados y, por lo tanto, puedan ser monitoreados de manera muy eficiente. Los paquetes también son muy flexibles y también nos ayudó a mantener esos paquetes asignando la propiedad a nivel de paquete en lugar de tener los componentes a nivel de página de una vez. También nos ayudó a ver una mejora en el tamaño del paquete porque pudimos desglosar los componentes en múltiples paquetes compartibles y cada paquete puede ser entonces analizado. Así que, la conclusión es que con todas las iniciativas PERP, pudimos ver un impacto visible en el percentil superior del 90 en el tiempo de uso de la página en casi un 52% y en el percentil superior del 90 en la cabeza no suministrada en casi un 40%.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Una Guía del Comportamiento de Renderizado de React
React Advanced 2022React Advanced 2022
25 min
Una Guía del Comportamiento de Renderizado de React
Top Content
This transcription provides a brief guide to React rendering behavior. It explains the process of rendering, comparing new and old elements, and the importance of pure rendering without side effects. It also covers topics such as batching and double rendering, optimizing rendering and using context and Redux in React. Overall, it offers valuable insights for developers looking to understand and optimize React rendering.
Acelerando tu aplicación React con menos JavaScript
React Summit 2023React Summit 2023
32 min
Acelerando tu aplicación React con menos JavaScript
Top Content
Mishko, the creator of Angular and AngularJS, discusses the challenges of website performance and JavaScript hydration. He explains the differences between client-side and server-side rendering and introduces Quik as a solution for efficient component hydration. Mishko demonstrates examples of state management and intercommunication using Quik. He highlights the performance benefits of using Quik with React and emphasizes the importance of reducing JavaScript size for better performance. Finally, he mentions the use of QUIC in both MPA and SPA applications for improved startup performance.
Concurrencia en React, Explicada
React Summit 2023React Summit 2023
23 min
Concurrencia en React, Explicada
Top Content
React 18's concurrent rendering, specifically the useTransition hook, optimizes app performance by allowing non-urgent updates to be processed without freezing the UI. However, there are drawbacks such as longer processing time for non-urgent updates and increased CPU usage. The useTransition hook works similarly to throttling or bouncing, making it useful for addressing performance issues caused by multiple small components. Libraries like React Query may require the use of alternative APIs to handle urgent and non-urgent updates effectively.
El Futuro de las Herramientas de Rendimiento
JSNation 2022JSNation 2022
21 min
El Futuro de las Herramientas de Rendimiento
Top Content
Today's Talk discusses the future of performance tooling, focusing on user-centric, actionable, and contextual approaches. The introduction highlights Adi Osmani's expertise in performance tools and his passion for DevTools features. The Talk explores the integration of user flows into DevTools and Lighthouse, enabling performance measurement and optimization. It also showcases the import/export feature for user flows and the collaboration potential with Lighthouse. The Talk further delves into the use of flows with other tools like web page test and Cypress, offering cross-browser testing capabilities. The actionable aspect emphasizes the importance of metrics like Interaction to Next Paint and Total Blocking Time, as well as the improvements in Lighthouse and performance debugging tools. Lastly, the Talk emphasizes the iterative nature of performance improvement and the user-centric, actionable, and contextual future of performance tooling.
How React Compiler Performs on Real Code
React Advanced 2024React Advanced 2024
31 min
How React Compiler Performs on Real Code
Top Content
I'm Nadia, a developer experienced in performance, re-renders, and React. The React team released the React compiler, which eliminates the need for memoization. The compiler optimizes code by automatically memoizing components, props, and hook dependencies. It shows promise in managing changing references and improving performance. Real app testing and synthetic examples have been used to evaluate its effectiveness. The impact on initial load performance is minimal, but further investigation is needed for interactions performance. The React query library simplifies data fetching and caching. The compiler has limitations and may not catch every re-render, especially with external libraries. Enabling the compiler can improve performance but manual memorization is still necessary for optimal results. There are risks of overreliance and messy code, but the compiler can be used file by file or folder by folder with thorough testing. Practice makes incredible cats. Thank you, Nadia!
Optimización de juegos HTML5: 10 años de aprendizaje
JS GameDev Summit 2022JS GameDev Summit 2022
33 min
Optimización de juegos HTML5: 10 años de aprendizaje
Top Content
PlayCanvas is an open-source game engine used by game developers worldwide. Optimization is crucial for HTML5 games, focusing on load times and frame rate. Texture and mesh optimization can significantly reduce download sizes. GLTF and GLB formats offer smaller file sizes and faster parsing times. Compressing game resources and using efficient file formats can improve load times. Framerate optimization and resolution scaling are important for better performance. Managing draw calls and using batching techniques can optimize performance. Browser DevTools, such as Chrome and Firefox, are useful for debugging and profiling. Detecting device performance and optimizing based on specific devices can improve game performance. Apple is making progress with WebGPU implementation. HTML5 games can be shipped to the App Store using Cordova.

Workshops on related topic

Masterclass de Depuración de Rendimiento de React
React Summit 2023React Summit 2023
170 min
Masterclass de Depuración de Rendimiento de React
Top Content
Featured WorkshopFree
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Vería una interacción lenta, intentaría una optimización aleatoria, vería que no ayudaba, y seguiría intentando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Haría una grabación en Chrome DevTools o React Profiler, la examinaría, intentaría hacer clic en cosas aleatorias, y luego la cerraría frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos a analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, estaremos cubriendo el rendimiento de la interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Construyendo aplicaciones web que iluminan Internet con QwikCity
JSNation 2023JSNation 2023
170 min
Construyendo aplicaciones web que iluminan Internet con QwikCity
Featured WorkshopFree
Miško Hevery
Miško Hevery
Construir aplicaciones web instantáneas a gran escala ha sido elusivo. Los sitios del mundo real necesitan seguimiento, análisis y interfaces y interacciones de usuario complejas. Siempre comenzamos con las mejores intenciones pero terminamos con un sitio menos que ideal.
QwikCity es un nuevo meta-framework que te permite construir aplicaciones a gran escala con un rendimiento de inicio constante. Veremos cómo construir una aplicación QwikCity y qué la hace única. El masterclass te mostrará cómo configurar un proyecto QwikCity. Cómo funciona el enrutamiento con el diseño. La aplicación de demostración obtendrá datos y los presentará al usuario en un formulario editable. Y finalmente, cómo se puede utilizar la autenticación. Todas las partes básicas para cualquier aplicación a gran escala.
En el camino, también veremos qué hace que Qwik sea único y cómo la capacidad de reanudación permite un rendimiento de inicio constante sin importar la complejidad de la aplicación.
Next.js 13: Estrategias de Obtención de Datos
React Day Berlin 2022React Day Berlin 2022
53 min
Next.js 13: Estrategias de Obtención de Datos
Top Content
WorkshopFree
Alice De Mauro
Alice De Mauro
- Introducción- Prerrequisitos para la masterclass- Estrategias de obtención: fundamentos- Estrategias de obtención – práctica: API de obtención, caché (estática VS dinámica), revalidar, suspense (obtención de datos en paralelo)- Prueba tu construcción y sírvela en Vercel- Futuro: Componentes de servidor VS Componentes de cliente- Huevo de pascua de la masterclass (no relacionado con el tema, destacando la accesibilidad)- Conclusión
Depuración del Rendimiento de React
React Advanced 2023React Advanced 2023
148 min
Depuración del Rendimiento de React
Workshop
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Veía una interacción lenta, probaba una optimización aleatoria, veía que no ayudaba, y seguía probando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Hacía una grabación en Chrome DevTools o React Profiler, la examinaba, intentaba hacer clic en cosas al azar, y luego la cerraba frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos cómo analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, cubriremos el rendimiento de interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Masterclass de alto rendimiento Next.js
React Summit 2022React Summit 2022
50 min
Masterclass de alto rendimiento Next.js
Workshop
Michele Riva
Michele Riva
Next.js es un marco convincente que facilita muchas tareas al proporcionar muchas soluciones listas para usar. Pero tan pronto como nuestra aplicación necesita escalar, es esencial mantener un alto rendimiento sin comprometer el mantenimiento y los costos del servidor. En este masterclass, veremos cómo analizar el rendimiento de Next.js, el uso de recursos, cómo escalarlo y cómo tomar las decisiones correctas al escribir la arquitectura de la aplicación.
Maximizar el rendimiento de la aplicación optimizando las fuentes web
Vue.js London 2023Vue.js London 2023
49 min
Maximizar el rendimiento de la aplicación optimizando las fuentes web
WorkshopFree
Lazar Nikolov
Lazar Nikolov
Acabas de llegar a una página web y tratas de hacer clic en un elemento en particular, pero justo antes de hacerlo, se carga un anuncio encima y terminas haciendo clic en eso en su lugar.
Eso... eso es un cambio de diseño. Todos, tanto los desarrolladores como los usuarios, saben que los cambios de diseño son malos. Y cuanto más tarde ocurran, más interrupciones causarán a los usuarios. En este masterclass vamos a analizar cómo las fuentes web causan cambios de diseño y explorar algunas estrategias para cargar fuentes web sin causar grandes cambios de diseño.
Tabla de contenidos:¿Qué es CLS y cómo se calcula?¿Cómo las fuentes pueden causar CLS?Estrategias de carga de fuentes para minimizar CLSRecapitulación y conclusión