El Proyecto OXC y el Efecto de la Ingeniería de Rendimiento

This ad is not shown to multipass and full ticket holders
React Summit US
React Summit US 2025
November 18 - 21, 2025
New York, US & Online
The biggest React conference in the US
Learn More
In partnership with Focus Reactive
Upcoming event
React Summit US 2025
React Summit US 2025
November 18 - 21, 2025. New York, US & Online
Learn more
Bookmark
Rate this content

El proyecto Oxidation Compiler está creando una colección de herramientas de JavaScript y TypeScript de alto rendimiento escritas en Rust. Ofrece componentes fundamentales como analizadores y resolutores para que los desarrolladores los utilicen, junto con aplicaciones de línea de comandos como linters y formateadores. Esta charla presentará el proyecto y explorará el impacto de un fuerte enfoque en la ingeniería de rendimiento.

This talk has been presented at JSNation 2024, check out the latest edition of this JavaScript Conference.

Boshen Chen
Boshen Chen
18 min
17 Jun, 2024

Comments

Sign in or register to post your comment.
Video Summary and Transcription
La charla discute el proyecto del compilador de oxidación de JavaScript (OXC) y el impacto de la ingeniería de rendimiento. El proyecto OXC consta de herramientas de JavaScript escritas en Rust, incluyendo un analizador, linter y resolutor, que son significativamente más rápidos que las alternativas existentes. Los testimonios destacan el progreso del proyecto OXC y la velocidad y efectividad de la herramienta OXLint. El énfasis en el rendimiento en OXLint se demuestra a través de la revisión de archivos cruzados y el procesamiento paralelo. Las mejoras de rendimiento en el proyecto OXC se logran mediante pruebas de referencia y pueden impulsar la innovación en la infraestructura de JavaScript. La charla también aborda la necesidad de una carga más rápida de sitios web y el objetivo de crear un nuevo minificador para una mejor compresión y rendimiento en OXC.

1. Introducción al Proyecto OXC

Short description:

En esta charla, hablaré sobre el compilador de oxidación de JavaScript y el efecto de la ingeniería de rendimiento en este proyecto. Durante la última década, mi trabajo ha sido como ingeniero de configuración frontend. Comencé a trabajar de cerca con herramientas de JavaScript escritas en Rust, incluyendo Roldown, RSpec, BIOME, SWC y RBRs. Inicié y me convertí en el líder del proyecto OXC, una colección de herramientas de JavaScript escritas en Rust. Las herramientas completas son el analizador, el linter y el resolutor, cada uno significativamente más rápido que las alternativas existentes.

Hola a todos. En esta charla, hablaré sobre el compilador de oxidación de JavaScript (OXC) y el efecto de la ingeniería de rendimiento en este proyecto. Para comenzar, mi nombre es Baotian. Durante la última década, mi trabajo ha sido como ingeniero de configuración frontend. He configurado muchas herramientas de JavaScript como Grunt, Go, Webpack, y muchas más. Como parte de mi interés en experimentar con nuevos lenguajes de programación, comencé a trabajar de cerca con herramientas de JavaScript escritas en Rust. Estos proyectos incluyen Roldown, RSpec, BIOME, SWC y RBRs. Al mismo tiempo, inicié y me convertí en el líder del proyecto OXC. Entonces, ¿qué es el proyecto OXC? Es una colección de herramientas de JavaScript escritas en Rust. Algunas partes son independientes y otras partes son compatibles con otros proyectos. Las herramientas completas son las primeras tres. El analizador, que actualmente es tres veces más rápido que SWC, el linter, que es de 50 a 100 veces más rápido que ESLint, dependiendo del número de núcleos de CPU que utilices, y una herramienta modular de resolución llamada el resolutor, que es 28 veces más rápido que el de Webpack.

2. Progreso del Proyecto OXC y Testimonios

Short description:

Las próximas tres cosas en desarrollo: formateador, transformador y modificador BigBoss. OXC también admite los paquetes Roldown y RSpec. Testimonios de Ivan Yu, Joe Savanna, Eric Simons, Miles y Jason Miller. Velocidad y efectividad de OXLint elogiadas por los usuarios. Demostración del rendimiento y diagnóstico de OXLint. Importancia de las reglas de detección de errores y linting entre archivos en OXLint.

resultado mejorado. Las próximas tres cosas en las que estamos trabajando actualmente son: un formateador, que será bastante compatible, un transformador o transpilador que será compatible con bisel y, por último, el modificador BigBoss. Y finalmente, OXC también admite las estrellas en ascenso, los paquetes Roldown y RSpec. Es bastante difícil mostrar por qué OXC es lo próximo grande, así que dejaré que estas personas hablen por mí. Ivan Yu quedó asombrado por la velocidad de OXLint, que es un linter para OXC. Lo ejecutó en el repositorio de Vue y tardó 50 milisegundos. Joe Savanna, líder del equipo de React en Meta, mostró interés en el proyecto y lo encontró agradable. Eric Simons, CEO de StackBlitz, también reconoce que podría ser lo próximo grande. Y Miles, el creador del repositorio Moon, quedó asombrado nuevamente por OXLint.

Por último, tenemos a Jason Miller, Shopify DX y creador de Preact, quien dijo lo siguiente. OXLint ha sido una gran victoria para nosotros en Shopify. Nuestra configuración anterior de linting tardaba 75 minutos en ejecutarse, así que lo estábamos descubriendo en 50 trabajadores pasados en CI. En comparación, OXLint tarda alrededor de 10 segundos en analizar la misma base de código en un solo trabajador y la salida es más fácil de interpretar. Incluso encontramos algunos errores que estaban ocultos o se omitieron en nuestra configuración anterior cuando hicimos la migración. Y después de unos meses, hablé de nuevo con Jason y dijo que probablemente ahorraron millones de dólares en infraestructura después de cambiar.

Permítanme mostrar rápidamente una demostración del linter. Aquí tenemos OXLint ejecutándose en el repositorio de VS Code. En mi Mac Pro, completó 4.8k archivos en 850 milisegundos con los 90 utilizando todos los núcleos. Sí, el linter terminó todo el repositorio de VS Code en menos de un segundo. Ahora veamos los diagnósticos, donde para cada regla intentamos señalar el mismo problema exacto. A veces ni siquiera necesitas leer el mensaje de error para entender qué está mal en el code. La primera regla, no expresión binaria constante, es mi regla favorita, que ha estado en la versión 8 de ESLint durante más de un año. Esta regla podría haber evitado tantos errores en el último año si se hubiera activado de forma predeterminada en ESLint cuando se introdujo por primera vez. Pero desafortunadamente, activar nuevas reglas rompe la compatibilidad, por lo que debe introducirse en una versión importante y solo se activó de forma predeterminada en la versión 9, que se lanzó en abril. En mi opinión, una de las principales tareas del linter es detectar errores ocultos, por lo que estas reglas que revelan errores deberían activarse de forma predeterminada lo antes posible para ayudar a las personas a enviar un mejor code. Los usuarios de OXLint han estado disfrutando de esta regla desde el principio. Y como por ejemplo, para esta regla, es bastante obvio, pero no es obvio que el operador de conocimiento tiene una precedencia más baja. Entonces, para corregir el code, en realidad necesitas un paréntesis aquí. Y para estas reglas, si solo miras la línea roja, probablemente entenderás qué está mal en el code y lo corregirás. Lo que realmente me emociona de OXLint hoy en día es que podemos realizar linting entre archivos. Esto significa que podemos implementar reglas del complemento de ESLint import, que son notoriamente lentas si habilitas ciertas reglas, como la regla sin ciclo.

3. Rendimiento de OXLint y Principios del Proyecto

Short description:

El linting entre archivos de OXLint se realiza en paralelo, con AST compartidos. Impresionante rendimiento demostrado al ejecutar la regla sin ciclo en el repositorio de VS Code y en un gran repositorio interno. Detecta más errores en segundos, ahorrando tiempo y recursos. El enfoque del proyecto en el rendimiento y el principio de considerar todos los problemas de rendimiento como errores. Demostración de tiempo de ejecución rápido en la página de acciones de GitHub del repositorio OXE.

En la parte izquierda de la pantalla. Sin embargo, en OXLint, el linting entre archivos se realiza en paralelo y se comparten los AST. Por lo tanto, la única sobrecarga que encontramos es esperar a que los archivos dependientes terminen de pasar. Una vez más, en el repositorio de VS Code, ejecutar completamente la regla sin ciclo en menos de un segundo, lo que probablemente llevaría mucho tiempo con el complemento de ESLint import. Y creo que el diagnóstico es un poco mejor, muestra cuál es el ciclo. Si vincular el repositorio de VS Code en menos de un segundo no es impresionante, también lo probé en el gran repositorio interno, completó 122,000 archivos en 3.4 segundos. Lo que esto implica es que si colocas todos los repositorios de tu empresa o tus propios proyectos uno al lado del otro y luego ejecutas OXLint en el árbol principal, deberías poder analizar todo tu código de una vez en un par de segundos. Esto es genial porque con cada actualización de OXLint, probablemente encontrarás algunos errores más para toda tu empresa o tus proyectos en unos segundos, lo que ahorra mucha carga de mantenimiento y dinero en infraestructura. Entonces, ¿cómo comenzó todo? Bueno, mi enfoque en el rendimiento comenzó hace dos años durante el confinamiento. En realidad, me quedé con una computadora portátil súper lenta, un Intel i5 con solo 8 gigabytes de RAM. Todo era tan lento. No tenía nada más que hacer, pero esta computadora portátil puso mi perspectiva del tiempo en cámara lenta. En ese momento, descubrí el proyecto Bion, que en ese momento se llamaba Roam. Introduje todo el concepto de cadena de herramientas integradas de herramientas frontend, pero me enfrenté a dos problemas. Uno es el problema de la computadora lenta y el otro es el síndrome del impostor. No sabía lo que estaba haciendo, así que terminé aprendiendo desde cero. Desde aprender qué es un AST o qué es un impostor, ni siquiera era bueno en Rust en ese momento. Seguí aprendiendo y persistí agregando más código. Y ahora, muchos meses después, cuando salí del confinamiento, descubrí esto. De alguna manera creé el analizador de JavaScript más rápido escrito en Rust y aprendí con una velocidad inimaginable. El rendimiento juega un papel tan importante en el proyecto. Así que eventualmente llegué a este principio después de inspirarme en algunos miembros de la comunidad. Todos los problemas de rendimiento se consideran errores en este proyecto. Por lo tanto, el rendimiento no solo significa el tiempo de ejecución del programa, sino también la velocidad de compilación y el tiempo de integración continua. Todo lo que se sienta lento debe solucionarse como máxima prioridad. Permítanme demostrar estos conceptos con el repositorio OXE. Esta es la página de acciones de GitHub que muestra el tiempo de ejecución de todos los trabajos. Ejecuta pruebas en Windows, Ubuntu, macOS y WebAssembly, y luego verifica la salud del código base. Todos los trabajos se completan en aproximadamente tres minutos, lo que creo que es más rápido que la mayoría de los proyectos Rust más grandes y algunos de los proyectos JavaScript más grandes también. Así que creo que para que un proyecto se mantenga bien, debe proporcionar a los colaboradores un ciclo de retroalimentación muy rápido cuando no están familiarizados con el proyecto.

4. Rendimiento, Benchmarking y Propiedades

Short description:

Trabajando en el proyecto ISPAC, mejoré el tiempo de CI de una hora a cinco minutos. Los tiempos lentos de CI cuestan tiempo humano y hacerlo más rápido puede costar mucho dinero. Utilizando la configuración de referencia con Cosby, logramos mejoras de rendimiento asombrosas en el proyecto OXC. El rendimiento a menudo se descuida pero puede proporcionar propiedades necesarias como corrección, testabilidad, mantenibilidad, confiabilidad y usabilidad. Nuestras herramientas pasan más del 99% de los casos de prueba, lo que hace que el analizador esté listo para producción. El rendimiento también puede impulsar la innovación.

Y tengo una historia que contar. Como sabrán, también trabajo en el proyecto ISPAC. El tiempo de CI era de aproximadamente una hora cuando me uní, y me llevó un mes reducirlo a 20 minutos. No tenía más trucos bajo la manga. Intenté solucionar cada problema de código que existía, pero eventualmente me rendí porque no había nada más que arreglar o era demasiado difícil de solucionar. Así que lo último que hice fue convencer a mis gerentes de invertir dinero en el problema y reducir el tiempo de CI a cinco minutos. Los tiempos lentos de CI cuestan tiempo humano, y hacerlo más rápido puede costar mucho dinero.

También tenemos una configuración de referencia llamada benchmarking continuo utilizando Cosby como herramienta y plataforma. Lo que hace Cosby es registrar métricas como los ciclos de CPU utilizando Valgrind, y luego calcula un número de velocidad y lo almacena en una base de datos para confirmar los errores. Esto hace que el benchmarking sea confiable, eliminando el hardware de la computadora de la ecuación. Esta captura de pantalla muestra una de las mejoras de rendimiento más sorprendentes en la historia del proyecto OXC, que hizo que nuestro analizador fuera dos veces más rápido que FWC y que se ejecutaran todos nuestros benchmarks de prueba, casos de prueba, que hay alrededor de más de una docena de casos de prueba, y todo se hace en cinco minutos. Sí, cuando envías código al repositorio OXC, obtendrás este resultado de referencia en cinco minutos.

El rendimiento es en realidad un concepto muy vago cuando trabajamos en él. A menudo se descuida y es lo último en considerarse para un proyecto. Es difícil convencer a las personas de trabajar en el rendimiento como una prioridad hasta que se vuelva realmente lento, principalmente debido a la famosa falacia. La optimización prematura del código fuera de contexto es la raíz de todos los males. Pero todo esto cambió cuando comencé a ver el curso abierto del MIT sobre el rendimiento en términos de sistemas de software. En su primera conferencia, afirmó lo siguiente. El rendimiento es la concurrencia de la computación. A menudo, puedes comprar propiedades necesarias con el rendimiento. Es realmente difícil entender qué son las propiedades necesarias. Bueno, en realidad hay cosas como corrección, testabilidad, mantenibilidad, confiabilidad, usabilidad, todo tipo de cosas que vienen con la creación de un software. El rendimiento es una de ellas.

Para demostrar este concepto, aquí tenemos una hoja de conformidad que prueba todas nuestras herramientas contra test262, Babel y las hojas de prueba de Hydro. Básicamente verifica el comportamiento de nuestras herramientas en comparación con nuestros predecesores para asegurarnos de que cumplamos con el mismo comportamiento. Aquí en esta captura de pantalla, completamos la ejecución de más de 50k casos de prueba en solo dos minutos y medio. Creo que el tiempo de ejecución de las pruebas se convierte en un cuello de botella para una base lógica cuando se llega a tantos casos de prueba. Pero en NeoXe, como todo es rápido, también se completan las pruebas más rápido. Si no te has dado cuenta por los números en la captura de pantalla, actualmente pasa el 99% de los casos de prueba. Esto significa que el analizador está listo para producción y se puede utilizar. Cuando hablo de comprar propiedades con el rendimiento, creo que también podemos comprar innovación con el rendimiento.

5. Performance as a Path to Innovation

Short description:

Trabajando en infraestructura de JavaScript, encontré la necesidad de compilar y enviar JavaScript transpilado a los usuarios, sacrificando rendimiento. El proyecto de Jared Sumner, BAN, permite empaquetar bajo demanda con almacenamiento en caché, lo que lleva a sitios web más rápidos. Nuestros minificadores de JavaScript actuales, SWC, ESBuild, herramientas de Go y AgilifyJS, muestran capacidades interesantes. A medida que los códigos base crecen, las herramientas existentes se vuelven lentas. Google Closure Compiler tiene una gran compresión pero está limitado a la infraestructura de Google. OXC tiene como objetivo crear su propio minificador para una mejor compresión y rendimiento. OXC ahora admite a Rolldown founder y busca soluciones más nuevas para la infraestructura de JavaScript.

Este es nuestro último tema, el rendimiento como camino hacia la innovación. Cuando trabajaba en la infraestructura de JavaScript, siempre me preguntaba por qué necesitábamos compilar JavaScript y publicarlo en SDNs. Disfrutamos de las últimas características de JavaScript, pero necesitan ser transpiladas a una versión más antigua y luego enviadas al usuario, lo que resulta en un código inflado. Y luego, sitios web lentos. Es donde sacrificamos rendimiento por el último grupo de usuarios.

Hemos estado haciendo esto desde el principio porque el rendimiento es realmente el elefante en la habitación. Debido a que la transpilación es lenta, la modificación es lenta, empujar a CDN y servir archivos también. Todo es un poco lento. Cuando Jared Sumner creó BAN, su objetivo de proyecto era crear un empaquetador, no un tiempo de ejecución como el que estamos viendo ahora. Se dio cuenta de forma independiente de que una vez que se alcanza el rendimiento máximo, podemos simplemente empaquetar bajo demanda con una capa de almacenamiento en caché. De esta manera, los usuarios que utilizan navegadores más nuevos obtendrán archivos más pequeños, lo que lleva a sitios web más rápidos.

Y esta es una captura de pantalla de las pruebas de rendimiento para nuestros minificadores de JavaScript actuales. Tenemos SWC, ESBuild y dos minificadores escritos en Go, el tercero y el quinto. Y uno escrito en Rust, el primero SWC. Y luego, cuando estás escribiendo JavaScript, el segundo, AgilifyJS, entra en el número seis. Lo interesante es que la actual era de herramientas escritas en Rust y Go puede minificar un megabyte de archivo. Pero las herramientas de la era pasada no pueden. Para muchos códigos base más grandes y aplicaciones web más grandes, la cantidad de código que enviamos al usuario es aún mayor. A medida que nuestros códigos base crecen cada vez más, especialmente para aplicaciones web grandes, algunas de las herramientas existentes se vuelven realmente lentas, simplemente se quedan sin memoria. Lo que es realmente interesante, sin embargo, es el compilador de cierre de Google en la lista. En realidad tiene un modo avanzado, que probablemente pueda superar a otras herramientas en tamaño de compresión. Pero desafortunadamente, solo funciona en la infraestructura de Google y nadie más puede usarlo porque es realmente, realmente lento. Realiza una gran cantidad de pases ASD en Java. Sin embargo, no podemos culparlos. El compilador de cierre de Google fue creado tan temprano y Java era el único lenguaje admitido internamente.

Entonces, si OXC tiene la oportunidad, todo nuestro trabajo actual nos llevará a crear nuestro propio minificador, que apuntará a tener el mejor tamaño de compresión similar al compilador de cierre de Google con un rendimiento más pequeño que SWC y ESP. Así que OXC fue mi proyecto independiente durante los últimos dos años, pero ya no lo será. El proyecto ahora tiene la misión de admitir completamente a Rolldown founder y buscar soluciones mejores y más nuevas para la infraestructura de JavaScript con Yzero, la empresa.

Y si tienes alguna pregunta, no dudes en visitar nuestro sitio web o contactarme en nuestro Discord o en mi Twitter. Gracias por escuchar.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Una Guía del Comportamiento de Renderizado de React
React Advanced 2022React Advanced 2022
25 min
Una Guía del Comportamiento de Renderizado de React
Top Content
This transcription provides a brief guide to React rendering behavior. It explains the process of rendering, comparing new and old elements, and the importance of pure rendering without side effects. It also covers topics such as batching and double rendering, optimizing rendering and using context and Redux in React. Overall, it offers valuable insights for developers looking to understand and optimize React rendering.
Acelerando tu aplicación React con menos JavaScript
React Summit 2023React Summit 2023
32 min
Acelerando tu aplicación React con menos JavaScript
Top Content
Mishko, the creator of Angular and AngularJS, discusses the challenges of website performance and JavaScript hydration. He explains the differences between client-side and server-side rendering and introduces Quik as a solution for efficient component hydration. Mishko demonstrates examples of state management and intercommunication using Quik. He highlights the performance benefits of using Quik with React and emphasizes the importance of reducing JavaScript size for better performance. Finally, he mentions the use of QUIC in both MPA and SPA applications for improved startup performance.
Utilizando Rust desde Vue con WebAssembly
Vue.js London Live 2021Vue.js London Live 2021
8 min
Utilizando Rust desde Vue con WebAssembly
Top Content
In this Talk, the speaker demonstrates how to use Rust with WebAssembly in a Vue.js project. They explain that WebAssembly is a binary format that allows for high-performance code and less memory usage in the browser. The speaker shows how to build a Rust example using the WasmPack tool and integrate it into a Vue template. They also demonstrate how to call Rust code from a Vue component and deploy the resulting package to npm for easy sharing and consumption.
Concurrencia en React, Explicada
React Summit 2023React Summit 2023
23 min
Concurrencia en React, Explicada
Top Content
React 18's concurrent rendering, specifically the useTransition hook, optimizes app performance by allowing non-urgent updates to be processed without freezing the UI. However, there are drawbacks such as longer processing time for non-urgent updates and increased CPU usage. The useTransition hook works similarly to throttling or bouncing, making it useful for addressing performance issues caused by multiple small components. Libraries like React Query may require the use of alternative APIs to handle urgent and non-urgent updates effectively.
How React Compiler Performs on Real Code
React Advanced 2024React Advanced 2024
31 min
How React Compiler Performs on Real Code
Top Content
I'm Nadia, a developer experienced in performance, re-renders, and React. The React team released the React compiler, which eliminates the need for memoization. The compiler optimizes code by automatically memoizing components, props, and hook dependencies. It shows promise in managing changing references and improving performance. Real app testing and synthetic examples have been used to evaluate its effectiveness. The impact on initial load performance is minimal, but further investigation is needed for interactions performance. The React query library simplifies data fetching and caching. The compiler has limitations and may not catch every re-render, especially with external libraries. Enabling the compiler can improve performance but manual memorization is still necessary for optimal results. There are risks of overreliance and messy code, but the compiler can be used file by file or folder by folder with thorough testing. Practice makes incredible cats. Thank you, Nadia!
Optimización de juegos HTML5: 10 años de aprendizaje
JS GameDev Summit 2022JS GameDev Summit 2022
33 min
Optimización de juegos HTML5: 10 años de aprendizaje
Top Content
PlayCanvas is an open-source game engine used by game developers worldwide. Optimization is crucial for HTML5 games, focusing on load times and frame rate. Texture and mesh optimization can significantly reduce download sizes. GLTF and GLB formats offer smaller file sizes and faster parsing times. Compressing game resources and using efficient file formats can improve load times. Framerate optimization and resolution scaling are important for better performance. Managing draw calls and using batching techniques can optimize performance. Browser DevTools, such as Chrome and Firefox, are useful for debugging and profiling. Detecting device performance and optimizing based on specific devices can improve game performance. Apple is making progress with WebGPU implementation. HTML5 games can be shipped to the App Store using Cordova.

Workshops on related topic

Masterclass de Depuración de Rendimiento de React
React Summit 2023React Summit 2023
170 min
Masterclass de Depuración de Rendimiento de React
Top Content
Featured Workshop
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Vería una interacción lenta, intentaría una optimización aleatoria, vería que no ayudaba, y seguiría intentando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Haría una grabación en Chrome DevTools o React Profiler, la examinaría, intentaría hacer clic en cosas aleatorias, y luego la cerraría frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos a analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, estaremos cubriendo el rendimiento de la interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Next.js 13: Estrategias de Obtención de Datos
React Day Berlin 2022React Day Berlin 2022
53 min
Next.js 13: Estrategias de Obtención de Datos
Top Content
Workshop
Alice De Mauro
Alice De Mauro
- Introducción- Prerrequisitos para la masterclass- Estrategias de obtención: fundamentos- Estrategias de obtención – práctica: API de obtención, caché (estática VS dinámica), revalidar, suspense (obtención de datos en paralelo)- Prueba tu construcción y sírvela en Vercel- Futuro: Componentes de servidor VS Componentes de cliente- Huevo de pascua de la masterclass (no relacionado con el tema, destacando la accesibilidad)- Conclusión
Depuración del Rendimiento de React
React Advanced 2023React Advanced 2023
148 min
Depuración del Rendimiento de React
Workshop
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Veía una interacción lenta, probaba una optimización aleatoria, veía que no ayudaba, y seguía probando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Hacía una grabación en Chrome DevTools o React Profiler, la examinaba, intentaba hacer clic en cosas al azar, y luego la cerraba frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos cómo analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, cubriremos el rendimiento de interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Construyendo aplicaciones web que iluminan Internet con QwikCity
JSNation 2023JSNation 2023
170 min
Construyendo aplicaciones web que iluminan Internet con QwikCity
WorkshopFree
Miško Hevery
Miško Hevery
Construir aplicaciones web instantáneas a gran escala ha sido elusivo. Los sitios del mundo real necesitan seguimiento, análisis y interfaces y interacciones de usuario complejas. Siempre comenzamos con las mejores intenciones pero terminamos con un sitio menos que ideal.
QwikCity es un nuevo meta-framework que te permite construir aplicaciones a gran escala con un rendimiento de inicio constante. Veremos cómo construir una aplicación QwikCity y qué la hace única. El masterclass te mostrará cómo configurar un proyecto QwikCity. Cómo funciona el enrutamiento con el diseño. La aplicación de demostración obtendrá datos y los presentará al usuario en un formulario editable. Y finalmente, cómo se puede utilizar la autenticación. Todas las partes básicas para cualquier aplicación a gran escala.
En el camino, también veremos qué hace que Qwik sea único y cómo la capacidad de reanudación permite un rendimiento de inicio constante sin importar la complejidad de la aplicación.
Masterclass de alto rendimiento Next.js
React Summit 2022React Summit 2022
50 min
Masterclass de alto rendimiento Next.js
Workshop
Michele Riva
Michele Riva
Next.js es un marco convincente que facilita muchas tareas al proporcionar muchas soluciones listas para usar. Pero tan pronto como nuestra aplicación necesita escalar, es esencial mantener un alto rendimiento sin comprometer el mantenimiento y los costos del servidor. En este masterclass, veremos cómo analizar el rendimiento de Next.js, el uso de recursos, cómo escalarlo y cómo tomar las decisiones correctas al escribir la arquitectura de la aplicación.
Maximizar el rendimiento de la aplicación optimizando las fuentes web
Vue.js London 2023Vue.js London 2023
49 min
Maximizar el rendimiento de la aplicación optimizando las fuentes web
WorkshopFree
Lazar Nikolov
Lazar Nikolov
Acabas de llegar a una página web y tratas de hacer clic en un elemento en particular, pero justo antes de hacerlo, se carga un anuncio encima y terminas haciendo clic en eso en su lugar.
Eso... eso es un cambio de diseño. Todos, tanto los desarrolladores como los usuarios, saben que los cambios de diseño son malos. Y cuanto más tarde ocurran, más interrupciones causarán a los usuarios. En este masterclass vamos a analizar cómo las fuentes web causan cambios de diseño y explorar algunas estrategias para cargar fuentes web sin causar grandes cambios de diseño.
Tabla de contenidos:¿Qué es CLS y cómo se calcula?¿Cómo las fuentes pueden causar CLS?Estrategias de carga de fuentes para minimizar CLSRecapitulación y conclusión