Apuesto a que siempre has utilizado React para construir sitios web y aplicaciones, ¿verdad? ¿Qué tal si te digo que también podemos editar una película con él? Aprende cómo funciona un motor de renderizado simple construido en React y Node.js para crear videos utilizando componentes de React.
También aprenderás cómo crear una granja de renderizado escalable utilizando AWS. La biblioteca principal para construir el motor de renderizado es Remotion y permite renderizar videos de forma programática.
This talk has been presented at React Summit 2024, check out the latest edition of this React Conference.
La charla de hoy trata sobre la creación de videos con React, incluyendo el uso de Puppeteer y FFmpeg para construir videos cuadro por cuadro. La biblioteca ReMotion ofrece ventajas como componentes declarativos y reutilizables, versionado y automatización. La charla también demuestra cómo construir un video con ReMotion, incrustar vistas previas en React y opciones de personalización. Explora el renderizado a gran escala con las opciones Lambda o Docker de ReMotion y el proceso de renderizado utilizando Lambdas.
Hoy hablaremos sobre cómo crear videos con React. Aprende cómo crear videos programáticamente utilizando solo React. También veremos cómo construir un motor de renderizado basado en JSON.
Bienvenidos a todos. Gracias por estar aquí. Estoy muy emocionado de dar esta charla y hoy hablaremos un poco sobre cómo crear videos con React. Pero la primera vez que escuché que se pueden crear videos reales con React, mi reacción fue más o menos así. No estaba seguro de por qué esto era algo. De hecho, puedes usar herramientas como DaVinci Resolve, Adobe Premiere Pro, hay muchas herramientas para crear videos. Entonces, ¿por qué deberías usar un framework o biblioteca de front-end para crear un video? Bueno, tiene mucho sentido por muchas razones y acompáñenme porque hoy aprenderemos cómo crear videos programáticamente utilizando solo React. Y como bono, en caso de que estés interesado en eso, veremos rápidamente cómo construir un motor de renderizado basado en JSON utilizando la biblioteca.
Así que solo unas pocas palabras sobre mí. Soy Alfonso. Soy de Italia. Soy un ingeniero senior en NearForm y si estás interesado en las diapositivas de esta charla, simplemente escanea el código QR. Antes de pasar al contenido, solo unas pocas palabras sobre NearForm, somos un equipo independiente de ingenieros, diseñadores y estrategas. Y en realidad construimos soluciones y productos digitales. Tenemos más de 10 años de experiencia. Somos más de 400 personas en 28, 30 países. Así que en caso de que necesites algo relacionado con Node.js, el ecosistema de React, solo envíanos un mensaje.
2. Creación de videos con React
Short description:
Un video es una secuencia de imágenes a lo largo del tiempo, con fotogramas por segundo y pistas de audio. React se puede utilizar para construir el fotograma individual y montar componentes dentro del viewport. Puppeteer se utiliza para tomar una captura de pantalla del viewport para cada fotograma y FFmpeg se utiliza para unir los fotogramas y agregar audio. ReMotion es una biblioteca de React para crear videos de forma programática.
Comencemos desde cero. Entonces, ¿qué es un video? Podemos ver un video como una secuencia de imágenes a lo largo del tiempo y el número de imágenes por segundo se llama fotogramas por segundo. Por lo tanto, podemos tener videos con 30 fotogramas por segundo, 60 fotogramas por segundo. Por lo general, depende del caso de uso, ¿verdad? Por ejemplo, las películas suelen tener 24, 25 fotogramas por segundo. Y luego, por supuesto, tenemos audios. Podemos tener una única pista de audio, una pista de audio estéreo y también podemos tener varias pistas de audio. Pero esto es lo básico.
Entonces, imágenes a lo largo del tiempo con una o más pistas de audio. Ahora la intuición aquí es realmente interesante porque podemos usar React, nuestro framework de front-end, nuestra biblioteca de front-end para construir el fotograma individual. Así que montamos todos los componentes dentro del viewport. Por supuesto, empaquetamos todo con Webpack. De esta manera, podemos poner imágenes, texto, videos, lo que se nos ocurra en la pantalla. Luego usamos Puppeteer para tomar una captura de pantalla del viewport para cada fotograma, por supuesto, para que sea eficiente, esto se paraleliza. Y una vez que tenemos todos los fotogramas, usamos FFmpeg para unir todos los fotogramas, agregar el audio y construir el video final en un contenedor como el contenedor mp4. Todo esto lo hace una hermosa biblioteca llamada ReMotion. ReMotion es una biblioteca de React para crear videos de forma programática.
3. Ventajas de usar ReMotion
Short description:
Tenemos la biblioteca React, el reproductor ReMotion y ReMotion Lambda para la renderización rápida en la nube. Las ventajas incluyen la construcción de componentes declarativos y reutilizables, la versión de video y código, y la automatización de todo el proceso de creación de videos.
Y una vez que descargamos ReMotion, tenemos muchas cosas en su interior. Primero que nada, tenemos la biblioteca React en sí misma, pero también tenemos el reproductor ReMotion, que nos permite cargar un proyecto ReMotion dentro de una aplicación React realmente simple para tener una vista previa en vivo. Y luego tenemos otros componentes como, por ejemplo, ReMotion Lambda. ReMotion Lambda es realmente genial. De hecho, nos permite renderizar videos muy rápido en la nube con un alto nivel de paralelización. Pero podrías pensar, bueno, aún interesante, pero ¿cuáles son las verdaderas ventajas de usar esta tecnología en lugar de, por ejemplo, usar Premiere Pro para construir nuestro video? Bueno, en primer lugar, somos desarrolladores y realmente nos encanta construir componentes declarativos y reutilizables. Así que digamos que tenemos nuestro texto, nuestro título, podemos construir el componente de título y podemos reutilizarlo cada vez que queramos. O digamos que tenemos una transición específica, podemos moverla y reutilizarla. O no sé, el logotipo de tu empresa en la parte superior derecha de la pantalla, cada vez que lo necesites, simplemente importa el componente de logotipo y eso es todo. Esto es realmente genial. Además, tenemos versionado para que podamos versionar nuestro video, podemos versionar nuestro código. Como todo está escrito en código React, podemos usarlo y podemos versionar nuestro video. Si estás familiarizado con herramientas como Premiere Pro u otras herramientas de edición de video, generalmente creas el video, el video final, el video final uno, el video final final, el video final esperemos que sí, y esto es un desastre. Pero gracias a esto, podemos versionar todo dentro de nuestro video. Y por último pero no menos importante, y esto es lo que me emociona, es que podemos automatizar todo el proceso de creación de video desde el desencadenador de renderización, por lo que podemos renderizar a través de una llamada a la API hasta la carga automática, digamos en Instagram o Facebook o cuando lo necesitemos. Y por supuesto, el video en sí mismo se puede personalizar con una automatización completa. Entonces, por ejemplo, hago una llamada a la API y digo esta es la estructura del video, se renderiza el video y luego se
4. Construyendo el Primer Video con ReMotion
Short description:
Vamos a construir nuestro primer video usando ReMotion. Creamos un proyecto ReMotion y comenzamos creando una composición. El componente de entrevista es muy fácil e incluye el logotipo, la información del presentador y el video de la persona que habla. Los componentes de presentador y logotipo son componentes React simples construidos con HTML, CSS y JSX. Podemos iniciar ReMotion Studio para gestionar composiciones y renderizar videos.
subido automáticamente. Pero sin más preámbulos, vamos a construir nuestro primer video usando ReMotion. Ten paciencia, solo tomará un par de minutos, es muy sencillo. Así que primero que nada, este es el resultado final. Como puedes ver aquí, tenemos un video y luego tenemos en la parte superior derecha el logotipo de la empresa, y en la parte inferior, tenemos el nombre de la persona y el título, y todo está personalizado, como puedes ver. Así que primero que nada, creamos el proyecto ReMotion. Mpx, create video, y latest. Eso es todo. Tenemos un asistente muy sencillo, podemos seleccionar si queremos usar TypeScript, JavaScript, React o Next, podemos decidir. Luego comenzamos creando una composición. Una composición es básicamente dentro del universo ReMotion, es algo que puedes renderizar, eso es todo. Una composición tiene un ID, toma un componente, un componente React. Como duración, debes declarar los FPS, los fotogramas por segundo que se renderizarán más adelante. Y luego debes definir el ancho y el alto, y como puedes ver, eso es interesante, y en la línea 13, también puedes definir algunas props predeterminadas que se pasarán al componente de entrevista. Veamos ahora el componente de entrevista, que es muy sencillo. Como puedes ver, tenemos el logotipo, que es nuestra imagen, tenemos la información del presentador que es otro componente personalizado, y luego tenemos el video, el propio video de la persona que está hablando. El video es un contenedor sobre el clásico elemento HTML video, pero cuando tienes que montar el video, debes usar el componente video de ReMotion porque maneja muchas cosas por nosotros. Y luego, muy rápidamente, el componente de presentador. Esto es genial. Como puedes ver, estamos construyendo todo ese componente de presentador solo con HTML y CSS, bueno, en este caso, JSX, pero lo entiendes, ¿verdad? Así que solo estamos pasando la información del presentador y la estamos renderizando. Este es un componente React simple. Y lo mismo se aplica para el logotipo, ¿verdad? Tenemos el componente de imagen, estamos definiendo el estilo, por lo que estamos definiendo dónde debe posicionarse el logotipo dentro de la página, y luego usamos el archivo estático para leer desde la carpeta pública, también expuesta por ReMotion. Como verás, tenemos muchas utilidades. Y luego podemos iniciar ReMotion Studio. Entonces, cuando ejecutamos npm run start o npm start, veremos esta UI. Dentro de esta UI, tenemos las composiciones. En este caso, creamos la composición de entrevista. Tenemos una línea de tiempo en caso de tener múltiples secuencias. Tenemos la vista previa en sí misma, y tenemos muchas herramientas y también podemos renderizar desde esta interfaz. En caso de que queramos renderizar, podemos hacer clic en ese botón y veremos esta UI y podemos personalizar un poco la renderización, o en caso de que queramos, también podemos usar la CLI. Entonces mpx, ReMotion,
5. Casos de Uso e Incrustación de Previsualizaciones en React
Short description:
El proceso de renderizado comenzará y tomará, dependiendo de tu máquina, unos segundos o unos minutos. ReMotion tiene varios casos de uso, como videos parametrizados, flujos de trabajo de video automatizados y servicios de video basados en la nube. Ejemplos incluyen el video de Fire Chip, una herramienta para subtítulos automáticos y el despliegue de GitHub. ReMotion permite incrustar la previsualización de un video en un proyecto de React utilizando el componente Reproductor de ReMotion. Hay opciones de personalización disponibles y también hay componentes integrados.
renderizado, el ID de la composición y la carpeta de salida, y eso es todo. El proceso de renderizado comenzará y tomará, dependiendo, por supuesto, de tu máquina, unos segundos o unos minutos, dependiendo también de la video, de la duración de la video. Pero, bueno, eso es interesante. Tiene mucho sentido, pero ¿qué puedo hacer realmente con esta tecnología? ¿Cuáles son algunos casos de uso? ¿Qué debería hacer con ReMotion? Hay muchos casos de uso. En primer lugar, videos parametrizados. Como vimos inicialmente, podemos pasar parámetros a nuestra video, por lo que podemos cambiar dinámicamente, no sé, la URL de la entrevista, podemos cambiar el nombre de la persona, podemos cambiar todo. Este video fue realmente simple porque tiene una sola escena, pero imagina el video hecho, no sé, tal vez una entrevista compleja con múltiples cámaras. Podemos personalizar todo simplemente pasando props. Luego podemos tener flujos de trabajo de video automatizados. Como dijimos inicialmente, podemos crear un video completo desde el principio hasta el final con solo una llamada a la API, y eso es súper interesante. Y por último, pero no menos importante, podemos crear servicios de video basados en la nube, por lo que podemos crear productos con ReMotion. Por ejemplo, podemos crear, no sé, servicios para redes sociales, para edición de video, para transcripción automática. Todo lo que podamos imaginar. Y luego veamos solo un par de ejemplos realmente interesantes. Tenemos este video de Fire Chip. Este es un video de ocho minutos hecho completamente con ReMotion, y en caso de que estés interesado, incluso puedes descargar el código fuente de este video. También está esta herramienta, que es un servicio que realiza subtítulos automáticos. Y luego por ejemplo, está este despliegue de GitHub. Es del año pasado, si recuerdo bien. Y como puedes ver, hay algunos lenguajes principales, hay la TypeScript animation, hay muchas animaciones, y todo esto se hace en tiempo real en tu máquina. Esta es la previsualización del video, no es el video renderizado en sí, por eso es tan genial. Pero ahora veamos cómo podemos incrustar una previsualización en un proyecto de React, porque dijimos, ok, puedo renderizar un video usando ReMotion, por lo que puedo crear mi video en React, pero también puedo incrustar la previsualización del video en un proyecto de React.
Y así es como lo hacemos. Es muy fácil. Solo tenemos el reproductor de ReMotion, e importamos ese componente, y decimos, ok, el componente principal, el punto de entrada para el video en sí, para el reproductor en sí, es mi video. Eso es todo. Por supuesto, también tenemos que proporcionar el fotograma de direccionamiento, el ancho de la composición y los FPS, y alguna otra información. Por supuesto, podemos agregar controles, o podemos escribir nuestros propios controles, si queremos. Y más o menos así es como se ve.
6. Customización, Renderizado a Escala y Despliegue
Short description:
Podemos personalizar y utilizar componentes integrados en ReMotion, como video, imágenes, audio y transiciones. El componente secuencia nos permite desplazar elementos en el tiempo. Si no encontramos un componente adecuado, podemos usar HTML, CSS y JavaScript. Sin embargo, debemos usar el gancho useCurrentFrame para las animaciones. El renderizado a escala se puede hacer con las opciones de Lambda o Docker de ReMotion, cada una con sus ventajas y limitaciones.
Como puedes ver, puedo escribir mi nombre y el nombre cambiará dentro del video, luego puedo cambiar este color y el color cambiará, así que esto es súper, súper genial. Ahora veamos un par de componentes integrados. Tenemos, por supuesto, video, pero también tenemos imágenes o GIF, luego tenemos el audio, luego tenemos otros componentes como transiciones, series o, por ejemplo, la secuencia.
La secuencia es un componente realmente importante porque nos permite desplazar elementos en el tiempo. Así que digamos que tengo tres escenas, o digamos que, por ejemplo, quiero que se muestre una imagen después de, no sé, 60 fotogramas, solo tengo que decir que esta es la secuencia, por lo que la secuencia contiene mi imagen, y mi imagen se mostrará dentro de la secuencia, y la secuencia comenzará después de 60 fotogramas. Pero bueno, hay algunos componentes geniales, pero ¿qué pasa si no encuentro el componente perfecto para mi caso de uso específico? Bueno, en ese caso, simplemente podemos usar HTML, CSS y JavaScript puros, porque estamos dentro del ecosistema de React, por lo que podemos usar lo que queramos. Pero debemos tener en cuenta usar el gancho useCurrentFrame mientras trabajamos con animaciones. Dado que ReMotion utiliza un renderizado paralelizado, no podemos usar animaciones normales de CSS, solo debemos tener en cuenta usar el gancho useCurrentFrame, y veremos un ejemplo en solo unos segundos.
Así que vamos al ejemplo. Este es el resultado final, y como puedes ver aquí, acabamos de crear un efecto 3D simple para este componente presentador. ¿Y cómo lo hacemos? Bueno, en primer lugar, tenemos que importar el useCurrentFrame, la animación spring y useVideoConfig. Podemos obtener el fotograma actual de ReMotion con el useCurrentFrame, y aquí estamos creando la opacidad, que es un número de cero a uno, que es una animación spring, e inyectamos ese número de animación, y la línea 22 dentro del estilo. Y eso es todo. Y podemos usar esto más o menos para todo. Por supuesto, en caso de que no nos guste la animación spring, también podemos usar la función interpolate, también de ReMotion, para generar los valores intermedios. Muy bien, veamos cómo podemos renderizar a escala, porque vimos algo sobre el renderizado. Vimos cómo podemos renderizar un solo video desde ReMotion Studio o desde ReMotion CLI. Pero digamos que no tenemos que renderizar un solo video, sino que tenemos que renderizar cientos o miles de videos. ¿Cómo podemos hacer eso? Bueno, con ReMotion, también, es realmente simple. ReMotion, de serie, ofrece varias formas de renderizar, pero nos centraremos solo en un par de ellas. En primer lugar, tenemos Lambda, que vimos anteriormente, y también podemos usar Docker a través de las API de Node.js. Hay algunas diferencias y vale la pena conocer las diferencias. En primer lugar, Lambda generalmente es más rápido porque está realmente muy paralelizado, pero desafortunadamente hay algunas limitaciones en la duración del video y en el tamaño del video que podemos generar. Por lo general, es más barato que mantener en ejecución un contenedor Docker si no tenemos grandes volúmenes de renderizado. Entonces, digamos que tengo que renderizar, no sé, como 10 videos al mes o 10 videos al día. Por lo general, Lambda, en ese caso, es más barato, pero si tenemos cientos o miles de videos, entonces la opción de Docker con, no sé, un grupo de escalado automático, eso suele ser más barato. Además, Docker no tiene las limitaciones en la duración del video y en el tamaño del video, pero desafortunadamente es más lento debido a la falta de esta paralelización extrema que tenemos en Lambda. Pero, ¿cómo funciona Lambda? Entonces, en primer lugar, tenemos que entender cómo funciona, y luego veremos una pequeña demostración. Entonces, en primer lugar, tenemos una función Lambda y un bucket de S3, que están implementados en S3. Luego, el proyecto ReMotion se implementa a través de un bucket de S3, a través del S3
7. Proceso de Renderizado
Short description:
La función Lambda se invoca para abrir el proyecto ReMotion. Múltiples Lambdas renderizan partes del video, que luego se unen. El video final se carga en S3. Podemos activar el proceso de renderizado llamando a la función renderMediaOnLambda, proporcionando el nombre de la función, la URL del sitio web de S3, el ID de composición y las propiedades de entrada.
El bucket que acabamos de crear como sitio web. Luego, la función Lambda, una vez que invocamos el método de renderizado, se invoca y abre el proyecto ReMotion. Luego, a partir de la Lambda principal, se generan muchas Lambdas, y cada Lambda va a renderizar una pequeña parte del video. Luego, la Lambda inicial descarga todos estos pequeños videos y los une, y luego el video final se carga en S3. Como podemos ver aquí, este es el proceso de activación del renderizado. Es realmente simple. Una vez que creamos la Lambda, y hay un tutorial para eso, por supuesto, podemos obtener la función. Solo necesitamos obtener el nombre de la función, y luego podemos llamar a la función renderMediaOnLambda, que tomará el nombre de la función, la URL del sitio web que utiliza S3, el ID de composición y las propiedades de entrada. Haciendo eso, podemos personalizar tanto como queramos nuestro video. Además, eso también es interesante. Podemos obtener el progreso actual del renderizado. Solo necesitamos tener el ID de renderizado, el nombre del bucket y el nombre de la función, y podemos obtener el progreso general. Por supuesto, podemos tener progress.done. En caso de que esté completo, también podemos tener la URL del archivo de salida. En caso de que queramos usar Docker, es súper, súper fácil. Aquí está el archivo Docker. En este caso, este archivo Docker va a renderizar el comando node.renderMJS. Veamos qué hay dentro. Dentro de este archivo, en primer lugar, estamos empaquetando nuestro proyecto. Estamos empaquetando, en este caso, el index.js. Luego, seleccionamos la composición y luego renderizamos los medios. Lo que también podemos hacer en este caso es construir una imagen de Docker que sirva como servidor web, que contenga, no sé, una aplicación Fastify, por ejemplo. A través de una llamada a la API, podemos activar un renderizado. En este caso, estamos activando el renderizado tan pronto como el Docker se inicia. Por último, pero no menos importante, un pequeño proyecto adicional en caso de que estés interesado, y en caso de que quieras experimentar un poco con ReMotion. Podemos crear un motor de renderizado basado en JSON. Esto significa que podemos tener una descripción JSON de nuestro video que contenga, no sé, la línea de tiempo con todas las pistas del video o las pistas del audio, todo el texto, incluso componentes dinámicos. Podemos incluir todo lo relacionado con nuestro video dentro de la descripción JSON. Luego, pasamos esa descripción JSON al motor de renderizado, que se basa en ReMotion. Luego, gracias a ReMotion y esta capa de abstracción superior, puedes generar videos. En caso de que estés interesado, simplemente escanea el código QR. Eso es todo por hoy. Espero que hayas disfrutado, y muchas gracias por ver.
Remix is a web framework built on React Router that focuses on web fundamentals, accessibility, performance, and flexibility. It delivers real HTML and SEO benefits, and allows for automatic updating of meta tags and styles. It provides features like login functionality, session management, and error handling. Remix is a server-rendered framework that can enhance sites with JavaScript but doesn't require it for basic functionality. It aims to create quality HTML-driven documents and is flexible for use with different web technologies and stacks.
Mishko, the creator of Angular and AngularJS, discusses the challenges of website performance and JavaScript hydration. He explains the differences between client-side and server-side rendering and introduces Quik as a solution for efficient component hydration. Mishko demonstrates examples of state management and intercommunication using Quik. He highlights the performance benefits of using Quik with React and emphasizes the importance of reducing JavaScript size for better performance. Finally, he mentions the use of QUIC in both MPA and SPA applications for improved startup performance.
The Talk discusses the shift to full-stack frameworks and the challenges of full-stack documentation. It highlights the power of interactive tutorials and the importance of user testing in software development. The Talk also introduces learn.svelte.dev, a platform for learning full-stack tools, and discusses the roadmap for SvelteKit and its documentation.
Suspense is a mechanism for orchestrating asynchronous state changes in JavaScript frameworks. It ensures async consistency in UIs and helps avoid trust erosion and inconsistencies. Suspense boundaries are used to hoist data fetching and create consistency zones based on the user interface. They can handle loading states of multiple resources and control state loading in applications. Suspense can be used for transitions, providing a smoother user experience and allowing prioritization of important content.
Tom Pressenwurter introduces Redwood.js, a full stack app framework for building GraphQL APIs easily and maintainably. He demonstrates a Redwood.js application with a React-based front end and a Node.js API. Redwood.js offers a simplified folder structure and schema for organizing the application. It provides easy data manipulation and CRUD operations through GraphQL functions. Redwood.js allows for easy implementation of new queries and directives, including authentication and limiting access to data. It is a stable and production-ready framework that integrates well with other front-end technologies.
Redwood JS is a full stack React app framework that simplifies development and testing. It uses a directory structure to organize code and provides easy data fetching with cells. Redwood eliminates boilerplate and integrates Jest and Storybook. It supports pre-rendering and provides solutions for authentication and deployment. Redwood is a cross-client framework that allows for building web and mobile applications without duplicating work.
Construir aplicaciones web instantáneas a gran escala ha sido elusivo. Los sitios del mundo real necesitan seguimiento, análisis y interfaces y interacciones de usuario complejas. Siempre comenzamos con las mejores intenciones pero terminamos con un sitio menos que ideal. QwikCity es un nuevo meta-framework que te permite construir aplicaciones a gran escala con un rendimiento de inicio constante. Veremos cómo construir una aplicación QwikCity y qué la hace única. El masterclass te mostrará cómo configurar un proyecto QwikCity. Cómo funciona el enrutamiento con el diseño. La aplicación de demostración obtendrá datos y los presentará al usuario en un formulario editable. Y finalmente, cómo se puede utilizar la autenticación. Todas las partes básicas para cualquier aplicación a gran escala. En el camino, también veremos qué hace que Qwik sea único y cómo la capacidad de reanudación permite un rendimiento de inicio constante sin importar la complejidad de la aplicación.
La web moderna sería diferente sin aplicaciones ricas del lado del cliente respaldadas por potentes frameworks: React, Angular, Vue, Lit y muchos otros. Estos frameworks se basan en JavaScript del lado del cliente, que es su núcleo. Sin embargo, existen otros enfoques para el renderizado. Uno de ellos (bastante antiguo, por cierto) es el renderizado del lado del servidor completamente sin JavaScript. Descubramos si esta es una buena idea y cómo Remix puede ayudarnos con ello? Prerrequisitos- Buen entendimiento de JavaScript o TypeScript- Sería útil tener experiencia con React, Redux, Node.js y escribir aplicaciones FrontEnd y BackEnd- Preinstalar Node.js, npm- Preferimos usar VSCode, pero también se pueden utilizar IDE en la nube como codesandbox (otros IDE también están bien)
Este masterclass te enseña los conceptos básicos del desarrollo de aplicaciones serverless con TypeScript. Comenzaremos con una función Lambda simple, configuraremos el proyecto y la infraestructura como código (AWS CDK) y aprenderemos cómo organizar, probar y depurar una aplicación serverless más compleja. Tabla de contenidos: - Cómo configurar un proyecto serverless con TypeScript y CDK - Cómo escribir una función Lambda testeable con arquitectura hexagonal - Cómo conectar una función a una tabla DynamoDB - Cómo crear una API serverless - Cómo depurar y probar una función serverless - Cómo organizar y hacer crecer una aplicación serverless
Materiales mencionados en el masterclass: https://excalidraw.com/#room=57b84e0df9bdb7ea5675,HYgVepLIpfxrK4EQNclQ9w Blog de DynamoDB de Alex DeBrie: https://www.dynamodbguide.com/ Excelente libro para DynamoDB: https://www.dynamodbbook.com/ https://slobodan.me/workshops/nodecongress/prerequisites.html
En este masterclass, veremos cómo crear una base de conocimientos utilizando Gatsby, un Framework generador de sitios estáticos que utiliza React y GraphQL, Contentful, un CMS sin cabeza para gestionar el contenido y desplegarlo en AWS S3.
Únete a nuestro masterclass dinámico para crear un portal de documentación impulsado por IA. Aprende a integrar ChatGPT de OpenAI con Next.js 14, Tailwind CSS y tecnología de vanguardia para ofrecer soluciones de código e resúmenes instantáneos. Esta sesión práctica te equipará con el conocimiento para revolucionar la forma en que los usuarios interactúan con la documentación, convirtiendo las búsquedas tediosas en descubrimientos eficientes e inteligentes. Aspectos destacados: - Experiencia práctica en la creación de un sitio de documentación impulsado por IA.- Comprensión de la integración de la IA en las experiencias de usuario.- Habilidades prácticas con las últimas tecnologías de desarrollo web.- Estrategias para implementar y mantener recursos de documentación inteligente. Tabla de contenidos:- Introducción a la IA en la documentación- Configuración del entorno- Construcción de la estructura de documentación- Integración de ChatGPT para documentación interactiva
Fastify es un marco de trabajo HTTP para Node.js que se enfoca en brindar una buena experiencia de desarrollo sin comprometer las métricas de rendimiento. Lo que hace especial a Fastify no son sus detalles técnicos, sino su comunidad, que está abierta a contribuciones de cualquier tipo. Parte de la fórmula secreta es la arquitectura de plugins de Fastify, que permite a los desarrolladores escribir más de cien plugins.Este masterclass práctico está estructurado en una serie de ejercicios que cubren desde lo básico, como "hola mundo", hasta cómo estructurar un proyecto, realizar acceso a bases de datos y autenticación.
Comments