Usando MediaPipe para crear aplicaciones de aprendizaje automático multiplataforma con React

Rate this content
Bookmark
Slides

Esta charla ofrece una introducción sobre MediaPipe, que es una solución de aprendizaje automático de código abierto que permite ejecutar modelos de aprendizaje automático en dispositivos de baja potencia y ayuda a integrar los modelos con aplicaciones móviles. Proporciona a estos profesionales creativos muchas herramientas dinámicas y utiliza el aprendizaje automático de una manera realmente fácil para crear aplicaciones potentes e intuitivas sin tener mucho o ningún conocimiento previo de aprendizaje automático. Así que podemos ver cómo se puede integrar MediaPipe con React, brindando un acceso fácil para incluir casos de uso de aprendizaje automático en la construcción de aplicaciones web con React.

This talk has been presented at React Day Berlin 2022, check out the latest edition of this React Conference.

FAQ

MediaPipe es un marco de código abierto multiplataforma que se utiliza para construir percepciones basadas en video y audio. Permite desarrollar aplicaciones de aprendizaje automático de extremo a extremo, desde la preparación de conjuntos de datos hasta la realización de inferencias de aprendizaje automático.

MediaPipe puede utilizar la CPU o la GPU del sistema para acelerar el rendimiento de los modelos de aprendizaje automático. Además, utiliza WebAssembly en el backend para aprovechar el hardware del sistema en plataformas que soporten JavaScript.

MediaPipe es compatible con múltiples plataformas incluyendo JavaScript, Android, iOS, y también puede ser desplegado en dispositivos como Raspberry Pi para aplicaciones de IoT o Edge.

Las aplicaciones que se benefician de MediaPipe incluyen detección de rostros, efectos de realidad aumentada, seguimiento de posturas humanas, y aplicaciones de fitness que utilizan cámaras para rastrear movimientos y contar repeticiones.

Para integrar MediaPipe con ReactJS, se utilizan paquetes NPM específicos de MediaPipe que se pueden incorporar directamente en el código de React. Esto permite capturar imágenes de la cámara y ejecutar inferencias sobre ellas utilizando los modelos proporcionados por MediaPipe.

MediaPipe ofrece soluciones de aprendizaje automático de extremo a extremo como la detección de objetos, seguimiento de objetos, y malla facial. Estas soluciones están disponibles en el sitio web de MediaPipe, MediaPipe.dev, y son completamente de código abierto.

Un gráfico de MediaPipe representa el proceso de percepción de extremo a extremo. Consiste en nodos que representan calculadores de MediaPipe, conectados por flujos que manejan los paquetes de datos. Estos gráficos permiten transformar inputs en inferencias útiles mediante la ejecución de la tubería de percepción.

Shivay Lamba
Shivay Lamba
20 min
05 Dec, 2022

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Bienvenido a una charla sobre el uso de MediaPipe para aplicaciones de aprendizaje automático multiplataforma con ReactJS. MediaPipe proporciona soluciones listas para usar para la detección de objetos, seguimiento, malla facial y más. Permite la transformación de video y la conversión de tensores, lo que permite la interpretación de imágenes de video de una forma legible para los humanos. MediaPipe utiliza gráficos y calculadoras para manejar el pipeline de percepción. Aprenda cómo usar los paquetes de MediaPipe en React y explore una demostración que muestra el modelo de manos para detectar puntos de referencia. Se puede escribir lógica personalizada para detectar puntos de referencia abiertos y cerrados, lo que lo hace útil para aplicaciones como el lenguaje de señas americano.

1. Introducción a MediaPipe

Short description:

Bienvenidos a mi charla en React Day Berlin 2022. Soy Shivaay y hablaré sobre cómo utilizar MediaPipe para aplicaciones de aprendizaje automático multiplataforma con ReactJS. MediaPipe es un marco de código abierto que permite la inferencia de aprendizaje automático de extremo a extremo y es especialmente útil para el análisis de video y audio. Proporciona aceleración utilizando el hardware del sistema y se puede utilizar en múltiples plataformas.

Bienvenidos a todos a mi charla en React Day Berlin 2022. Soy Shivaay y presentaré virtualmente sobre el tema de cómo utilizar MediaPipe para crear aplicaciones de aprendizaje automático multiplataforma con la ayuda de ReactJS. Soy un mentor de código de Google en MediaPipe y también lidero el grupo de trabajo de TensorFlow.js, y pueden conectarse conmigo en mi Twitter, how-to-develop. Y sin perder más tiempo, comencemos.

Hoy en día vemos muchas aplicaciones de aprendizaje automático en todas partes. Y esto es especialmente cierto para las aplicaciones web con la llegada de bibliotecas como TensorFlow.js, MediaPipe. Hay muchas de estas aplicaciones de pila completa que utilizan las capacidades de aprendizaje automático en sus aplicaciones web, y las estamos viendo también en producción con muchas startups e incluso empresas como LinkedIn, que están utilizando el aprendizaje automático para potenciar múltiples aplicaciones. Y eso se debe a que el aprendizaje automático es tan versátil que se puede utilizar para una variedad de aplicaciones diferentes. Y aquí hay algunas áreas comunes donde se utiliza el aprendizaje automático. Y especialmente una cosa que es común entre todas estas aplicaciones. Podemos ver en el lado izquierdo que algunas personas utilizan la detección de rostros en el iPhone XR. Puedes ver algunos puntos que pueden detectar tus manos. Luego puedes ver algunos efectos realmente geniales con la web y podemos ver algunas expresiones faciales. Y luego tienes la cámara Next que utiliza la cámara para poder detectar objetos. Luego tenemos OkGoogle o el asistente de Google e incluso cosas como Raspberry Pi, Coral, Edge TPUs. Así que todos ellos tienen una cosa en común y esa cosa común es que están siendo impulsados con la ayuda del aprendizaje automático y eso con la ayuda de MediaPipe.

Entonces, ¿qué es MediaPipe? MediaPipe es un marco de código abierto multiplataforma que se utiliza para construir percepciones y está dedicado al análisis basado en video y audio. Así que solo piensa en esto, en caso de que quieras construir una aplicación de aprendizaje automático de extremo a extremo, MediaPipe te permite preparar no solo tus conjuntos de datos, sino que también te permite pasar por toda la inferencia de aprendizaje automático. Eso significa que no solo obtendrás los objetos que se utilizarán para la detección, sino que también podrás obtener las visualizaciones y las salidas para un modelo en particular que estés ejecutando. Porque en un escenario típico de aprendizaje automático o en un algoritmo típico de aprendizaje automático, comenzarás tomando algunos datos de entrada y ejecutarás un modelo de aprendizaje automático sobre ellos y luego obtendrás alguna inferencia. Así que MetaPy permite un pipeline de extremo a extremo para poder hacer inferencia de aprendizaje automático. Y es especialmente útil para analizar video o audio. Y hoy veremos algunos ejemplos donde podrías usarlo para un audio en vivo, video en vivo o un escenario basado en cámara. Y, por supuesto, hay muchas características diferentes que vienen incluidas. Así que proporciona aceleración de extremo a extremo. Eso significa que MetaPy puede utilizar la CPU o GPU de tu sistema también. Y la tecnología subyacente, especialmente si la estás utilizando con JavaScript, es que utiliza WebAssembly en el backend. Y eso significa que con la ayuda de WebAssembly también puedes aprovechar el uso del hardware de tu sistema para acelerar y mejorar el rendimiento de los modelos de aprendizaje automático. Y una de las grandes cosas es que solo necesitas un pipeline de MediaPipe y un modelo de MediaPipe, y se puede utilizar en múltiples áreas porque MediaPipe es compatible con múltiples frameworks, incluyendo JavaScript, Android, iOS y otras plataformas, y también puedes implementarlo en plataformas como Raspberry Pi para aplicaciones de IoT o Edge. Y hay soluciones listas para usar.

2. Explorando las soluciones de MediaPipe

Short description:

Exploraremos las soluciones listas para usar de MediaPipe que cubren la detección de objetos, el seguimiento, la malla facial, el seguimiento de posturas humanas y más. Estas soluciones se utilizan en diversas aplicaciones, como el seguimiento de ejercicios virtuales y técnicas de lápiz labial basadas en realidad aumentada. MediaPipe proporciona tuberías de aprendizaje automático de extremo a extremo que se pueden integrar fácilmente en tus programas. Visita MediaPipe.dev para obtener más información y ejemplos de cómo se utiliza MediaPipe en JavaScript y otras plataformas.

Esto significa que exploraremos algunas de estas soluciones de MediaPipe en un momento. Y estas están completamente listas para usar. Solo tienes que importarlas dentro de tus funciones, dentro de tus programas.

Por ejemplo, si estás utilizando JavaScript, solo tienes que importar la función real y podrás usarla rápidamente y todas estas diferentes soluciones que exploraremos están completamente de código abierto. Así que si estás interesado en nivelar con ellas, también puedes consultar su código fuente y aplicarlo a tu propio caso de uso.

Y aquí hay algunas de las soluciones que están disponibles actualmente. Y cuando hablamos de soluciones, nos referimos esencialmente a tuberías de aprendizaje automático de extremo a extremo. Eso significa que desde la detección hasta la clasificación o la ejecución de tu inferencia, todo eso se maneja con la ayuda de estas tuberías de aprendizaje automático proporcionadas por MediaPipe. Así que tienes algunos modelos estándar que también verás en Python. Cosas como la detección de objetos, el seguimiento de objetos, pero también la capacidad de hacer cosas como la malla facial o el seguimiento de posturas humanas, todas estas se utilizan realmente en muchas startups que básicamente proporcionan la capacidad de hacer ejercicios de gimnasio o hacer tus ejercicios y realizar un seguimiento de ellos virtualmente solo con la ayuda de tu cámara web para hacer cosas como contar repeticiones o tener un fisioterapeuta virtual, por lo que se utilizan para eso.

Luego tenemos la detección facial, que es utilizada por empresas como L'Oreal para técnicas de lápiz labial basadas en realidad aumentada. Por lo tanto, muchas de estas soluciones ya se utilizan en producción. Y luego, por supuesto, hay más soluciones y puedes, por supuesto, consultarlas en el sitio web de MediaPipe. Se llama MediaPipe.dev. Así que puedes visitarlo y ver todas estas diferentes soluciones. Cosas como la solución de segmentación de selfies se ha utilizado en Google Meet para poner fondos virtuales. Estas son solo algunas de las soluciones que puedes usar directamente e incrustar en tu programa. Y, por supuesto, estas son algunos ejemplos que podemos compartir. Por lo tanto, puedes ver a la izquierda, uno que es muy similar al de LogL que puedes usar para lápiz labial basado en realidad aumentada. Luego puedes ver algunos avances de películas basados en realidad aumentada en YouTube. Puedes usar Google Lens, que es capaz de agregar objetos basados en realidad virtual o aumentada frente a ti utilizando la visión por computadora. Por lo tanto, estas son algunos ejemplos donde MediaPipe se utiliza no solo para aplicaciones deJavaScript, sino también para otras plataformas. Pero, por supuesto, también me gustaría explicar cómo se realiza esta inferencia en primer lugar. Para eso, echemos un vistazo a una percepción en vivo. Y para eso, tomaremos el ejemplo de un algoritmo de seguimiento de manos. La idea es que si usas una cámara web y colocas tu mano frente a la cámara, debería poder detectar algo que llamamos puntos de referencia. Básicamente, la idea es que tomarás la imagen o unvideo de tu mano y el modelo de aprendizaje automático, típicamente la tubería de MediaPipe, será capaz de obtener estos puntos de referencia específicos. Y estos puntos de referencia generalmente indican las diferentes articulaciones dentro de tu mano. Y podrás superponer los puntos de referencia sobre tu mano para que detecte tu mano y detecte la ubicación exacta de los puntos de referencia y los superponga. Eso es lo que estamos tratando de hacer con el significado de localizar los puntos de referencia de tu mano.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Una Guía del Comportamiento de Renderizado de React
React Advanced 2022React Advanced 2022
25 min
Una Guía del Comportamiento de Renderizado de React
Top Content
This transcription provides a brief guide to React rendering behavior. It explains the process of rendering, comparing new and old elements, and the importance of pure rendering without side effects. It also covers topics such as batching and double rendering, optimizing rendering and using context and Redux in React. Overall, it offers valuable insights for developers looking to understand and optimize React rendering.
Construyendo Mejores Sitios Web con Remix
React Summit Remote Edition 2021React Summit Remote Edition 2021
33 min
Construyendo Mejores Sitios Web con Remix
Top Content
Remix is a web framework built on React Router that focuses on web fundamentals, accessibility, performance, and flexibility. It delivers real HTML and SEO benefits, and allows for automatic updating of meta tags and styles. It provides features like login functionality, session management, and error handling. Remix is a server-rendered framework that can enhance sites with JavaScript but doesn't require it for basic functionality. It aims to create quality HTML-driven documents and is flexible for use with different web technologies and stacks.
Compilador React Forget - Entendiendo React Idiomático
React Advanced 2023React Advanced 2023
33 min
Compilador React Forget - Entendiendo React Idiomático
Top Content
Joe Savona
Mofei Zhang
2 authors
The Talk discusses React Forget, a compiler built at Meta that aims to optimize client-side React development. It explores the use of memoization to improve performance and the vision of Forget to automatically determine dependencies at build time. Forget is named with an F-word pun and has the potential to optimize server builds and enable dead code elimination. The team plans to make Forget open-source and is focused on ensuring its quality before release.
Uso efectivo de useEffect
React Advanced 2022React Advanced 2022
30 min
Uso efectivo de useEffect
Top Content
Today's Talk explores the use of the useEffect hook in React development, covering topics such as fetching data, handling race conditions and cleanup, and optimizing performance. It also discusses the correct use of useEffect in React 18, the distinction between Activity Effects and Action Effects, and the potential misuse of useEffect. The Talk highlights the benefits of using useQuery or SWR for data fetching, the problems with using useEffect for initializing global singletons, and the use of state machines for handling effects. The speaker also recommends exploring the beta React docs and using tools like the stately.ai editor for visualizing state machines.
Enrutamiento en React 18 y más allá
React Summit 2022React Summit 2022
20 min
Enrutamiento en React 18 y más allá
Top Content
Routing in React 18 brings a native app-like user experience and allows applications to transition between different environments. React Router and Next.js have different approaches to routing, with React Router using component-based routing and Next.js using file system-based routing. React server components provide the primitives to address the disadvantages of multipage applications while maintaining the same user experience. Improving navigation and routing in React involves including loading UI, pre-rendering parts of the screen, and using server components for more performant experiences. Next.js and Remix are moving towards a converging solution by combining component-based routing with file system routing.
(Más fácil) Visualización interactiva de datos en React
React Advanced 2021React Advanced 2021
27 min
(Más fácil) Visualización interactiva de datos en React
Top Content
This Talk is about interactive data visualization in React using the Plot library. Plot is a high-level library that simplifies the process of visualizing data by providing key concepts and defaults for layout decisions. It can be integrated with React using hooks like useRef and useEffect. Plot allows for customization and supports features like sorting and adding additional marks. The Talk also discusses accessibility concerns, SSR support, and compares Plot to other libraries like D3 and Vega-Lite.

Workshops on related topic

Masterclass de Depuración de Rendimiento de React
React Summit 2023React Summit 2023
170 min
Masterclass de Depuración de Rendimiento de React
Top Content
Featured WorkshopFree
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Vería una interacción lenta, intentaría una optimización aleatoria, vería que no ayudaba, y seguiría intentando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Haría una grabación en Chrome DevTools o React Profiler, la examinaría, intentaría hacer clic en cosas aleatorias, y luego la cerraría frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos a analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, estaremos cubriendo el rendimiento de la interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Aventuras de Renderizado Concurrente en React 18
React Advanced 2021React Advanced 2021
132 min
Aventuras de Renderizado Concurrente en React 18
Top Content
Featured WorkshopFree
Maurice de Beijer
Maurice de Beijer
Con el lanzamiento de React 18 finalmente obtenemos el tan esperado renderizado concurrente. Pero, ¿cómo va a afectar eso a tu aplicación? ¿Cuáles son los beneficios del renderizado concurrente en React? ¿Qué necesitas hacer para cambiar al renderizado concurrente cuando actualices a React 18? ¿Y qué pasa si no quieres o no puedes usar el renderizado concurrente todavía?

¡Hay algunos cambios de comportamiento de los que debes estar al tanto! En esta masterclass cubriremos todos esos temas y más.

Acompáñame con tu portátil en esta masterclass interactiva. Verás lo fácil que es cambiar al renderizado concurrente en tu aplicación React. Aprenderás todo sobre el renderizado concurrente, SuspenseList, la API startTransition y más.
Consejos sobre React Hooks que solo los profesionales conocen
React Summit Remote Edition 2021React Summit Remote Edition 2021
177 min
Consejos sobre React Hooks que solo los profesionales conocen
Top Content
Featured Workshop
Maurice de Beijer
Maurice de Beijer
La adición de la API de hooks a React fue un cambio bastante importante. Antes de los hooks, la mayoría de los componentos tenían que ser basados en clases. Ahora, con los hooks, estos son a menudo componentes funcionales mucho más simples. Los hooks pueden ser realmente simples de usar. Casi engañosamente simples. Porque todavía hay muchas formas en las que puedes equivocarte con los hooks. Y a menudo resulta que hay muchas formas en las que puedes mejorar tus componentes con una mejor comprensión de cómo se puede usar cada hook de React.Aprenderás todo sobre los pros y los contras de los diversos hooks. Aprenderás cuándo usar useState() versus useReducer(). Veremos cómo usar useContext() de manera eficiente. Verás cuándo usar useLayoutEffect() y cuándo useEffect() es mejor.
React, TypeScript y TDD
React Advanced 2021React Advanced 2021
174 min
React, TypeScript y TDD
Top Content
Featured WorkshopFree
Paul Everitt
Paul Everitt
ReactJS es extremadamente popular y, por lo tanto, ampliamente soportado. TypeScript está ganando popularidad y, por lo tanto, cada vez más soportado.

¿Los dos juntos? No tanto. Dado que ambos cambian rápidamente, es difícil encontrar materiales de aprendizaje precisos.

¿React+TypeScript, con los IDEs de JetBrains? Esa combinación de tres partes es el tema de esta serie. Mostraremos un poco sobre mucho. Es decir, los pasos clave para ser productivo, en el IDE, para proyectos de React utilizando TypeScript. En el camino, mostraremos el desarrollo guiado por pruebas y enfatizaremos consejos y trucos en el IDE.
Masterclass Web3 - Construyendo Tu Primer Dapp
React Advanced 2021React Advanced 2021
145 min
Masterclass Web3 - Construyendo Tu Primer Dapp
Top Content
Featured WorkshopFree
Nader Dabit
Nader Dabit
En esta masterclass, aprenderás cómo construir tu primer dapp de pila completa en la blockchain de Ethereum, leyendo y escribiendo datos en la red, y conectando una aplicación de front end al contrato que has desplegado. Al final de la masterclass, entenderás cómo configurar un entorno de desarrollo de pila completa, ejecutar un nodo local e interactuar con cualquier contrato inteligente usando React, HardHat y Ethers.js.
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
React Summit 2023React Summit 2023
151 min
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
Top Content
Featured Workshop
Josh Justice
Josh Justice
La Biblioteca de Pruebas de React es un gran marco para las pruebas de componentes de React porque responde muchas preguntas por ti, por lo que no necesitas preocuparte por esas preguntas. Pero eso no significa que las pruebas sean fáciles. Todavía hay muchas preguntas que tienes que resolver por ti mismo: ¿Cuántas pruebas de componentes debes escribir vs pruebas de extremo a extremo o pruebas de unidad de nivel inferior? ¿Cómo puedes probar una cierta línea de código que es difícil de probar? ¿Y qué se supone que debes hacer con esa persistente advertencia de act()?
En esta masterclass de tres horas, presentaremos la Biblioteca de Pruebas de React junto con un modelo mental de cómo pensar en el diseño de tus pruebas de componentes. Este modelo mental te ayudará a ver cómo probar cada bit de lógica, si debes o no simular dependencias, y ayudará a mejorar el diseño de tus componentes. Te irás con las herramientas, técnicas y principios que necesitas para implementar pruebas de componentes de bajo costo y alto valor.
Tabla de contenidos- Los diferentes tipos de pruebas de aplicaciones de React, y dónde encajan las pruebas de componentes- Un modelo mental para pensar en las entradas y salidas de los componentes que pruebas- Opciones para seleccionar elementos DOM para verificar e interactuar con ellos- El valor de los mocks y por qué no deben evitarse- Los desafíos con la asincronía en las pruebas de RTL y cómo manejarlos
Requisitos previos- Familiaridad con la construcción de aplicaciones con React- Experiencia básica escribiendo pruebas automatizadas con Jest u otro marco de pruebas unitarias- No necesitas ninguna experiencia con la Biblioteca de Pruebas de React- Configuración de la máquina: Node LTS, Yarn