Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React

Rate this content
Bookmark

Esta charla ofrece una introducción sobre MediaPipe, que es una solución de Aprendizaje Automático de código abierto que permite ejecutar modelos de aprendizaje automático en dispositivos de baja potencia y ayuda a integrar los modelos con aplicaciones móviles. Ofrece a estos profesionales creativos una gran cantidad de herramientas dinámicas y utiliza el Aprendizaje Automático de una manera realmente fácil para crear aplicaciones poderosas e intuitivas sin tener mucho / ningún conocimiento de aprendizaje automático de antemano. Así que podemos ver cómo MediaPipe puede ser integrado con React. Proporcionando un fácil acceso para incluir casos de uso de aprendizaje automático para construir aplicaciones web con React.

This talk has been presented at React Advanced Conference 2021, check out the latest edition of this React Conference.

FAQ

MediaPipe es un marco de trabajo multiplataforma de código abierto de Google que ayuda a construir diferentes tipos de tuberías de percepción para utilizar múltiples modelos de aprendizaje automático en una sola tubería de extremo a extremo.

MediaPipe permite la integración de modelos de aprendizaje automático en aplicaciones a través de su capacidad para procesar audio, video, datos basados en imágenes y datos de sensores, facilitando la construcción de tuberías de aprendizaje automático de extremo a extremo.

MediaPipe es compatible con múltiples plataformas, incluidos Python, JavaScript, Android, iOS y dispositivos como Raspberry Pi, permitiendo su uso en una amplia gama de dispositivos y sistemas operativos.

MediaPipe ofrece soluciones como segmentación de selfies, Face Mesh, seguimiento de manos, detección y seguimiento de la pose humana completa, y detección de objetos en 3D, entre otras.

MediaPipe se integra con React mediante módulos NPM específicos que facilitan la inclusión de funciones como detección de rostros, seguimiento de manos y segmentación de selfies directamente en aplicaciones web desarrolladas con React.

MediaPipe se utiliza en aplicaciones como Google Meet para la segmentación de fondos y efectos AR en YouTube, así como en Google Lens para funciones de realidad aumentada y traducción.

Shivay Lamba
Shivay Lamba
21 min
25 Oct, 2021

Comments

Sign in or register to post your comment.

Video Summary and Transcription

MediaPipe es un marco multiplataforma que ayuda a construir tuberías de percepción utilizando modelos de aprendizaje automático. Ofrece soluciones listas para usar para diversas aplicaciones, como la segmentación de selfies, la malla facial, la detección de objetos, el seguimiento de manos y más. MediaPipe se puede integrar con React utilizando módulos NPM proporcionados por el equipo de MediaPipe. La demostración muestra la implementación de soluciones de malla facial y segmentación de selfies. MediaPipe permite la creación de aplicaciones increíbles sin necesidad de entender los procesos subyacentes de visión por computadora o aprendizaje automático.

1. Introducción a MediaPipe y Machine Learning

Short description:

Hola a todos. Soy Shivay Lamba. Actualmente soy un Mentor de Google Snowfold en MediaPipe, y voy a hablar en React Advanced. Estoy emocionado de hablar en React Advanced sobre el tema de usar MediaPipe para crear aplicaciones de aprendizaje automático multiplataforma con React. El aprendizaje automático está literalmente en todas partes hoy en día, y es importante usarlo en aplicaciones web también. MediaPipe es el marco de trabajo multiplataforma de código abierto de Google que ayuda a construir tuberías de percepción utilizando modelos de aprendizaje automático. Puede procesar datos de audio, video, basados en imágenes y datos de sensores, e incluye características como aceleración de extremo a extremo.

Hola a todos. Soy Shivay Lamba. Actualmente soy un Mentor de Google Snowfold en MediaPipe, y voy a hablar en React Advanced. Estoy emocionado de hablar en React Advanced sobre el tema de usar MediaPipe para crear aplicaciones de aprendizaje automático multiplataforma con React.

Gran parte de esta charla se centrará en aprendizaje automático, MediaPipe, y cómo puedes integrar, básicamente, MediaPipe con React para crear aplicaciones realmente asombrosas.

Así que sin perder más tiempo, comencemos. Lo primero, por supuesto, quiero decir, hoy en día, el aprendizaje automático está literalmente en todas partes. Mires la aplicación que mires, verás aprendizaje automático siendo utilizado allí. Ya sea en educación, salud, fitness, o minería, por nombrar algunos. Encontrarás la aplicación de aprendizaje automático hoy en día en cada industria que se conoce a la humanidad.

Eso hace que el aprendizaje automático sea mucho más importante para ser utilizado también en aplicaciones web. Y hoy en día, a medida que más y más aplicaciones web están llegando al mercado, estamos viendo muchos más casos de uso de aprendizaje automático dentro de las aplicaciones web también.

Y veamos algunos de estos ejemplos que podemos ver. Por ejemplo, aquí podemos ver una detección de rostros dentro de Android. Luego puedes ver las manos siendo detectadas en esta imagen de iPhone XR. Luego puedes ver la Nest Cam que todos saben que es una cámara de seguridad. Luego puedes ver algunos de estos efectos web donde puedes ver a esta mujer y tiene algunos efectos faciales en su rostro usando la web. O también puedes ver la Raspberry Pi y otros tipos de microchips o dispositivos que funcionan en el borde.

¿Y qué tienen en común todas estas cosas? Esa es la pregunta. Lo que tienen en común todas estas cosas es MediaPipe.

Entonces, ¿qué es exactamente MediaPipe? MediaPipe es esencialmente el marco de trabajo multiplataforma de código abierto de Google que realmente ayuda a construir diferentes tipos de tuberías de percepción. Lo que significa es que somos capaces de construir o usar múltiples modelos de aprendizaje automático y usarlos en una sola tubería de extremo a extremo para construir algo. Y también veremos algunos de los casos de uso comunes muy pronto.

Y ha sido utilizado ampliamente en muchos de los productos basados en investigación en Google. Pero ahora ha sido hecho upstream. Y ahora todos pueden usarlo ya que es un proyecto de código abierto. Y puede ser utilizado para procesar cualquier tipo de audio, video, datos basados en imágenes y también datos de sensores. Y ayuda principalmente con dos cosas. Una es la preparación del conjunto de datos para diferentes tipos de tuberías dentro del aprendizaje automático y también la construcción de tuberías de aprendizaje automático de extremo a extremo. Y algunas de las características que se incluyen en MediaPipe incluyen aceleración de extremo a extremo porque todo está sucediendo en el dispositivo.

2. Soluciones MediaPipe y Ejemplos del Mundo Real

Short description:

MediaPipe es un marco de trabajo basado en multiplataforma que ofrece soluciones listas para usar para varias aplicaciones. Algunas de las soluciones incluyen segmentación de selfies, malla facial con más de 400 puntos de referencia faciales, segmentación del cabello, detección y seguimiento de objetos, detección facial, seguimiento de manos, detección y seguimiento de la pose humana, seguimiento holístico y detección de objetos 3D. Estas soluciones de extremo a extremo son populares y tienen aplicaciones del mundo real en AR, filtros de películas, Google Lens y caras aumentadas. Un ejemplo de percepción en vivo demuestra el seguimiento de la mano utilizando puntos de referencia para denotar los bordos de la mano.

Luego, en segundo lugar, solo tienes que construirlo una vez y diferentes tipos de soluciones, incluyendo Python, JavaScript, Android, iOS, todos esos pueden ser utilizados. Así que solo tienes que construirlo una vez y puedes usarlo en diferentes tipos de plataformas. Por eso lo llamamos un framework basado en multiplataforma.

Y luego estas son solo soluciones listas para usar. Solo tienes que importarlas e integrarlas en tu code y se podrán usar muy fácilmente. Y la mejor parte de esto es que es open-source. Así que todas las diferentes soluciones, todas las diferentes bases de código las puedes encontrar en el repositorio de MediaPipe en la organización de Google en GitHub.

Ahora, mirando algunas de las soluciones más comúnmente utilizadas, algunas de las soluciones más conocidas incluyen la solución de segmentación de selfies que básicamente, ya sabes, también se está utilizando en Google Meet donde puedes ver los diferentes tipos de fondos que puedes aplicar, el efecto de desenfoque. Así que lo que hace es que utiliza una máscara de segmentación para detectar solo a los humanos en la escena y es capaz de extraer solo la información necesaria para los humanos. Y luego tenemos Face Mesh que básicamente tiene más de 400 puntos de referencia faciales que puedes poner, y puedes hacer muchas aplicaciones interesantes con esto. Por ejemplo, digamos filtros de AR o maquillaje, ¿verdad? Luego tenemos la segmentación del cabello que te permite segmentar solo el cabello. Luego tenemos algoritmos estándar basados en visión por computadora como la detección y seguimiento de objetos que puedes hacer para detectar objetos específicos. Luego tenemos la detección facial, también tenemos el seguimiento de manos que puede seguir tus manos y probablemente puedes usarlo para cosas como, ya sabes, poder usar gestos basados en las manos para controlar, digamos, tu aplicación web. Luego tenemos la detección y seguimiento de la pose humana completa que probablemente podrías usar para crear algún tipo de aplicación de fitness o de baile que pueda seguirte. Luego tenemos el seguimiento holístico que realmente sigue todo tu cuerpo, ¿verdad? Y sigue tu cara, tus manos, toda tu pose, ¿verdad? Así que es una combinación de básicamente la pose humana, el seguimiento de las manos y la malla facial. Luego tenemos una detección de objetos más avanzada, como la detección en 3D que puede ayudarte a detectar, ya sabes, objetos más grandes como una silla, zapatos, mesa. Y luego tenemos muchos otros tipos de soluciones que puedes seguir y mirar. Y todas estas son soluciones de extremo a extremo que puedes implementar directamente. Por eso las soluciones de MediaPipe son tan populares.

Y solo para ver algunos de los ejemplos del mundo real donde se está utilizando. Acabamos de hablar de la solución de malla facial que puedes ver aquí, ya sabes, teniendo lugar en el probador de lápiz labial AR que está en YouTube. Luego tenemos el filtro de película basado en AR que se puede usar directamente en YouTube. Luego tenemos algunas superficies de Google Lens que puedes ver como la realidad aumentada que tiene lugar. Luego también puedes ver que se está utilizando no solo en estas realidades aumentadas o como estas cosas, sino también en otros tipos de inferencias, como la traducción de Google Lens, que también utiliza las tuberías de MediaPipe en su paquete. Y puedes ver caras aumentadas que nuevamente se basan en la malla facial. Así que veamos un ejemplo rápido de percepción en vivo de cómo básicamente, ya sabes, sucede. Para esto, lo que vamos a hacer es que vamos a ver el seguimiento de la mano, ¿verdad? Así que esencialmente lo que queremos hacer es que tomamos una imagen o un video de tu mano y somos capaces de poner estos puntos de referencia. ¿Qué son los puntos de referencia? Básicamente, los puntos de referencia son estos puntos que ves y puedes superponerlos en tu mano y denotan todos los diferentes, ya sabes, como podrías decir los diferentes bordes de, de tu mano y vas a superponerlos. Así es como se verá el ejemplo. Entonces, ¿cómo se vería esa simple tubería de percepción? Así que esencialmente, primero tomarás tu entrada de video.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Una Guía del Comportamiento de Renderizado de React
React Advanced Conference 2022React Advanced Conference 2022
25 min
Una Guía del Comportamiento de Renderizado de React
Top Content
This transcription provides a brief guide to React rendering behavior. It explains the process of rendering, comparing new and old elements, and the importance of pure rendering without side effects. It also covers topics such as batching and double rendering, optimizing rendering and using context and Redux in React. Overall, it offers valuable insights for developers looking to understand and optimize React rendering.
Construyendo Mejores Sitios Web con Remix
React Summit Remote Edition 2021React Summit Remote Edition 2021
33 min
Construyendo Mejores Sitios Web con Remix
Top Content
Remix is a web framework built on React Router that focuses on web fundamentals, accessibility, performance, and flexibility. It delivers real HTML and SEO benefits, and allows for automatic updating of meta tags and styles. It provides features like login functionality, session management, and error handling. Remix is a server-rendered framework that can enhance sites with JavaScript but doesn't require it for basic functionality. It aims to create quality HTML-driven documents and is flexible for use with different web technologies and stacks.
Compilador React Forget - Entendiendo React Idiomático
React Advanced Conference 2023React Advanced Conference 2023
33 min
Compilador React Forget - Entendiendo React Idiomático
Top Content
Joe Savona
Mofei Zhang
2 authors
The Talk discusses React Forget, a compiler built at Meta that aims to optimize client-side React development. It explores the use of memoization to improve performance and the vision of Forget to automatically determine dependencies at build time. Forget is named with an F-word pun and has the potential to optimize server builds and enable dead code elimination. The team plans to make Forget open-source and is focused on ensuring its quality before release.
Uso efectivo de useEffect
React Advanced Conference 2022React Advanced Conference 2022
30 min
Uso efectivo de useEffect
Top Content
Today's Talk explores the use of the useEffect hook in React development, covering topics such as fetching data, handling race conditions and cleanup, and optimizing performance. It also discusses the correct use of useEffect in React 18, the distinction between Activity Effects and Action Effects, and the potential misuse of useEffect. The Talk highlights the benefits of using useQuery or SWR for data fetching, the problems with using useEffect for initializing global singletons, and the use of state machines for handling effects. The speaker also recommends exploring the beta React docs and using tools like the stately.ai editor for visualizing state machines.
Enrutamiento en React 18 y más allá
React Summit 2022React Summit 2022
20 min
Enrutamiento en React 18 y más allá
Top Content
Routing in React 18 brings a native app-like user experience and allows applications to transition between different environments. React Router and Next.js have different approaches to routing, with React Router using component-based routing and Next.js using file system-based routing. React server components provide the primitives to address the disadvantages of multipage applications while maintaining the same user experience. Improving navigation and routing in React involves including loading UI, pre-rendering parts of the screen, and using server components for more performant experiences. Next.js and Remix are moving towards a converging solution by combining component-based routing with file system routing.
(Más fácil) Visualización interactiva de datos en React
React Advanced Conference 2021React Advanced Conference 2021
27 min
(Más fácil) Visualización interactiva de datos en React
Top Content
This Talk is about interactive data visualization in React using the Plot library. Plot is a high-level library that simplifies the process of visualizing data by providing key concepts and defaults for layout decisions. It can be integrated with React using hooks like useRef and useEffect. Plot allows for customization and supports features like sorting and adding additional marks. The Talk also discusses accessibility concerns, SSR support, and compares Plot to other libraries like D3 and Vega-Lite.

Workshops on related topic

Masterclass de Depuración de Rendimiento de React
React Summit 2023React Summit 2023
170 min
Masterclass de Depuración de Rendimiento de React
Top Content
Featured WorkshopFree
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Vería una interacción lenta, intentaría una optimización aleatoria, vería que no ayudaba, y seguiría intentando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Haría una grabación en Chrome DevTools o React Profiler, la examinaría, intentaría hacer clic en cosas aleatorias, y luego la cerraría frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos a analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, estaremos cubriendo el rendimiento de la interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Aventuras de Renderizado Concurrente en React 18
React Advanced Conference 2021React Advanced Conference 2021
132 min
Aventuras de Renderizado Concurrente en React 18
Top Content
Featured WorkshopFree
Maurice de Beijer
Maurice de Beijer
Con el lanzamiento de React 18 finalmente obtenemos el tan esperado renderizado concurrente. Pero, ¿cómo va a afectar eso a tu aplicación? ¿Cuáles son los beneficios del renderizado concurrente en React? ¿Qué necesitas hacer para cambiar al renderizado concurrente cuando actualices a React 18? ¿Y qué pasa si no quieres o no puedes usar el renderizado concurrente todavía?

¡Hay algunos cambios de comportamiento de los que debes estar al tanto! En esta masterclass cubriremos todos esos temas y más.

Acompáñame con tu portátil en esta masterclass interactiva. Verás lo fácil que es cambiar al renderizado concurrente en tu aplicación React. Aprenderás todo sobre el renderizado concurrente, SuspenseList, la API startTransition y más.
Consejos sobre React Hooks que solo los profesionales conocen
React Summit Remote Edition 2021React Summit Remote Edition 2021
177 min
Consejos sobre React Hooks que solo los profesionales conocen
Top Content
Featured Workshop
Maurice de Beijer
Maurice de Beijer
La adición de la API de hooks a React fue un cambio bastante importante. Antes de los hooks, la mayoría de los componentos tenían que ser basados en clases. Ahora, con los hooks, estos son a menudo componentes funcionales mucho más simples. Los hooks pueden ser realmente simples de usar. Casi engañosamente simples. Porque todavía hay muchas formas en las que puedes equivocarte con los hooks. Y a menudo resulta que hay muchas formas en las que puedes mejorar tus componentes con una mejor comprensión de cómo se puede usar cada hook de React.Aprenderás todo sobre los pros y los contras de los diversos hooks. Aprenderás cuándo usar useState() versus useReducer(). Veremos cómo usar useContext() de manera eficiente. Verás cuándo usar useLayoutEffect() y cuándo useEffect() es mejor.
React, TypeScript y TDD
React Advanced Conference 2021React Advanced Conference 2021
174 min
React, TypeScript y TDD
Top Content
Featured WorkshopFree
Paul Everitt
Paul Everitt
ReactJS es extremadamente popular y, por lo tanto, ampliamente soportado. TypeScript está ganando popularidad y, por lo tanto, cada vez más soportado.

¿Los dos juntos? No tanto. Dado que ambos cambian rápidamente, es difícil encontrar materiales de aprendizaje precisos.

¿React+TypeScript, con los IDEs de JetBrains? Esa combinación de tres partes es el tema de esta serie. Mostraremos un poco sobre mucho. Es decir, los pasos clave para ser productivo, en el IDE, para proyectos de React utilizando TypeScript. En el camino, mostraremos el desarrollo guiado por pruebas y enfatizaremos consejos y trucos en el IDE.
Masterclass Web3 - Construyendo Tu Primer Dapp
React Advanced Conference 2021React Advanced Conference 2021
145 min
Masterclass Web3 - Construyendo Tu Primer Dapp
Top Content
Featured WorkshopFree
Nader Dabit
Nader Dabit
En esta masterclass, aprenderás cómo construir tu primer dapp de pila completa en la blockchain de Ethereum, leyendo y escribiendo datos en la red, y conectando una aplicación de front end al contrato que has desplegado. Al final de la masterclass, entenderás cómo configurar un entorno de desarrollo de pila completa, ejecutar un nodo local e interactuar con cualquier contrato inteligente usando React, HardHat y Ethers.js.
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
React Summit 2023React Summit 2023
151 min
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
Top Content
Featured Workshop
Josh Justice
Josh Justice
La Biblioteca de Pruebas de React es un gran marco para las pruebas de componentes de React porque responde muchas preguntas por ti, por lo que no necesitas preocuparte por esas preguntas. Pero eso no significa que las pruebas sean fáciles. Todavía hay muchas preguntas que tienes que resolver por ti mismo: ¿Cuántas pruebas de componentes debes escribir vs pruebas de extremo a extremo o pruebas de unidad de nivel inferior? ¿Cómo puedes probar una cierta línea de código que es difícil de probar? ¿Y qué se supone que debes hacer con esa persistente advertencia de act()?
En esta masterclass de tres horas, presentaremos la Biblioteca de Pruebas de React junto con un modelo mental de cómo pensar en el diseño de tus pruebas de componentes. Este modelo mental te ayudará a ver cómo probar cada bit de lógica, si debes o no simular dependencias, y ayudará a mejorar el diseño de tus componentes. Te irás con las herramientas, técnicas y principios que necesitas para implementar pruebas de componentes de bajo costo y alto valor.
Tabla de contenidos- Los diferentes tipos de pruebas de aplicaciones de React, y dónde encajan las pruebas de componentes- Un modelo mental para pensar en las entradas y salidas de los componentes que pruebas- Opciones para seleccionar elementos DOM para verificar e interactuar con ellos- El valor de los mocks y por qué no deben evitarse- Los desafíos con la asincronía en las pruebas de RTL y cómo manejarlos
Requisitos previos- Familiaridad con la construcción de aplicaciones con React- Experiencia básica escribiendo pruebas automatizadas con Jest u otro marco de pruebas unitarias- No necesitas ninguna experiencia con la Biblioteca de Pruebas de React- Configuración de la máquina: Node LTS, Yarn