Aprendizaje automático en el borde utilizando TensorFlow Lite

Rate this content
Bookmark

¿Qué pasaría si pudieras realizar aprendizaje automático en el borde, es decir, en tu dispositivo móvil? Esto significaría que ya no necesitarías el viaje de ida y vuelta al servidor, ningún dato saldrá del dispositivo y ni siquiera necesitarías una conexión a internet. En esta sesión obtendrás una introducción a TensorFlow Lite para que puedas usarlo en tus propios proyectos.


This talk has been presented at ML conf EU 2020, check out the latest edition of this Tech Conference.

FAQ

TensorFlow Lite es un marco de aprendizaje profundo de código abierto diseñado para implementar modelos de aprendizaje automático en dispositivos móviles e IoT, como Raspberry Pi o microcontroladores pequeños.

TensorFlow Lite cuenta con dos componentes principales: el intérprete de TensorFlow Lite, que ejecuta modelos optimizados en diferentes tipos de hardware, y el convertidor de TensorFlow Lite, que convierte modelos de TensorFlow en una forma más eficiente.

TensorFlow Lite es preferible por varias razones, incluyendo menor latencia al realizar todo en el dispositivo, mayor privacidad ya que los datos del usuario permanecen locales, y no requiere conexión a Internet, lo cual es ideal para dispositivos con limitada potencia de transmisión.

Para la detección de objetos con TensorFlow Lite, primero se selecciona un modelo pre-entrenado o personalizado, se convierte al formato de TensorFlow Lite y se implementa en un dispositivo como Raspberry Pi. Durante la inferencia, se prepara la entrada de imagen, se realiza la inferencia y se obtienen los resultados.

TensorFlow Lite soporta varios lenguajes de programación, incluyendo Java, Swift, Objective-C, C++ y Python, lo que permite a los desarrolladores elegir según su conveniencia y el proyecto que estén desarrollando.

TensorFlow Lite tiene aplicaciones prácticas en diversos campos, como la agricultura, donde se utiliza para detectar enfermedades en cultivos mediante dispositivos móviles, ayudando a los agricultores a tomar medidas preventivas o curativas.

Puedes encontrar más información y recursos sobre TensorFlow Lite en la documentación oficial de TensorFlow, en conferencias como Google IO, y en cursos disponibles en plataformas como Coursera.

Håkan Silfvernagel
Håkan Silfvernagel
8 min
02 Jul, 2021

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Håkan Silvernagel presenta TensorFlow Lite, un marco de aprendizaje profundo de código abierto para implementar modelos de aprendizaje automático en dispositivos móviles e IoT. Destaca los beneficios de usar TensorFlow Lite, como la latencia reducida, la mayor privacidad y la mejor conectividad. La charla incluye una demostración de las capacidades de reconocimiento de objetos y un ejemplo del mundo real de cómo usar TensorFlow Lite para detectar una enfermedad que afecta a los agricultores en Tanzania. Se proporcionan referencias a la documentación oficial de TensorFlow, la conferencia Google IO y los cursos de TensorFlow en Coursera.

1. Introducción a TensorFlow Lite

Short description:

En esta parte, Håkan Silvernagel presenta TensorFlow Lite, un marco de aprendizaje profundo de código abierto para implementar modelos de aprendizaje automático en dispositivos móviles e IoT. Explica los dos componentes principales de TensorFlow Lite, el intérprete y el convertidor, y destaca los beneficios de usar TensorFlow Lite, como la latencia reducida, la mayor privacidad y la mejor conectividad. Håkan también menciona la disponibilidad de múltiples API y la capacidad de usar modelos pre-entrenados para tareas comunes de aprendizaje automático. Concluye mencionando el uso de un modelo pre-entrenado para la detección de objetos en una Raspberry Pi dentro de un robot TJ.

Buenos días, buenas tardes y buenas noches. Mi nombre es Håkan Silvernagel, voy a hablar sobre cómo puedes hacer aprendizaje automático en el borde utilizando TensorFlow Lite. Trabajo como gerente de IA y big data en una empresa de consultoría noruega llamada Myles y también soy un Microsoft MVP. Pero el tema aquí hoy es TensorFlow Lite.

Entonces, ¿qué es TensorFlow Lite? Bueno, es un marco de aprendizaje profundo de código abierto para implementar modelos de aprendizaje automático en dispositivos móviles e IoT. Puede ser en, por ejemplo, una Raspberry Pi que mostraré un poco más tarde o en un microcontrolador pequeño. La forma en que funciona es que TensorFlow Lite tiene dos componentes principales. Hay un intérprete de TensorFlow Lite. Lo que hace es ejecutar modelos de TensorFlow optimizados en diferentes tipos de hardware. Y luego tenemos el convertidor de TensorFlow Lite. El convertidor convierte modelos regulares de TensorFlow en una forma mucho más eficiente, que ha sido optimizada tanto para mejorar el tamaño binario como el rendimiento.

Puede que te preguntes, ¿por qué debería usar TensorFlow Lite? Hay varios argumentos aquí por qué preferiríamos usar TensorFlow Lite. Uno de ellos tiene que ver con la latencia. Dado que todo lo que hacemos se realiza en el dispositivo, no es necesario un viaje de ida y vuelta entre el cliente y el servidor. Y también en términos de privacidad, los datos del usuario estarán locales. Eso significa que tienes una mayor seguridad. Y también en términos de conectividad, no se requiere una conexión a Internet. Además, muchos de estos dispositivos pequeños no tienen suficiente potencia para alimentar un transmisor de radio. Y también hay múltiples API aquí. Puedes usar Java, Swift, Objective-C, C++ o Python. Hay mucho potencial. Y lo último, que quizás sea lo más importante aquí, es que puedes usar modelos pre-entrenados para tareas comunes de aprendizaje automático. La forma en que funciona es que eliges un modelo, ya sea tu propio modelo o puedes elegir uno de estos modelos pre-entrenados. Luego puedes convertir tu modelo al formato de TensorFlow Lite. Y luego, después de eso, lo implementas en tu dispositivo. Y también puedes optimizar algunos aspectos del modelo. En esta diapositiva, podemos ver algunos de los modelos pre-entrenados que puedes usar. Usaremos un modelo para la detección de objetos en un momento. Cuando ejecutemos la detección de objetos, lo haremos en una Raspberry Pi, que está dentro de un robot TJ. Y luego podrá reconocer diferentes tipos de objetos.

2. Using a Preoptimized Mobile Net SSD for Inference

Short description:

Utilizaremos una red móvil preoptimizada SSD entrenada en el conjunto de datos CocoaDat. Los cuatro pasos principales para la inferencia son inicializar el intérprete, preparar la entrada de imagen, realizar la inferencia y obtener y mapear los resultados. El proceso implica cargar el intérprete, asignar tensores, preparar la entrada de imagen desde la cámara de video, realizar la inferencia y obtener las coordenadas del cuadro delimitador, el índice de clase y el nivel de confianza de los objetos detectados. Una demostración rápida en el dispositivo Raspberry Pi muestra el reconocimiento de una persona pero enfrenta algunos problemas con el reconocimiento de objetos.

Utilizaremos una red móvil preoptimizada SSD entrenada en el conjunto de datos CocoaDat. Por lo tanto, Cocoa está entrenada en 80 categorías de objetos. Y tendremos un archivo de etiquetas que mapeará la salida de los modelos para que sepamos qué es en texto. Este es un ejemplo del enlace de GitHub que puedes ver en la diapositiva. También puedes descargar el archivo de modelo TF Lite y el archivo de etiquetas desde la URL a continuación.

Al realizar la inferencia, hay cuatro pasos principales que debemos realizar. Uno de ellos es inicializar el intérprete. El segundo es preparar la entrada de imagen. El tercero es realizar la inferencia. Y el último paso es obtener y mapear los resultados.

Cargamos el intérprete desde el tiempo de ejecución de TF Lite. Luego asignamos los tensores, el tensor de entrada y el tensor de salida. En nuestro segundo paso, debemos preparar la entrada de imagen. Ahora tomaremos una imagen de la cámara de video. Definimos una clase, clase de transmisión de video. Y luego lo que queremos hacer es leer desde la transmisión, desde la transmisión de la cámara. Iniciamos un bucle infinito aquí, donde simplemente tomamos el último fotograma de la cámara de la transmisión y luego lo devolvemos a la aplicación que llama. Luego, en nuestra aplicación, definimos un objeto de transmisión de video. Y luego simplemente adquirimos el fotograma y luego hacemos un cambio de tamaño al tamaño correcto para TensorFlow. Y luego realizamos la inferencia. Apuntamos a los datos que se utilizarán para esta prueba y luego ejecutamos el intérprete ejecutando invoke. Y finalmente, simplemente obtenemos y mapeamos los resultados.

En este caso, obtenemos el cuadro delimitador con las coordenadas de los objetos y también obtenemos el índice de clase de los objetos detectados y el nivel de confianza de los objetos. Permítanme cambiar aquí para una demostración rápida. Ahora estamos en el dispositivo Raspberry Pi. Y luego puedo sostener un objeto aquí para la Raspberry Pi. Y luego podemos ver que reconoce a la persona, que soy yo. Tiene algunos problemas aquí al reconocer mi objeto. Permítanme probar otro objeto.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
TensorFlow.js enables machine learning in the browser and beyond, with features like face mesh, body segmentation, and pose estimation. It offers JavaScript prototyping and transfer learning capabilities, as well as the ability to recognize custom objects using the Image Project feature. TensorFlow.js can be used with Cloud AutoML for training custom vision models and provides performance benefits in both JavaScript and Python development. It offers interactivity, reach, scale, and performance, and encourages community engagement and collaboration between the JavaScript and machine learning communities.
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
React Advanced 2021React Advanced 2021
21 min
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
Top Content
MediaPipe is a cross-platform framework that helps build perception pipelines using machine learning models. It offers ready-to-use solutions for various applications, such as selfie segmentation, face mesh, object detection, hand tracking, and more. MediaPipe can be integrated with React using NPM modules provided by the MediaPipe team. The demonstration showcases the implementation of face mesh and selfie segmentation solutions. MediaPipe enables the creation of amazing applications without needing to understand the underlying computer vision or machine learning processes.
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
JSNation Live 2021JSNation Live 2021
39 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
JavaScript with TensorFlow.js allows for machine learning in various environments, enabling the creation of applications like augmented reality and sentiment analysis. TensorFlow.js offers pre-trained models for object detection, body segmentation, and face landmark detection. It also allows for 3D rendering and the combination of machine learning with WebGL. The integration of WebRTC and WebXR enables teleportation and enhanced communication. TensorFlow.js supports transfer learning through Teachable Machine and Cloud AutoML, and provides flexibility and performance benefits in the browser and Node.js environments.
Observabilidad con diagnostics_channel y AsyncLocalStorage
Node Congress 2023Node Congress 2023
21 min
Observabilidad con diagnostics_channel y AsyncLocalStorage
Observability with Diagnostics Channel and async local storage allows for high-performance event tracking and propagation of values through calls, callbacks, and promise continuations. Tracing involves five events and separate channels for each event, capturing errors and return values. The span object in async local storage stores data about the current execution and is reported to the tracer when the end is triggered.
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
ML conf EU 2020ML conf EU 2020
32 min
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
Transfer learning in NLP allows for better performance with minimal data. BERT is commonly used for sequential transfer learning. Models like BERT can be adapted for downstream tasks such as text classification. Handling different types of inputs in NLP involves concatenating or duplicating the model. Hugging Face aims to tackle challenges in NLP through knowledge sharing and open sourcing code and libraries.

Workshops on related topic

Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
JSNation 2024JSNation 2024
108 min
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
Featured Workshop
Roy Derks
Shivay Lamba
2 authors
Hoy en día, todos los desarrolladores están utilizando LLMs en diferentes formas y variantes, desde ChatGPT hasta asistentes de código como GitHub CoPilot. Siguiendo esto, muchos productos han introducido capacidades de IA integradas, y en este masterclass haremos que los LLMs sean comprensibles para los desarrolladores web. Y nos adentraremos en la codificación de tu propia aplicación impulsada por IA. No se necesita experiencia previa en trabajar con LLMs o aprendizaje automático. En su lugar, utilizaremos tecnologías web como JavaScript, React que ya conoces y amas, al mismo tiempo que aprendemos sobre algunas nuevas bibliotecas como OpenAI, Transformers.js
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
C3 Dev Festival 2024C3 Dev Festival 2024
48 min
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
WorkshopFree
Andreia Ocanoaia
Andreia Ocanoaia
Sientes las limitaciones de los LLMs? Pueden ser creativos, pero a veces carecen de precisión o se basan en información desactualizada. En esta masterclass, desglosaremos el proceso de construir y desplegar fácilmente un sistema de Generación con Recuperación Mejorada. Este enfoque te permite aprovechar el poder de los LLMs con el beneficio adicional de precisión factual e información actualizada.
Deja que la IA sea tu Documentación
JSNation 2024JSNation 2024
69 min
Deja que la IA sea tu Documentación
Workshop
Jesse Hall
Jesse Hall
Únete a nuestro masterclass dinámico para crear un portal de documentación impulsado por IA. Aprende a integrar ChatGPT de OpenAI con Next.js 14, Tailwind CSS y tecnología de vanguardia para ofrecer soluciones de código e resúmenes instantáneos. Esta sesión práctica te equipará con el conocimiento para revolucionar la forma en que los usuarios interactúan con la documentación, convirtiendo las búsquedas tediosas en descubrimientos eficientes e inteligentes.
Aspectos destacados:
- Experiencia práctica en la creación de un sitio de documentación impulsado por IA.- Comprensión de la integración de la IA en las experiencias de usuario.- Habilidades prácticas con las últimas tecnologías de desarrollo web.- Estrategias para implementar y mantener recursos de documentación inteligente.
Tabla de contenidos:- Introducción a la IA en la documentación- Configuración del entorno- Construcción de la estructura de documentación- Integración de ChatGPT para documentación interactiva
Prácticas con TensorFlow.js
ML conf EU 2020ML conf EU 2020
160 min
Prácticas con TensorFlow.js
Workshop
Jason Mayes
Jason Mayes
Ven y descubre nuestro masterclass que te guiará a través de 3 recorridos comunes al usar TensorFlow.js. Comenzaremos demostrando cómo usar uno de nuestros modelos predefinidos, clases de JS muy fáciles de usar para trabajar rápidamente con ML. Luego veremos cómo volver a entrenar uno de estos modelos en minutos utilizando el aprendizaje por transferencia en el navegador a través de Teachable Machine y cómo se puede usar en tu propio sitio web personalizado. Finalmente, terminaremos con un hola mundo escribiendo tu propio código de modelo desde cero para hacer una regresión lineal simple y predecir los precios ficticios de las casas en función de sus metros cuadrados.
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
ML conf EU 2020ML conf EU 2020
112 min
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
Workshop
Alyona Galyeva
Alyona Galyeva
¿Eres un Ingeniero de Software al que se le asignó la tarea de implementar un modelo de aprendizaje automático o aprendizaje profundo por primera vez en tu vida? ¿Te preguntas qué pasos seguir y cómo se diferencia el software impulsado por IA del software tradicional? Entonces este es el masterclass adecuado al que asistir.
Internet ofrece miles de artículos y cursos gratuitos que muestran lo fácil que es entrenar e implementar un modelo de IA simple. Al mismo tiempo, en la realidad es difícil integrar un modelo real en la infraestructura actual, depurarlo, probarlo, implementarlo y monitorearlo correctamente. En este masterclass, te guiaré a través de este proceso compartiendo consejos, trucos y herramientas de código abierto favoritas que te facilitarán mucho la vida. Así que al final del masterclass, sabrás por dónde empezar tu viaje de implementación, qué herramientas utilizar y qué preguntas hacer.
Introducción al Aprendizaje Automático en la Nube
ML conf EU 2020ML conf EU 2020
146 min
Introducción al Aprendizaje Automático en la Nube
Workshop
Dmitry Soshnikov
Dmitry Soshnikov
Este masterclass será tanto una introducción suave al Aprendizaje Automático, como un ejercicio práctico de uso de la nube para entrenar modelos de aprendizaje automático simples y no tan simples. Comenzaremos utilizando ML Automático para entrenar el modelo para predecir la supervivencia en el Titanic, y luego pasaremos a tareas de aprendizaje automático más complejas como la optimización de hiperparámetros y la programación de series de experimentos en el clúster de cómputo. Finalmente, mostraré cómo Azure Machine Learning se puede utilizar para generar pinturas artificiales utilizando Redes Generativas Adversarias, y cómo entrenar un modelo de preguntas y respuestas de lenguaje en documentos de COVID para responder preguntas relacionadas con COVID.