Escalando el Aprendizaje Automático Distribuido, hasta el Borde y de Vuelta

This ad is not shown to multipass and full ticket holders
JSNation US
JSNation US 2025
November 17 - 20, 2025
New York, US & Online
See JS stars in the US biggest planetarium
Learn More
In partnership with Focus Reactive
Upcoming event
JSNation US 2025
JSNation US 2025
November 17 - 20, 2025. New York, US & Online
Learn more
Bookmark
Slides
Rate this content

Esta charla cubrirá por qué y cómo las organizaciones están distribuyendo el almacenamiento de datos y el aprendizaje automático hasta el borde. Al llevar el aprendizaje automático hasta el borde, podemos distribuir geográficamente el aprendizaje para que los modelos realmente aprendan cosas diferentes relevantes para ubicaciones específicas. Al entregar tanto la base de datos del borde como la computación en una sola plataforma, más personas pueden hacer la transición a una arquitectura distribuida. Las ganancias de rendimiento de esta nueva arquitectura afianzan el valor que aporta la computación móvil en el borde.

This talk has been presented at JSNation 2023, check out the latest edition of this JavaScript Conference.

FAQ

Jackson Repp es un desarrollador en recuperación y padre de dos hijas, ubicado en Denver, Colorado. Ha participado en ocho startups, con dos salidas exitosas y cinco oportunidades de aprendizaje. Actualmente trabaja para HarperDB, una Plataforma de Aplicaciones Distribuidas.

HarperDB es una Plataforma de Aplicaciones Distribuidas que ha estado en el mercado durante seis años. Está construida completamente en Node.js, aprovechando este lenguaje para simplificar el desarrollo y la implementación.

Jackson Repp se enfoca en el papel de JavaScript en el aprendizaje automático distribuido a escala, explorando cómo se puede utilizar JavaScript para desarrollar sistemas de aprendizaje automático y AI eficientes y distribuidos.

JavaScript, al ejecutarse en prácticamente todos los dispositivos cliente, es ideal para implementaciones de aprendizaje automático en el borde, permitiendo la creación y mejora de modelos directamente en dispositivos de los usuarios, como móviles y navegadores.

Se discuten los desafíos de mantener un rendimiento alto en dispositivos con potencia limitada, como teléfonos o navegadores, y cómo las estrategias de entrenamiento y refinamiento de modelos deben ajustarse para operar eficazmente en estos entornos.

TensorFlow.js es una biblioteca que permite tomar datos, generar un modelo y ejecutarlo en el borde, así como en plataformas móviles. Facilita el uso de aprendizaje automático directamente en el navegador o en dispositivos móviles.

Jaxon Repp
Jaxon Repp
21 min
05 Jun, 2023

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Esta charla explora el papel de JavaScript en el aprendizaje automático distribuido a gran escala, discutiendo la falta de herramientas y la accesibilidad de las implementaciones de aprendizaje automático. También abarca la arquitectura de aprendizaje automático basada en la nube, el aprendizaje automático en el borde y el uso de HarperDB para una implementación simplificada de aprendizaje automático. También se discute el concepto de IA iterativa y entrenamiento de modelos.

1. Introducción a JavaScript ML

Short description:

Hola, bienvenidos a mi charla para JS Nation titulada Hasta el Límite y de Regreso: El Rol de JavaScript en el Aprendizaje Automático Distribuido a Escala. Soy un desarrollador en recuperación, padre de dos hijas, con sede en Denver, Colorado. Trabajo para HarperDB, una Plataforma de Aplicaciones Distribuidas construida completamente en Node.js. Hoy, exploraré el ecosistema de aprendizaje automático en JavaScript, la arquitectura táctica y los sistemas y métodos para ofrecer un acceso de alto rendimiento al aprendizaje automático e IA.

Hola, bienvenidos a mi charla para JS Nation titulada Hasta el Límite y de Regreso: El Rol de JavaScript en el Aprendizaje Automático Distribuido a Escala. Mi nombre es Jackson Repp. Soy un desarrollador en recuperación, padre de dos hijas. Estoy ubicado en Denver, Colorado. He sido parte de ocho startups, con dos salidas exitosas y cinco oportunidades de aprendizaje. Ahora trabajo para HarperDB, que es una Plataforma de Aplicaciones Distribuidas. Llevamos seis años en el mercado y tenemos numerosas implementaciones en producción y una comunidad bastante sólida.

Cuando hablo de HarperDB como el lugar donde trabajo, creo que lo más interesante para JS Nation es el hecho de que estamos construidos completamente en Node.js. Hemos aprovechado el lenguaje que ya amas. Podríamos haber elegido cualquier lenguaje, pero nos dimos cuenta de los enormes beneficios en términos de simplicidad y disponibilidad de recursos y plataformas de implementación. ¿Dónde puede ejecutarse JavaScript? Nos encanta centrarnos en la comunidad de JavaScript y, obviamente, el aprendizaje automático es una de esas áreas que ha crecido enormemente en el futuro cercano. ¿Y cómo se logra eso? ¿Cuáles son las logísticas detrás de ello? Eso es lo que quiero explorar hoy.

Entonces, el plan de estudios para este curso, supongo, sería comprender el ecosistema de aprendizaje automático en JavaScript. ¿Qué recursos tenemos disponibles para construir estas increíbles y geniales tecnologías que funcionan más cerca del usuario, aprovechando un lenguaje que todos amamos? Luego tenemos una sección llamada arquitectura táctica, que es cómo se hace actualmente o cómo se hacía en el pasado y hacia dónde creemos que se dirige con el tiempo. ¿Cómo podemos seguir ofreciendo un acceso de alto rendimiento al aprendizaje automático e IA y a estos modelos increíblemente complejos cuando ejecutarlos requiere tanta potencia y es posible que no tengas toda la potencia del mundo en tu teléfono o tal vez, ya sabes, en un navegador? Y finalmente, sistemas y métodos. Entonces, ¿cómo podemos abordar este problema? ¿Cuáles son las consideraciones que debemos tener en cuenta al planificar un sistema que sea verdaderamente distribuido e iterativo, como describiré cómo se ven esas arquitecturas? Así que hablemos del ecosistema de ML en JavaScript. Si es así, esta, como muchas tecnologías

2. Herramientas y Arquitectura Táctica de Aprendizaje Automático

Short description:

Las personas se dan cuenta del aprendizaje automático y sus posibles aplicaciones. Sin embargo, la falta de herramientas requiere que los desarrolladores escriban código de bajo nivel para entrenar modelos y construir aplicaciones. Con la infraestructura adecuada, las implementaciones de aprendizaje automático se vuelven más accesibles. ChatGPT ha ganado una atención significativa y ofrece una solución completa y rápida. JavaScript es una excelente opción para llevar el aprendizaje automático al límite, con bibliotecas como TensorFlow.js y plataformas móviles como CoreML y MLK. La naturaleza jerárquica de acceso a los datos sugiere oportunidades para implementaciones en la nube, en el borde, lejos del borde y en dispositivos móviles. La arquitectura táctica implica el entrenamiento, la prueba y la implementación de modelos.

implementaciones, es un ciclo virtuoso. Primero, las personas se dan cuenta de ello, ¿verdad? Saben que el aprendizaje automático es algo real. Saben que puede ayudarles a identificar cosas en una foto o que pueden hacer recomendaciones utilizando esta tecnología. Pero las herramientas no están disponibles. Así que tienes que escribir código de bajo nivel para entrenar un modelo, para construir algo que pueda actuar según la entrada del usuario y darte una recomendación o una clasificación o lograr cualquier objetivo final que pueda ser.

Y luego se construye la infraestructura detrás de eso para soportar cosas que ahora podemos implementar porque tenemos las herramientas. Y con esa infraestructura, las implementaciones se vuelven más accesibles, lo que obviamente puedes lanzar a una audiencia más amplia, y luego comienza a crecer. Si observas la conciencia, lo primero de lo que todos están hablando es de ChatGPT hasta el punto de que las últimas tres semanas de llamadas de ganancias han incluido menciones de IA y ChatGPT en productos que ni siquiera parecían aprovecharlos porque el precio de las acciones sube, porque todos están tan emocionados y conscientes. Y en última instancia, queremos ofrecer este producto, esta solución, este resultado. Y es simple, accesible, completo y rápido. Y ChatGPT cumple con todas esas cosas. Y es tremendo si alguna vez lo has usado. Sabes que generalmente hay una espera para entrar y las cuentas comerciales son difíciles de conseguir y costosas, porque se requiere una cantidad tremenda de recursos para hacer algo tan impresionante como lo que hace ChatGPT. Ahora, obviamente, también es un poco aterrador en términos del alcance de lo que puede hacer. Es un modelo muy grande que ha sido entrenado con muchas piezas de datos y no todos necesitan implementar un motor de chat humano integral, pero hay un millón de otras aplicaciones para el aprendizaje automático, especialmente en el límite, que pueden aprovechar muchas de las mejores prácticas que ChatGPT nos ha presentado en términos de accesibilidad. Luego, miramos las herramientas que tenemos para seguir llevando esta lógica al límite, ¿verdad? ¿Cómo nos acercamos a esos usuarios? Y JavaScript, obviamente, al estar en todos los dispositivos cliente y ejecutarse prácticamente en todas partes, es una excelente opción para eso. Y aunque el aprendizaje automático y los modelos de aprendizaje automático y la IA tradicionalmente han estado en servidores con mucha potencia, como ChatGPT que entrena un modelo gigante, hay muchas bibliotecas disponibles. TensorFlow.js es el primo de JavaScript del rey de las plataformas de aprendizaje automático patrocinado por Google. Pero también tienes muchas otras plataformas disponibles para tomar datos, generar un modelo y finalmente implementarlo y ejecutarlo también en el límite, así como en plataformas móviles como CoreML y CreateML en iOS y MLK para Android. Por lo tanto, hay muchas formas de llevar esto tan lejos como sea posible. Ahora, nuevamente, se requiere potencia para crear y utilizar modelos, por lo que realmente depende de dónde lo vayas a hacer. Tradicionalmente, hemos hecho esto en la nube, ¿verdad? Ejecutamos un gran servidor con muchas GPU y construimos grandes modelos. Y luego configuramos una infraestructura en el límite o en otra región de la nube para aprovechar ese modelo, recibir solicitudes de clientes entrantes y ejecutar sus datos contra el modelo y obtener algún tipo de clasificación o conjunto de datos resultante. Pero a medida que seguimos viendo la naturaleza jerárquica de, digamos, cómo accedemos a los datos, probablemente haya una oportunidad de bifurcación o trifurcación. Solo la visión de las responsabilidades entre la nube y el límite cercano, es decir, los servidores que están más cerca de ti, el límite lejano, es decir, las zonas locales de AWS o en las instalaciones, cosas que están muy, muy cerca de ti. Y finalmente, las cosas que llevas contigo, una aplicación móvil o un navegador en tu teléfono o que se ejecuta en una computadora portátil. Por lo tanto, hay muchas cosas que necesitaban estar en su lugar y tener esas herramientas para que pudiéramos entregar los resultados a un nivel más local. Por lo tanto, observamos una arquitectura táctica, nuevamente, lo básico es que queremos entrenar un modelo, queremos probarlo y validar que funcione, y luego queremos implementarlo. Queremos ponerlo ahí fuera y que realmente

3. Arquitectura de Aprendizaje Automático Basada en la Nube

Short description:

Queremos poner eso ahí fuera y hacer que realmente comience a hacer cosas por nosotros. Y cuando veo una arquitectura tradicional basada en la nube, tengo una fuente de datos, ya sea estática desde un lago de datos o una base de datos gigante, o tengo datos en streaming que provienen de aplicaciones, clientes, sensores, y luego tengo un pipeline de aprendizaje automático donde realizo todo el entrenamiento y las pruebas. Y luego tengo algún tipo de operaciones de aprendizaje automático, que es una palabra clave muy popular en este momento, y hay muchas herramientas, Kubeflow es una de ellas, funciona muy bien con Kubernetes. Y luego está la distribución hacia la infraestructura que luego ejecutará esos modelos, y solo mencioné Kubernetes aquí porque todos lo conocen y es omnipresente. Esta es la arquitectura de muchas aplicaciones de aprendizaje automático.

Queremos poner eso ahí fuera y hacer que realmente comience a hacer cosas por nosotros. Y cuando veo una arquitectura tradicional basada en la nube, tengo una fuente de datos, ya sea estática desde un lago de datos o una base de datos gigante, o tengo datos en streaming que provienen de aplicaciones, clientes, sensores, y luego tengo un pipeline de aprendizaje automático donde realizo todo el entrenamiento y las pruebas. Y luego tengo algún tipo de operaciones de aprendizaje automático, que es una palabra clave muy popular en este momento, y hay muchas herramientas, Kubeflow es una de ellas, funciona muy bien con Kubernetes. Y luego está la distribución hacia la infraestructura que luego ejecutará esos modelos, y solo mencioné Kubernetes aquí porque todos lo conocen y es omnipresente. Esta es la arquitectura de muchas aplicaciones de aprendizaje automático.

4. Machine Learning at the Edge

Short description:

Y es muy similar a algo similar a un chat GPT. Todo está centralizado en la nube, con mucha potencia en la infraestructura para construir y ejecutar esos modelos, pero en última instancia, todo está en un solo lugar. La siguiente iteración es construir un modelo grande utilizando la infraestructura de alta potencia de la nube, y luego enviar ese modelo y volver a entrenarlo o mejorarlo con datos que provienen de clientes locales o regionales. Así que tomas ese modelo y lo envías al borde y luego lo vuelves a entrenar o lo mejoras con datos locales o regionales, lo que ofrece una experiencia más personalizada. La mayor parte del trabajo se realiza en la nube en ese motor de alta potencia y ahora en el borde puedes utilizar recursos más distintos, más discretos para volver a entrenar y seguir proporcionando ese resultado de manera oportuna a los clientes. El conocimiento jerárquico, la clasificación jerárquica y las recomendaciones son cómo funcionan nuestros cuerpos. A esto lo llamamos aprendizaje en conjunto. Hay refinamientos que deben hacerse en cada nivel para asegurar que ese modelo sea relevante y que tenga un rendimiento suficiente en ese borde, porque los dispositivos que llaman, puede haber cientos de miles, millones o miles de millones de ellos y están llamando y quieren una recomendación, ¿cómo tienes un modelo lo suficientemente localizado y con suficiente rendimiento para ofrecer esos resultados en el borde?

Así que los dispositivos del cliente pueden tener que esperar un tiempo para comunicarse y realizar esa carga de trabajo, tal vez en el caso de, por ejemplo, chat GPT, lo pones en una cola y tienes que esperar tu turno para interactuar con él, porque hay limitaciones en lo que esa arquitectura en la nube puede lograr. La siguiente iteración de eso es construir un modelo grande utilizando la infraestructura de alta potencia de la nube, y luego enviar ese modelo y volver a entrenarlo o mejorarlo con datos que provienen de clientes locales o regionales. Entonces, por ejemplo, puedes tener una tienda, pero piensa en una gran corporación multinacional que vende muchos productos en miles de puntos de venta en todo el mundo. Saben mucho sobre los comportamientos generales de compra de su audiencia. Saben que cuando hace frío, la gente compra chaquetas, cuando hace calor, la gente compra sandalias. Eso es tal vez, uno esperaría, universal, excepto que no lo es porque ciertamente hay regiones donde tener los pies expuestos en unas sandalias se considera grosero y por lo tanto no vendemos tantas sandalias. Entonces, un modelo de aprendizaje automático que se entrenó en el conjunto de datos global tal vez no sería la mejor fuente de recomendaciones para una población en un área donde intervienen factores culturales, climáticos u otros, pero no tienen acceso a eso cuando están construyendo ese modelo central. Así que tomas ese modelo y lo envías al borde y luego lo vuelves a entrenar o lo mejoras con datos locales o regionales, lo que ofrece una experiencia más personalizada. La mayor parte del trabajo se realiza en la nube en ese motor de alta potencia y ahora en el borde puedes utilizar recursos más distintos, más discretos para volver a entrenar y seguir proporcionando, ya sabes, ese resultado de manera oportuna a los clientes. Pero podríamos ampliar esto aún más porque, nuevamente, el conocimiento, al igual que el cerebro humano, es un proceso jerárquico. El cerebro humano captará una imagen a través de tus ojos. Inmediatamente intentará clasificar la forma. Veo un contorno de la oscuridad si estoy en la jungla y la forma parece ser un tigre. Sin embargo, solo veo el perfil de ese tigre, la silueta. Lo que el cerebro humano hará es mirar ese borde o los bordes de ese perfil. Rotará ese perfil y verá si puede clasificar, si alguna vez ha visto esa forma, esa silueta antes, entonces imaginará, imaginarás el sonido como una entrada. ¿Hay lo que consideraría un rugido de un tigre? ¿Se está moviendo de una manera que tradicionalmente asocio con un tigre? ¿Se está acercando a mí? A medida que comienzo a hacer esas clasificaciones, lo interesante del cerebro humano a medida que pasa por este proceso es que hay muchos niveles donde puede captar diferentes datos sensoriales, pero cualquiera de ellos puede desencadenar la reacción química que dice correr o alcanzar esa arma contra el árbol o hacer un ruido fuerte o rendirse porque todo ha terminado. El conocimiento jerárquico, la clasificación jerárquica y las recomendaciones son cómo funcionan nuestros cuerpos. Si esto en la pantalla es una especie de modelo basado en el borde, de dos niveles, puedes imaginar que una solución iterativa puede agregar capas y capas de conocimiento sobre un modelo que puede generarse de forma centralizada y luego distribuirse y seguir refinándose a medida que se acerca al borde. A esto lo llamamos aprendizaje en conjunto. Cuando hablamos del flujo de entrenamiento de un modelo en la nube, es más eficiente decir usar un TensorFlow escrito en Python. Eso se vuelve más eficiente, pero cuanto más te alejas y menos recursos disponibles y más cerca del borde y tal vez más restrictivo o limitado es el entorno, comienzas a ver muchos lugares donde puedes usar JavaScript para refinar continuamente esos modelos y luego implementarlos, por lo que JavaScript se convierte en una excelente herramienta a medida que te alejas hacia el borde o en las instalaciones o incluso en la ejecución en los clientes, ¿verdad? Entonces puedo entrenar algo usando la cámara de mi teléfono, puedo volver a entrenar ese modelo y de repente puedo decirle que lo que estás mirando es en realidad un tigre. Así que puedo decirle que ese modelo existirá en mi teléfono y cada vez que vea una silueta así, se clasificará como un tigre y todo eso sucederá localmente. Sin embargo, puedes ver que esto implica muchas partes móviles, parece que es sincrónico y puedo simplemente copiar y pegar y, ya sabes, cuando estás creando una presentación de PowerPoint, definitivamente estás copiando y pegando, pero hay refinamientos que deben hacerse en cada nivel para asegurar que ese modelo sea relevante y que tenga un rendimiento suficiente en ese borde, porque los dispositivos que llaman, puede haber cientos de miles, millones o miles de millones de ellos y están llamando y quieren una recomendación, ¿cómo tienes un modelo lo suficientemente localizado y con suficiente rendimiento para ofrecer esos resultados en el borde? Entonces, cuando observamos los sistemas y métodos mediante los cuales implementaríamos una solución como esa, hay muchas consideraciones. El conjunto de herramientas de ML para JavaScript tiene algunas limitaciones en términos de lo que puede realizar y estamos tratando de diseñar este sistema iterativo para aprovechar al máximo el cliente más apropiado siempre que sea posible. En un servidor, debes analizar los recursos del host y la complejidad, como cuántos factores estoy considerando cuando ingreso datos que van a hacer una recomendación o una clasificación. Y luego el volumen de datos, ¿verdad? ¿Cuántos datos estoy utilizando para entrenar mi modelo y probarlo? ¿Y tengo la capacidad de almacenar eso en el borde en un teléfono o en un navegador o acceder fácilmente a él? ¿O estoy aprovechando terabytes de datos en la nube y enviándolos al borde? Y luego, cuando llego al borde, ¿qué es capaz de hacer mi teléfono? ¿Qué es capaz de hacer el navegador? ¿Cuál es ese entorno restringido? ¿Qué significan esas restricciones para mí? Y finalmente, todo se reduce a la experiencia del usuario. ¿Es lo suficientemente rápido? ¿Es lo suficientemente bueno? ¿Es suficientemente alta la precisión? Y a medida que construyo ese modelo en la nube con muchos recursos, ¿qué tan interoperable es?

5. Despliegue de Aprendizaje Automático y HarperDB

Short description:

Los modelos que generas utilizando el modelo de Python deben pasar por lo que se llama el convertidor TFJS. Considera lo que estás tratando de lograr y qué se puede lograr en el borde. La complejidad puede ser un desafío, especialmente al escalar. HarperDB es una plataforma integrada de aprendizaje automático que simplifica y reduce la complejidad. Combina una base de datos, aplicaciones y lógica de distribución. Al aprovechar HarperDB, puedes manejar el entrenamiento, la distribución y la replicación de modelos. Los clientes pueden acceder a los datos y modelos, y el aprendizaje iterativo permite el entrenamiento y despliegue de modelos localizados en dispositivos de cliente.

¿Qué sucede en el borde? Por ejemplo, TensorFlow. Los modelos que generas utilizando el modelo de Python deben pasar por lo que se llama el convertidor TFJS. Y hay algunas limitaciones en las estructuras de esos modelos. Entonces debes considerar, ¿qué estás tratando de lograr y qué puedes lograr en el borde? Pero luego está la otra naturaleza jerárquica de esto. Y vimos todas esas capas anteriormente. Y hablamos de la complejidad que puede arruinarlo. No sirve de nada si es muy eficiente, pero nadie en el mundo puede mantenerlo. Porque Dios no lo quiera, tengo éxito, necesito escalarlo. Si no puedes controlar todas esas partes móviles, y puedes tener 10, 15, cien partes móviles en una pila de aplicaciones de micro frontends y microservicios, APIs y todas esas cosas, lo cual está bien, pero si quieres estar en cien lugares para estar cerca de todos tus usuarios, bueno, ahora tengo 10,000 partes móviles de las que preocuparme. Obviamente, eso no es divertido, y reduce el costo total de propiedad, obviamente, de mantener un sistema como este.

Entonces consideras el almacenamiento de datos, el volumen en disco, la lógica empresarial, mi flujo de trabajo de entrenamiento, mis operaciones de memoria, mi distribución, la infraestructura y la potencia de procesamiento, y en última instancia, ¿cuál es la carga, cuál es el volumen de aplicaciones de cliente que van a llamar e intentar acceder a esta información? En este punto, solo mencionaré que HarperDB, la empresa para la que trabajo, es una plataforma integrada de aprendizaje automático. Hace muchas cosas, el aprendizaje automático es una de esas cosas, y hemos incorporado todas las piezas que pensamos que serían necesarias para simplificar y reducir esa complejidad para que pudiéramos estar en 100 lugares, y aún así solo tuvieras que preocuparte por 100 cosas. Así que construimos una base de datos con aplicaciones aquí, y lógica de distribución. Entonces eso es la replicación entre nodos de HarperDB. Entonces, si miras la base de datos, eso es el almacenamiento de datos, ¿verdad? Y la aplicación es donde se encuentra tu flujo de trabajo de entrenamiento y tu distribución o replicación de estos modelos se puede manejar simplemente aprovechando la solución existente de HarperDB. Obviamente, no somos la única plataforma de aprendizaje automático, pero usaré esta como ejemplo. Miramos todas las fuentes de datos y las incorporamos en una plataforma como HarperDB. Y luego tienes módulos que puedes usar para entrenar y construir esos modelos. Y luego tienes muchos clientes que pueden acceder a esto directamente. Y en última instancia, muchos datos ingresando, mucho procesamiento para generar modelos en tiempo real. Y finalmente, los clientes que pueden llamar y acceder a esos datos. Entonces, un sistema de aprendizaje automático iterativo en HarperDB combina todas las piezas que teníamos en el gráfico anterior. Y simplemente puedes volver a entrenar modelos dentro de la capa de aplicación y aceptar clientes dentro de esa misma capa de aplicación que te están haciendo preguntas. Obviamente, esos mismos modelos también se pueden implementar en los dispositivos de cliente reales para que también puedan ejecutarse en el borde. Pero lo interesante de una plataforma de aprendizaje automático iterativo es que puedo hacer una pregunta a un nodo que está muy cerca de mí. Pero tal vez ese modelo esté entrenado localmente. Se ha reducido. Está optimizado para una plataforma de borde o de baja potencia. Tal vez esté ejecutándose en el borde en una Raspberry Pi. Si no puedo responder la pregunta, puedo enviar esa pregunta

6. Iterative AI and Model Training

Short description:

Y puedo marcar preguntas como desconocidas y sin resolver, y luego hacer preguntas más poderosas con un conjunto de datos global. Si la pregunta puede ser respondida, el conocimiento volverá y se puede utilizar como nuevos datos de entrenamiento. Al entrenar sobre preguntas previamente sin respuesta, puedes seguir mejorando el modelo.

más arriba en la cadena. Y puedo marcar esa pregunta como desconocida, sin resolver. Y puedo hacer la siguiente cosa más poderosa con tal vez un conjunto de datos data global que no esté entrenado localmente. Y si puede responderla, genial. Ese conocimiento volverá a través de ese punto de contacto original. Puedo usar esa pregunta ahora respondida pero previamente sin respuesta como un nuevo conjunto de datos de entrenamiento para decir, si ves algo que parece irresoluble, pero sigue un paradigma como este, entonces tal vez ese conocimiento valga la pena. Y tal vez esa podría ser la respuesta o una respuesta análoga a eso. Así que puedes entrenar sobre eso. Y puedes seguir subiendo en la cadena. De hecho, más allá de la nube, por ejemplo, hay reconocimiento fotofacial, hay clasificación humana donde simplemente digo, escucha, todos los modelos que tenemos no pudieron clasificar quién es esta persona. ¿Podrías por favor mirar esto y anotarlo? Y tan pronto como tengamos esos data, podemos volver a entrenar en el nivel superior y luego volver a entrenar en todo el proceso hasta que tengamos un modelo completamente eficiente en el borde que pueda responder preguntas que antes solo se podían responder en niveles superiores. Entonces, cuando aprovechas la computación en el borde, JavaScript es una herramienta increíble porque está disponible y se ejecuta en todas partes. Pero el secreto de la solución es entender que el verdadero poder proviene de modelos grandes que se han hecho para funcionar de manera más efectiva, y usar una biblioteca de machine learning basada en JavaScript para crear modelos generalmente no funciona en conjuntos de datos masivos. Así que siempre elige la herramienta adecuada para la plataforma adecuada en el lugar adecuado. Y en última instancia, esa es la clave para hacer que el machine learning y el AI iterativo sean exitosos en cada plataforma. Muchas gracias. Lo aprecio.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

No resuelvas problemas, elimínalos
React Advanced 2021React Advanced 2021
39 min
No resuelvas problemas, elimínalos
Top Content
Kent C. Dodds discusses the concept of problem elimination rather than just problem-solving. He introduces the idea of a problem tree and the importance of avoiding creating solutions prematurely. Kent uses examples like Tesla's electric engine and Remix framework to illustrate the benefits of problem elimination. He emphasizes the value of trade-offs and taking the easier path, as well as the need to constantly re-evaluate and change approaches to eliminate problems.
Uso efectivo de useEffect
React Advanced 2022React Advanced 2022
30 min
Uso efectivo de useEffect
Top Content
Today's Talk explores the use of the useEffect hook in React development, covering topics such as fetching data, handling race conditions and cleanup, and optimizing performance. It also discusses the correct use of useEffect in React 18, the distinction between Activity Effects and Action Effects, and the potential misuse of useEffect. The Talk highlights the benefits of using useQuery or SWR for data fetching, the problems with using useEffect for initializing global singletons, and the use of state machines for handling effects. The speaker also recommends exploring the beta React docs and using tools like the stately.ai editor for visualizing state machines.
Sistemas de Diseño: Caminando la Línea Entre Flexibilidad y Consistencia
React Advanced 2021React Advanced 2021
47 min
Sistemas de Diseño: Caminando la Línea Entre Flexibilidad y Consistencia
Top Content
The Talk discusses the balance between flexibility and consistency in design systems. It explores the API design of the ActionList component and the customization options it offers. The use of component-based APIs and composability is emphasized for flexibility and customization. The Talk also touches on the ActionMenu component and the concept of building for people. The Q&A session covers topics such as component inclusion in design systems, API complexity, and the decision between creating a custom design system or using a component library.
Concurrencia en React, Explicada
React Summit 2023React Summit 2023
23 min
Concurrencia en React, Explicada
Top Content
React 18's concurrent rendering, specifically the useTransition hook, optimizes app performance by allowing non-urgent updates to be processed without freezing the UI. However, there are drawbacks such as longer processing time for non-urgent updates and increased CPU usage. The useTransition hook works similarly to throttling or bouncing, making it useful for addressing performance issues caused by multiple small components. Libraries like React Query may require the use of alternative APIs to handle urgent and non-urgent updates effectively.
Gestión del Estado de React: 10 Años de Lecciones Aprendidas
React Day Berlin 2023React Day Berlin 2023
16 min
Gestión del Estado de React: 10 Años de Lecciones Aprendidas
Top Content
This Talk focuses on effective React state management and lessons learned over the past 10 years. Key points include separating related state, utilizing UseReducer for protecting state and updating multiple pieces of state simultaneously, avoiding unnecessary state syncing with useEffect, using abstractions like React Query or SWR for fetching data, simplifying state management with custom hooks, and leveraging refs and third-party libraries for managing state. Additional resources and services are also provided for further learning and support.
TypeScript y React: Secretos de un matrimonio feliz
React Advanced 2022React Advanced 2022
21 min
TypeScript y React: Secretos de un matrimonio feliz
Top Content
React and TypeScript have a strong relationship, with TypeScript offering benefits like better type checking and contract enforcement. Failing early and failing hard is important in software development to catch errors and debug effectively. TypeScript provides early detection of errors and ensures data accuracy in components and hooks. It offers superior type safety but can become complex as the codebase grows. Using union types in props can resolve errors and address dependencies. Dynamic communication and type contracts can be achieved through generics. Understanding React's built-in types and hooks like useState and useRef is crucial for leveraging their functionality.

Workshops on related topic

Masterclass de Depuración de Rendimiento de React
React Summit 2023React Summit 2023
170 min
Masterclass de Depuración de Rendimiento de React
Top Content
Featured Workshop
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Vería una interacción lenta, intentaría una optimización aleatoria, vería que no ayudaba, y seguiría intentando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Haría una grabación en Chrome DevTools o React Profiler, la examinaría, intentaría hacer clic en cosas aleatorias, y luego la cerraría frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos a analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, estaremos cubriendo el rendimiento de la interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Consejos sobre React Hooks que solo los profesionales conocen
React Summit Remote Edition 2021React Summit Remote Edition 2021
177 min
Consejos sobre React Hooks que solo los profesionales conocen
Top Content
Featured Workshop
Maurice de Beijer
Maurice de Beijer
La adición de la API de hooks a React fue un cambio bastante importante. Antes de los hooks, la mayoría de los componentos tenían que ser basados en clases. Ahora, con los hooks, estos son a menudo componentes funcionales mucho más simples. Los hooks pueden ser realmente simples de usar. Casi engañosamente simples. Porque todavía hay muchas formas en las que puedes equivocarte con los hooks. Y a menudo resulta que hay muchas formas en las que puedes mejorar tus componentes con una mejor comprensión de cómo se puede usar cada hook de React.Aprenderás todo sobre los pros y los contras de los diversos hooks. Aprenderás cuándo usar useState() versus useReducer(). Veremos cómo usar useContext() de manera eficiente. Verás cuándo usar useLayoutEffect() y cuándo useEffect() es mejor.
React, TypeScript y TDD
React Advanced 2021React Advanced 2021
174 min
React, TypeScript y TDD
Top Content
Featured Workshop
Paul Everitt
Paul Everitt
ReactJS es extremadamente popular y, por lo tanto, ampliamente soportado. TypeScript está ganando popularidad y, por lo tanto, cada vez más soportado.

¿Los dos juntos? No tanto. Dado que ambos cambian rápidamente, es difícil encontrar materiales de aprendizaje precisos.

¿React+TypeScript, con los IDEs de JetBrains? Esa combinación de tres partes es el tema de esta serie. Mostraremos un poco sobre mucho. Es decir, los pasos clave para ser productivo, en el IDE, para proyectos de React utilizando TypeScript. En el camino, mostraremos el desarrollo guiado por pruebas y enfatizaremos consejos y trucos en el IDE.
Domina los Patrones de JavaScript
JSNation 2024JSNation 2024
145 min
Domina los Patrones de JavaScript
Top Content
Featured Workshop
Adrian Hajdin
Adrian Hajdin
Durante esta masterclass, los participantes revisarán los patrones esenciales de JavaScript que todo desarrollador debería conocer. A través de ejercicios prácticos, ejemplos del mundo real y discusiones interactivas, los asistentes profundizarán su comprensión de las mejores prácticas para organizar el código, resolver desafíos comunes y diseñar arquitecturas escalables. Al final de la masterclass, los participantes ganarán una nueva confianza en su capacidad para escribir código JavaScript de alta calidad que resista el paso del tiempo.
Puntos Cubiertos:
1. Introducción a los Patrones de JavaScript2. Patrones Fundamentales3. Patrones de Creación de Objetos4. Patrones de Comportamiento5. Patrones Arquitectónicos6. Ejercicios Prácticos y Estudios de Caso
Cómo Ayudará a los Desarrolladores:
- Obtener una comprensión profunda de los patrones de JavaScript y sus aplicaciones en escenarios del mundo real- Aprender las mejores prácticas para organizar el código, resolver desafíos comunes y diseñar arquitecturas escalables- Mejorar las habilidades de resolución de problemas y la legibilidad del código- Mejorar la colaboración y la comunicación dentro de los equipos de desarrollo- Acelerar el crecimiento de la carrera y las oportunidades de avance en la industria del software
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
React Summit 2023React Summit 2023
151 min
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
Top Content
Featured Workshop
Josh Justice
Josh Justice
La Biblioteca de Pruebas de React es un gran marco para las pruebas de componentes de React porque responde muchas preguntas por ti, por lo que no necesitas preocuparte por esas preguntas. Pero eso no significa que las pruebas sean fáciles. Todavía hay muchas preguntas que tienes que resolver por ti mismo: ¿Cuántas pruebas de componentes debes escribir vs pruebas de extremo a extremo o pruebas de unidad de nivel inferior? ¿Cómo puedes probar una cierta línea de código que es difícil de probar? ¿Y qué se supone que debes hacer con esa persistente advertencia de act()?
En esta masterclass de tres horas, presentaremos la Biblioteca de Pruebas de React junto con un modelo mental de cómo pensar en el diseño de tus pruebas de componentes. Este modelo mental te ayudará a ver cómo probar cada bit de lógica, si debes o no simular dependencias, y ayudará a mejorar el diseño de tus componentes. Te irás con las herramientas, técnicas y principios que necesitas para implementar pruebas de componentes de bajo costo y alto valor.
Tabla de contenidos- Los diferentes tipos de pruebas de aplicaciones de React, y dónde encajan las pruebas de componentes- Un modelo mental para pensar en las entradas y salidas de los componentes que pruebas- Opciones para seleccionar elementos DOM para verificar e interactuar con ellos- El valor de los mocks y por qué no deben evitarse- Los desafíos con la asincronía en las pruebas de RTL y cómo manejarlos
Requisitos previos- Familiaridad con la construcción de aplicaciones con React- Experiencia básica escribiendo pruebas automatizadas con Jest u otro marco de pruebas unitarias- No necesitas ninguna experiencia con la Biblioteca de Pruebas de React- Configuración de la máquina: Node LTS, Yarn
IA a demanda: IA sin servidor
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
IA a demanda: IA sin servidor
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
En esta masterclass, discutimos los méritos de la arquitectura sin servidor y cómo se puede aplicar al espacio de la IA. Exploraremos opciones para construir aplicaciones RAG sin servidor para un enfoque más lambda-esque a la IA. A continuación, nos pondremos manos a la obra y construiremos una aplicación CRUD de muestra que te permite almacenar información y consultarla utilizando un LLM con Workers AI, Vectorize, D1 y Cloudflare Workers.