Cada desarrollador de Node.js que añade AI a sus aplicaciones enfrenta la misma elección: pagar por APIs externas o lidiar con alguna inferencia local como Ollama (que también requiere llamadas a API). Pero hay una tercera opción de la que nadie está hablando: ejecutar inferencia de ML *dentro* de tu proceso de Node.js con Transformers.js. En esta charla, te mostraré cómo generar embeddings, clasificar texto y ejecutar LLMs con nada más que `npm install`. Sin claves de API, sin latencia de red, sin procesos separados. Solo JavaScript haciendo aprendizaje automático de la manera que debería ser: simple, rápido y completamente bajo tu control.
This talk has been presented at Node Congress 2026, check out the latest edition of this JavaScript Conference.






















