Todos conocemos el ritual: agregar una dependencia, confiar en ella implícitamente, enviarla a producción. Durante años, eso funcionó bastante bien. Pero ahora los ataques han comenzado a volverse más inteligentes.
Los ataques a la cadena de suministro que apuntan al ecosistema npm ya no son teóricos. Paquetes maliciosos que roban credenciales, secuestran variables de entorno o exfiltran datos silenciosamente a través de HTTP están apareciendo en aumentos de versiones menores. La mayor fortaleza del ecosistema de JavaScript, su apertura, se ha convertido en su mayor responsabilidad.
Y luego entregamos nuestros teclados a la IA.
Los asistentes de IA son, por supuesto, útiles. Pero introducen una nueva categoría de riesgo: código que no escribiste, no entiendes completamente y que quizás nunca revises lo suficiente. Los modelos pueden filtrar claves de API en la salida generada, el código escrito por IA puede eliminar archivos accidentalmente, su código puede realizar llamadas de red no intencionadas, o peor. Y si alguien ha contaminado los datos de entrenamiento, tu IA podría hacer esto a propósito.
En esta charla, recorreremos ejemplos reales de vectores de amenaza, demostraremos cómo el sistema de permisos de Deno puede detener un ataque a la cadena de suministro en seco y exploraremos cómo el sandboxing de la ejecución de tu código puede proporcionarte un entorno genuinamente seguro para ejecutar código generado por IA sin la sobrecarga de levantar infraestructura Docker.
Te irás con una imagen más clara del panorama de amenazas y herramientas prácticas para ejecutar código en el que quizás no confíes.
This talk has been presented at Node Congress 2026, check out the latest edition of this JavaScript Conference.

























Comments