Los desarrolladores han pasado a toda máquina de la programación tradicional a los asistentes de código de IA y la programación por vibraciones, pero ¿dónde deja eso la seguridad de las aplicaciones? ¿Cuáles son los riesgos de que los LLMs introduzcan código inseguro y aplicaciones de IA manipuladas a través de la ingeniería de prompts para eludir los controles de seguridad?
En una serie de demostraciones de hacking de aplicaciones del mundo real, demostraré cómo los desarrolladores confían erróneamente en los LLMs en asistentes de código generativo de IA que introducen código inseguro y resultan en aplicaciones vulnerables que los atacantes explotan fácilmente contra ti. No nos detenemos aquí. Aplicaremos ataques adversariales a redes neuronales en forma de cargas útiles de inyección de prompts para comprometer LLMs integrados en flujos de trabajo de aplicaciones de IA y armarlos para inyección SQL y otros bypass de lógica de negocio.
Únete a mí en esta sesión donde aprenderás cómo las vulnerabilidades de seguridad como el recorrido de rutas, la contaminación de prototipos, la inyección SQL y otros riesgos de seguridad de IA están impactando a los LLMs y cómo aprovechar los rieles de seguridad de IA para asegurar el código GenAI.
This talk has been presented at JSNation US 2025, check out the latest edition of this JavaScript Conference.






















Comments