Las herramientas de desarrollo impulsadas por AI son excelentes para ayudarnos a entregar código más rápidamente. Sin embargo, basándome en mi amplia experiencia en automatización de pruebas y gestión de identidad, he notado que estas herramientas también pueden introducir problemas de seguridad sutiles que podrían incluso impresionar a Skynet.
En esta sesión, discutiré ejemplos del mundo real donde los asistentes de AI han trabajado inadvertidamente en contra de los desarrolladores, destacando casos de filtraciones de datos, ataques a la cadena de suministro y vulnerabilidades de inyección de prompts. Aprenderás estrategias efectivas para identificar problemas de seguridad generados por AI antes de que te afecten. Después de todo, si Skynet alguna vez despierta, asegurémonos de que no sea debido a una función generada por AI no probada que lo activó.
This talk has been presented at React Summit 2025, check out the latest edition of this React Conference.
Comments