Así que no sé si has tenido las noticias o has visto alguna situación particular donde un LLM te ha devuelto la respuesta incorrecta. Sé que ciertamente yo sí. Los LLMs inventan cosas. No es, ya sabes, esto no es digno de noticias. Esto es algo que hemos sabido durante mucho tiempo. Y los LLMs alucinan porque por varias razones clave. En primer lugar, se debe a la base de conocimiento que tienen, de la cual están entrenados. Así que, por ejemplo, podrían no estar entrenados en la información propietaria sobre la que estás construyendo sistemas agénticos para tomar decisiones críticas clave o para interactuar con los usuarios, y quieres asegurarte de que van a proporcionar las respuestas correctas sobre datos que no han sido entrenados.
Además, si estás construyendo algo usando un modelo más antiguo que quizás tiene una fecha de corte de conocimiento de, digamos, noviembre de 2025, si intentamos hacerle preguntas sobre lo que ha estado sucediendo en política durante la última semana, no lo va a saber y probablemente inventará una respuesta, o podría, si tienes suerte, venir y decir, no lo sé. Cuando se trata de elecciones de modelos, también tenemos problemas como el sobreajuste y términos de aprendizaje automático. Esto es básicamente donde los parámetros de un modelo son demasiado estrictos y no tienen la flexibilidad para realizar la tarea que hemos pedido al modelo particular que haga. El tercero es sobre los sesgos. Así que esto, nuevamente, es algo con lo que podrías haberte encontrado que los sesgos inherentes en el conjunto de datos en el que estos modelos particulares han sido entrenados, no solo en términos de género, sino también otras características pueden llevarlos a producir respuestas que no son necesariamente del todo correctas. Y si realmente discriminan, pueden terminar metiéndonos en problemas con respecto a reputación o problemas legales.
Está el hecho de que el idioma inglés e incluso a veces otros idiomas tienen ambigüedad dentro de ellos y eso puede confundir a un LLM, aunque se está volviendo menos y menos común. Y luego está esta cosa interesante llamada olvido catastrófico, que es donde espontáneamente un LLM simplemente olvida grandes oleadas de datos de entrenamiento y algo sale absolutamente desastrosamente mal. Pero una de las otras cosas que necesitamos tener en cuenta cuando se trata de alucinaciones es que los modelos alucinan porque han sido incentivados para hacerlo. Así que si miras este documento de algunos de los investigadores de OpenAI y Georgia Tech de septiembre del año pasado, verás que presentan el caso de que los procedimientos de entrenamiento y evaluación recompensan a un LLM por adivinar y darnos una respuesta en lugar de reconocer la incertidumbre y simplemente decir, no lo sé. Y necesitamos estar atentos a estos.
Comments