Si bien un chatbot tiene un componente interactivo, sigue siendo solo una parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información en su sitio web. No importa si la información proviene de una página estática o de un chatbot. Si bien las apuestas aún eran relativamente bajas en este caso, Air Canada solo tuvo que pagar alrededor de 812 dólares canadienses. El precedente que establece este caso legal es realmente importante. Y hablando de tribunales, un juez de Manhattan impuso una multa de 5.000 dólares a dos abogados, Peter DeLuca y Stephen Schwartz, que utilizaron ChatGPT para generar un informe legal para su demanda de 2023, que resultó incluir seis citas de casos ficticias. En este caso, las alucinaciones de ChatGPT, o la IA afirmando con confianza información incorrecta como hecho, los metieron en serios problemas. Es importante destacar que esto es diferente al primer caso con la concesionaria de Chevrolet, donde la IA fue manipulada para devolver información falsa. En este caso, los abogados simplemente hicieron una pregunta y recibieron información falsa incorrecta a cambio. Además de la multa y las sanciones a los abogados, y también quizás más importante, el juez desestimó por completo su demanda.
Y, por supuesto, no todo es tan claro y obvio como un chatbot que proporciona información incorrecta en términos de hechos. A veces no se trata de una sola pieza de contenido, sino de tendencias y sesgos que solo son perceptibles cuando observamos grandes muestras de material de salida de IA a lo largo del tiempo. Por ejemplo, The Conversation, una organización de noticias independiente sin fines de lucro, examinó más de 100 imágenes generadas a mitad del viaje durante seis meses y encontró varios sesgos recurrentes. Esto incluía el edadismo y el sexismo, donde las imágenes tenían más probabilidades de mostrar a hombres mayores en puestos directivos, y solo incluían signos de envejecimiento como arrugas o cabello gris en representaciones de hombres. También encontraron signos de sesgo racial en lo que describen como una suposición de blancura. Probaron los resultados para los títulos periodista y reportero y descubrieron que, cuando no se especificaba la raza en la indicación, las imágenes resultantes representaban exclusivamente a personas de piel clara. También existen sesgos en torno al urbanismo, donde la IA tiende a ubicar a todas las personas en ciudades en lugar de áreas rurales, a pesar de que solo aproximadamente la mitad de la población mundial vive en una ciudad. Entonces, ¿qué podemos hacer para ayudar a mitigar algunos de estos problemas?
En este momento actual, es justo suponer que cualquier tecnología de IA de generación que estemos incorporando en nuestras aplicaciones tiene la posibilidad, el potencial, de devolver estas alucinaciones, sesgos, información incorrecta y otras deficiencias similares. No podemos simplemente ignorar esa realidad. Pero ¿eso significa que tenemos que desechar todo y alejarnos? No necesariamente. En un artículo de octubre de 2023 que arroja luz sobre el sesgo de la IA con ejemplos del mundo real, IBM afirma que identificar y abordar el sesgo en la IA comienza con la gobernanza de la IA, o la capacidad de dirigir, gestionar y supervisar las actividades de la IA de una organización. Tenga en cuenta que tampoco están sugiriendo que tiremos al bebé con el agua sucia aquí. Más bien, recomiendan la inclusión de puntos de control humanos, la participación humana en los procesos que combinamos con estas herramientas de IA. Han creado la siguiente lista de prácticas para implementar éticamente la IA. Primero, el cumplimiento. Las soluciones de IA y las decisiones relacionadas con la IA deben ser coherentes con las regulaciones de la industria y los requisitos legales pertinentes. Este es, por supuesto, el punto de partida. Todo lo que construyamos con IA debe estar dentro de los límites de la ley. Por supuesto, esto se vuelve un poco más complejo cuando se está construyendo un producto global, como muchos de nosotros lo estamos haciendo, y porque estas leyes están cambiando bastante rápido. En la Unión Europea, el Parlamento, la Comisión y el Consejo llegaron a un acuerdo político sobre la Ley de Inteligencia Artificial en diciembre del año pasado, que, en este momento, parece ser el
Comments