Y si hay una tolerancia muy alta, bueno, genial. Si realmente no obtienes mucho valor de la AI, entonces podrías tener algún tipo de colaboración híbrida. Tal vez algunas personas quieran usar AI para su trabajo particular. Otros no. Si no hay mucho valor en la AI y es una tolerancia muy alta, realmente no importa demasiado. Pero si hay un valor muy alto en usar AI y tiene una tolerancia muy alta, una tolerancia a la entropía muy alta, donde la inexactitud está bien, no va a ser el fin del mundo, no va a ser un gran riesgo para ti, para la organización, para el negocio, para lo que sea que estés liderando. Eso podría ser un proceso liderado por AI. Eso podría ser un proceso codificado por vibración. Así que al tener este marco de decisión, podemos tomar decisiones.
Por ejemplo, supongamos que la tarea que vamos a realizar es tratar con solicitudes de clientes para tickets de soporte en algún tipo de sistema de tickets que comienza con un chatbot. Entonces la pregunta es, ¿tolera este proceso la aleatoriedad? Bueno, podría depender de qué sistema es, qué tipo de tickets estamos recibiendo de los clientes. Si es un sistema bancario donde se están realizando transacciones financieras y recibimos un ticket de soporte porque algo salió mal con la transacción financiera, eso podría ser muy diferente de un ticket de soporte para algo mucho menos urgente. Entonces, sea lo que sea, digamos que decidimos como organización, como líderes, que es de tolerancia media, tenemos algo de flexibilidad, entonces la pregunta se convierte en, ¿cuál es el valor? Bueno, supongamos que el valor es muy alto, porque si añadimos AI y LLM para clasificar los tickets, tratar con los tickets, responder a los tickets, resaltar la urgencia, bueno, eso podría permitirnos tratar con otras cosas, otros problemas que son potencialmente más importantes y puede sacar a la luz las cosas realmente importantes en las que necesitamos enfocarnos.
Así que eso sería, para esto, tal vez decidirías que es una colaboración humano-en-el-bucle. Podríamos tener una AI tal vez como el primer nivel de interfaz con el cliente, pero permitir que el cliente lo actualice a un humano, o tal vez tener la AI categorizada por urgencia y luego tener humanos revisando dependiendo del nivel de urgencia, por ejemplo. Así que como podemos ver, al tomar esas decisiones, comenzando con la pregunta, ¿cuál es la tolerancia a la entropía, eso ayuda a definir cómo tratamos con AI dentro del proceso en sí. Hay otros ejemplos que podríamos pensar, de procesos de baja, media y alta tolerancia a la entropía. Por ejemplo, ¿cuáles podrían ser algunos procesos de baja tolerancia? Sistemas de diagnóstico médico, muy baja tolerancia a la inexactitud, procesamiento de transacciones financieras, muy baja tolerancia a números ligeramente incorrectos que no son deterministas, que no son consistentes.
Comments