Dicho esto y teniendo eso en cuenta, lo que quiero mostrarles hoy es cómo pueden configurar un LLM, como OpenAI, para chatear con sus propios datos.
Entonces, bien. Hasta ahora, cómo nos comunicamos con modelos LLM como OpenAI o LLAMA o cualquier otro modelo, simplemente hacemos algunas preguntas, tenemos un usuario, él tiene una pregunta y el modelo nos responderá. Pero el problema aquí es que si tenemos algunos datos propietarios, el modelo, desafortunadamente, no está entrenado con esos datos y no sabrá cómo responder a su pregunta.
Vi un ejemplo muy claro de esto estos días. Por ejemplo, si quieres preguntar sobre algunas políticas de tu empresa, por ejemplo, los días de vacaciones que tienes, no puedes preguntarle a un modelo. Tienes que ir a las directrices internas y políticas de tu empresa o a RRHH y tienes que preguntarle a una persona y tienes que invertir tiempo en todo este proceso de ida y vuelta. Entonces, lo que realmente podemos hacer es encontrar una manera de proporcionar los datos propietarios y dar un contexto al modelo para ayudarnos a hacer este tipo de preguntas.
Ahora hay algunos enfoques que podemos tomar. En primer lugar, quiero enfatizar cuando digo datos propietarios, algunos de ustedes probablemente piensen directamente en preocupaciones de privacidad. Entonces hay dos cosas que pueden hacer aquí. Si les preocupa la privacidad de sus datos, pueden usar un modelo que alojen ustedes mismos. Por ejemplo, pueden obtener modelos Lama tres que son de código abierto. Pueden alojarlos en cualquier proveedor de nube y así se aseguran de que sus datos nunca salgan de este entorno y esta arquitectura. Así tienen un control total y total privacidad para este masterclass. Yo uso Open AI solo por conveniencia porque ya es público. Ya está ahí y no tengo que invertir tiempo en configurarlo. Pero tengan en cuenta que si quieren total privacidad, pueden alojar su propio modelo. Pero no todos los datos propietarios son también datos sensibles. Así que en realidad podemos tener una documentación pública para un proyecto de código abierto y cosas como esa, que simplemente podemos proporcionar a un modelo de terceros. Así que no tienen que preocuparse por eso todo el tiempo.
Volviendo a la presentación y al enfoque en sí, lo primero que se me ocurre es que podemos ajustar finamente el modelo con los datos propietarios. Pero desafortunadamente, aunque esto es lo mejor que podemos hacer, porque entonces el modelo conocerá nativamente las cosas sobre los datos, esto es muy costoso y requiere experiencia en aprendizaje automático. Ajustar finamente es realmente un arte y tienes que saber cómo hacerlo para hacerlo correctamente. Y también tienes que tener muchos datos propietarios porque de lo contrario, si no tienes muchos datos sobre el tema, realmente no marcará la diferencia en el modelo en sí porque el modelo es enorme. Conoce muchos datos. Entonces, si solo agrego algunas oraciones sobre un tema en particular, se perderán en todos los datos que ya están allí. Entonces, para este tipo de aplicación, el ajuste fino puede que no sea realmente una solución. Así que podemos seguir y hacer el enfoque ingenuo y poner todos los datos propietarios en la propia solicitud. Así que antes de hacer una pregunta, podemos decirle al modelo, aquí están todos los datos de mi empresa, todas las directrices o todas las políticas.
Comments