Video Summary and Transcription
La charla de hoy cubre la internacionalización con el Paquete de Lenguaje Potenciado y aprovechando las capacidades de IA. Se enfatiza la importancia de planificar roles y flujos de trabajo de IA, personalizar el contenido localmente y comprender diferentes tipos de contenido. El proceso de traducción implica análisis lingüístico, instrucciones precisas del sistema y experimentación con diferentes métodos de comunicación. El flujo de trabajo incluye el uso de Express Server y Storybook para traducciones, la conexión de metadatos con la interfaz de usuario e integrar tecnología de IA de manera responsable para obtener resultados eficientes y efectivos.
1. Introducción a la Internacionalización y la IA
Hoy hablaré sobre la internacionalización con el Paquete de Lenguaje Potenciado y cómo hacer que la IA funcione para ti. Comenzaremos por delimitar el alcance y comprender la importancia de planificar los roles y flujos de trabajo de la IA. También te mostraré cómo personalizar completamente el contenido localmente con OpenAI. Además, exploraremos las diferencias entre los tipos de contenido y cómo lograr el mismo objetivo al trabajar con diferentes tipos de contenido.
Hola a todos, mi nombre es Cynthia y hoy hablaré sobre la internacionalización con el Paquete de Lenguaje Potenciado. En resumen sobre mí, soy ingeniera de software y líder técnica en la empresa InterTech con sede en Berlín. Trabajo en la Ready School of Digital Integration donde enseño los fundamentos del desarrollo web. También soy miembro de varias comunidades y gremios de ingeniería, y trabajo en estrecha colaboración con equipos internacionales. Mi motivación para trabajar con las traducciones y hablar sobre ello hoy es realmente intentar desafiar la escalabilidad del negocio y la tecnología a través de la localización para hacer que los productos y el contenido sean accesibles a nivel mundial, así como introducir la localización en los fundamentos web. Al comienzo del viaje de desarrollo, es muy importante aprender cómo implementar correctamente dentro de las organizaciones. Por lo tanto, hoy intentaremos responder una pregunta, ¿cómo hacer que la IA funcione para ti? Y el comienzo de este proceso es delimitar el alcance. Las máquinas no aprenden como los seres humanos, sino que mejoran gradualmente su capacidad y precisión, de modo que cuanto más datos se les alimente, mayores probabilidades tendrán de recibir la respuesta correcta. Por lo tanto, es importante delimitar el alcance a un problema y una tarea al planificar los roles y flujos de trabajo de la IA, así como modelar el proceso en sí mismo. Y las tareas que consumen mucho tiempo y mano de obra y que son estandarizadas son especialmente propicias para la automatización mediante la IA. Los sistemas de gestión de contenido suelen estar limitados por las integraciones disponibles para la localización y el número de ubicaciones. Por lo tanto, hoy te mostraré cómo personalizar completamente el contenido localmente con OpenAI sin depender de ningún sistema externo de gestión de contenido. Por lo tanto, es importante distinguir tres flujos para cada tipo de contenido para comprender cuáles son las principales diferencias, cuáles son las funciones comunes y cómo podemos lograr el mismo objetivo al tener diferentes tipos de contenido en la aplicación. Porque al final, no estamos trabajando solo con un tipo de contenido, probablemente estemos cruzando más de uno al construir nuevos productos.
2. Proceso de Traducción e Instrucciones del Sistema
Al traducir diferentes archivos, debemos supervisar el nivel de contenido y comprender los límites. Los componentes de traducción difieren entre los formatos Markdown y JSON. El procesamiento del lenguaje natural realiza un análisis lingüístico para comprender el significado de las oraciones y las palabras. Las instrucciones precisas del sistema son esenciales para obtener resultados precisos. La comunicación a través de la API requiere precisión estricta, mientras que el chat abierto permite experimentación. En Node.js, podemos usar claves dinámicas diferentes para cada tipo de contenido, y herramientas como Storybook se pueden utilizar para automatizar las traducciones.
Entonces, al traducir diferentes archivos, debemos supervisar el nivel de contenido para comprender los límites y planificar cómo traducir los diferentes archivos y dónde comenzar básicamente. Entonces, cuando observamos los principales tipos de contenido, vemos los componentes comunes de traducción, que son los valores de texto. Para Markdown, es todo el texto que podemos pasar directamente. Digamos que si comenzamos a usar JGPT, pasaríamos todo este texto al comando y pediríamos al traductor que solicite a OpenAI que lo traduzca. Pero cuando se trata de JSON, probablemente queramos mantener las claves del objeto en el mismo idioma y traducir solo los valores. Por lo tanto, hay excepciones tanto en el formato JSON como en el encabezado YAML. En el encabezado YAML, probablemente sería el bloque del encabezado y las claves del encabezado que también nos gustaría mantener en el mismo idioma y traducir los valores. Probablemente, si habláramos con JGPT, le diríamos que no traduzca las secciones de título y descripción, sino que traduzca todo el Markdown y los valores de las claves. Entonces, cuando se trata de traducciones con el procesamiento del natural language|lenguaje natural, hay diferencias entre las traducciones humanas o las traducciones realizadas por AI|IA. Y para extraer el máximo valor de los datos entrantes y que sea útil para sus propósitos, primero debemos analizarlo y asegurarnos de ello. Por lo tanto, el procesamiento del natural language|lenguaje natural entra en juego y realiza un análisis lingüístico del texto en diferentes niveles de complejidad creciente. Entonces, en el nivel más bajo, el natural language|lenguaje natural realiza acciones para que las oraciones y las palabras sean comprensibles y comparables. Inicialmente, se utiliza la información para obtener una representación sintáctica y semántica de las oraciones y su significado. Y el objetivo final es que el sistema obtenga un contexto más profundo de las palabras y las oraciones individuales. Entonces, al trabajar con OpenAI, entre las instrucciones del nivel del sistema o las instrucciones de JGPT, es importante destacar que JGPT puede ser bueno para las etapas iniciales de experimentación, cuáles son las instrucciones del nivel del sistema. Digamos que tenemos las instrucciones comunes, como el uso del idioma de origen, el idioma de destino, el formato del texto, asegurándonos de que la salida no tenga comentarios u otros detalles adicionales del texto extraídos exactamente. Por lo tanto, hay diferentes detalles que el sistema debe conocer. Y cuando trabajamos con la API de OpenAI, podemos construir sobre esto, y se puede realizar un análisis dependiente del dominio de la aplicación a través del reconocimiento de sentimientos y objetivos, lo que permite que el procesamiento del natural language|lenguaje natural detecte la polaridad de las oraciones, ya sea negativa, positiva o neutral, y el objetivo correspondiente en las instrucciones del nivel del sistema. Por lo tanto, es importante definir claramente las reglas basadas en el nivel de contenido para que el sistema nos devuelva exactamente la misma salida que esperamos y nada más. Y cuando las instrucciones del sistema se realizan con precisión, mejorará las funciones analíticas, pero sin aumentarlas en exceso. Y también aumentará la eficiencia de las operaciones debido a la disminución del tiempo invertido en adquirir la información al final. Por lo tanto, es muy importante ser preciso en este nivel al comunicarse a través de la API. Pero puede ser menos estricto a través del chat abierto, donde no tenemos los costos adicionales del precio, el costo de usar la API, por lo que para experimentar, ChatGPT es ideal. Entonces, cuando trabajamos con Node.js, el proceso es muy simple. Usamos el idioma de origen y de destino y pasamos diferentes claves dinámicas específicas para cada tipo de contenido. Y en este ejemplo, estoy usando solo un mensaje para los tres tipos de contenido, ya sea JSON para traducir páginas con encabezado o simplemente Markdown. Algunos términos generales también funcionan. Y también la última parte sobre JSON, el formato se puede excluir para este proyecto, para este ejemplo, porque también me aseguro de analizar los datos en la capa intermedia, donde realmente estamos recuperando el contenido y asegurándonos de que sea analizable al final. Entonces, al automatizar las traducciones, primero con un marcado de trabajo, necesitamos usar algún tipo de interfaz. Para el propósito de la demostración, estoy usando
3. Flujo de Trabajo de Traducción e Integración de IA
Se utilizan Express Server y middleware para trabajar con traducciones. Storybook proporciona herramientas útiles para especificar los idiomas objetivo. La traducción de markdown y componentes implica leer y validar el contenido, traducirlo a través de la API y guardarlo nuevamente. El front matter conecta los metadatos con la interfaz de usuario. La automatización inteligente puede brindar beneficios económicos y mejorar la eficiencia, pero la intervención humana sigue siendo necesaria. Las estrategias precisas de versionado y explicabilidad son esenciales. La integración responsable de la tecnología de IA puede resolver problemas y evitar la complejidad.
con el middleware en Node.js. Por lo tanto, utiliza Express Server y podemos trabajar directamente con el middleware. Para la interfaz de usuario, el Storybook tiene herramientas útiles como tipos globales donde podemos especificar los idiomas objetivo. Así que tenemos, digamos, el idioma de origen siempre disponible. Para cualquier caso, cuando tenemos una aplicación con componentes o con las páginas que tenemos en el idioma de origen, y nos gustaría traducirlo del idioma A al idioma B, podemos listarlos en la navegación y seleccionarlos, y luego se activará la acción de traducir el contenido a través de las APIs. Por lo tanto, en algún lugar de la vista previa, si es un storybook, si es una aplicación, en algún lugar entre los componentes, esta función, que lee el contenido de origen y se asegura de que el contenido exista, si existe, lo traduce y luego lo guarda en el nuevo archivo en la misma estructura de carpetas. Por lo tanto, la traducción del markdown es muy sencilla. Simplemente pasamos el contenido, el idioma de origen y el idioma objetivo, luego lo traducimos a través de la API. Y cuando se trata de las traducciones de componentes, el proceso es similar, excepto que esta función debe validar si es una cadena para un markdown, si es JSON, entonces es un objeto. Y luego, al trabajar con un archivo de markdown o componentes, el proceso es muy similar. Y con el front matter, es un poco diferente. Tenemos este componente controlador envuelto alrededor de la historia principal o el componente principal, que básicamente extrae los metadatos del front matter y se asegura de que se serialicen en los componentes HTML. Digamos que teníamos el título, la descripción y las secciones en el front matter, y nos gustaría que estos datos estén conectados con la interfaz de usuario. Entonces lo que podemos hacer es activar estas funciones principales desde la barra de herramientas cuando cambiamos entre los locales y luego pasar el contenido principal del idioma de origen, recuperar los metadatos del front matter y analizarlos en la UI. Por lo tanto, el front matter es como la conexión entre estas dos partes principales. La función sería similar al trabajar con la disponibilidad de docs, obtener componentes de archivo y usar la API en el medio donde lee el archivo con gray matter u otras bibliotecas similares, se puede analizar el contenido y luego recuperarlo de nuevo a nivel de componente o nivel de markdown, viceversa. Es flexible. Por lo tanto, la automatización inteligente puede brindar enormes beneficios económicos que pueden facilitar el manejo de fluctuaciones volátiles con escalabilidad posible a través de infraestructuras desplegables y arquitecturas de microservicios sin estado. Entonces, lo que quiero decir con infraestructuras desplegables en caliente es que no hay tiempo de inactividad al trabajar con los archivos localmente y establecer algún tipo de mecanismo para el sistema de versiones puede ser muy beneficioso, pero también debe hacerse con precisión para que el proceso sea más efectivo y controlado. Entonces, aunque el 99% de este trabajo se puede automatizar, siempre habrá este 1% que debe ser manejado por un colega traductor o equipo de marketing por humanos. Por lo tanto, esta última etapa debe ser pensada cuidadosamente con la integración en los flujos de trabajo y los procedimientos para no complicarlo demasiado. Y cuando se trata de la explicabilidad, se deben construir estrategias para garantizar los controles sólidos de las herramientas personalizadas construidas y salvaguardar todas las decisiones en torno al desarrollo y el equilibrio es equilibrar el rendimiento con la explicabilidad. Es mejorar el IA también beneficia tanto como sea posible a la sociedad. Y esto significa educar a las personas, educar a sus equipos utilizando esta tecnología puede resolver los problemas que se están creando. Pero también puede significar crear más problemas. Por lo tanto, hay una línea muy fina entre un objetivo que debe ser integrado de manera responsable en los flujos de trabajo. Si queremos evitar soluciones cada vez más complejas y niveles crecientes de desigualdad económica que surgen de una mayor brecha entre las habilidades y las aspiraciones de los especialistas que trabajan al integrar IA, pero también pueden mejorar las cosas y sobre mejorarlas.
Así que muchas gracias por escuchar hoy. Y el código está disponible en GitHub. Puedes contactarme en LinkedIn y muchas gracias por escuchar. Transcrito por https://otter.ai
Comments