Hoy en día, la mayoría de las aplicaciones de IA envían datos a proveedores de nube LLM como OpenAI, lo que genera preocupaciones de privacidad. Esta masterclass ofrece una forma alternativa y enfocada en la privacidad para construir aplicaciones de IA ejecutando LLMs localmente con Ollama, manteniendo todo local en tu computadora. Este enfoque permite evitar enviar información sensible a servidores externos. La masterclass también destaca la capacidad de LangChain para crear agentes de IA versátiles capaces de manejar tareas de manera autónoma creando embeddings para los datos. Así que ven a aprender cómo puedes construir la próxima generación de aplicaciones React enfocadas en la privacidad impulsadas por LLMs locales.
La masterclass cubre los siguientes temas:
1.Visión general de los problemas de privacidad de los LLMs basados en la nube y la importancia de ejecutar inferencias de LLMs locales.
2.Insights detallados sobre la generación de embeddings con herramientas como Ollama y demostración de cómo los agentes de LangChain pueden realizar tareas como la resumisión de documentos e interacciones con APIs, todo mientras se mantiene la privacidad de los datos en una aplicación NextJS / React.
3.Descubrimiento de casos de uso prácticos para este enfoque.
This workshop has been presented at React Day Berlin 2024, check out the latest edition of this React Conference.
Comments