Esta masterclass introduce cómo usar LLMs de código abierto on-premise para un mejor control de datos, privacidad y eficiencia de costos. Destaca Ollama para la gestión simplificada de LLM (descarga, ejecución de modelos offline) y FastAPI para un alojamiento local eficiente, permitiendo un desarrollo rápido de API e integración sin problemas. Este enfoque combinado ofrece una seguridad superior, cumplimiento normativo y personalización en comparación con las soluciones basadas en la nube.
This workshop has been presented at TechLead Conf London 2025: Adopting AI in Orgs Edition, check out the latest edition of this Tech Conference.












Comments