58 min
On-Premise Open-Source LLMs con Ollama & FastAPI
WorkshopFree
Esta masterclass introduce cómo usar LLMs de código abierto on-premise para un mejor control de datos, privacidad y eficiencia de costos. Destaca Ollama para la gestión simplificada de LLM (descarga, ejecución de modelos offline) y FastAPI para un alojamiento local eficiente, permitiendo un desarrollo rápido de API e integración sin problemas. Este enfoque combinado ofrece una seguridad superior, cumplimiento normativo y personalización en comparación con las soluciones basadas en la nube.





