

LLMs en Local (III): Open WebUI
Descubre cómo instalar y usar Open WebUI desde Pinokio para ejecutar LLMs en local con máxima flexibilidad, extensiones y control avanzado.


LLMs en Local (II): Ollama
Descubre cómo usar Ollama, la herramienta más sencilla para ejecutar modelos de lenguaje en local desde la terminal. Instalación rápida, comandos básicos y API lista para integrar.


LLMs en Local (I): LM Studio
Descubre cómo empezar a usar modelos de lenguaje de forma local en tu ordenador. Aprende qué es un LLM, sus ventajas frente a la nube y cómo instalar y utilizar LM Studio, incluyendo un caso práctico con los nuevos modelos open-source de OpenAI.




















