

LLMs en Local (VII): MSTY
Descubre MSTY, la plataforma que unifica el uso de LLMs locales y en la nube con una interfaz intuitiva, privacidad total y funciones avanzadas como Split Chats y Knowledge Stacks.


LLMs en Local (V): Page Assist – Tu asistente local integrado en el navegador
Descubre Page Assist, la extensión de navegador que conecta con Ollama para chatear, resumir páginas y analizar documentos con IA local, directamente en tu web.


LLMs en Local (III): Open WebUI
Descubre cómo instalar y usar Open WebUI desde Pinokio para ejecutar LLMs en local con máxima flexibilidad, extensiones y control avanzado.


LLMs en Local (II): Ollama
Descubre cómo usar Ollama, la herramienta más sencilla para ejecutar modelos de lenguaje en local desde la terminal. Instalación rápida, comandos básicos y API lista para integrar.


LLMs en Local (I): LM Studio
Descubre cómo empezar a usar modelos de lenguaje de forma local en tu ordenador. Aprende qué es un LLM, sus ventajas frente a la nube y cómo instalar y utilizar LM Studio, incluyendo un caso práctico con los nuevos modelos open-source de OpenAI.


Ecosistema LLM
Descubre el fascinante universo de los modelos de lenguaje (LLM) más allá de ChatGPT. En este post te mostramos las principales plataformas conversacionales actuales, un árbol genealógico de LLMs y los papers clave que han marcado su evolución. Ideal para quienes quieren entender cómo ha crecido este ecosistema y cómo aprovecharlo hoy mismo.




















