top of page

LLMs en Local (VII): MSTY

  • josejotxe
  • 18 oct
  • 3 Min. de lectura

Actualizado: 21 oct

1. Introducción

En esta serie hemos explorado cómo ejecutar LLMs en local desde diferentes dispositivos: interfaces gráficas como LM Studio o GPT4All, alternativas ligeras como Ollama, extensiones navegador con Page Assist y movilidad con Google AI Edge Gallery.

Ahora presentamos MSTY, una plataforma que unifica lo mejor del entorno local y en la nube, con una poderosa experiencia gráfica disponible tanto en escritorio como en navegador.

Disponible para Windows, macOS, Linux y web, MSTY se define así: "Simple. Powerful. Private." https://msty.ai/


2. ¿Qué es MSTY y por qué es interesante?

MSTY Studio facilita la ejecución de modelos LLM locales o en la nube dentro de una interfaz unificada — sin registros obligatorios y con enfoque en la privacidad.


Características principales:

  • Privacidad: cero telemetría y todo en local.

  • Detección automática de modelos en Ollama.

  • Soporte para RAG mediante estructuras denominadas Knowledge Stacks.

  • Comparativa visual de modelos basada en tus recursos.


3. Ventajas principales

Ventaja

Descripción

Interfaz intuitiva

Accesible para todos los niveles de usuario.

Integración con Ollama

MSTY detecta y reutiliza modelos locales sin configuraciones manuales.

RAG con Knowledge Stacks

Permite contextualizar al modelo con documentos locales.

Comparación visual

Interfaz clara para elegir el modelo ideal.

Privacidad avanzada

Toda la información procesada permanece en tu dispositivo.

4. Instalación y primeros pasos

  1. Ve al sitio oficial y descarga la versión correspondiente para tu sistema operativo 

    1. Hay versión para Windows, Mac y Linux.

  2. Ejecuta el instalador.

  3. Al arrancarlo por primera vez deberás seleccionar un modelo LLM que se descargará para empezar a usar Msty.

    MSTY - selección de modelo inicial
    MSTY - selección de modelo inicial
  4. Si tienes Ollama, MSTY lo detectará automáticamente, así que otra opción es usar directamente los modelos descargados para Ollama.

    MSTY - Ollama
    MSTY - Ollama
  5. Desde la interfaz principal puedes descargar modelos y crear tu primera conversación.

    Screenshot MSTY - Interfaz
    MSTY - Interfaz

5. Funcionalidades clave

5.1 Modelos Online y Locales

Descarga modelos tanto locales como en la nube desde la interfaz.

Screenshot: MSTY - Local AI Models
MSTY - Local AI Models

Desde el interfaz puedes escoger el modelo que quieras y "jugar" con los parámetros del modelo

Screenshot: MSTY - Modelos y parámetros
MSTY - Modelos y parámetros

5.2 Knowledge Stacks (RAG)

Carga documentos (PDF, CSV, JSON, YouTube, etc.) y crea una "colección de conocimiento" para alimentar el contexto de tus conversaciones.


La idea es:

  1. Agrupar tus fuentes → Puedes añadir varios tipos de documentos en un mismo stack (PDFs, notas de Obsidian, carpetas enteras, transcripciones, etc.).

  2. Crear un espacio de conocimiento personalizado → Cada stack se convierte en un repositorio temático (por ejemplo: “Curso de IA”, “Proyecto de trabajo”, “Notas de estudio de historia”).

  3. Chatear con el stack → Una vez creado, puedes usar el modelo de IA para hacerle preguntas directamente sobre ese conjunto de información.

    • Ejemplo: Si subes todos tus apuntes de un curso, luego puedes preguntarle a la IA: “Explícame el tema 3 con ejemplos prácticos” y responderá basándose solo en esos archivos.


Screenshot: MSTY - Knowledge Stacks
MSTY - Knowledge Stacks

También puedes añadir directamente un documento a la conversación.


Screenshot: MSTY - Attach Images and Documents
MSTY - Attach Images and Documents

5.3 Split Chats: múltiples modelos a la vez

Esta potente funcionalidad permite dividir una ventana de chat para conversar simultáneamente con diferentes modelos. Es ideal para comparar respuestas o asignar tareas complementarias a cada modelo

  • Cómo usarlo: clic en "Add Split Chat" o usa el atajo Ctrl+T (Windows) / Cmd+T (Mac) para crear un nuevo chat dividido

  • Sincronización opcional: los prompts se duplican automáticamente en todas las vistas, pero puedes desactivar esa función si lo deseas.


Screenshot: MSTY - múltiples modelos a la vez
MSTY - múltiples modelos a la vez

Esto convierte a MSTY en una herramienta ideal para comparar formatos o evaluar el desempeño de distintos LLMs en una tarea


5.4 Otras funcionalidades de MSTY

Veamos aquí otras funcionalidades de esta potente herramienta:

  • "Visual map of your conversations": Te permite ver visualmente el flujo de tus conversaciones con el modelo

Screenshot: MSTY - mapa visual de tus conversaciones con el modelo
MSTY - mapa visual de tus conversaciones con el modelo
  • "Prompts Library": Msty tiene una libreria de "prompts" de todo tipo que puedes usar, e incluso añadir tus propias prompts a la librería.

Screenshot: Prompts Library
MSTY - Prompts Libray
  • "Workspaces": permite crear, guardar y cargar diferentes entornos de trabajo, para poder mantener organizadas tus conversaciones y proyectos.

Screenshot: MSTY - Workspaces
MSTY - Workspaces

6. Conclusión

MSTY se posiciona como una de las plataformas locales más completas: fácil de usar, visual e intuitiva. Ofrece la combinación perfecta entre modelo local y en la nube, herramientas como Split Chats o RAG, y un compromiso firme con la privacidad. Si quieres una experiencia completa sin complicaciones, MSTY es tu mejor opción.


7. Recursos adicionales

Comentarios


© 2025 by Lozkorp                                                         

bottom of page