LLMs en Local (IV): GPT4All
- josejotxe
- 23 ago
- 3 Min. de lectura
1. Introducción: Por qué GPT4All
Habiendo descubierto cómo usar herramientas como LM Studio, Ollama y WebUI para ejecutar modelos en local, ahora toca explorar GPT4All, una aplicación de escritorio similar a LM Studio pero con un enfoque que prioriza la privacidad, facilidad de uso y opciones potentes como LocalDocs. Es ideal para quienes desean una experiencia tipo “ChatGPT local” sin complicaciones técnicas.
2. ¿Qué es GPT4All y quién lo desarrolla?
GPT4All es una aplicación de código abierto creada por Nomic AI que permite ejecutar modelos de lenguaje de forma totalmente local, sin necesidad de conexión a internet ni envío de datos a la nube
3. Ventajas principales
Privacidad total: tus chats y documentos nunca salen de tu dispositivo
Funciona sin internet y sin GPU: compatible con CPUs modernas (M- series, AMD, Intel)
LocalDocs: capacidad de alimentar al modelo con archivos locales (PDF, textos, etc.) para respuestas contextualizadas
Interfaz intuitiva: ideal para usuarios no técnicos, con descarga de modelos y chat listos desde el primer arranque
Ecosistema abierto y extensible: API, Python SDK, más de 1000 modelos disponibles.
4. Instalación rápida
Descarga el instalador para tu sistema operativo (Windows, macOS, Linux) desde la web oficial https://www.nomic.ai/gpt4all
Ejecuta el instalador; luego abre la aplicación.

GPT4All - Abriendo la aplicación por primera vez Pulsa Start Chatting, ve a Add Model, descarga un modelo y dirígete a Chats para cargarlo.
5. GPT4All: Uso básico
Descarga de modelos: Pestaña "Models"
Ve a la pestaña "Models" y pulsa el botón "Add Models" para añadir un modelo
A modo de ejemplo vamos a descargar el modelo "Mistral Instruct"
Seleccionamos el modelo que queremos descargar y damos a "Download"
Los modelos se descargan y almacenan por defecto en
C:/Users/usuario/AppData/Local/nomic.ai/GPT4All/
Esta ubicación se puede modificar en "Settings - Download Path"

Chatear con modelos: Pestaña "Chats"
Una vez que ya tenemos descargado al menos un modelo podemos empezar a "chatear".
Ve a la pestaña "Chats" y desde ahí ya podrás chatear con tu modelo descargado.

GPT4All - Chat
6. GPT4All: LocalDocs
LocalDocs: el modelo puede leer y responder basándose en documentos que subas desde tu ordenador
Ve a la pestaña "LocalDoc" y ahí podrás añadir una colección de documentos.
Le das un nombre y la ubicación donde están los documentos de esa colección

GPT4All - Crear una colección
Das al botón "Crear Collection" y empezará a leer los documentos ubicados en esa carpeta, creando embeddings de dichos documentos para luego poder usarlos en tus conversaciones con los modelos.

GPT4All - Colecciones
A la hora de chatear, podrás indicarle que use como contexto la colección de documentos que desees

GPT4All: Chat usando LocalDocs
7. Comparativa rápida
Herramienta | Facilidad de uso | Nivel de control | Extensiones | Privacidad |
LM Studio | Muy alta | Intermedio | Limitadas | Local |
GPT4All | Muy alta | Alto | LocalDocs | Local |
WebUI (Pinokio) | Intermedio | Muy alto | Amplio | Local |
GPT4All destaca por su equilibrio: interfaz sencilla, extensibilidad con LocalDocs, y un fuerte enfoque en mantener todo en local.
8. Conclusión
GPT4All es una solución excelente para quien busca una experiencia tipo ChatGPT sin dejar huella fuera de su equipo. Combina facilidad de uso, privacidad, integración con tus archivos y un ecosistema robusto de modelos y herramientas. Si quieres llevar tus LLMs en local al siguiente nivel con mínimo esfuerzo, esta es la opción.





















Comentarios