top of page

LLMs en Local (IV): GPT4All

  • josejotxe
  • 23 ago
  • 3 Min. de lectura

1. Introducción: Por qué GPT4All

Habiendo descubierto cómo usar herramientas como LM Studio, Ollama y WebUI para ejecutar modelos en local, ahora toca explorar GPT4All, una aplicación de escritorio similar a LM Studio pero con un enfoque que prioriza la privacidad, facilidad de uso y opciones potentes como LocalDocs. Es ideal para quienes desean una experiencia tipo “ChatGPT local” sin complicaciones técnicas.


2. ¿Qué es GPT4All y quién lo desarrolla?

GPT4All es una aplicación de código abierto creada por Nomic AI que permite ejecutar modelos de lenguaje de forma totalmente local, sin necesidad de conexión a internet ni envío de datos a la nube


3. Ventajas principales

  • Privacidad total: tus chats y documentos nunca salen de tu dispositivo

  • Funciona sin internet y sin GPU: compatible con CPUs modernas (M- series, AMD, Intel)

  • LocalDocs: capacidad de alimentar al modelo con archivos locales (PDF, textos, etc.) para respuestas contextualizadas

  • Interfaz intuitiva: ideal para usuarios no técnicos, con descarga de modelos y chat listos desde el primer arranque 

  • Ecosistema abierto y extensible: API, Python SDK, más de 1000 modelos disponibles.


4. Instalación rápida

  1. Descarga el instalador para tu sistema operativo (Windows, macOS, Linux) desde la web oficial https://www.nomic.ai/gpt4all

  2. Ejecuta el instalador; luego abre la aplicación.

    GPT4All - Abriendo la aplicación por primera vez
    GPT4All - Abriendo la aplicación por primera vez
  3. Pulsa Start Chatting, ve a Add Model, descarga un modelo y dirígete a Chats para cargarlo.


5. GPT4All: Uso básico

Descarga de modelos: Pestaña "Models"

  • Ve a la pestaña "Models" y pulsa el botón "Add Models" para añadir un modelo

  • A modo de ejemplo vamos a descargar el modelo "Mistral Instruct"

    • Seleccionamos el modelo que queremos descargar y damos a "Download"

  • Los modelos se descargan y almacenan por defecto en

    • C:/Users/usuario/AppData/Local/nomic.ai/GPT4All/

    • Esta ubicación se puede modificar en "Settings - Download Path"

GPT4All - Descargar modelos
GPT4All - Descargar modelos

Chatear con modelos: Pestaña "Chats"

  • Una vez que ya tenemos descargado al menos un modelo podemos empezar a "chatear".

  • Ve a la pestaña "Chats" y desde ahí ya podrás chatear con tu modelo descargado.

    GPT4All - Chat
    GPT4All - Chat

6. GPT4All: LocalDocs

LocalDocs: el modelo puede leer y responder basándose en documentos que subas desde tu ordenador 

  • Ve a la pestaña "LocalDoc" y ahí podrás añadir una colección de documentos.

    • Le das un nombre y la ubicación donde están los documentos de esa colección

    • GPT4All - Crear una colección
      GPT4All - Crear una colección
  • Das al botón "Crear Collection" y empezará a leer los documentos ubicados en esa carpeta, creando embeddings de dichos documentos para luego poder usarlos en tus conversaciones con los modelos.

    • GPT4All - Colecciones
      GPT4All - Colecciones

  • A la hora de chatear, podrás indicarle que use como contexto la colección de documentos que desees

    • GPT4All: Chat usando LocalDocs
      GPT4All: Chat usando LocalDocs

7. Comparativa rápida

Herramienta

Facilidad de uso

Nivel de control

Extensiones

Privacidad

LM Studio

Muy alta

Intermedio

Limitadas

Local

GPT4All

Muy alta

Alto

LocalDocs

Local

WebUI (Pinokio)

Intermedio

Muy alto

Amplio

Local

GPT4All destaca por su equilibrio: interfaz sencilla, extensibilidad con LocalDocs, y un fuerte enfoque en mantener todo en local.


8. Conclusión

GPT4All es una solución excelente para quien busca una experiencia tipo ChatGPT sin dejar huella fuera de su equipo. Combina facilidad de uso, privacidad, integración con tus archivos y un ecosistema robusto de modelos y herramientas. Si quieres llevar tus LLMs en local al siguiente nivel con mínimo esfuerzo, esta es la opción.


9. Recursos adicionales

Comentarios


© 2025 by Lozkorp                                                         

bottom of page