top of page

LLMs en Local (II): Ollama

  • josejotxe
  • 17 ago 2025
  • 4 Min. de lectura

Actualizado: 19 ago 2025

1. Introducción: ¿Por qué Ollama?

Tras explorar en el primer capítulo cómo usar LM Studio para ejecutar modelos de lenguaje de forma local con una interfaz gráfica intuitiva, llega el momento de conocer una alternativa pensada para quienes prefieren rapidez, ligereza y control desde la línea de comandos: Ollama.

Ollama permite descargar y ejecutar modelos de lenguaje en tu ordenador con un par de comandos. No requiere configuraciones complicadas, se instala rápido y está pensado para ofrecer una experiencia fluida sin depender de la nube.


Ollama Logo
Ollama

2. ¿Qué es Ollama y cómo funciona?

Ollama es una herramienta de código abierto diseñada para ejecutar LLMs en local de forma sencilla. Se controla íntegramente desde la terminal, lo que la convierte en una opción ideal para usuarios que se sientan cómodos trabajando con comandos o que quieran integrar modelos en scripts y aplicaciones.

Características clave:

  • Descarga automática de modelos en formato optimizado.

  • Ejecución inmediata sin instalaciones adicionales de dependencias complejas.

  • API local integrada para conectar con otras aplicaciones.



3. Ventajas y desventajas de Ollama

Aspecto

Ollama

LM Studio

Interfaz

Terminal (CLI)

Gráfica (GUI)

Instalación

Muy rápida

Sencilla pero más pesada

Modelos soportados

Amplia lista preconfigurada

Modelos en GGUF

API local

✅ Incluida

❌ No nativa (requiere herramientas extra)

Curva de aprendizaje

Media (requiere aprender comandos)

Baja

Ventajas de Ollama:

  • Instalación mínima y rápida.

  • API lista para usar.

  • Fácil de automatizar e integrar.

Desventajas:

  • Sin interfaz gráfica.

  • Menos opciones visuales para gestionar modelos.


4. Instalación de Ollama

  1. Descarga el archivo de instalación de la web de Ollama

    1. https://ollama.com/download

    2. A modo de ejemplo haremos la instalación en Windows

    3. Se descarga un archivo OllamaSetup.exe

    4. Download Ollama
      Download Ollama
  2. Ejecutar el instalador:

    1. Ejecutamos archivo descargado "OllamaSetup.exe"

    2. Seguir las instrucciones del asistente de instalación hasta completar.


  3. Comprobar que se ejecuta en segundo plano:

    1. Una vez finalizada la instalación, OLLAMA debería iniciarse automáticamente.

    2. Verifica que aparece su icono en la bandeja del sistema (al lado del reloj, donde están los iconos ocultos).


  4. Abrir una ventana de comandos (CMD)

    1. Presiona Win + R, escribe cmd y pulsa Enter.

    2. Escribe "Ollama" en la ventana de comandos y si está instalado te aparecerá algo como lo que se ve en la siguiente imagen

    3. Ollama - Consola
      Ollama - Consola

5. Uso básico

El modo básico de funcionamiento es a través de la ventana de comandos. Desde ahí descargaremos los modelos y también interactuaremos con ellos.


5.1. Descargar un modelo

Lo primero que tendremos que hacer es descargar un modelo. Para saber que modelos podemos descargar iremos a la web de Ollama: https://ollama.com/library


Ollama - Library
Ollama - Library

En la zona de "Library" aparecen todos los modelos descargables y como se descarga.


A modo de ejemplo vamos a descargar el modelo "llama3.2". Lo seleccionamos y se nos abrirá el siguiente enlace: "https://ollama.com/library/llama3.2"


En esa página podemos ver las distintas versiones a descargar del modelo y especificaciones del mismo.

En nuestro caso vamos a descargar la última versión.

Ollama - Library - Modelo llama3.2
Ollama - Library - Modelo llama3.2

En la parte de arriba nos indica que hay que teclear en la ventana de comandos para poder descargarlo y ejecutarlo. En este caso, vamos sólo a descargarlo y lo usaremos luego así que usaremos "pull" en lugar de "run"

ollama pull llama3.2

Ollama - Pull a model
Ollama - Pull

5.2. Iniciar un chat

Para iniciar el chat tendremos que ejecutar el comando "run" sobre alguno de los modelos que tengamos descargados.

Para ver la lista de modelos descargados podemos usar el comando "list" de ollama

ollama list
Ollama - List
Ollama - List

Para iniciar el chat usaremos el comando "run". en nuestro caso:

Ollama run llama3.2
Ollama - run
Ollama - Run

y el modelo quedará a la espera de tus preguntas directamente desde el terminal.

Escribimos tras los simbolos ">>>" lo que queramos preguntar


genérame el texto para un tweet hablando sobre la Catedral de León (España)
Ollama - /exit
Ollama - /exit

Para salir y terminar la conversación, tendremos que usar el comando "/exit"

/exit

6. Caso práctico: usando los modelos de lenguaje open-source de OpenAI en Ollama

En agosto de 2025, OpenAI publicó varios modelos de lenguaje open-source bajo licencia libre, permitiendo que cualquier persona los descargue y ejecute en su propio ordenador.


Ollama ya permite la descarga de estos modelos llamados "gpt-oss"


Ollama: gpt-oss
Ollama: gpt-oss

Para descargar el modelo, iremos a la librería de Ollama y seleccionaremos los modelos "gpt-oss" y se nos abrirá la siguiente página: "https://ollama.com/library/gpt-oss"


Ollama: gpt-oss models
Ollama: gpt-oss models

Vemos que actualmente hay 2 opciones:

  • gpt-oss:20b de 14Gb

  • gpt-oss:120b de 65Gb


Vamos a descargar el "gpt-oss:20b": "https://ollama.com/library/gpt-oss:20b"


Ollama: gpt-oss:20b
Ollama: gpt-oss:20b

Vamos a descargar (pull) el modelo. Para ello desde la ventana de comandos (terminal) escribimos:

ollama pull gpt-oss:20b
Ollama: gpt-oss:20b - pull
Ollama: gpt-oss:20b - pull

Ahora ya podemos interactuar con el modelo desde la ventana de comandos (terminal):

Ollama: gpt-oss:20b - chat
Ollama: gpt-oss:20b - chat

Nota: al estar usando un modelo de razonamiento, podemos ver su cadena de pensamiento (thinking) antes de ver la respuesta final.



7. Ollama: modo gráfico

En las primeras versiones de Ollama sólo se podía interactuar con los modelos en modo consola. Ahora ya existe una aplicación que nos permite interactuar con los modelos desde una ventana


Para ello, al instalar Ollama se nos habrá instalado una aplicación de nombre "Ollama" a la que podemos acceder desde el menú Inicio de Windows:


Ollama - Interfaz Gráfica
Ollama - Interfaz Gráfica

Se nos abre una ventana con una interfaz donde podemos seleccionar el modelo e interactuar con el modelo seleccionado.


8. Conclusión

Ollama demuestra que no hace falta una interfaz compleja para aprovechar el poder de los LLMs en local. Su instalación rápida, soporte para múltiples modelos y API integrada lo convierten en una de las opciones más eficientes para quienes buscan simplicidad, velocidad y control total desde la terminal.


9. Recursos adicionales


Comentarios


© 2025 by Lozkorp                                                         

bottom of page