LLMs en Local (V): Page Assist – Tu asistente local integrado en el navegador
- josejotxe
- 27 ago
- 3 Min. de lectura
1. Introducción
En esta serie hemos explorado cómo ejecutar modelos de lenguaje en local con entornos como LM Studio, Ollama, WebUI en Pinokio y GPT4All.
Ahora damos un paso distinto: llevar la inteligencia artificial local directamente al navegador. Con Page Assist, una extensión ligera y de código abierto, podemos transformar cualquier página web en un espacio de interacción con nuestro modelo local de Ollama (y otros).
Con esta herramienta, la experiencia tipo Copilot llega a tu navegador, pero con la ventaja de que todo ocurre en tu propio equipo, sin depender de la nube.
2. ¿Qué es Page Assist y cómo funciona?
Page Assist es una extensión open-source para navegadores como Chrome, Edge, Brave y Firefox. Su objetivo es sencillo: ofrecer un entorno web-chat integrado en el navegador para interactuar con modelos locales.
Se conecta por defecto con Ollama (usando la API http://localhost:11434), aunque también es compatible con otros proveedores que ofrezcan endpoints similares, como LM Studio, Llamafile o vLLM.
Basta con instalarla, configurar el servidor local y elegir el modelo: en segundos tendrás un asistente disponible desde la barra lateral o en una pestaña dedicada del navegador.
3. Características principales
Sidebar integrada para abrir un chat en cualquier página web.
Función “Chat with Webpage”: analiza y resume el contenido de la página actual.
Soporte para RAG (Retrieval-Augmented Generation): puedes subir PDFs, TXT, CSV o DOCX para enriquecer las respuestas.
Compatibilidad con modelos con visión, permitiendo analizar imágenes.
Interfaz limpia y rápida, inspirada en la experiencia de ChatGPT pero en local.
Multi-proveedor: Ollama, LM Studio, Llamafile, vLLM.
4. Instalación y conexión con Ollama
Instalación en navegadores compatibles
Instala la extensión desde la Chrome Web Store o desde los releases de GitHub oficial.
Abre el panel de configuración de Page Assist.
Introduce la dirección de tu servidor local de Ollama (por defecto: http://localhost:11434).
Selecciona el modelo que quieras usar (ejemplo: llama3, mistral, etc.).
Abre el sidebar (Ctrl+Shift+Y) o la WebUI (Ctrl+Shift+L) y comienza a chatear.

Page Assist - Interfaz
5. Experiencia práctica: resumiendo páginas web
Un ejemplo sencillo: estás leyendo un artículo largo en un periódico online.
Abres el sidebar de Page Assist.
Seleccionas el modelo cargado en Ollama.
Usas la opción “Chat with Webpage” con un prompt:
Resume este artículo en 3 párrafos y destaca las ideas principales.

Page Assist - barra lateral El modelo procesará el texto de la página y generará un resumen adaptado a tu consulta.
Esta funcionalidad convierte a Page Assist en un copiloto local, ideal para estudiantes, investigadores o profesionales que necesitan filtrar información rápidamente.
6. Atajos de teclado útiles
Ctrl+Shift+Y → Abrir sidebar.
Ctrl+Shift+L → Abrir WebUI en pestaña.
Ctrl+Shift+O → Nuevo chat.
Ctrl+B → Alternar historial lateral.
Shift+Esc → Ir directamente al campo de entrada.
Estos atajos permiten usar la herramienta sin interrumpir tu flujo de navegación.
7. Pros y limitaciones
Ventajas | Limitaciones |
Integración directa en el navegador. | No reinicia contexto automáticamente al cambiar de página. |
Compatible con Ollama y otros entornos locales. | Requiere configuración inicial del endpoint. |
Soporte para RAG y múltiples formatos (PDF, CSV, TXT). | Calidad depende del modelo usado en Ollama. |
8. Conclusión
Page Assist lleva la experiencia de los LLMs locales directamente al navegador. Su integración con Ollama y su soporte para RAG la convierten en una herramienta versátil para quienes buscan un copiloto personal sin renunciar a la privacidad.
Con apenas unos clics, podrás resumir páginas, analizar documentos o mantener un chat contextualizado, todo desde tu navegador y sin enviar un solo dato fuera de tu ordenador.





















Comentarios