

Serie ComfyUI (III) — Workflow para quitar el fondo a un conjunto de imágenes
En esta tercera entrega de la serie ComfyUI, te mostramos cómo construir un workflow completo para eliminar el fondo de imágenes de forma automática, tanto individualmente como por lotes.
Aprenderás a usar los nodos BRIA AI RMBG y Inspire Pack dentro de ComfyUI, a configurar el flujo paso a paso y a guardar los resultados con fondo transparente.
Incluimos el archivo JSON descargable para que puedas cargarlo y ejecutarlo directamente en tu entorno local.


Serie ComfyUI (II) — Workflow simple usando FLUX
En esta segunda entrega de la serie ComfyUI, exploramos los modelos FLUX, una nueva generación de modelos de difusión más rápidos y eficientes que SDXL.
Aprenderás a construir paso a paso un workflow básico en ComfyUI, comprendiendo qué hace cada nodo, cómo se conectan y cómo ajustar parámetros clave para generar tus primeras imágenes con FLUX en local.
Incluye además el archivo JSON descargable del flujo completo, listo para ejecutar en tu propio entorno.


ComfyUI (I): Tu primer workflow con SDXL — guía paso a paso
Descubre paso a paso cómo crear tu primera imagen con ComfyUI y modelos SDXL. En esta guía práctica aprenderás a montar un workflow básico de generación de imágenes en local, entender el funcionamiento de cada nodo y ajustar parámetros clave como prompts, resolución o CFG. Ideal para quienes quieren iniciarse en la creación de imágenes con IA en su propio equipo, sin depender de servicios en la nube. Incluye el workflow listo para descargar y ejemplos visuales.


LLMs en Local (VII): MSTY
Descubre MSTY, la plataforma que unifica el uso de LLMs locales y en la nube con una interfaz intuitiva, privacidad total y funciones avanzadas como Split Chats y Knowledge Stacks.


LLMs en Local (VI): Google AI Edge Gallery – IA generativa local en tu móvil
Explora Google AI Edge Gallery, la app experimental que permite ejecutar modelos de IA generativa de forma local en tu móvil, sin internet y con total privacidad.


LLMs en Local (V): Page Assist – Tu asistente local integrado en el navegador
Descubre Page Assist, la extensión de navegador que conecta con Ollama para chatear, resumir páginas y analizar documentos con IA local, directamente en tu web.


LLMs en Local (IV): GPT4All
Explora GPT4All, la aplicación de escritorio que permite usar modelos de lenguaje en local con privacidad total, integración de documentos y facilidad de uso.


LLMs en Local (III): Open WebUI
Descubre cómo instalar y usar Open WebUI desde Pinokio para ejecutar LLMs en local con máxima flexibilidad, extensiones y control avanzado.


LLMs en Local (II): Ollama
Descubre cómo usar Ollama, la herramienta más sencilla para ejecutar modelos de lenguaje en local desde la terminal. Instalación rápida, comandos básicos y API lista para integrar.


LLMs en Local (I): LM Studio
Descubre cómo empezar a usar modelos de lenguaje de forma local en tu ordenador. Aprende qué es un LLM, sus ventajas frente a la nube y cómo instalar y utilizar LM Studio, incluyendo un caso práctico con los nuevos modelos open-source de OpenAI.




















