Serie ComfyUI (VII) — Img2Img simple: mejorar o modificar una imagen en local
- 24 ene
- 7 Min. de lectura
Continuamos la serie dedicada a ComfyUI, la plataforma visual para crear workflows de IA totalmente en local. En esta séptima entrega vamos a trabajar con uno de los flujos más prácticos y versátiles: img2img.
Este workflow permite cargar una imagen existente y:
mejorarla manteniendo su estructura original (sin usar prompt), o
modificarla creativamente usando prompts de texto.
Además, incorporamos el nodo Image Comparer (rgthree) para comparar visualmente la imagen original y el resultado final de forma clara e interactiva.

El workflow que usaremos es 📁 WF_ComfyUI_img2img_simple.json y podrás descargarlo al final del artículo para cargarlo directamente en tu ComfyUI.
🎯 Qué vas a lograr
Cargar una imagen existente y procesarla con img2img.
Mejorar una imagen manteniendo su estructura original, incluso dejando el prompt vacío.
Modificar una imagen de forma creativa usando prompts positivos y negativos.
Controlar cuánto cambia la imagen ajustando parámetros clave como denoise y CFG.
Comparar visualmente la imagen original y el resultado final gracias al nodo Image Comparer (rgthree).
Entender un workflow img2img sencillo, reutilizable y fácil de adaptar.
Trabajar siempre 100 % en local, sin subir imágenes a ningún servicio externo.
🧩 Requisitos
Para utilizar este workflow img2img necesitarás:
💻 ComfyUI funcionando correctamente.
🧠 Un modelo compatible con img2img (en este flujo se usa un modelo tipo SDXL)
🖼️ Una imagen de entrada (JPG o PNG) que quieras mejorar o modificar.
📦 rgthree nodes, necesarios para usar el comparador de imágenes.
💾 Espacio disponible en ComfyUI/output/ para guardar los resultados.
⚙️ Instalación de nodos adicionales
Puedes instalar los nodos necesarios puedes hacerlo desde Pinokio. Este flujo utiliza el nodo:
Image Comparer (rgthree)
Si no lo tienes instalado:
1️⃣ Abre ComfyUI
2️⃣ Ve a Extensions → Custom Nodes
3️⃣ Busca rgthree
4️⃣ Instálalo desde Pinokio o ComfyUI Manager
💡 Nota práctica
Si al cargar el workflow falta algún nodo, ComfyUI te avisará y te permitirá instalarlo directamente desde el aviso.
🗂️ Crear o cargar el workflow en ComfyUI
Tienes dos maneras de trabajar con este flujo:
🅰️ Opción A — Cargar el workflow ya creado
1️⃣ Descarga el archivo JSON adjunto :📁 WF_ComfyUI_img2img_simple.json
2️⃣ Abre ComfyUI.
3️⃣ En el Menú superior, selecciona → Workflow → Load
4️⃣ Elige el archivo descargado. Verás aparecer en el lienzo todos los nodos conectados y configurados. Puedes hacer zoom y arrastrar con el ratón para explorarlos.

🅱️ Opción B — Crear el workflow desde cero
Si prefieres aprender cómo se construye paso a paso, puedes partir de un flujo vacío y añadir los nodos uno a uno siguiendo las indicaciones de las siguientes secciones, donde se explica en detalle qué hace cada bloque, cómo se conecta y qué parámetros conviene modificar en cada uno.

⚙️ El workflow: estructura general
Este workflow img2img está pensado para ser simple, claro y reutilizable, centrándose en dos objetivos: mejorar una imagen existente o modificarla de forma controlada.
El flujo se compone de los siguientes bloques principales:
Nº | Nodo | Función principal |
1️⃣ | Load Checkpoint | Carga el modelo, CLIP y VAE necesarios para el proceso. |
2️⃣ | LoadImage | Carga la imagen original que se va a procesar. |
3️⃣ | VAEEncode | Convierte la imagen a espacio latente para poder aplicar img2img. |
4️⃣ | CLIPTextEncode (Positive / Negative) | Procesa los prompts de texto (opcionales). |
5️⃣ | KSampler | Ejecuta el proceso img2img controlando el nivel de cambio. |
6️⃣ | VAEDecode | Convierte el latente final en una imagen visible. |
7️⃣ | Image Comparer (rgthree) | Permite comparar imagen original y resultado final. |
8️⃣ | SaveImage / PreviewImage | Guarda y muestra la imagen generada. |
Este esquema permite un flujo muy flexible:
Prompt vacío → mejora o refinado de la imagen original.
Prompt definido → modificación creativa controlada.
🧱 Entendiendo el workflow paso a paso
A continuación desglosamos cada nodo del workflow img2img para entender cómo fluye la información desde la imagen original hasta el resultado final.
1️⃣ Load Checkpoint
Qué hace: Carga el modelo base, junto con sus componentes CLIP y VAE. Es el punto de partida de todo el flujo.
Qué tocar:
Selecciona el checkpoint que prefieras (por ejemplo, SDXL base o un modelo afinado).
Asegúrate de que el modelo sea compatible con img2img.
NOTA: la calidad y resultado final de la imagen dependerá bastante del modelo que selecciones.
Conexiones:
Proporciona MODEL, CLIP y VAE al resto del flujo.

2️⃣ LoadImage
Qué hace: Carga la imagen original que quieres mejorar o modificar.
Qué tocar:
Selecciona la imagen de entrada (JPG o PNG).
Cuanto mejor sea la calidad de la imagen, mejores resultados obtendrás.
Conexiones:
La salida IMAGE se conecta al nodo VAEEncode.
3️⃣ VAEEncode
Qué hace: Convierte la imagen original al espacio latente, paso imprescindible para aplicar img2img.
Qué tocar:
Normalmente nada.
Usa el VAE cargado desde el checkpoint.
Conexiones:
En la entrada recibe el VAE del modelo seleccionado y la propia imagen
Su salida LATENT se conecta al KSampler.
4️⃣ CLIPTextEncode (Positive / Negative)
Qué hace: Procesa los prompts de texto y los convierte en embeddings que guían la generación.
Uso clave en este workflow:
Prompt vacío → el modelo se centra en refinar la imagen original.
Prompt definido → el modelo introduce cambios según el texto. Aquí es donde debes indicar que modificaciones quieres para la imagen.
En nuestro ejemplo, hemos usado como prompt "red mountains, dramatic lighting, cinematic" y hemos obtenido las montañas de la imagen en tonos rojizos
Qué tocar:
Prompt positivo: describe el cambio deseado.
Prompt negativo (opcional): limita artefactos o estilos no deseados.
Conexiones:
Se conectan al KSampler como condicionantes.
5️⃣ KSampler
Este es el nodo central del img2img.
Qué hace: Aplica el proceso de difusión sobre el latente inicial, controlando cuánto cambia la imagen.
Parámetros clave:
Denoise
0.2 – 0.4 → mejora sutil
0.5 – 0.7 → cambios visibles
0.8 – 1.0 → cambios fuertes
CFG
Bajo (2–4) → conserva la imagen original
Alto (7+) → fuerza el prompt
Consejo: Empieza siempre con valores conservadores y ve ajustando poco a poco.

6️⃣ VAEDecode
Qué hace:Convierte el latente final generado por el sampler en una imagen RGB visible.
Qué tocar:
Normalmente nada.
Usa el VAE cargado al inicio.
7️⃣ Image Comparer (rgthree)
Qué hace: Muestra la imagen original y el resultado final en un comparador interactivo.
Por qué es importante:
Permite ver exactamente qué ha cambiado.
Ideal para ajustar denoise y CFG con precisión.
8️⃣ SaveImage / PreviewImage
Qué hacen:
PreviewImage muestra el resultado directamente en ComfyUI.
SaveImage guarda la imagen final en ComfyUI/output/.
Qué tocar:
Opcionalmente, cambia la carpeta o el prefijo de nombre de archivo.
▶️ Cómo usarlo
Sigue estos pasos para utilizar el workflow img2img y comparar los resultados:
1️⃣ Abre ComfyUI.
2️⃣ En el menú superior, selecciona:Workflow → Load
3️⃣ Carga el archivo:📁 WF_ComfyUI_img2img_simple.json
4️⃣ En el nodo LoadImage, selecciona la imagen que quieres procesar.
5️⃣ Pulsa Run.

🅰️ Caso A — Mejorar una imagen sin cambiarla
Deja el prompt positivo vacío.
Usa un CFG bajo (2–4).
Ajusta denoise entre 0.2 y 0.4.
Pulsa Run.
El resultado será una versión refinada de la imagen original, manteniendo su estructura y contenido.
🅱️ Caso B — Modificar una imagen usando prompts
Escribe un prompt positivo describiendo el cambio deseado.
Ajusta el CFG según la fuerza del prompt.
Aumenta denoise si quieres más cambios (0.5–0.7).
Pulsa Run.
Al finalizar, usa el nodo Image Comparer (rgthree) para comparar la imagen original y el resultado generado mediante el deslizador interactivo.
💡 Consejos y buenas prácticas
Empieza siempre con denoise bajo.Valores entre 0.2 y 0.4 son ideales para mejorar una imagen sin alterar su estructura.
Usa prompts cortos y claros para cambios sutiles. Frases simples funcionan mejor que descripciones largas cuando quieres controlar el resultado.
CFG bajo conserva la imagen original. Si el resultado se “aleja” demasiado, reduce el CFG antes de tocar otros parámetros.
Aumenta denoise poco a poco. Es preferible subir de 0.4 a 0.5 antes que saltar directamente a valores altos.
El comparador de imágenes es clave. Usa Image Comparer (rgthree) para detectar diferencias finas y ajustar parámetros con precisión.
Evita denoise muy alto sin prompt. Con prompt vacío y denoise alto, el modelo puede “inventar” detalles innecesarios.
Este workflow es ideal para:
refinado y restauración ligera
estilizado controlado
iteraciones rápidas
pruebas visuales antes de workflows más complejos
🌐 Recursos útiles
🧩 ComfyUI: repositorio oficial de ComfyUI.
🌍 Hugging Face: uno de los mayores repositorios de IA del mundo, donde encontrarás miles de modelos —incluidos los compatibles con Stable Diffusion y ComfyUI— listos para descargar y usar.
🎨CivitAI: plataforma comunitaria donde los usuarios comparten modelos, estilos, LoRAs y nodos específicos para ComfyUI, clasificados por categoría, versión y nivel de complejidad.
💙 Serie ComfyUI en Lozkorp:
Serie ComfyUI (III) — Workflow para quitar fondo a un conjunto de imágenes
Serie ComfyUI (V) — Workflow generar imágenes desde archivo de prompts
Serie ComfyUI (VI) - Extraer prompts desde una carpeta de imágenes (WD14 Tagger)
(Actual) Serie ComfyUI (VII) — Img2Img simple: mejorar o modificar una imagen en local
🔗 Workflow descargable explicado en este artículo: Puedes descargar el archivo y cargarlo directamente en ComfyUI:
🗺️ Conclusión
Con esta séptima entrega de la Serie ComfyUI ya sabes cómo trabajar con img2img de forma sencilla y controlada, utilizando una imagen existente como punto de partida para mejorarla o modificarla según tus necesidades.
Este workflow demuestra que no siempre es necesario partir de ruido:
a veces basta con refinar, retocar o evolucionar una imagen existente ajustando unos pocos parámetros clave como denoise y CFG.
Además, el uso del nodo Image Comparer (rgthree) convierte este flujo en una herramienta especialmente útil para análisis visual, pruebas de calidad y ajustes finos, permitiéndote ver exactamente qué cambia entre la imagen original y el resultado final.
Como todos los workflows de la serie, este proceso se ejecuta 100 % en local, manteniendo el control total sobre tus imágenes, sin dependencias externas ni subida de datos a la nube.
💙 Si te ha gustado esta entrega, recuerda que puedes seguir la serie completa y más contenidos sobre IA en local, creatividad y automatización en: www.lozkorp.com





















Comentarios