Serie ComfyUI (VI) — Extraer prompts desde una carpeta de imágenes (WD14 Tagger)
- josejotxe
- hace 22 horas
- 6 Min. de lectura
Continuamos la serie dedicada a ComfyUI, la plataforma visual para construir workflows de IA totalmente en local. En esta sexta entrega veremos cómo utilizar un flujo que permite leer automáticamente todas las imágenes de una carpeta y extraer sus prompts mediante el modelo WD14 Tagger, generando un archivo de texto con todas las etiquetas.
Este proceso es ideal para:
crear datasets de entrenamiento
obtener prompts de imágenes generadas previamente
analizar estilos o atributos de fotos reales
documentar colecciones completas
convertir imágenes en texto para pipelines creativos o IA
preparar datos para modelos de clasificación

Incluimos también el workflow listo para descarga: 📁 WF_ComfyUI_PromptsDeImagenes.json (descargable al final del artículo)
🎯 Qué vas a lograr
Analizar automáticamente una carpeta llena de imágenes.
Extraer prompts detallados usando WD14 Tagger.
Guardar los prompts en un archivo de texto.
Trabajar 100% en local sin depender de servicios externos.
Automatizar procesos de documentación y etiquetado.
Adaptar fácilmente la salida: un archivo global o uno por imagen.
Entender cada nodo y ampliarlo según tus necesidades.
🧩 Requisitos
Para usar este workflow necesitarás:
💻 ComfyUI en funcionamiento.
📦 WD14 Tagger Node (incluido en muchos paquetes básicos o instalable desde Custom Nodes).
📁 Una carpeta con imágenes (PNG, JPG…).
📝 ComfyUI con permisos de escritura para generar los archivos .txt.
💾 Espacio en ComfyUI/output/ o en la carpeta que especifiques.
⚙️ Instalación de nodos adicionales
Para instalar los nodos necesarios, puedes hacerlo desde Pinokio:
Abre ComfyUI
Ve a Extensions → Custom Nodes
Busca:
WD14 Tagger
Pinokio lo descargará e instalará automáticamente en:
C:\pinokio\api\comfy.git\custom_nodes💡 Nota práctica
Si cargas el workflow y falta un nodo, ComfyUI te avisará automáticamente. En el aviso verás un botón que te llevará directamente al panel Custom Nodes para instalar lo que falte.
🗂️ Crear o cargar el workflow en ComfyUI
Tienes dos maneras de trabajar con este flujo:
🅰️ Opción A — Cargar el workflow ya creado
1️⃣ Descarga el archivo JSON adjunto:📁 WF_ComfyUI_PromptsDeImagenes.json
2️⃣ Abre ComfyUI.
3️⃣ En el menú superior selecciona:Workflow → Load
4️⃣ Carga el archivo JSON. Verás en el lienzo todos los nodos conectados y listos para funcionar.

🅱️ Opción B — Crear el workflow desde cero
Si prefieres entenderlo pieza a pieza, puedes recrearlo manualmente. En la siguiente sección explicamos qué hace cada bloque del flujo.

⚙️ El workflow: estructura general
El workflow está dividido en tres bloques principales:
Nº | Nodo | Función principal |
1️⃣ | LoadImageListFromDir // Inspire | Lee todas las imágenes de una carpeta. |
2️⃣ | WD14Tagger | Analiza cada imagen y extrae los tags / prompts. |
3️⃣ | SaveText (o Save Text to File) | Guarda los prompts generados dentro de un archivo .txt. |
4️⃣ | CR Text | Notas internas y ayuda dentro del flujo. |
Este flujo está pensado para leer imágenes → generar prompts → guardarlos en texto. Simple y muy potente.
🧱 Entendiendo el workflow paso a paso
A continuación explicamos cada nodo con detalle:
1️⃣ LoadImageListFromDir // Inspire
Qué hace: Carga todas las imágenes de la carpeta indicada y las envía al flujo una por una.
Qué tocar: En su parámetro directory, indica la ruta completa de la carpeta donde están las imágenes de las que queremos sacar sus prompts
Ejemplo:
C:\ComfyUI\datasets\imagenesConexiones: Su salida IMAGE fluye hacia el nodo WD14Tagger, que es el que analizará la imagen.

2️⃣ WD14Tagger
El corazón del workflow.
Qué hace: Analiza cada imagen y genera una lista de etiquetas (tags) que describen su contenido: estilo artístico, objetos, escenas, rasgos visuales, atributos de persona, emociones, poses, ropa, y muchísimo más
Qué tocar:
model: selecciona la versión de WD14 a usar
Opciones típicas:
wd-v1-4-swinv2-tagger-v2 → muy equilibrado
wd-v1-4-moat-tagger-v2 → más preciso en detalles
wd14-vit-tagger → más ligero
threshold: ajusta la sensibilidad del modelo (más bajo = más etiquetas).
Define el nivel mínimo de confianza para aceptar una etiqueta.
Más bajo (0.20–0.30) → más etiquetas, más ruido
Estándar (0.35–0.45) → equilibrio
Alto (0.50–0.70) → etiquetas muy seguras, menos cantidad
Character_threshold:
Umbral específico para etiquetas relacionadas con personajes, como ojos, pose, género, edad aproximada, expresiones, ropa, estilo del presonaje.
Cuanto más alto sea este valor tendremos menos etiquetas "dudosas" y estará más centrado en etiquetas claras y definidas.
replace_underscore
Convierte etiquetas como: long_hair en long hair.
Es útil si quieres un lenguaje más natural.
La recomendación es dejarlo en false si planeas usar estas prompts para generar luego imágenes
trailing_comma: Decide si las etiquetas se separan con una coma al final o no.
exclude_tags:
Permite especificar qué etiquetas NO quieres incluir en el resultado
Puedes poner una lista separada por comas: watermark, text
Salida: Un texto completo con todas las etiquetas encontradas en la imagen.
Este texto será luego guardado en un archivo .txt.
3️⃣ SaveText / Save Text to File
En tu workflow se usa un nodo que escribe el texto generado por WD14 a un archivo.
Qué hace: Guarda los prompts extraídos en un TXT.Puede generar:
un archivo global (todas las imágenes dentro del mismo .txt)
un archivo diferente por imagen (si se configura con nombre dinámico)
Qué tocar:
file: Define la ruta completa y el nombre del archivo .txt donde se guardará el texto.
enable_replacement: activa o desactiva el sistema de “sustituciones” internas del nodo
Valores:
No → Guarda el texto tal cual llega del nodo anterior.
Yes →Permite usar los campos inferiores (image_style, gender_age_replacement, etc.) para modificar automáticamente el texto antes de guardarlo.
Image_style: si "enable_replacement" es YES, este campo permite añadir un estilo predefinido al texto antes de guardarlo (cinematic lighting, realistic photography....)
gender_age_replacement: Permite insertar automáticamente texto relacionado con el género o la edad del sujeto extraído por otros nodo
lora_trigger: Permite insertar automáticamente una palabra “trigger” para activar un LoRA concreto en workflows de generación.
negative_prompt_text: Permite añadir un bloque de negative prompt antes de guardar el archivo.

Salida: Un archivo de texto que contiene los prompts generados para cada imagen de la carpeta.
▶️ Cómo usarlo
1️⃣ Abre ComfyUI.
2️⃣ Carga el archivo JSON del workflow.
3️⃣ En LoadImageListFromDir, indica la ruta de tu carpeta con imágenes.
4️⃣ En SaveText, configura dónde guardar el archivo .txt.
5️⃣ Pulsa Run.
El workflow analizará todas las imágenes y generará automáticamente un archivo con los prompts extraídos.

💡 Consejos y buenas prácticas
Usa imágenes bien iluminadas para obtener prompts más fiables.
Ajusta el threshold de WD14 si quieres más o menos detalle.
Usa los prompts resultantes para:
reentrenar LoRAs
clasificar datasets
analizar estilos
documentar colecciones
generar nuevas imágenes basadas en las originales
Puedes excluir etiquetas no deseadas.
Guarda un archivo por imagen si estás generando datasets. Esto facilita la organización, entrenamiento de LoRA o retocado posterior.
🌐 Recursos útiles
🌍 Hugging Face: uno de los mayores repositorios de IA del mundo, donde encontrarás miles de modelos —incluidos los compatibles con Stable Diffusion y ComfyUI— listos para descargar y usar.
🎨CivitAI: plataforma comunitaria donde los usuarios comparten modelos, estilos, LoRAs y nodos específicos para ComfyUI, clasificados por categoría, versión y nivel de complejidad.
🧠 En Lozkorp:
Descubre el artículo previo donde introdujimos ComfyUI dentro del ciclo “Generación de imágenes con IA en local (IV)”:🔗 Generación de imágenes con IA en local (IV) — ComfyUI
Serie ComfyUI (V) -- Generar imágenes a partir de prompts guardados en un archivo de texto
Archivo JSON de este ejemplo 📁 WF_ComfyUI_PromptsDeImagenes.json
🗺️ Conclusión
Con este sexto artículo de la Serie ComfyUI ya dispones de un workflow completo para extraer prompts automáticamente a partir de cualquier carpeta de imágenes, utilizando el modelo WD14 Tagger y trabajando siempre en un entorno 100% local.
Combinado con la entrega anterior (generar imágenes desde prompts en un .txt), este workflow abre la puerta a pipelines completos como:
Imagen → Prompt → Imagen, ideal para recrear estilos, reconstruir datasets o explorar nuevas variantes creativas.
ComfyUI demuestra una vez más que, con los nodos adecuados, puede convertirse en una herramienta tremendamente poderosa para automatización, análisis visual y creación asistida por IA.
💙 Si te ha gustado esta entrega, recuerda que puedes encontrar más artículos, herramientas, workflows y contenido sobre IA en local, creatividad y automatización en: 👉 www.lozkorp.com





















Comentarios