Aller au contenu

Premiers pas avec ComfyUI

Ce guide vous accompagne dans la decouverte de l’interface ComfyUI et la creation de votre premier workflow.

L’interface ComfyUI

ComfyUI utilise une interface nodale (node-based) ou chaque operation est representee par un node (bloc), et les connexions entre les nodes definissent le flux de traitement.

Elements principaux

  • Canvas : l’espace de travail principal ou vous placez et connectez vos nodes
  • Menu : en haut, pour charger/sauvegarder des workflows et acceder aux parametres
  • Queue : le bouton pour lancer la generation
  • Barre laterale : pour parcourir les nodes disponibles
  • Clic droit sur le canvas : ajouter un nouveau node
  • Clic gauche + glisser : deplacer un node
  • Molette : zoom avant/arriere
  • Clic milieu + glisser : deplacer le canvas
  • Clic sur un port + glisser : creer une connexion

Votre premier workflow

Le workflow le plus simple pour generer une image comprend ces nodes :

1. Load Checkpoint

Ce node charge le modele IA principal. C’est le coeur de votre workflow.

  • Sorties : MODEL, CLIP, VAE
  • Parametre : selectionnez un modele dans la liste (ex: sd_xl_base_1.0.safetensors)

2. CLIP Text Encode (Prompt positif)

Decrivez l’image que vous souhaitez generer.

  • Entree : CLIP (du Load Checkpoint)
  • Sortie : CONDITIONING
  • Exemple : a beautiful sunset over the ocean, golden light, photorealistic, 4k

3. CLIP Text Encode (Prompt negatif)

Decrivez ce que vous ne voulez PAS dans l’image.

  • Exemple : blurry, low quality, distorted, ugly

4. Empty Latent Image

Definit la taille de l’image a generer.

  • Parametres : largeur, hauteur, batch size
  • SDXL : 1024x1024 recommande
  • SD 1.5 : 512x512 recommande

5. KSampler

Le node de sampling qui genere l’image dans l’espace latent.

  • Entrees : model, positive, negative, latent_image
  • Parametres importants :
    • seed : graine aleatoire (meme seed = meme resultat)
    • steps : nombre d’etapes (20-30 pour un bon resultat)
    • cfg : guidance scale (7-8 est un bon point de depart)
    • sampler : algorithme de sampling (euler, dpmpp_2m, etc.)
    • scheduler : planificateur (normal, karras, exponential)

6. VAE Decode

Convertit l’image de l’espace latent vers une image visible.

  • Entree : samples (du KSampler), vae (du Load Checkpoint)
  • Sortie : IMAGE

7. Save Image

Sauvegarde l’image generee dans le dossier output/.

Parametres cles a comprendre

CFG Scale (Classifier-Free Guidance)

Controle a quel point le modele suit votre prompt :

  • 1-5 : plus de liberte creative, moins fidele au prompt
  • 7-8 : bon equilibre (recommande)
  • 10+ : tres fidele au prompt mais peut sur-saturer

Steps (Etapes de debruitage)

Plus d’etapes = plus de details, mais plus lent :

  • 15-20 : rapide, qualite correcte
  • 25-35 : bon compromis qualite/vitesse
  • 50+ : rendements decroissants

Seed (Graine)

  • Chaque seed produit une image differente
  • Fixer la seed permet de reproduire exactement le meme resultat
  • Utile pour iterer sur un prompt tout en gardant la meme composition

Sauvegarder et charger des workflows

  • Ctrl+S : sauvegarder le workflow actuel
  • Ctrl+O : charger un workflow sauvegarde
  • Drag & drop : glissez un fichier .json ou une image PNG (avec metadata) sur le canvas

Prochaines etapes