Premiers pas avec ComfyUI
Ce guide vous accompagne dans la decouverte de l’interface ComfyUI et la creation de votre premier workflow.
L’interface ComfyUI
ComfyUI utilise une interface nodale (node-based) ou chaque operation est representee par un node (bloc), et les connexions entre les nodes definissent le flux de traitement.
Elements principaux
- Canvas : l’espace de travail principal ou vous placez et connectez vos nodes
- Menu : en haut, pour charger/sauvegarder des workflows et acceder aux parametres
- Queue : le bouton pour lancer la generation
- Barre laterale : pour parcourir les nodes disponibles
Navigation
- Clic droit sur le canvas : ajouter un nouveau node
- Clic gauche + glisser : deplacer un node
- Molette : zoom avant/arriere
- Clic milieu + glisser : deplacer le canvas
- Clic sur un port + glisser : creer une connexion
Votre premier workflow
Le workflow le plus simple pour generer une image comprend ces nodes :
1. Load Checkpoint
Ce node charge le modele IA principal. C’est le coeur de votre workflow.
- Sorties : MODEL, CLIP, VAE
- Parametre : selectionnez un modele dans la liste (ex:
sd_xl_base_1.0.safetensors)
2. CLIP Text Encode (Prompt positif)
Decrivez l’image que vous souhaitez generer.
- Entree : CLIP (du Load Checkpoint)
- Sortie : CONDITIONING
- Exemple :
a beautiful sunset over the ocean, golden light, photorealistic, 4k
3. CLIP Text Encode (Prompt negatif)
Decrivez ce que vous ne voulez PAS dans l’image.
- Exemple :
blurry, low quality, distorted, ugly
4. Empty Latent Image
Definit la taille de l’image a generer.
- Parametres : largeur, hauteur, batch size
- SDXL : 1024x1024 recommande
- SD 1.5 : 512x512 recommande
5. KSampler
Le node de sampling qui genere l’image dans l’espace latent.
- Entrees : model, positive, negative, latent_image
- Parametres importants :
- seed : graine aleatoire (meme seed = meme resultat)
- steps : nombre d’etapes (20-30 pour un bon resultat)
- cfg : guidance scale (7-8 est un bon point de depart)
- sampler : algorithme de sampling (euler, dpmpp_2m, etc.)
- scheduler : planificateur (normal, karras, exponential)
6. VAE Decode
Convertit l’image de l’espace latent vers une image visible.
- Entree : samples (du KSampler), vae (du Load Checkpoint)
- Sortie : IMAGE
7. Save Image
Sauvegarde l’image generee dans le dossier output/.
Parametres cles a comprendre
CFG Scale (Classifier-Free Guidance)
Controle a quel point le modele suit votre prompt :
- 1-5 : plus de liberte creative, moins fidele au prompt
- 7-8 : bon equilibre (recommande)
- 10+ : tres fidele au prompt mais peut sur-saturer
Steps (Etapes de debruitage)
Plus d’etapes = plus de details, mais plus lent :
- 15-20 : rapide, qualite correcte
- 25-35 : bon compromis qualite/vitesse
- 50+ : rendements decroissants
Seed (Graine)
- Chaque seed produit une image differente
- Fixer la seed permet de reproduire exactement le meme resultat
- Utile pour iterer sur un prompt tout en gardant la meme composition
Sauvegarder et charger des workflows
- Ctrl+S : sauvegarder le workflow actuel
- Ctrl+O : charger un workflow sauvegarde
- Drag & drop : glissez un fichier
.jsonou une image PNG (avec metadata) sur le canvas
Prochaines etapes
- Text-to-Image avance : techniques avancees de generation
- Les modeles disponibles : choisir le bon modele pour vos besoins
- Image-to-Video : animer vos creations