bases:fabnum:ai:comfyui:start

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
bases:fabnum:ai:comfyui:start [2026/01/10 08:27]
enseignant [ComfyUI]
bases:fabnum:ai:comfyui:start [2026/01/10 08:40] (Version actuelle)
enseignant [Entraînement LORA z-image]
Ligne 9: Ligne 9:
 ===== Installation et Mise en route ===== ===== Installation et Mise en route =====
  
-  * Méthode recommandée : Vous pouvez utiliser [[https://swarmui.net/|SwarmUI]] pour une installation simplifiée qui gère les dépendances en arrière-plan. +Vous pouvez utiliser [[https://swarmui.net/|SwarmUI]] pour une installation simplifiée qui gère les dépendances en arrière-plan. Pour votre premier pas, ouvrez l'espace workflow où un exemple standard pour Stable Diffusion (SDXL) est généralement chargé par défaut ; si des modèles sont manquantsl'interface vous proposera de les télécharger pour les glisser ensuite dans les dossiers appropriés.
-  * Premier pas : Ouvrez l'espace workflow où un exemple standard pour Stable Diffusion (SDXL) est généralement chargé par défaut+
-  * Templates : L'onglet Templates permet d'accéder à des workflows pré-configurés pour différents modèles (Z-imageFlux, Wan...). +
-  * Gestion des modèles : Si un workflow affiche des nœuds rouges, il manque des modèles. Attention : certains modèles comme Text Diffuser doivent souvent être placés dans le dossier CLIP. +
-  * Le plugin indispensable : Installez le [[https://github.com/Comfy-Org/ComfyUI-Manager|ComfyUI Manager]]. Il permet de scanner votre workflow pour installer les bibliothèques manquantes (Install Missing Nodes) et faire les mises à jour facilement.+
  
-===== Vocabulaire Essentiel =====+**L'onglet Templates** permet d'accéder à des workflows pré-configurés pour différents modèles tels que Z-image, Flux ou Wan. Concernant la gestion des modèles, si un workflow affiche des nœuds rouges, cela signifie qu'il manque des éléments
  
-Pour maîtriser l'outil, il est nécessaire de comprendre ces termes :+<WRAP center round important 80%> 
 +:!: Attention : certains modèles comme Text Diffuser doivent souvent être placés spécifiquement dans le dossier CLIP. 
 +</WRAP>
  
-Checkpoint : Le "cerveau" principal. C'est le modèle d'IA complet (ex: SD1.5, SDXL, Flux) qui contient la connaissance des formes et des styles. 
  
-CLIP Le traducteur. Il convertit votre texte (prompt) en vecteurs numériques que l'IA peut traiter.+Enfin, pour faciliter l'utilisation, installez le plugin indispensable [[https://github.com/Comfy-Org/ComfyUI-Manager|ComfyUI Manager]]. Il permet de scanner votre workflow pour installer automatiquement les bibliothèques manquantes via l'option **Install Missing Nodes** et de gérer toutes vos mises à jour facilement.
  
-VAE : L'encodeur/décodeur. Il traduit l'image du "monde mathématique" (Latent) vers le "monde visuel" (Pixels). Un mauvais VAE donne souvent des couleurs délavées.+===== Vocabulaire Essentiel =====
  
-LoRA : Un petit fichier additionnel appliqué sur un Checkpoint pour lui apprendre un styleun personnage ou un objet spécifique.+Pour maîtriser l'outilil est nécessaire de comprendre ces termes :
  
-Latent : L'espace de travail invisible de l'IA. C'est là que l'image est générée sous forme de données brutes avant d'être "décodée"+  * **Checkpoint :** Le "cerveau" principal. C'est le modèle d'IA complet (ex: SD1.5, SDXL, Flux) qui contient la connaissance des formes et des styles. 
- +  * **CLIP :** Le traducteur. Il convertit votre texte (prompt) en vecteurs numériques que l'IA peut traiter. 
-Denoising : Le taux de modification. À 1.0, l'IA crée du contenu neuf. À 0.5, elle transforme l'image existante à 50%.+  * **VAE :** L'encodeur/décodeur. Il traduit l'image du "monde mathématique" (Latent) vers le "monde visuel" (Pixels). Un mauvais VAE donne souvent des couleurs délavées. 
 +  * **LoRA :** Un petit fichier additionnel appliqué sur un Checkpoint pour lui apprendre un style, un personnage ou un objet spécifique. 
 +  * **Latent :** L'espace de travail invisible de l'IA. C'est là que l'image est générée sous forme de données brutes avant d'être "décodée"
 +  * **Denoising :** Le taux de modification. À 1.0, l'IA crée du contenu neuf. À 0.5, elle transforme l'image existante à 50%.
  
 ===== Les Blocs Principaux (Nodes) ===== ===== Les Blocs Principaux (Nodes) =====
Ligne 35: Ligne 35:
 Un workflow standard repose sur ces piliers : Un workflow standard repose sur ces piliers :
  
-Load Checkpoint : Le point de départ où l'on choisit son modèle principal. +  * **Load Checkpoint :** Le point de départ où l'on choisit son modèle principal. 
- +  * **CLIP Text Encode :** Deux blocs sont nécessaires : un pour le prompt Positif (ce qu'on veut) et un pour le Négatif (ce qu'on ne veut pas). 
-CLIP Text Encode : Deux blocs sont nécessaires : un pour le prompt Positif (ce qu'on veut) et un pour le Négatif (ce qu'on ne veut pas). +  * **Empty Latent Image :** Définit la résolution (Largeur / Hauteur) et le nombre d'images à générer. 
- +  * **KSampler :** Le moteur de calcul (voir section dédiée). 
-Empty Latent Image : Définit la résolution (Largeur / Hauteur) et le nombre d'images à générer. +  * **VAE Decode :** Le bloc final qui transforme les données mathématiques en image réelle affichable.
- +
-KSampler : Le moteur de calcul (voir section dédiée). +
- +
-VAE Decode : Le bloc final qui transforme les données mathématiques en image réelle affichable.+
  
 ===== Focus : Le KSampler ===== ===== Focus : Le KSampler =====
  
-C'est ici que l'image est réellement "sculptée" :+C'est le moteur, là ou l'image est réellement "sculptée" :
  
-Seed : Le numéro de départ. Un même Seed produira la même image. Utilisez randomize pour découvrir de nouvelles variantes.+  * **Seed :** Le numéro de départ. Un même Seed produira la même image. Utilisez randomize pour découvrir de nouvelles variantes
 +  * **Steps :** Le nombre d'étapes de calcul (généralement entre 20 et 30). 
 +  * **CFG :** La force du prompt. Entre 5 et 8 en général. Trop haut, l'image devient trop saturée ou déformée. 
 +  * **Sampler :** L'algorithme de nettoyage. Euler a ou DPM++ 2M sont les plus courants. 
 +  * **Scheduler :** Contrôle la vitesse de réduction du bruit. Karras est très performant pour la netteté. 
 +  * **Denoise :** La force de transformation (essentiel pour l'Img2Img).
  
-Steps Le nombre d'étapes de calcul (généralement entre 20 et 30). +:!:**Astuce Flux :** Pour le modèle Flux, utilisez environ 20 steps et un Distilled CFG bas (autour de 3.5).
- +
-CFG La force du prompt. Entre 5 et 8 en général. Trop haut, l'image devient trop saturée ou déformée. +
- +
-Sampler : L'algorithme de nettoyage. Euler a ou DPM++ 2M sont les plus courants. +
- +
-Scheduler : Contrôle la vitesse de réduction du bruit. Karras est très performant pour la netteté. +
- +
-Denoise : La force de transformation (essentiel pour l'Img2Img). +
- +
-Astuce Flux : Pour le modèle Flux, utilisez environ 20 steps et un Distilled CFG bas (autour de 3.5).+
  
 ===== Astuces et Raccourcis ===== ===== Astuces et Raccourcis =====
  
-Récupération de Workflow : Le workflow est enregistré dans les images générées. Glissez-déposez une image directement sur ComfyUI pour restaurer tout le schéma et les réglages.+  * Récupération de Workflow : Le workflow est enregistré dans les images générées. Glissez-déposez une image directement sur ComfyUI pour restaurer tout le schéma et les réglages
 +  * Recherche rapide / ajout de noeud : Faites un double-clic sur le fond vide pour chercher et ajouter un nœud. 
 +  * Organisation : Faites un clic droit > Add Group pour encadrer et déplacer des sections de nœuds. 
 +  * Bypass : Sélectionnez un nœud et appuyez sur Ctrl + B pour le désactiver sans casser les branchements.
  
-Recherche rapide : Faites un double-clic sur le fond vide pour chercher et ajouter un nœud.+===== Entraînement LORA z-image =====
  
-Organisation : Faites un clic droit > Add Group pour encadrer et déplacer des sections de nœuds.+Le modèle Z-image se distingue par sa légèreté et sa rapidité, offrant des performances comparables, voire supérieures, à Flux 1.0. Il permet d'entraîner un LoRA (visage, style graphique ou photo) à partir de seulement dix images légendées
  
-Bypass : Sélectionnez un nœud et appuyez sur Ctrl + B pour le désactiver sans casser les branchements.+Avec un GPU type RTX 4070, comptez environ 3 à 4 heures de calcul pour obtenir un résultat au réalisme impressionnant. 
 +On utilise AI toolkit en local.  https://github.com/ostris/ai-toolkit
  
-===== Entraînement LORA z-image ===== +{{youtube>Kmve1_jiDpQ?large}}
- +
-Encore plus performant avec AI tool kit : {{youtube>Kmve1_jiDpQ?medium}}+
  
 ===== Générer des vidéos ===== ===== Générer des vidéos =====
Ligne 83: Ligne 76:
 Configuration : Nécessite une carte graphique puissante (Gpu > 12 Go de VRAM). Configuration : Nécessite une carte graphique puissante (Gpu > 12 Go de VRAM).
  
-[[https://stable-diffusion-art.com/video-to-video/|Guide Video-to-Video]] +  * [[https://stable-diffusion-art.com/video-to-video/|Guide Video-to-Video]] 
- +  [[https://github.com/Wan-Video/Wan2.2|Dépôt officiel Wan2.2]]
-[[https://github.com/Wan-Video/Wan2.2|Dépôt officiel Wan2.2]]+
  • bases/fabnum/ai/comfyui/start.1768030066.txt.gz
  • Dernière modification: 2026/01/10 08:27
  • de enseignant