Formation Comfy UI et Stable Diffusion : Création Avancée
Problème de lecture
Cette vidéo ne semble pas disponible
00:00
00:00

TUTO Formation Comfy UI et Stable Diffusion : Création Avancée

Lionel Vicidomini
69,00€
3 paiements de 23,00€ avec Klarna. En savoir plus

Téléchargement & visionnage illimité

Satisfait ou remboursé

Paiement 100% sécurisé

Après une première formation sur Stable Diffusion basée sur Automatic1111, allez encore plus loin avec Comfy UI, l’interface experte qui enlève toutes les limites à vos créations !
Toutes les images du teaser et du tuto ont été générées pour cette formation sur Comfy UI par l'auteur.

À la différence de Midjourney et de DALL.E, ses principaux concurrents, Stable Diffusion se distingue par sa gratuité totale et son code open source.

Cette formation se situe dans la continuité de celle sur Automatic1111, et est la suite spirituelle, mais elle reste autonome.
Vous n'êtes pas obligé d'avoir suivi la première pour comprendre celle-ci, mais étant d'un niveau plus avancé, il est conseillé d'avoir un peu manipulé les IA génératrices d'images au préalable, avec Stable Diffusion ou d'autres IA.
Elle va plus loin sur de nombreux sujets et aborde des chapitres absents de la première formation.

Formation Comfy UI et Stable Diffusion : Création Avancée

Ce que vous allez apprendre dans cette formation :

  • Comment installer ComfyUI en utilisant Stability Matrix, un utilitaire très puissant qui permet d'installer facilement de nombreuses interfaces pour Stable Diffusion, dont Comfy UI
  • Le principe de fonctionnement de Stable Diffusion, qu'est qu'un Checkpoint, un Scheduler, qu'est-ce que sont les Steps, le CFG etc...
  • Un guide complet pour maîtriser le prompting. Ccette formation va beaucoup plus loin que les autres : apprenez à concaténer vos prompts, les étendre avec de l'IA, utiliser des Stylers etc...
  • Comment enrichir ses images avec les Loras, les Embeddings, comment extraire des prompts d'une image etc...
  • Maîtriser l'upscale à la perfection, avec ses nombreuses solutions : upscale par modèle, en utilisant le HighRes Fix Script etc...
  • Découvrir SUPIR, un outil formidable pour les agrandissements extrêmes d'image (jusqu'à 8k !) et la restauration de photos très endommagés ou l'agrandissement d'une vignette
  • Maîtriser tous les ControlNet, ces outils extraordinaires qui permettent d'imposer une composition, une pose, une profondeur ou un éclairage à votre image.
  • Styliser vos images avec les IP Adapter, un outil révolutionnaire qui va permettre d'appliquer le style d'image de référence à vos propres images. Imaginez les tableaux que Van Gogh n'a pas eu le temps de peindre, ou l'interprétation de Picasso sur les maîtres Flamands !
  • Comment améliorer les visages irréalistes, yeux qui louchent, et surtout les mains difformes qui défigurent les images IA. Finis les mains à 6 doigts et les yeux de poissons morts !
  • Devenez le maître de l'Inpaint : vous pourrez faire disparaître n'importe quel objet d'une photo, pour le remplacer par ce que vous voulez. 
  • Agrandissez une photo à l'infini en lui rajoutant des éléments cohérents avec la scène (outpaint).
  • Stylisez une photo réelle en lui appliquant des styles inspirés d'autres photos, ou carrément de peintures !
  • Produisez des personnages cohérents d'une image à une autre. Idéal pour créer un style sheet d'un personnage pour un projet de court métrage d'animation.
  • Produisez des vidéos réalistes, transformez des clips filmés en film d'animation, ou réalisez des courts métrages fantastiques et psychédéliques avec les nombreuses options d'animation

Cette formation s'adresse à un public plus averti aux images générées par IA et qui veulent se libérer des limites des services en ligne payants, plus faciles à utiliser mais tellement plus limités et cher à utiliser.

Vous possédez votre propre outil, que vous personnalisez comme il vous chante. C'est tout l'avantage de l'open source et de Comfy UI qui permet des workflows hybrides à l'infini, pour résoudre n'importe quelle situation.

Pour faire tourner Stable Diffusion dans de bonnes conditions, il est conseillé d'utiliser un PC récent haut de gamme, équipé d'une carte Nvidia possédant au moins 4go de Vram, idéalement 12go ou plus.
Il est possible d'utiliser SD avec un mac Apple Silicon récent avec de bonnes performances, mais attention, un petit nombre d'outils ne seront pas compatibles.

Éventuellement vous pouvez utiliser une version en ligne payante, mais qui vous affranchit des contraintes matérielles. Une vidéo présente une alternative en ligne intéressante. Au final vous aurez la même liberté et la même puissance qu'avec une version installée sur votre propre ordinateur.

Je reste à votre disposition dans les salons pour toutes questions, n'hésitez pas !
Bonne formation !

Qu’allez-vous apprendre dans ce cours ?

Plan de cours
Chapitre 1
Installation, fonctionnement
Chapitre 2
Les bases
Chapitre 3
Upscale : Agrandir ses images
Chapitre 4
ControlNet : Prenez le contrôle !
Chapitre 5
After Detailer : La fin des visages et des mains difformes
Chapitre 6
IP adapter : Utilisez des images comme référence.
Chapitre 7
Inpaint : Améliorez, supprimez, modifiez une image

Plan détaillé du cours

Chapitre 1 : Installation, fonctionnement
47m37s
 
Leçon 1Installer ComfyUI avec Stability Matrix
Leçon 2Les fonctionnalités de Stability Matrix
Leçon 3Utiliser Inference pour des créations faciles
Leçon 4Découverte de Comfy UI
Leçon 5Fonctionnement de base des nœuds
Leçon 6Installer le Manager
Leçon 7RunDiffusion : utiliser ComfyUI sur le net
Chapitre 2 : Les bases
2h36m
 
Leçon 1Recréer le workflow de base
Leçon 2Comprendre le denoise
Leçon 3Experimenter avec le XY script, l'importange du CFG
Leçon 4Steps et Scheduler
Leçon 5Concatener un prompt
Leçon 6Utiliser des modèles Turbo ou Lightning
Leçon 7Accélerer n'importe quel modèle avec le LCM
Leçon 8Combiner, fusionner des prompts
Leçon 9Maîtriser les Timesteps
Leçon 10Utiliser des embeddings
Leçon 11Installer Pythongossss pour améliorer le workflow et l'interface
Leçon 12Prompt Expansion : enrichir automatiquement les prompts
Leçon 13Prompt Styler : l'arme ultime pour la recherche de styles
Leçon 14Utiliser les LORAS pour personnaliser vos créations
Leçon 15Regional Prompting : composer avec des prompts (1ère partie)
Leçon 16Regional Prompting : composer avec des prompts (2ème partie)
Chapitre 3 : Upscale : Agrandir ses images
1h24m
 
Leçon 1Upscale simple, avec modèle
Leçon 2Upscale avec le HighRes fix
Leçon 3Upscale itératif
Leçon 4Ultimate SD rescale
Leçon 5SUPIR : aggrandissements parfaits et restauration d'image
Leçon 6SUPIR : workflow de base
Leçon 7SUPIR : aggrandissement extrême avec le Tiled
Leçon 8SUPIR : ajout de détails à une image basse définition
Leçon 9SUPIR : restauration d'images
Chapitre 4 : ControlNet : Prenez le contrôle !
2h26m
 
Leçon 1Maîtriser sa composition avec ControlNet Depth
Leçon 2Avec des paysages
Leçon 3Options avancées du ControlNet
Leçon 4Combiner ControlNet et reconstruction d'image pour appliquer un style
Leçon 5Utilisation du Canny et Lineart
Leçon 6Récupérer une pose avec OpenPose
Leçon 7Variations autour de OpenPose
Leçon 8Améliorer le HighRes Fix avec un ControlNet
Leçon 9Créer une pose à partir de zéro avec Openpose Editor
Leçon 10Générateur de pose
Leçon 11Architecture avec ControlNet
Leçon 12Extraire un prompt avec le WDtagger
Leçon 13Coloriser ou recoloriser une image avec Recolor
Leçon 14Utiliser Normal avec SD1.5
Leçon 15Lineart, Scribble et Softedge avec SD1.5
Leçon 16MLSD pour récupérer des lignes de fuite
Leçon 17Aggrandir une image avec UltimateSD upscale et le Controlnet Tiled
Chapitre 5 : After Detailer : La fin des visages et des mains difformes
36m08s
 
Leçon 1Améliorer les visages avec After Detailer
Leçon 2Améliorer des détails fins
Leçon 3Combiner avec ControlNet
Leçon 4Corriger les mains avec Meshgraphormer
Chapitre 6 : IP adapter : Utilisez des images comme référence.
3h01m
 
Leçon 1Installer les IpAdapter
Leçon 2Comprendre le fonctionnement des IpAdapter
Leçon 3Importance des ratios d'image
Leçon 4Maîtriser les IpAdapter avec les prompts
Leçon 5Options avancées
Leçon 6Obtenir une image plus claire avec le AddNoise
Leçon 7Combiner des images de référence
Leçon 8Combiner des images, méthode avancée
Leçon 9Contrôler une zone d'influence avec l'Attention Mask
Leçon 10Option Tiled : utiliser un image non carrée
Leçon 11Utilisation créative des IpAdapters : mélanges improbables
Leçon 12Cohérence de personnage : installer FaceID
Leçon 13Fonctionnement de FaceID
Leçon 14Changer le style d'un portrait en gardant la ressemblance
Leçon 15Contrôler la ressemblance avec le Attention Mask
Leçon 16Instant ID : autre méthode de ressemblance
Leçon 17Utiliser plusieurs images de référence avec Instant ID
Leçon 18Poser le personnage avec Instant ID
Leçon 19Garder la ressemblance tout en changeant le style
Leçon 20Garder la ressemblance tout en changeant le style - Explorations
Leçon 21Transfert de style
Leçon 22Transfert de composition
Leçon 23Transfert de style et composition
Chapitre 7 : Inpaint : Améliorez, supprimez, modifiez une image
2h48m
 
Leçon 1Img2Img : Image vers image
Leçon 2Combiner Image vers Image et ControlNet
Leçon 3Model Swap : changer de modèle à la volée pour plus de détails
Leçon 4Model Swap : de SD1.5 vers SD XL
Leçon 5Inpaint : modifier une image, en utilisant un modèle InPaint
Leçon 6Améliorer l'inpaint avec le Fooocus Patch
Leçon 7Supprimer des éléments d'une image
Leçon 8Ajouter des éléments
Leçon 9Outpaint : agrandir une image en créant du contenu
Leçon 10Combiner Outpaint et Ipadapter pour une création d'éléments plus riche
Leçon 11Remplacer des éléments
Leçon 12Ajouter des éléments sur une zone vide avec l'injection de Noise
Leçon 13Unsample : déconstruire une image pour mieux la reconstruire
Leçon 14Dessiner une image et l'enrichir avec l'IA en temps réel
Leçon 15Corriger les yeux d'un personnage
Leçon 16Differential Diffusion : changer une image
Leçon 17Differential Diffusion : utiliser une carte de profondeur
Leçon 18Differential Diffusion : utiliser de simple dégradés
Chapitre 8 : Animation : Créez des vidéos avec l'IA
2h18m
 
Leçon 1Stable Video : Les Bases
Leçon 2Portraits
Leçon 3Paysages
Leçon 4Interpoler les images avec Rife
Leçon 5Rajouter un clignement d'oeil sur un portrait
Leçon 6Utiliser AnimateDiff pour créer des vidéos à partir de prompts
Leçon 7Ajouter du mouvement avec des Loras
Leçon 8Upscale d'une video AnimateDiff
Leçon 9Vid2vid : Transformer une vidéo existante en autre chose
Leçon 10Allonger la vidéo
Leçon 11Utiliser un IpAdapter pour appliquer un style
Leçon 12Améliorer le visage avec AfterDetailer
Leçon 13Upscale avec le Latent
Leçon 14Upscale rapide avec un modèle
Leçon 15Steerable Motion : pour des vidéos psychédéliques
Leçon 16Présentation du workflow Steerable Motion
Leçon 17Utilisation du workflow
Leçon 18Distribution des images clés et influences
Leçon 19Régler manuellement les images clés et influences
Leçon 20Contrôler le mouvement de la vidéo
Leçon 21Ajouter un Motion Lora

Aperçus

Vos questions sur le cours

Quel est le niveau requis pour suivre ce tuto ?

intermédiaire

Quelle configuration idéale faut-il pour tout faire fonctionner ?

Un PC haut de gamme équipé d'une carte Nvidia assez récente dotée d'au moins 8go de Vram. Je dirais qu'une GTX1080 est le strict minimum pour faire tourner SD en version XL. A partir d'une 4070 vous serez à l'aise, mais ça tourne plutôt bien dès une 3060ti

J'ai un mac, est-ce que ça va fonctionner ?

Il FAUT un mac Apple Silicon. Je possède un M3 Max et ComfyUI tourne étonnement bien dessus. Cependant certains noeuds ne fonctionnent pas avec. Ils sont très peu nombreux. Je dirais qu'un M2 Pro est le minimum pour être un peu à l'aise. Ca tournera avec un M1 par exemple, mais ça sera très lent. C'est incompatible avec les Mac Intel, quelque soit leur carte graphique. En réalité, il est possible de faire fonctionner SD mais ça requiert une véritable expertise technique, je ne le conseille pas.

J'ai un PC mais équipé d'une carte graphique AMD ?

Ça ne fonctionnera que sous Linux, mais ça fonctionnera.

Quid des ordinateurs portables ?

Il faut un laptop avec une carte graphique dédiée. Tout ordinateur avec la CG intégré à la puce ne fonctionnera pas. Un gros portable de gamer équipé d'une 4070 donnera des résultats très satisfaisant. Les Mac portables équipé de puces M2 Pro, M3 Pro et M3 Max tournent plutôt bien aussi.

Ca ne fonctionne décidément pas, que dois-je faire ?

Demandez un remboursement ! Sur des vieilles configurations ou simplement pour des raisons parfois obscures, SD peut décider ne pas fonctionner. Si vous ne pouvez pas le dépanner vous-même, plutôt que de céder à la frustration, demandez à tuto.com un remboursement, sans rancune :)

Je n'arrive pas à obtenir les mêmes images que vous ?

Je dirais que c'est tant mieux ! L'intérêt de ces outils est justement qu'ils sortent toujours des images avec de subtiles variations. Ainsi il n'est pas garanti à 100% d'obtenir la même image qu'un autre utilisateur sur une autre machine a produit. Et c'est très bien ainsi. Nous sommes des artistes et essayons de faire de l'art. Copier à l'identique quelqu'un d'autre n'est pas de l'art.

Dois-je regarder toutes les vidéos ?

Absolument pas ! Vous pouvez les regarder toute si vous êtes un maniaque de mon genre, ou alors ne regarder que celles qui vous intéressent. Je conseillerai quand même de regarder les 2 premiers chapitres, et pas forcément en entier. Les autres chapitres sont tous intéressants et permettent d'aller plus loin mais ne sont pas indispensables. Pratiquez l'outil par vous-même pour mieux l'apprendre et revenez régulièrement consulter ou revoir certaines vidéos, la formation a été conçue dans cette optique. D'une manière générale, plus on avance dans les chapitres plus le workflow devient complexe pour respecter une certaine courbe d'apprentissage.

Est ce que je peux vendre les images produites avec SD ?

Ah, la grande question. La réponse est compliquée : Ca dépend de beaucoup de choses : selon le checkpoint que vous utilisez, selon certains modules (InsightFace par exemple pour instantID) la réponse est non. Certains modèles autorisent la publication sans droit d'auteur. Encore d'autres permettent de faire absolument ce qu'on veut de ses images. Il faut vous renseignez selon les modèles et voir ce qu'il est possible de faire avec.

Je n'ai pas d'ordinateur suffisamment puissant ou simplement compatible, comment faire ?

Pas de souci, vous pouvez utiliser l'un des nombreux services en ligne qui permet d'utiliser Stable Diffusion contre un abonnement. Dans une vidéo je montre comment utiliser l'un d'entre eux, RunDiffusion, qui permet d'avoir SD sur son ordinateur comme s'il était en local, avec exactement la même interface que pendant la formation !

Bonjour ! Ma config est la suivante sous windows: Intelcore I5 2,60 GHz; 48 Go de RAM; NVIDIA GeForce GTX 1660 Ti. Cette formation est une intermédiaire laquelle je devrais suivre avant de faire l'acquisition de celle-ci ? Et devrais devoir acheter des “modules” ou autres pour suivre toute cette formation. Je crois avoir compris que le logiciel est gratuit n'est-ce pas. Merci de bien vouloir me répondre Bien cordialement JBL ! ...

La config est suffisante mais ne sera pas très rapide. Si vous avez un petit peu testé Stable Diffusion avec Automatic1111 ou Midjourney ou même Firefly, ça devrait vous donner une idée de ce que les IA génératrices d'images peuvent faire. Stable Diffusion avec A1111 est idéal puisque c'est exactement le même moteur (Stable Diffusion) qui est abordé ici mais avec une différente interface. On peut la suivre sans aucune autre expérience dans les IA génératrices d'image mais la courbe d'apprentissage sera plus ardue. Je montre quand même les bases. Le logiciel (Stable Diffusion et Comfy UI) est entièrement gratuit, sans limite, aucun autre achat à prévoir... sauf si vous voulez mettre à jour votre machine !

Bonjour, j'envisage de suivre ce tuto et aimerais connaître au préalable le prix moyen d'un abonnement associé (Comfy UI et Stable Diffusion) pour estimer une moyenne mensuelle à l'accès de la GPU. Je suis déjà abonné sur la plateforme Midjourney pour un prix de 36 € TTC.

Stable Diffusion est gratuit si vous l'utilisez sur votre propre machine en installation locale. Si vous n'avez pas le matériel suffisant ou alors vous ne voulez pas l'installer, il y a des services en ligne payants. J'aime bien RunDiffusion qui permet une utilisation au temps. Au lieu de payer un abonnement, on paye le temps d'utilisation. Le tarif de départ est de 0.50$ l'heure pour un temps de génération très correct. https://rundiffusion.com/pricing Pour atteindre le tarif de Mijourney mensuel, il faudrait donc l'utiliser pendant 72 heures consécutives...

Je ne suis pas sûr de bien comprendre si mon matériel peut activer ce logiciel : comme j'ai des doutes, je viens vers vous Nom du modèle : MacBook Pro Identifiant du modèle : MacBookPro11,5 Nom du processeur : Intel Core i7 quatre cœurs Vitesse du processeur : 2,8 GHz Nombre de processeurs : 1 Nombre total de cœurs : 4 Cache de niveau 2 (par cœur) : 256 Ko Cache de niveau 3 : 6 Mo Technologie Hyper-Threading : Activé Mémoire : 16 Go

Non, ça ne fonctionnera pas. Sur Mac il faut un processeur Apple Silicon, je dirais au moins un M2 Pro, Max ou Ultra, ou un M3 Pro ou Max. Il reste des services en ligne payants qui permettent d'utiliser Stable Diffusion avec un tarif horaire (0.5$ de l'heure). L'avantage en plus est qu'il n'y aura pas d'installation à faire. Bien sûr, il est quand même plus confortable de l'utilisation sur sa propre machine, à volonté, sans limite de temps, mais il faut la machine compatible.

Et si je passe à une version en ligne, est-ce que les commandes sont les mêmes que sur le tutoriel que vous proposez ? cela a l'air compliqué... J'en suis resté à Playground très simple mais avec peu de possibilités. dp

Ce sont les mêmes. C'est même plus simple puisque tout est installé par défaut. Mais l'interface et le fonctionnement sont strictement identique.

Bonjour Lionel, tout d'abord merci pour vos super formations Blender ( j'en ai acheté 2)! Je suis intéressé par vos formations sur Stable diffusion et j'ai une question concernant le matériel nécéssaire, en particulier la carte graphique: Je m'aprête à changer mon ordinateur portable ( un ancien HP ZBook) pour un nouveau ZBook . Quelle carte graphique préconisez-vous pour être vraiment à l'aise avec l'IA générative sachant que je garde un ordinateur durant plusieurs années ( le mien a 11 ans!). L'IA évolue très vite et je souhaite acquérir une configuration qui restera efficace le plus longtemps possible :) Merci Lionel et encore bravo et merci pour la qualité de vos formations et de votre pédagogie Et une autre question: Dois-je d'abord commencer par votre 1ère formation sur Stable diffusion ou bien puis-je directement aborder celle-ci?

Bonjour, Alors, pour la machine, je dirais simplement qu'il faut prendre la meilleure machine possible que vous pouvez vous permettre ! Utiliser une Nvidia, la plus haut de gamme possible si on veut que ça soit pérenne. Sachant que ça ne vaudra jamais un ordinateur de bureau... Pas forcément besoin de regarder la première formation SD, mais commencer par celle ci (sur Comfy UI) peut être un peu hardcore si vous n'avez jamais utilisé d'IA générative...

Payer plus tard ou en 3x

Prix d'achat : 69,00 €
Pour payer plus tard ou en plusieurs versements échelonnés, sélectionnez Klarna comme moyen de paiement lors du règlement.

Ajoutez des articles à votre panier

Sélectionnez Klarna lors du règlement

Recevez une autorisation

Payez plus tard ou en plusieurs fois

3 paiements de 23,00 €
tous les mois, sans intérêts
Total : 69,00 €
Afficher les conditions : Klarna
Klarna : conditions d'utilisation du paiement différé en 3 échéances.

Attendez ! 🤗

Accédez à plus de 1363 tutos gratuits

Notre politique de protection des données