Nouvelles Du Monde

Un guide convivial pour gérer Stable Diffusion à la maison • The Register

Un guide convivial pour gérer Stable Diffusion à la maison • The Register

Le lancement des PC Copilot+ AI de Microsoft a apporté avec lui une multitude de fonctionnalités améliorées par l’apprentissage automatique, notamment un générateur d’images intégré directement à MS Paint qui s’exécute localement et transforme vos gribouillages en œuvres d’art.

Le seul problème est que vous aurez besoin d’un nouveau PC Copilot+ AI pour débloquer ces fonctionnalités. Eh bien, pour débloquer Microsoft Cocréer de toute façon. Si vous avez une carte graphique même vaguement moderne, ou même une carte intégrée décente, vous avez (probablement) tout ce dont vous avez besoin pour expérimenter la génération d’images IA localement sur votre machine.

Depuis leur lancement il y a près de deux ans, les modèles Stable Diffusion de Stability AI sont devenus la référence pour la génération d’images locales, en raison de leur taille incroyablement compacte, de leur licence relativement permissive et de leur facilité d’accès. Contrairement à de nombreux modèles propriétaires, comme Midjourney ou Dall-e d’OpenAI, vous pouvez télécharger le modèle et l’exécuter vous-même.

De ce fait, de nombreuses applications et services ont vu le jour au cours des dernières années, conçus pour rendre le déploiement de modèles dérivés de Stable Diffusion plus accessible sur tous types de matériels.

Dans ce didacticiel, nous verrons comment fonctionnent réellement les modèles de diffusion et explorerons l’une des applications les plus populaires pour les exécuter localement sur votre machine.

Conditions préalables:

L’interface Web Stable Diffusion d’Automatic1111 fonctionne sur une large gamme de matériels et, comparée à certains de nos autres logiciels de didacticiel d’IA pratiques, elle n’est pas non plus très gourmande en ressources. Voici ce dont vous aurez besoin :

  • Pour ce guide, vous aurez besoin d’un PC Windows ou Linux (nous utilisons Ubuntu 24.04 et Windows 11) ou d’un Mac Apple Silicon.
  • Une carte graphique compatible Nvidia ou AMD avec au moins 4 Go de vRAM. Toutes les cartes graphiques Nvidia raisonnablement modernes ou la plupart des cartes graphiques Radeon de la série 7000 (certaines cartes haut de gamme de la série 6000 peuvent également fonctionner) devraient fonctionner sans problème. Nous avons testé avec les Tesla P4, RTX 3060 12G, RTX 6000 Ada Generation de Nvidia, ainsi qu’avec le RX 7900 XT d’AMD.
  • Les derniers pilotes graphiques pour votre GPU particulier.
Lire aussi  Tendances des partenaires UC : générer des revenus pour les équipes grâce à la convergence fixe-mobile

Les bases des modèles de diffusion

Avant de nous lancer dans le déploiement et l’exécution de modèles de diffusion, il vaut probablement la peine d’examiner de manière approfondie leur fonctionnement réel.

En un mot, les modèles de diffusion ont été entraînés pour prendre du bruit aléatoire et, grâce à une série d’étapes de débruitage, parvenir à une image ou un échantillon audio reconnaissable, représentatif d’une invite spécifique.

Le processus de formation de ces modèles est également assez simple, du moins sur le plan conceptuel. Un vaste catalogue d’images, de graphiques ou parfois d’échantillons audio étiquetés – souvent extraits d’Internet – est importé et des niveaux de bruit croissants leur sont appliqués. Au fil de millions, voire de milliards d’échantillons, le modèle est entraîné à inverser ce processus, passant du bruit pur à une image reconnaissable.

Au cours de ce processus, les données et leurs étiquettes sont converties en vecteurs associés. Ces vecteurs servent de guide lors de l’inférence. Interrogé sur un “chiot jouant dans un champ d’herbe”, le modèle utilisera ces informations pour guider chaque étape du processus de débruitage vers le résultat souhaité.

Pour être clair, il s’agit d’une simplification excessive, mais cela donne un aperçu de base de la manière dont les modèles de diffusion sont capables de générer des images. Il se passe beaucoup plus de choses sous le capot, et nous vous recommandons de consulter Stable Diffusion de Computerphile. explicatif si vous souhaitez en savoir plus sur ce type particulier de modèle d’IA.

Lire aussi  Critique du LG 55G3 : Le meilleur téléviseur Oled du marché ? - Comparatif et prix

Premiers pas avec Automatic1111

L’outil le plus populaire pour exécuter des modèles de diffusion localement est sans doute l’interface Web Stable Diffusion d’Automatic1111.

L’interface Web à diffusion stable d’Automatic1111 donne accès à une multitude d’outils pour régler vos images générées par l’IA – Cliquez pour agrandir n’importe quelle image

Comme son nom l’indique, l’application fournit une interface utilisateur Web simple et auto-hébergée pour créer des images générées par l’IA. Elle prend en charge Windows, Linux et macOS et peut fonctionner sur Nvidia, AMD, Intel et Apple Silicon avec quelques réserves que nous aborderons plus tard.

L’installation réelle varie en fonction de votre système d’exploitation et de votre matériel, alors n’hésitez pas à passer à la section correspondant à votre configuration.

Note: Pour rendre ce guide plus facile à utiliser, nous l’avons divisé en quatre sections :

  • Introduction et installation sous Linux
  • Se lancer sous Windows et MacOS
  • Utilisation de l’interface Web de Stable Diffusion
  • Intégration et conclusion
  • Prise en charge des graphiques Intel

    Au moment de la rédaction de cet article, l’interface Web Stable Diffusion d’Automatic1111 ne prend pas en charge nativement les cartes graphiques Intel. Il existe cependant un fork d’OpenVINO qui le fait à la fois sur Windows et Linux. Malheureusement, nous n’avons pas pu tester cette méthode, donc votre expérience peut varier. Vous pouvez trouver plus d’informations sur le projet ici.

    Installation d’Automatic1111 sur Linux — AMD et Nvidia

    Pour commencer, nous allons commencer par faire fonctionner l’interface utilisateur Web de diffusion stable automatique 1111 – que nous allons simplement appeler A1111 à partir de maintenant – sur un système Ubuntu 24.04. Ces instructions devraient fonctionner pour les GPU AMD et Nvidia.

    Si vous utilisez une version différente de Linux, nous vous recommandons de consulter l’A1111. Dépôt GitHub pour plus d’informations sur les déploiements spécifiques à la distribution.

    Lire aussi  Découverte de nouveaux disques de formation planétaire dans notre galaxie

    Avant de commencer, nous devons installer quelques dépendances, à savoir git et le package software-properties-common :

    sudo apt install git software-properties-common -y

    Nous devrons également récupérer Python 3.10. Pour le meilleur ou pour le pire, Ubuntu 24.04 n’inclut pas cette version dans ses dépôts, nous devrons donc ajouter le PPA Deadsnakes avant de pouvoir récupérer les paquets dont nous avons besoin.

    sudo add-apt-repository ppa:deadsnakes/ppa -y sudo apt install python3.10-venv -y

    Remarque : lors de nos tests, nous avons constaté que les GPU AMD nécessitaient quelques packages supplémentaires pour fonctionner, ainsi qu’un redémarrage.

    #GPU AMD UNIQUEMENT sudo apt install libamd-comgr2 libhsa-runtime64-1 librccl1 librocblas0 librocfft0 librocm-smi64-1 librocsolver0 librocsparse0 rocm-device-libs-17 rocm-smi rocminfo hipcc libhiprand1 libhiprtc-builtins5 radeontop # GPU AMD UNIQUEMENT sudo utilisateurmod – aG rendu, vidéo $USER # GPU AMD UNIQUEMENT sudo reboot

    Une fois nos dépendances résolues, nous pouvons désormais extraire l’interface utilisateur Web A1111 à l’aide de git.

    git clone && cd stable-diffusion-webui python3.10 -m venv venv

    Enfin, nous pouvons lancer l’interface utilisateur Web en exécutant ce qui suit.

    ./webui.sh

    Le script commencera à télécharger les packages pertinents pour votre système spécifique, ainsi qu’à extraire le fichier de modèle Stable Diffusion 1.5.

    Si l’interface utilisateur Web de diffusion stable ne parvient pas à se charger sur les GPU AMD, vous devrez peut-être modifier le fichier webui-user.sh. Cela semble être lié à la prise en charge des appareils dans la version de ROCm fournie avec A1111. D’après ce que nous comprenons, ce problème devrait être résolu lors de la transition de l’application vers ROCm 6 ou version ultérieure.

    #GPU AMD OMLY echo “export HSA_OVERRIDE_GFX_VERSION=11.0.0” >> ~/stable-diffusion-webui/webui-user.sh

    Si vous rencontrez toujours des difficultés, consultez notre section « Drapeaux utiles » pour obtenir des conseils supplémentaires.

    Dans la section suivante, nous verrons comment faire fonctionner A1111 sous Windows et macOS.

    2024-06-29 18:40:00
    1719678445


    #guide #convivial #pour #gérer #Stable #Diffusion #maison #Register

    Facebook
    Twitter
    LinkedIn
    Pinterest

    Leave a Comment

    This site uses Akismet to reduce spam. Learn how your comment data is processed.

    ADVERTISEMENT