bases:fabnum:ai:start

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
bases:fabnum:ai:start [2023/06/07 07:48]
admin [Générateurs de sons /musiques]
bases:fabnum:ai:start [2024/02/04 07:54] (Version actuelle)
admin
Ligne 29: Ligne 29:
  
   * Usage créatif : https://tube.interhacker.space/w/5Vzxarwv19aSLbT8bpoEFS   * Usage créatif : https://tube.interhacker.space/w/5Vzxarwv19aSLbT8bpoEFS
 +  * Une charte ? : https://reso-nance.org/charte-ai/
  
  
Ligne 43: Ligne 44:
   * [[https://letsenhance.io/]] permet d'upscaler une image basse resolution...   * [[https://letsenhance.io/]] permet d'upscaler une image basse resolution...
   * Imagen   * Imagen
 +  * [[https://www.krea.ai/home]]  Stable diffusion / avec plugin  en temps reel (possible de dessiner, webcam ...)
  
 +==== Structure de prompts ====
 +Voici une structure de prompt qui marche bien :
  
 +  - Medium : (old photography, painting, vector art)
 +  - Sujet : avec des adjectifs (a dirty city with a big port in the middle age, rats and homeless people)
 +  - Style : realiste, illustration, fantasy, cubism, journalistic, amateur et reference d'artistes
 +  - Detail Techniques (type de pellicule, focus objectif, appareil photo, type de papier etc..)
 +  - options diverses (ratio, style, chaos, ...)
 +  - negative prompt (ce que vous ne voulez pas) --no lipstick  
  
 +  * [[https://dorik.com/blog/how-to-write-midjourney-prompts]]
 +  * [[https://bowwe.com/blog/guide-to-midjourney-prompts#]]
 +  * [[https://spacestudio.fr/tutoriel-midjourney-guide-prompts-avances/]]
 +  * [[https://blog.yumens.fr/midjourney-bonnes-pratiques-prompt]]
 +
 +
 +==== Installer Stable diffusion en Local ====
 +
 +
 +<WRAP center round tip 60%>
 +Page [[Stable diffusion]]
 +</WRAP>
 +
 +
 +l'avantage de ne pas etre dependant d'internet et d'un service payant...
 +Par contre possible uniquement sur ordi puissant, avec GPU et image de qualité moyenne et resolution moindre.
 +Plus de reglage et moins de moderation...
 +
 +  - Installer Python >3.10.6 , git bash
 +  - Se creer un compte Git hub et  https://huggingface.co/
 +  - et suivre les instruction pour cloner le depot et lancer l'interface sur navigateur
 +  - télécharger divers modèles pour tester
 +
 +https://www.datacamp.com/tutorial/how-to-run-stable-diffusion
 +
 +==== Video bonus ====
 {{youtube>C7BnrNqhE-Q?medium}} {{youtube>C7BnrNqhE-Q?medium}}
 {{youtube>x1_xUqGK20E?medium}} {{youtube>x1_xUqGK20E?medium}}
Ligne 104: Ligne 140:
  
 A l'instar des générateurs d'images, quelques outils pour le son permettent un apprentissage profond à partir de collections d'enregistrements. Ces modèles peuvent ensuite être commandé pour reproduire "l'identité et caractéristique sonore" à partir de Prompt, ou d'autre "Input" (son en direct)... A l'instar des générateurs d'images, quelques outils pour le son permettent un apprentissage profond à partir de collections d'enregistrements. Ces modèles peuvent ensuite être commandé pour reproduire "l'identité et caractéristique sonore" à partir de Prompt, ou d'autre "Input" (son en direct)...
 +
 +  * ** Riffusion **   https://www.riffusion.com/  Basé sur STable diffusion avec des spectrogramme.
 +    * https://github.com/riffusion/riffusion   dépot offline
  
   * **Rave** (Ircam) :  Il est possible de créer un modèle avec quelques heures de sons injecté dans la moulinette Python Rave, puis ensuite d'utiliser ce modèle de generateur dans Max et Pd [nn~]   * **Rave** (Ircam) :  Il est possible de créer un modèle avec quelques heures de sons injecté dans la moulinette Python Rave, puis ensuite d'utiliser ce modèle de generateur dans Max et Pd [nn~]
  • bases/fabnum/ai/start.1686116900.txt.gz
  • Dernière modification: 2023/06/07 07:48
  • de admin