Générateur de courts métrages YouTube (avec diffusion stable et 11Labs) ??
Aperçu
Ce projet vise à générer des courts métrages YouTube attrayants en utilisant la puissance de l'analyse de données non structurées. En tirant parti de l'API PRAW, du GPT (Generative Pretrained Transformer) et du modèle StableDiffusion de Stability AI, ce logiciel peut générer des vidéos YouTube Shorts créatives et innovantes, aidant ainsi les créateurs de contenu à produire du contenu captivant. Tester la chaîne YouTube
Commencer
- Intégration PRAW ? : L'application s'intègre à l'API PRAW (Python Reddit API Wrapper) pour extraire des données texte de haute qualité de Reddit. Ces données sont ensuite utilisées comme entrées pour le processus de génération de contenu.
- Génération de texte basée sur GPT : à l'aide d'un modèle GPT pré-entraîné, le logiciel génère des invites textuelles qui servent de base aux scripts YouTube Shorts.
- Synthèse d'image StableDiffusion ?️ : le modèle StableDiffusion de Stability AI est utilisé pour générer le contenu visuel correspondant pour chaque script court YouTube. Cela ajoute un aspect visuellement attrayant aux Shorts générés.
- Rendu vidéo ? : Le contenu texte et image généré est fusionné et les courts métrages YouTube sont rendus sous forme de fichiers vidéo téléchargeables qui peuvent être directement téléchargés sur YouTube.
Installation
- Clonez le dépôt en exécutant la commande suivante :
git clone https://github.com/[username]/MIS284N-UD-YT-Shorts-Generator.git
- Exécuter le notebook ?
Contribuer ?
Les contributions à ce projet sont les bienvenues. Voici comment vous pouvez vous impliquer :
- Forker le référentiel
- Créer une nouvelle branche (par exemple,
feature/add-new-feature
) - Apporter les modifications nécessaires et les valider
- Poussez votre branche vers votre référentiel forké
- Ouvrez une pull request expliquant vos modifications
Veuillez vous assurer que votre code adhère au style de code existant et que tous les tests réussissent avant de soumettre une pull request.
Permis ?
Ce projet est sous licence MIT.
Veuillez vous référer aux référentiels respectifs pour plus de détails et d'informations sur la licence.