utiliser le ML génératif d'image en vidéo par IA pour halluciner des séquences vidéo étendues à partir d'une image source unique.
vous aurez besoin d'une clé API de replique.com exportée en tant que variable d'environnement.
testé sur Debian Linux
cela nécessite ffmpeg
cela coûte de l'argent à faire fonctionner *voir les tarifs de replique.com
placez vos images dans le dossier ./images. La sortie mp4 se trouve dans le dossier de sortie.
sudo apt-get install ffmpeg
git clone https://github.com/m-onz/hallucinate
npm i
export REPLICATE_API_TOKEN=r8_BRU **********************************
node hallucinate.js
attends longtemps !
Vous pouvez ajouter des images au dossier images
à partir de n'importe quelle source. J'ai utilisé ce modèle
Avec l'invite :
shocking abstract 3D art in the style of andy warhol and francis bacon for a gallery that shocks the viewer exploring digital, glitch and modern culture, distorted abstract wireframe mesh forms
Vous pouvez également mettre à jour le script hallucinate.js
pour configurer le modèle image-vidéo :
const output = await replicate . run (
"ali-vilab/i2vgen-xl:5821a338d00033abaaba89080a17eb8783d9a17ed710a6b4246a18e0900ccad4" ,
{
input : {
image : dataURI ,
prompt : "shocking abstract 3D art in the style of andy warhol and francis bacon for a gallery that shocks the viewer exploring digital, glitch and modern culture, distorted abstract wireframe mesh forms" ,
max_frames : 33
}
}
) ;
Vous pouvez utiliser ce modèle pour générer un .gif à partir d'une vidéo .mp4.
Vous pouvez voir un exemple de vidéo de cette sortie ici