Anglais | Chine
Dépôt original : LivePortrait, merci aux auteurs pour le partage
Nouvelles fonctionnalités :
Si vous trouvez ce projet utile, merci de lui donner une étoile ✨✨
Journal des modifications
python run.py --src_image assets/examples/source/s39.jpg --dri_video assets/examples/driving/d0.mp4 --cfg configs/trt_infer.yaml --paste_back --animal
docker pull shaoguo/faster_liveportrait:v3
Ajout de la prise en charge des modèles animaux.
huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
, puis convertissez-le au format TRT.docker pull shaoguo/faster_liveportrait:v3
. Utilisation d'un modèle animal : python run.py --src_image assets/examples/source/s39.jpg --dri_video 0 --cfg configs/trt_infer.yaml --realtime --animal
Utilisation du modèle MediaPipe pour remplacer InsightFace
python app.py --mode trt --mp
ou python app.py --mode onnx --mp
python run.py --src_image assets/examples/source/s12.jpg --dri_video 0 --cfg configs/trt_mp_infer.yaml
FasterLivePortrait-windows
et double-cliquez sur all_onnx2trt.bat
pour convertir les fichiers onnx, ce qui prendra un certain temps.app.bat
, ouvrez la page Web : http://localhost:9870/
camera.bat
et appuyez sur q
pour arrêter. Si vous souhaitez modifier l'image cible, exécutez en ligne de commande : camera.bat assets/examples/source/s9.jpg
brew install ffmpeg
conda create -n flip python=3.10 && conda activate flip
pip install -r requirements_macos.txt
huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
python app.py --mode onnx
docker pull shaoguo/faster_liveportrait:v3
$FasterLivePortrait_ROOT
par le répertoire local dans lequel vous avez téléchargé FasterLivePortrait : docker run -it --gpus=all
--name faster_liveportrait
-v $FasterLivePortrait_ROOT :/root/FasterLivePortrait
--restart=always
-p 9870:9870
shaoguo/faster_liveportrait:v3
/bin/bash
pip install -r requirements.txt
huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
.pip install onnxruntime
. Cependant, l’inférence CPU est extrêmement lente et n’est pas recommandée. Le dernier onnxruntime-gpu ne prend toujours pas en charge grid_sample cuda, mais j'ai trouvé une branche qui le prend en charge. Suivez ces étapes pour installer onnxruntime-gpu
à partir des sources :git clone https://github.com/microsoft/onnxruntime
git checkout liqun/ImageDecoder-cuda
. Merci à liqun pour l'implémentation de grid_sample avec cuda !cuda_version
et CMAKE_CUDA_ARCHITECTURES
en fonction de votre machine : ./build.sh --parallel
--build_shared_lib --use_cuda
--cuda_version 11.8
--cuda_home /usr/local/cuda --cudnn_home /usr/local/cuda/
--config Release --build_wheel --skip_tests
--cmake_extra_defines CMAKE_CUDA_ARCHITECTURES= " 60;70;75;80;86 "
--cmake_extra_defines CMAKE_CUDA_COMPILER=/usr/local/cuda/bin/nvcc
--disable_contrib_ops
--allow_running_as_root
pip install build/Linux/Release/dist/onnxruntime_gpu-1.17.0-cp310-cp310-linux_x86_64.whl
python run.py
--src_image assets/examples/source/s10.jpg
--dri_video assets/examples/driving/d14.mp4
--cfg configs/onnx_infer.yaml
git clone https://github.com/SeanWangJS/grid-sample3d-trt-plugin
CMakeLists.txt
en : set_target_properties(${PROJECT_NAME} PROPERTIES CUDA_ARCHITECTURES "60;70;75;80;86")
export PATH=/usr/local/cuda/bin:$PATH
mkdir build && cd build
cmake .. -DTensorRT_ROOT=$TENSORRT_HOME
, remplacez $TENSORRT_HOME par votre propre répertoire racine TensorRT.make
, rappelez-vous l'adresse du fichier .so, remplacez /opt/grid-sample3d-trt-plugin/build/libgrid_sample_3d_plugin.so
dans scripts/onnx2trt.py
et src/models/predictor.py
par votre propre chemin de fichier .sohuggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
. Convertissez tous les modèles ONNX en TensorRT, exécutez sh scripts/all_onnx2trt.sh
et sh scripts/all_onnx2trt_animal.sh
python run.py
--src_image assets/examples/source/s10.jpg
--dri_video assets/examples/driving/d14.mp4
--cfg configs/trt_infer.yaml
python run.py
--src_image assets/examples/source/s10.jpg
--dri_video 0
--cfg configs/trt_infer.yaml
--realtime
python app.py --mode onnx
python app.py --mode trt
http://localhost:9870/
Suivez ma chaîne shipinhao pour des mises à jour continues sur mon contenu AIGC. N'hésitez pas à m'envoyer un message pour des opportunités de collaboration.