英語 | 中国語
元のリポジトリ: LivePortrait、共有してくれた作者に感謝
新機能:
このプロジェクトが役立つと思われた場合は、スターを付けてください✨✨
変更履歴
python run.py --src_image assets/examples/source/s39.jpg --dri_video assets/examples/driving/d0.mp4 --cfg configs/trt_infer.yaml --paste_back --animal
docker pull shaoguo/faster_liveportrait:v3
動物モデルのサポートが追加されました。
huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
、TRT 形式に変換します。docker pull shaoguo/faster_liveportrait:v3
。動物モデルの使用: python run.py --src_image assets/examples/source/s39.jpg --dri_video 0 --cfg configs/trt_infer.yaml --realtime --animal
MediaPipe モデルを使用して InsightFace を置き換える
python app.py --mode trt --mp
またはpython app.py --mode onnx --mp
python run.py --src_image assets/examples/source/s12.jpg --dri_video 0 --cfg configs/trt_mp_infer.yaml
FasterLivePortrait-windows
と入力し、 all_onnx2trt.bat
ダブルクリックして onnx ファイルを変換します。これには時間がかかります。app.bat
ダブルクリックし、Web ページを開きます: http://localhost:9870/
camera.bat
ダブルクリックし、 q
を押して停止します。ターゲット画像を変更したい場合は、コマンドラインで次のコマンドを実行します: camera.bat assets/examples/source/s9.jpg
brew install ffmpeg
conda create -n flip python=3.10 && conda activate flip
pip install -r requirements_macos.txt
huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
python app.py --mode onnx
docker pull shaoguo/faster_liveportrait:v3
$FasterLivePortrait_ROOT
FasterLivePortrait をダウンロードしたローカル ディレクトリに置き換えます。 docker run -it --gpus=all
--name faster_liveportrait
-v $FasterLivePortrait_ROOT :/root/FasterLivePortrait
--restart=always
-p 9870:9870
shaoguo/faster_liveportrait:v3
/bin/bash
pip install -r requirements.txt
実行します。huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
。pip install onnxruntime
。ただし、CPU 推論は非常に遅いため、推奨されません。最新の onnxruntime-gpu はまだ Grid_sample cuda をサポートしていませんが、それをサポートするブランチを見つけました。ソースからonnxruntime-gpu
インストールするには、次の手順に従います。git clone https://github.com/microsoft/onnxruntime
git checkout liqun/ImageDecoder-cuda
。 cuda 実装を使用した Grid_sample を提供してくれた liqun に感謝します。cuda_version
とCMAKE_CUDA_ARCHITECTURES
を変更します。 ./build.sh --parallel
--build_shared_lib --use_cuda
--cuda_version 11.8
--cuda_home /usr/local/cuda --cudnn_home /usr/local/cuda/
--config Release --build_wheel --skip_tests
--cmake_extra_defines CMAKE_CUDA_ARCHITECTURES= " 60;70;75;80;86 "
--cmake_extra_defines CMAKE_CUDA_COMPILER=/usr/local/cuda/bin/nvcc
--disable_contrib_ops
--allow_running_as_root
pip install build/Linux/Release/dist/onnxruntime_gpu-1.17.0-cp310-cp310-linux_x86_64.whl
python run.py
--src_image assets/examples/source/s10.jpg
--dri_video assets/examples/driving/d14.mp4
--cfg configs/onnx_infer.yaml
git clone https://github.com/SeanWangJS/grid-sample3d-trt-plugin
CMakeLists.txt
の 30 行目を次のように変更します: set_target_properties(${PROJECT_NAME} PROPERTIES CUDA_ARCHITECTURES "60;70;75;80;86")
export PATH=/usr/local/cuda/bin:$PATH
mkdir build && cd build
cmake .. -DTensorRT_ROOT=$TENSORRT_HOME
、 $TENSORRT_HOME を独自の TensorRT ルート ディレクトリに置き換えます。make
、.so ファイルのアドレスを覚えておいて、 scripts/onnx2trt.py
およびsrc/models/predictor.py
の/opt/grid-sample3d-trt-plugin/build/libgrid_sample_3d_plugin.so
を独自の .so ファイル パスに置き換えます。huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
。すべての ONNX モデルを TensorRT に変換し、 sh scripts/all_onnx2trt.sh
およびsh scripts/all_onnx2trt_animal.sh
を実行します。 python run.py
--src_image assets/examples/source/s10.jpg
--dri_video assets/examples/driving/d14.mp4
--cfg configs/trt_infer.yaml
python run.py
--src_image assets/examples/source/s10.jpg
--dri_video 0
--cfg configs/trt_infer.yaml
--realtime
python app.py --mode onnx
python app.py --mode trt
http://localhost:9870/
AIGC コンテンツの継続的な更新については、shipinhao チャンネルをフォローしてください。コラボレーションの機会については、お気軽にメッセージをください。