영어 | 중국어
원본 저장소: LivePortrait, 공유해 주신 작성자에게 감사드립니다.
새로운 기능:
이 프로젝트가 유용하다고 생각되면 별점을 주세요 ✨✨
변경 내역
python run.py --src_image assets/examples/source/s39.jpg --dri_video assets/examples/driving/d0.mp4 --cfg configs/trt_infer.yaml --paste_back --animal
docker pull shaoguo/faster_liveportrait:v3
동물 모델에 대한 지원이 추가되었습니다.
huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
그런 다음 TRT 형식으로 변환합니다.docker pull shaoguo/faster_liveportrait:v3
. 동물 모델 사용: python run.py --src_image assets/examples/source/s39.jpg --dri_video 0 --cfg configs/trt_infer.yaml --realtime --animal
MediaPipe 모델을 사용하여 InsightFace 대체
python app.py --mode trt --mp
또는 python app.py --mode onnx --mp
python run.py --src_image assets/examples/source/s12.jpg --dri_video 0 --cfg configs/trt_mp_infer.yaml
FasterLivePortrait-windows
입력하고 all_onnx2trt.bat
두 번 클릭하여 onnx 파일을 변환하는데 시간이 좀 걸립니다.app.bat
두 번 클릭하고 웹페이지( http://localhost:9870/
를 엽니다.camera.bat
두 번 클릭하고 q
눌러 중지합니다. 대상 이미지를 변경하려면 명령줄에서 실행하세요: camera.bat assets/examples/source/s9.jpg
brew install ffmpeg
conda create -n flip python=3.10 && conda activate flip
pip install -r requirements_macos.txt
huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
python app.py --mode onnx
docker pull shaoguo/faster_liveportrait:v3
$FasterLivePortrait_ROOT
FasterLivePortrait를 다운로드한 로컬 디렉터리로 바꿉니다. docker run -it --gpus=all
--name faster_liveportrait
-v $FasterLivePortrait_ROOT :/root/FasterLivePortrait
--restart=always
-p 9870:9870
shaoguo/faster_liveportrait:v3
/bin/bash
pip install -r requirements.txt
실행huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
.pip install onnxruntime
. 그러나 CPU 추론은 매우 느리므로 권장되지 않습니다. 최신 onnxruntime-gpu는 여전히 Grid_sample cuda를 지원하지 않지만 이를 지원하는 브랜치를 찾았습니다. 소스에서 onnxruntime-gpu
설치하려면 다음 단계를 따르세요.git clone https://github.com/microsoft/onnxruntime
git checkout liqun/ImageDecoder-cuda
. Cuda 구현이 포함된 Grid_sample을 제공해 주신 liqun에게 감사드립니다!cuda_version
및 CMAKE_CUDA_ARCHITECTURES
변경하고 컴파일합니다. ./build.sh --parallel
--build_shared_lib --use_cuda
--cuda_version 11.8
--cuda_home /usr/local/cuda --cudnn_home /usr/local/cuda/
--config Release --build_wheel --skip_tests
--cmake_extra_defines CMAKE_CUDA_ARCHITECTURES= " 60;70;75;80;86 "
--cmake_extra_defines CMAKE_CUDA_COMPILER=/usr/local/cuda/bin/nvcc
--disable_contrib_ops
--allow_running_as_root
pip install build/Linux/Release/dist/onnxruntime_gpu-1.17.0-cp310-cp310-linux_x86_64.whl
python run.py
--src_image assets/examples/source/s10.jpg
--dri_video assets/examples/driving/d14.mp4
--cfg configs/onnx_infer.yaml
git clone https://github.com/SeanWangJS/grid-sample3d-trt-plugin
CMakeLists.txt
의 30행을 다음과 같이 수정합니다: set_target_properties(${PROJECT_NAME} PROPERTIES CUDA_ARCHITECTURES "60;70;75;80;86")
export PATH=/usr/local/cuda/bin:$PATH
mkdir build && cd build
cmake .. -DTensorRT_ROOT=$TENSORRT_HOME
, $TENSORRT_HOME을 자신의 TensorRT 루트 디렉터리로 바꾸세요.make
, .so 파일의 주소를 기억하고 scripts/onnx2trt.py
및 src/models/predictor.py
의 /opt/grid-sample3d-trt-plugin/build/libgrid_sample_3d_plugin.so
를 자신의 .so 파일 경로로 바꾸십시오.huggingface-cli download warmshao/FasterLivePortrait --local-dir ./checkpoints
. 모든 ONNX 모델을 TensorRT로 변환하고 sh scripts/all_onnx2trt.sh
및 sh scripts/all_onnx2trt_animal.sh
실행하세요. python run.py
--src_image assets/examples/source/s10.jpg
--dri_video assets/examples/driving/d14.mp4
--cfg configs/trt_infer.yaml
python run.py
--src_image assets/examples/source/s10.jpg
--dri_video 0
--cfg configs/trt_infer.yaml
--realtime
python app.py --mode onnx
python app.py --mode trt
http://localhost:9870/
내 AIGC 콘텐츠에 대한 지속적인 업데이트를 보려면 내 shipinhao 채널을 팔로우하세요. 협업 기회를 원하시면 언제든지 저에게 메시지를 보내주세요.