このリポジトリに関する質問には、この HuggingFace チャットボットを使用して回答してください。
Instant-NGP は最近、NeRF のようなニューラル グラフィックス プリミティブ用のマルチ解像度ハッシュ エンコーディングを導入しました。 tiny-cuda-nn をベースとした、主に C++/CUDA でのオリジナルの NVIDIA 実装は、NeRF を最大 100 倍高速にトレーニングできます。
このプロジェクトは、Instant-NGP の純粋な PyTorch実装であり、AI 研究者がこの手法を試してさらに革新できるようにすることを目的として構築されています。
このプロジェクトは、非常に便利な NeRF-pytorch 実装の上に構築されています。
HashNeRF-pytorch (左) vs NeRF-pytorch (右):
わずか 5,000 回の反復 (1 台の 1050Ti で約 10 分) のトレーニングの後、鮮明な椅子のレンダリングが表示され始めます。 :)
ここから nerf 合成データセットをダウンロードします: Google ドライブ。
chair
HashNeRF モデルをトレーニングするには:
python run_nerf.py --config configs/chair.txt --finest_res 512 --log2_hashmap_size 19 --lrate 0.01 --lrate_decay 10
ficus
/ hotdog
などの他のオブジェクトをトレーニングするには、 configs/chair.txt
configs/{object}.txt
に置き換えます。
コードベースには以下の追加サポートがあります。
--tv-loss-weight
を使用します)--sparse-loss-weight
使用します) このリポジトリは、ScanNet データセットのシーンでの NeRF モデルのトレーニングをサポートするようになりました。個人的には、ScanNet データセットのセットアップは少し難しいと感じました。 ScanNet.md にいくつかの手順/注意事項が記載されています。
ニューラル グラフィックスの研究を加速するのに大いに役立つこの素晴らしい研究に対して、トーマス ミュラーと NVIDIA チームに敬意を表します。
@article{mueller2022instant,
title = {Instant Neural Graphics Primitives with a Multiresolution Hash Encoding},
author = {Thomas M"uller and Alex Evans and Christoph Schied and Alexander Keller},
journal = {arXiv:2201.05989},
year = {2022},
month = jan
}
また、非常に便利な NeRF-pytorch については、Yen-Chen Lin に感謝します。
@misc{lin2020nerfpytorch,
title={NeRF-pytorch},
author={Yen-Chen, Lin},
publisher = {GitHub},
journal = {GitHub repository},
howpublished={url{https://github.com/yenchenlin/nerf-pytorch/}},
year={2020}
}
このプロジェクトが役立つと思われる場合は、以下を引用することを検討してください。
@misc{bhalgat2022hashnerfpytorch,
title={HashNeRF-pytorch},
author={Yash Bhalgat},
publisher = {GitHub},
journal = {GitHub repository},
howpublished={url{https://github.com/yashbhalgat/HashNeRF-pytorch/}},
year={2022}
}