このリポジトリにより、tiny-cuda-nn プロジェクトからの Python ホイール ファイル (.whl) の作成が容易になり、Google Colab および Kaggle でのインストール プロセスが合理化されます。これは、Google colab および Kaggle で tiny-cuda-nn をソースから実行する場合の 20 分のビルド要件を回避し、時間を数秒に短縮するためです。
(関連するクレジットとライセンスはすべて Nvidia に帰属します。元の tiny-cuda-nn リポジトリのマテリアルとソフトウェア ライセンスは、このリポジトリには含まれていません。ライセンスの詳細については、元のプロジェクトを参照してください。)
ホイール名の現在の形式には、関連するグラフィックス カードのコンピューティング互換性を示すリリース ポストフィックスが含まれています (つまり、8.6 のコンピューティング互換性は .post86)。簡単にするために、関連する GPU モデルの Google Colab に以下のコードを使用できますが、マシン上でローカルに実行したい場合は、グラフィックス カード https://developer.nvidia.com/cuda-gpus に基づいて、このページを通じてコンピューティングの互換性をいつでも確認できます。
また、torch と cuda の互換性を示す cuda および torch のリリース接尾語 .post{arch-type}{cuda-version}{torch-version} も使用します。
T4 GPUの場合
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
A100 GPU および L4 GPU の場合
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
T4 GPUの場合
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-T4/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn
P100 GPUの場合
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-P100/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn