微型 cuda nn 輪子
1.7.2
此儲存庫有助於從tiny-cuda-nn專案建立Python輪檔案(.whl),以簡化Google Colab和Kaggle上的安裝流程。這是為了規避 Google colab 和 Kaggle 上的 tiny-cuda-nn 20 分鐘的建置要求,當從源頭完成時,將其減少到幾秒鐘!
(所有相關的積分和許可證均歸屬於 Nvidia。原始tiny-cuda-nn 存儲庫中的材料和軟體許可證不包含在此存儲庫中。有關許可詳細信息,請參閱原始項目。)
輪子名稱的目前格式包括一個版本後綴,表示相關顯示卡的運算相容性(即 8.6 的運算相容性是 .post86),為了簡單起見,您可以使用下面的 Google Colab 程式碼來取得相關 GPU 模型,但如果您想在電腦上本地運行它,您始終可以根據您的顯示卡透過此頁面識別計算相容性https://developer.nvidia.com/cuda-gpus
它還使用 cuda 和 torch .post{arch-type}{cuda-version}{torch-version} 的發布後綴,表示 torch 和 cuda 相容性。
適用於 T4 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
適用於 A100 GPU 和 L4 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
適用於 T4 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-T4/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn
適用於 P100 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-P100/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn