tiny cuda nn wheels
1.7.2
该存储库有助于从tiny-cuda-nn项目创建Python轮文件(.whl),以简化Google Colab和Kaggle上的安装过程。这是为了规避 Google colab 和 Kaggle 上的 tiny-cuda-nn 20 分钟的构建要求,当从源头完成时,将其减少到几秒钟!
(所有相关的积分和许可证均归属于 Nvidia。原始tiny-cuda-nn 存储库中的材料和软件许可证不包含在此存储库中。有关许可详细信息,请参阅原始项目。)
轮子名称的当前格式包括一个版本后缀,表示相关显卡的计算兼容性(即 8.6 的计算兼容性是 .post86),为了简单起见,您可以使用下面的 Google Colab 代码来获取相关 GPU 模型,但是如果您想在计算机上本地运行它,您始终可以根据您的显卡通过此页面识别计算兼容性 https://developer.nvidia.com/cuda-gpus
它还使用 cuda 和 torch .post{arch-type}{cuda-version}{torch-version} 的发布后缀,表示 torch 和 cuda 兼容性。
适用于 T4 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
适用于 A100 GPU 和 L4 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
适用于 T4 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-T4/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn
适用于 P100 GPU
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-P100/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn