Ce référentiel facilite la création de fichiers de roue Python (.whl) à partir du projet tiny-cuda-nn pour rationaliser le processus d'installation sur Google Colab et Kaggle. Il s'agit de contourner l'exigence de construction de 20 minutes pour tiny-cuda-nn sur Google Colab et Kaggle, lorsqu'elle est effectuée à partir de la source, pour la réduire à quelques secondes !
(Tous les crédits et licences pertinents sont attribués à Nvidia. Les matériaux et licences de logiciels du référentiel tiny-cuda-nn d'origine ne sont pas inclus dans ce référentiel. Veuillez vous référer au projet d'origine pour les détails des licences.)
Le format actuel des noms de roues inclut un suffixe de version qui signifie la compatibilité de calcul de la carte graphique concernée (c'est-à-dire que la compatibilité de calcul de 8.6 est .post86). Pour plus de simplicité, vous pouvez utiliser le code ci-dessous pour Google Colab pour le modèle de GPU concerné, mais si vous souhaitez l'exécuter localement sur votre machine, vous pouvez toujours identifier la compatibilité de calcul via cette page en fonction de votre carte graphique https://developer.nvidia.com/cuda-gpus
Il utilise également un suffixe de version pour cuda et torch .post{arch-type}{cuda-version}{torch-version} qui signifie la compatibilité de torch et cuda.
Pour GPU T4
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post75240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
Pour GPU A100 et GPU L4
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/1.7.2/tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl !pip install tinycudann-1.7.post89240121-cp310-cp310-linux_x86_64.whl --force-reinstall import tinycudann as tcnn
Pour GPU T4
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-T4/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn
Pour GPU P100
!curl -L "https://github.com/OutofAi/tiny-cuda-nn-wheels/releases/download/Kaggle-P100/tinycudann-1.7-cp310-cp310-linux_x86_64.whl" -o tinycudann-1.7-cp310-cp310-linux_x86_64.whl !python -m pip install tinycudann-1.7-cp310-cp310-linux_x86_64.whl --force-reinstall --no-cache-dir import tinycudann as tcnn