Una implementación de árboles de regresión aditiva bayesiana (BART) en JAX.
Si no sabe qué es BART, pero conoce XGBoost, considere BART como una especie de XGBoost bayesiano. bartz hace que BART funcione tan rápido como XGBoost.
BART es una técnica de regresión bayesiana no paramétrica. Dados predictores de entrenamiento
Este módulo de Python proporciona una implementación de BART que se ejecuta en GPU para procesar grandes conjuntos de datos más rápido. También es bueno en CPU. La mayoría de las otras implementaciones de BART son para R y se ejecutan únicamente en la CPU.
En la CPU, bartz se ejecuta a la velocidad de dbarts (la implementación más rápida que conozco) si n > 20.000, pero usando 1/20 de la memoria. En GPU, la prima de velocidad depende del tamaño de la muestra; es conveniente sobre CPU sólo para n > 10.000. La aceleración máxima es actualmente de 200x, en una Nvidia A100 y con al menos 2.000.000 de observaciones.
Este cuaderno de Colab ejecuta bartz con n = 100 000 observaciones, p = 1000 predictores, 10 000 árboles, para 1000 iteraciones de MCMC, en 5 minutos.
Artículo: Petrillo (2024), "Árboles de regresión aditiva bayesiana muy rápidos en GPU", arXiv:2410.23244.
Para citar el software directamente, incluida la versión específica, utilice zenodo.