Implementasi Bayesian Additive Regression Trees (BART) di JAX.
Jika Anda tidak tahu apa itu BART, tapi tahu XGBoost, pertimbangkan BART sebagai semacam Bayesian XGBoost. bartz membuat BART berjalan secepat XGBoost.
BART adalah teknik regresi Bayesian nonparametrik. Diberikan prediktor pelatihan
Modul Python ini menyediakan implementasi BART yang berjalan pada GPU, untuk memproses kumpulan data besar dengan lebih cepat. Ini juga bagus di CPU. Sebagian besar implementasi BART lainnya ditujukan untuk R, dan hanya dijalankan pada CPU.
Di CPU, bartz berjalan dengan kecepatan dbarts (implementasi tercepat yang saya tahu) jika n > 20.000, tetapi menggunakan 1/20 memori. Pada GPU, kecepatan premium bergantung pada ukuran sampel; lebih mudah melalui CPU hanya untuk n > 10.000. Kecepatan maksimum saat ini adalah 200x, pada Nvidia A100 dan dengan setidaknya 2.000.000 observasi.
Notebook Colab ini menjalankan bartz dengan n = 100.000 observasi, p = 1000 prediktor, 10.000 pohon, untuk 1000 iterasi MCMC, dalam 5 menit.
Artikel: Petrillo (2024), "Pohon Regresi Aditif Bayesian yang Sangat Cepat di GPU", arXiv:2410.23244.
Untuk mengutip perangkat lunak secara langsung, termasuk versi spesifiknya, gunakan zenodo.