LightGBM est un framework d'amélioration de gradient qui utilise des algorithmes d'apprentissage basés sur des arbres. Il est conçu pour être distribué et efficace avec les avantages suivants :
Pour plus de détails, veuillez vous référer aux fonctionnalités.
Bénéficiant de ces avantages, LightGBM est largement utilisé dans de nombreuses solutions gagnantes de concours d'apprentissage automatique.
Des expériences de comparaison sur des ensembles de données publics montrent que LightGBM peut surpasser les frameworks de boosting existants en termes d'efficacité et de précision, avec une consommation de mémoire nettement inférieure. De plus, des expériences d'apprentissage distribué montrent que LightGBM peut atteindre une accélération linéaire en utilisant plusieurs machines pour l'entraînement dans des contextes spécifiques.
Notre documentation principale se trouve sur https://lightgbm.readthedocs.io/ et est générée à partir de ce référentiel. Si vous êtes nouveau sur LightGBM, suivez les instructions d'installation sur ce site.
Ensuite, vous voudrez peut-être lire :
Documentation pour les contributeurs :
Veuillez vous référer aux journaux des modifications sur la page des versions de GitHub.
Les projets répertoriés ici offrent des façons alternatives d'utiliser LightGBM. Ils ne sont ni maintenus ni officiellement approuvés par l'équipe de développement LightGBM
.
JPMML (convertisseur Java PMML) : https://github.com/jpmml/jpmml-lightgbm
Nyoka (convertisseur Python PMML) : https://github.com/SoftwareAG/nyoka
Treelite (compilateur de modèles pour un déploiement efficace) : https://github.com/dmlc/treelite
lleaves (compilateur de modèles basé sur LLVM pour une inférence efficace) : https://github.com/siboehm/lleaves
Hummingbird (compilateur de modèles dans les calculs tensoriels) : https://github.com/microsoft/hummingbird
Bibliothèque d'inférence forestière cuML (inférence accélérée par GPU) : https://github.com/rapidsai/cuml
daal4py (inférence accélérée par le processeur Intel) : https://github.com/intel/scikit-learn-intelex/tree/master/daal4py
m2cgen (applicateurs de modèles pour différentes langues) : https://github.com/BayesWitnesses/m2cgen
feuilles (applicateur de modèle Go) : https://github.com/dmitryikh/leaves
ONNXMLTools (convertisseur ONNX) : https://github.com/onnx/onnxmltools
SHAP (explication de sortie du modèle) : https://github.com/slundberg/shap
Shapash (visualisation et interprétation du modèle) : https://github.com/MAIF/shapash
dtreeviz (visualisation de l'arbre de décision et interprétation du modèle) : https://github.com/parrt/dtreeviz
supertree (visualisation interactive des arbres de décision) : https://github.com/mljar/supertree
SynapseML (LightGBM sur Spark) : https://github.com/microsoft/SynapseML
Carénage Kubeflow (LightGBM sur Kubernetes) : https://github.com/kubeflow/fairing
Opérateur Kubeflow (LightGBM sur Kubernetes) : https://github.com/kubeflow/xgboost-operator
lightgbm_ray (LightGBM sur Ray) : https://github.com/ray-project/lightgbm_ray
Mars (LightGBM sur Mars) : https://github.com/mars-project/mars
ML.NET (package .NET/C#) : https://github.com/dotnet/machinelearning
LightGBM.NET (paquet .NET/C#) : https://github.com/rca22/LightGBM.Net
LightGBM Ruby (gemme Ruby) : https://github.com/ankane/lightgbm-ruby
LightGBM4j (liaison Java de haut niveau) : https://github.com/metarank/lightgbm4j
LightGBM4J (interface JVM pour LightGBM écrite en Scala) : https://github.com/seek-oss/lightgbm4j
Package Julia : https://github.com/IQVIA-ML/LightGBM.jl
lightgbm3 (liaison Rust) : https://github.com/Mottl/lightgbm3-rs
MLServer (serveur d'inférence pour LightGBM) : https://github.com/SeldonIO/MLServer
MLflow (suivi des expériences, cadre de surveillance des modèles) : https://github.com/mlflow/mlflow
FLAML (bibliothèque AutoML pour l'optimisation des hyperparamètres) : https://github.com/microsoft/FLAML
MLJAR AutoML (AutoML sur données tabulaires) : https://github.com/mljar/mljar-supervised
Optuna (framework d'optimisation des hyperparamètres) : https://github.com/optuna/optuna
LightGBMLSS (modélisation probabiliste avec LightGBM) : https://github.com/StatMixedML/LightGBMLSS
mlforecast (prévision de séries chronologiques avec LightGBM) : https://github.com/Nixtla/mlforecast
skforecast (prévision de séries chronologiques avec LightGBM) : https://github.com/JoaquinAmatRodrigo/skforecast
{bonsai}
(interface compatible R {parsnip}
) : https://github.com/tidymodels/bonsai
{mlr3extralearners}
(interface compatible R {mlr3}
) : https://github.com/mlr-org/mlr3extralearners
lightgbm-transform (liaison de transformation de fonctionnalités) : https://github.com/microsoft/lightgbm-transform
postgresml
(formation et prédiction LightGBM en SQL, via une extension Postgres) : https://github.com/postgresml/postgresml
pyodide
(exécutez le package Python lightgbm
dans un navigateur Web) : https://github.com/pyodide/pyodide
vaex-ml
(bibliothèque Python DataFrame avec sa propre interface vers LightGBM) : https://github.com/vaexio/vaex
lightgbm
, nous surveillons cela pour de nouvelles questions.Consultez la page CONTRIBUTION.
Ce projet a adopté le code de conduite Microsoft Open Source. Pour plus d’informations, consultez la FAQ sur le code de conduite ou contactez [email protected] pour toute question ou commentaire supplémentaire.
Yu Shi, Guolin Ke, Zhuoming Chen, Shuxin Zheng, Tie-Yan Liu. "Formation quantifiée des arbres de décision améliorant le gradient" (lien). Avancées dans les systèmes de traitement de l'information neuronale 35 (NeurIPS 2022), pages 18822-18833.
Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, Tie-Yan Liu. "LightGBM : un arbre de décision très efficace pour augmenter les dégradés". Avancées dans les systèmes de traitement de l'information neuronale 30 (NIPS 2017), pp. 3149-3157.
Qi Meng, Guolin Ke, Taifeng Wang, Wei Chen, Qiwei Ye, Zhi-Ming Ma, Tie-Yan Liu. "Un algorithme parallèle efficace en matière de communication pour l'arbre de décision". Avancées dans les systèmes de traitement de l'information neuronale 29 (NIPS 2016), pp. 1279-1287.
Huan Zhang, Si Si et Cho-Jui Hsieh. "Accélération GPU pour l'amélioration des arbres à grande échelle". Conférence SysML, 2018.
Ce projet est sous licence selon les termes de la licence MIT. Voir LICENCE pour plus de détails.