LightGBM ist ein Framework zur Gradientenverstärkung, das baumbasierte Lernalgorithmen verwendet. Es ist so konzipiert, dass es verteilt und effizient ist und folgende Vorteile bietet:
Weitere Einzelheiten finden Sie unter Funktionen.
LightGBM profitiert von diesen Vorteilen und wird häufig in vielen Gewinnerlösungen von Wettbewerben für maschinelles Lernen eingesetzt.
Vergleichsexperimente mit öffentlichen Datensätzen zeigen, dass LightGBM bestehende Boosting-Frameworks sowohl hinsichtlich Effizienz als auch Genauigkeit übertreffen kann, bei deutlich geringerem Speicherverbrauch. Darüber hinaus zeigen verteilte Lernexperimente, dass LightGBM eine lineare Beschleunigung erzielen kann, indem mehrere Maschinen für das Training in bestimmten Umgebungen verwendet werden.
Unsere Hauptdokumentation befindet sich unter https://lightgbm.readthedocs.io/ und wird aus diesem Repository generiert. Wenn Sie LightGBM noch nicht kennen, befolgen Sie die Installationsanweisungen auf dieser Website.
Als nächstes möchten Sie vielleicht lesen:
Dokumentation für Mitwirkende:
Weitere Informationen finden Sie in den Änderungsprotokollen auf der GitHub-Release-Seite.
Die hier aufgeführten Projekte bieten alternative Möglichkeiten zur Nutzung von LightGBM. Sie werden vom LightGBM
Entwicklungsteam weder gepflegt noch offiziell unterstützt.
JPMML (Java PMML-Konverter): https://github.com/jpmml/jpmml-lightgbm
Nyoka (Python PMML-Konverter): https://github.com/SoftwareAG/nyoka
Treelite (Modell-Compiler für effiziente Bereitstellung): https://github.com/dmlc/treelite
lleaves (LLVM-basierter Modellcompiler für effiziente Inferenz): https://github.com/siboehm/lleaves
Hummingbird (Modellcompiler für Tensorberechnungen): https://github.com/microsoft/hummingbird
cuML Forest Inference Library (GPU-beschleunigte Inferenz): https://github.com/rapidsai/cuml
daal4py (Intel CPU-beschleunigte Inferenz): https://github.com/intel/scikit-learn-intelex/tree/master/daal4py
m2cgen (Modellanwender für verschiedene Sprachen): https://github.com/BayesWitnesses/m2cgen
Blätter (Go-Modellanwender): https://github.com/dmitryikh/leaves
ONNXMLTools (ONNX-Konverter): https://github.com/onnx/onnxmltools
SHAP (Modellausgabe-Erklärer): https://github.com/slundberg/shap
Shapash (Modellvisualisierung und -interpretation): https://github.com/MAIF/shapash
dtreeviz (Entscheidungsbaumvisualisierung und Modellinterpretation): https://github.com/parrt/dtreeviz
supertree (interaktive Visualisierung von Entscheidungsbäumen): https://github.com/mljar/supertree
SynapseML (LightGBM auf Spark): https://github.com/microsoft/SynapseML
Kubeflow Fairing (LightGBM auf Kubernetes): https://github.com/kubeflow/fairing
Kubeflow-Operator (LightGBM auf Kubernetes): https://github.com/kubeflow/xgboost-operator
lightgbm_ray (LightGBM auf Ray): https://github.com/ray-project/lightgbm_ray
Mars (LightGBM auf dem Mars): https://github.com/mars-project/mars
ML.NET (.NET/C#-Paket): https://github.com/dotnet/machinelearning
LightGBM.NET (.NET/C#-Paket): https://github.com/rca22/LightGBM.Net
LightGBM Ruby (Rubin-Edelstein): https://github.com/ankane/lightgbm-ruby
LightGBM4j (Java-High-Level-Bindung): https://github.com/metarank/lightgbm4j
LightGBM4J (JVM-Schnittstelle für LightGBM geschrieben in Scala): https://github.com/seek-oss/lightgbm4j
Julia-Paket: https://github.com/IQVIA-ML/LightGBM.jl
lightgbm3 (Rust-Bindung): https://github.com/Mottl/lightgbm3-rs
MLServer (Inferenzserver für LightGBM): https://github.com/SeldonIO/MLServer
MLflow (Experiment-Tracking, Modellüberwachungs-Framework): https://github.com/mlflow/mlflow
FLAML (AutoML-Bibliothek zur Hyperparameteroptimierung): https://github.com/microsoft/FLAML
MLJAR AutoML (AutoML für Tabellendaten): https://github.com/mljar/mljar-supervised
Optuna (Hyperparameter-Optimierungsframework): https://github.com/optuna/optuna
LightGBMLSS (probabilistische Modellierung mit LightGBM): https://github.com/StatMixedML/LightGBMLSS
mlforecast (Zeitreihenvorhersage mit LightGBM): https://github.com/Nixtla/mlforecast
skforecast (Zeitreihenvorhersage mit LightGBM): https://github.com/JoaquinAmatRodrigo/skforecast
{bonsai}
(R {parsnip}
-kompatible Schnittstelle): https://github.com/tidymodels/bonsai
{mlr3extralearners}
(R {mlr3}
-kompatible Schnittstelle): https://github.com/mlr-org/mlr3extralearners
lightgbm-transform (Feature-Transformationsbindung): https://github.com/microsoft/lightgbm-transform
postgresml
(LightGBM-Training und -Vorhersage in SQL über eine Postgres-Erweiterung): https://github.com/postgresml/postgresml
pyodide
( lightgbm
Python-Paket in einem Webbrowser ausführen): https://github.com/pyodide/pyodide
vaex-ml
(Python DataFrame-Bibliothek mit eigener Schnittstelle zu LightGBM): https://github.com/vaexio/vaex
lightgbm
-Tag. Wir überwachen dies auf neue Fragen.Überprüfen Sie die Seite BEITRAGEN.
Dieses Projekt hat den Microsoft Open Source Verhaltenskodex übernommen. Weitere Informationen finden Sie in den häufig gestellten Fragen zum Verhaltenskodex oder wenden Sie sich bei weiteren Fragen oder Kommentaren an [email protected].
Yu Shi, Guolin Ke, Zhuoming Chen, Shuxin Zheng, Tie-Yan Liu. „Quantisiertes Training von Gradient Boosting Decision Trees“ (Link). Fortschritte in neuronalen Informationsverarbeitungssystemen 35 (NeurIPS 2022), S. 18822-18833.
Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, Tie-Yan Liu. „LightGBM: Ein hocheffizienter Entscheidungsbaum zur Gradientenverstärkung“ . Fortschritte in neuronalen Informationsverarbeitungssystemen 30 (NIPS 2017), S. 3149-3157.
Qi Meng, Guolin Ke, Taifeng Wang, Wei Chen, Qiwei Ye, Zhi-Ming Ma, Tie-Yan Liu. „Ein kommunikationseffizienter paralleler Algorithmus für den Entscheidungsbaum“. Fortschritte in neuronalen Informationsverarbeitungssystemen 29 (NIPS 2016), S. 1279-1287.
Huan Zhang, Si Si und Cho-Jui Hsieh. „GPU-Beschleunigung für großflächiges Tree-Boosting“ . SysML-Konferenz, 2018.
Dieses Projekt ist unter den Bedingungen der MIT-Lizenz lizenziert. Weitere Einzelheiten finden Sie unter LIZENZ.