LightGBM es un marco de mejora de gradiente que utiliza algoritmos de aprendizaje basados en árboles. Está diseñado para ser distribuido y eficiente con las siguientes ventajas:
Para obtener más detalles, consulte Funciones.
Al beneficiarse de estas ventajas, LightGBM se utiliza ampliamente en muchas soluciones ganadoras de concursos de aprendizaje automático.
Los experimentos de comparación en conjuntos de datos públicos muestran que LightGBM puede superar a los marcos de impulso existentes tanto en eficiencia como en precisión, con un consumo de memoria significativamente menor. Es más, los experimentos de aprendizaje distribuido muestran que LightGBM puede lograr una aceleración lineal mediante el uso de múltiples máquinas para entrenar en entornos específicos.
Nuestra documentación principal se encuentra en https://lightgbm.readthedocs.io/ y se genera a partir de este repositorio. Si es nuevo en LightGBM, siga las instrucciones de instalación en ese sitio.
A continuación quizás quieras leer:
Documentación para contribuyentes:
Consulte los registros de cambios en la página de lanzamientos de GitHub.
Los proyectos enumerados aquí ofrecen formas alternativas de utilizar LightGBM. El equipo de desarrollo LightGBM
no los mantiene ni los respalda oficialmente.
JPMML (convertidor Java PMML): https://github.com/jpmml/jpmml-lightgbm
Nyoka (convertidor Python PMML): https://github.com/SoftwareAG/nyoka
Treelite (compilador de modelos para una implementación eficiente): https://github.com/dmlc/treelite
lleaves (compilador de modelos basado en LLVM para una inferencia eficiente): https://github.com/siboehm/lleaves
Hummingbird (compilador de modelos en cálculos tensoriales): https://github.com/microsoft/hummingbird
Biblioteca de inferencia forestal cuML (inferencia acelerada por GPU): https://github.com/rapidsai/cuml
daal4py (inferencia acelerada por CPU Intel): https://github.com/intel/scikit-learn-intelex/tree/master/daal4py
m2cgen (aplicadores de modelos para varios idiomas): https://github.com/BayesWitnesses/m2cgen
hojas (aplicador de modelo Go): https://github.com/dmitryikh/leaves
ONNXMLTools (convertidor ONNX): https://github.com/onnx/onnxmltools
SHAP (explicación de resultados del modelo): https://github.com/slundberg/shap
Shapash (visualización e interpretación del modelo): https://github.com/MAIF/shapash
dtreeviz (visualización de árboles de decisión e interpretación de modelos): https://github.com/parrt/dtreeviz
supertree (visualización interactiva de árboles de decisión): https://github.com/mljar/supertree
SynapseML (LightGBM en Spark): https://github.com/microsoft/SynapseML
Carenado de Kubeflow (LightGBM en Kubernetes): https://github.com/kubeflow/fairing
Operador de Kubeflow (LightGBM en Kubernetes): https://github.com/kubeflow/xgboost-operator
lightgbm_ray (LightGBM en Ray): https://github.com/ray-project/lightgbm_ray
Marte (LightGBM en Marte): https://github.com/mars-project/mars
ML.NET (paquete .NET/C#): https://github.com/dotnet/machinelearning
LightGBM.NET (paquete .NET/C#): https://github.com/rca22/LightGBM.Net
LightGBM Ruby (gema de rubí): https://github.com/ankane/lightgbm-ruby
LightGBM4j (enlace de alto nivel de Java): https://github.com/metarank/lightgbm4j
LightGBM4J (interfaz JVM para LightGBM escrita en Scala): https://github.com/seek-oss/lightgbm4j
Paquete Julia: https://github.com/IQVIA-ML/LightGBM.jl
lightgbm3 (enlace de óxido): https://github.com/Mottl/lightgbm3-rs
MLServer (servidor de inferencia para LightGBM): https://github.com/SeldonIO/MLServer
MLflow (seguimiento de experimentos, marco de monitoreo de modelos): https://github.com/mlflow/mlflow
FLAML (biblioteca AutoML para optimización de hiperparámetros): https://github.com/microsoft/FLAML
MLJAR AutoML (AutoML en datos tabulares): https://github.com/mljar/mljar-supervised
Optuna (marco de optimización de hiperparámetros): https://github.com/optuna/optuna
LightGBMLSS (modelado probabilístico con LightGBM): https://github.com/StatMixedML/LightGBMLSS
mlforecast (previsión de series temporales con LightGBM): https://github.com/Nixtla/mlforecast
skforecast (previsión de series temporales con LightGBM): https://github.com/JoaquinAmatRodrigo/skforecast
{bonsai}
(interfaz compatible con R {parsnip}
): https://github.com/tidymodels/bonsai
{mlr3extralearners}
(interfaz compatible con R {mlr3}
): https://github.com/mlr-org/mlr3extralearners
lightgbm-transform (enlace de transformación de funciones): https://github.com/microsoft/lightgbm-transform
postgresml
(entrenamiento y predicción de LightGBM en SQL, a través de una extensión de Postgres): https://github.com/postgresml/postgresml
pyodide
(ejecute el paquete Python lightgbm
en un navegador web): https://github.com/pyodide/pyodide
vaex-ml
(biblioteca Python DataFrame con su propia interfaz para LightGBM): https://github.com/vaexio/vaex
lightgbm
, lo monitoreamos para detectar nuevas preguntas.Consulte la página CONTRIBUCIÓN.
Este proyecto ha adoptado el Código de conducta de código abierto de Microsoft. Para obtener más información, consulte las preguntas frecuentes sobre el Código de conducta o comuníquese con [email protected] si tiene alguna pregunta o comentario adicional.
Yu Shi, Guolin Ke, Zhuoming Chen, Shuxin Zheng, Tie-Yan Liu. "Entrenamiento cuantificado de árboles de decisión que aumentan el gradiente" (enlace). Avances en los sistemas de procesamiento de información neuronal 35 (NeurIPS 2022), págs. 18822-18833.
Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, Tie-Yan Liu. "LightGBM: un árbol de decisión de impulso de gradiente altamente eficiente". Avances en sistemas de procesamiento de información neuronal 30 (NIPS 2017), págs. 3149-3157.
Qi Meng, Guolin Ke, Taifeng Wang, Wei Chen, Qiwei Ye, Zhi-Ming Ma, Tie-Yan Liu. "Un algoritmo paralelo de comunicación eficiente para el árbol de decisiones". Avances en sistemas de procesamiento de información neuronal 29 (NIPS 2016), págs. 1279-1287.
Huan Zhang, Si Si y Cho-Jui Hsieh. "Aceleración de GPU para el impulso de árboles a gran escala". Conferencia SysML, 2018.
Este proyecto está licenciado según los términos de la licencia MIT. Consulte LICENCIA para obtener detalles adicionales.