LightGBM é uma estrutura de aumento de gradiente que usa algoritmos de aprendizagem baseados em árvore. Ele foi projetado para ser distribuído e eficiente com as seguintes vantagens:
Para obter mais detalhes, consulte Recursos.
Beneficiando-se dessas vantagens, o LightGBM está sendo amplamente utilizado em muitas soluções vencedoras de competições de aprendizado de máquina.
Experimentos de comparação em conjuntos de dados públicos mostram que o LightGBM pode superar as estruturas de reforço existentes em eficiência e precisão, com consumo de memória significativamente menor. Além do mais, experimentos de aprendizagem distribuída mostram que o LightGBM pode atingir uma aceleração linear usando várias máquinas para treinamento em ambientes específicos.
Nossa documentação principal está em https://lightgbm.readthedocs.io/ e é gerada a partir deste repositório. Se você é novo no LightGBM, siga as instruções de instalação nesse site.
A seguir você pode querer ler:
Documentação para contribuidores:
Consulte os changelogs na página de lançamentos do GitHub.
Os projetos listados aqui oferecem formas alternativas de usar o LightGBM. Eles não são mantidos ou endossados oficialmente pela equipe de desenvolvimento LightGBM
.
JPMML (conversor Java PMML): https://github.com/jpmml/jpmml-lightgbm
Nyoka (conversor Python PMML): https://github.com/SoftwareAG/nyoka
Treelite (compilador de modelo para implantação eficiente): https://github.com/dmlc/treelite
lleaves (compilador de modelo baseado em LLVM para inferência eficiente): https://github.com/siboehm/lleaves
Hummingbird (compilador de modelo em cálculos de tensores): https://github.com/microsoft/hummingbird
Biblioteca de inferência florestal cuML (inferência acelerada por GPU): https://github.com/rapidsai/cuml
daal4py (inferência acelerada por CPU Intel): https://github.com/intel/scikit-learn-intelex/tree/master/daal4py
m2cgen (aplicadores de modelo para vários idiomas): https://github.com/BayesWitnesses/m2cgen
folhas (aplicador de modelo Go): https://github.com/dmitryikh/leaves
ONNXMLTools (conversor ONNX): https://github.com/onnx/onnxmltools
SHAP (explicador de saída do modelo): https://github.com/slundberg/shap
Shapash (visualização e interpretação do modelo): https://github.com/MAIF/shapash
dtreeviz (visualização da árvore de decisão e interpretação do modelo): https://github.com/parrt/dtreeviz
supertree (visualização interativa de árvores de decisão): https://github.com/mljar/supertree
SynapseML (LightGBM no Spark): https://github.com/microsoft/SynapseML
Carenagem Kubeflow (LightGBM no Kubernetes): https://github.com/kubeflow/fairing
Operador Kubeflow (LightGBM no Kubernetes): https://github.com/kubeflow/xgboost-operator
lightgbm_ray (LightGBM em Ray): https://github.com/ray-project/lightgbm_ray
Marte (LightGBM em Marte): https://github.com/mars-project/mars
ML.NET (pacote .NET/C#): https://github.com/dotnet/machinelearning
LightGBM.NET (pacote .NET/C#): https://github.com/rca22/LightGBM.Net
LightGBM Ruby (gema Ruby): https://github.com/ankane/lightgbm-ruby
LightGBM4j (ligação Java de alto nível): https://github.com/metarank/lightgbm4j
LightGBM4J (interface JVM para LightGBM escrita em Scala): https://github.com/seek-oss/lightgbm4j
Pacote Julia: https://github.com/IQVIA-ML/LightGBM.jl
lightgbm3 (ligação Rust): https://github.com/Mottl/lightgbm3-rs
MLServer (servidor de inferência para LightGBM): https://github.com/SeldonIO/MLServer
MLflow (rastreamento de experimentos, estrutura de monitoramento de modelo): https://github.com/mlflow/mlflow
FLAML (biblioteca AutoML para otimização de hiperparâmetros): https://github.com/microsoft/FLAML
MLJAR AutoML (AutoML em dados tabulares): https://github.com/mljar/mljar-supervised
Optuna (estrutura de otimização de hiperparâmetros): https://github.com/optuna/optuna
LightGBMLSS (modelagem probabilística com LightGBM): https://github.com/StatMixedML/LightGBMLSS
mlforecast (previsão de série temporal com LightGBM): https://github.com/Nixtla/mlforecast
skforecast (previsão de série temporal com LightGBM): https://github.com/JoaquinAmatRodrigo/skforecast
{bonsai}
(interface compatível com R {parsnip}
): https://github.com/tidymodels/bonsai
{mlr3extralearners}
(interface compatível com R {mlr3}
): https://github.com/mlr-org/mlr3extralearners
lightgbm-transform (ligação de transformação de recursos): https://github.com/microsoft/lightgbm-transform
postgresml
(treinamento e previsão LightGBM em SQL, por meio de uma extensão Postgres): https://github.com/postgresml/postgresml
pyodide
(execute o pacote lightgbm
Python em um navegador da web): https://github.com/pyodide/pyodide
vaex-ml
(biblioteca Python DataFrame com interface própria para LightGBM): https://github.com/vaexio/vaex
lightgbm
, monitoramos isso para novas perguntas.Verifique a página CONTRIBUINDO.
Este projeto adotou o Código de Conduta de Código Aberto da Microsoft. Para obter mais informações, consulte as Perguntas frequentes sobre o Código de Conduta ou entre em contato com [email protected] com perguntas ou comentários adicionais.
Yu Shi, Guolin Ke, Zhuoming Chen, Shuxin Zheng, Tie-Yan Liu. "Treinamento quantizado de árvores de decisão de aumento de gradiente" (link). Avanços em Sistemas de Processamento de Informação Neural 35 (NeurIPS 2022), pp.
Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, Tie-Yan Liu. "LightGBM: uma árvore de decisão de aumento de gradiente altamente eficiente" . Avanços em Sistemas de Processamento de Informação Neural 30 (NIPS 2017), pp.
Qi Meng, Guolin Ke, Taifeng Wang, Wei Chen, Qiwei Ye, Zhi-Ming Ma, Tie-Yan Liu. "Um algoritmo paralelo com eficiência de comunicação para árvore de decisão". Avanços em Sistemas de Processamento de Informação Neural 29 (NIPS 2016), pp.
Huan Zhang, Si Si e Cho-Jui Hsieh. "Aceleração de GPU para aumento de árvores em grande escala" . Conferência SysML, 2018.
Este projeto está licenciado sob os termos da licença do MIT. Consulte LICENÇA para obter detalhes adicionais.