・ ・ |
Ignite é uma biblioteca de alto nível para ajudar no treinamento e avaliação de redes neurais em PyTorch de maneira flexível e transparente.
Clique na imagem para ver o código completo
Menos código do que o PyTorch puro, garantindo o máximo controle e simplicidade
Abordagem de biblioteca e sem inversão de controle do programa - Use Ignite onde e quando precisar
API extensível para métricas, gerenciadores de experimentos e outros componentes
Ignite é uma biblioteca que oferece três recursos de alto nível:
Chega de codificação for/while
loops em épocas e iterações. Os usuários instanciam mecanismos e os executam.
from ignite . engine import Engine , Events , create_supervised_evaluator
from ignite . metrics import Accuracy
# Setup training engine:
def train_step ( engine , batch ):
# Users can do whatever they need on a single iteration
# Eg. forward/backward pass for any number of models, optimizers, etc
# ...
trainer = Engine ( train_step )
# Setup single model evaluation engine
evaluator = create_supervised_evaluator ( model , metrics = { "accuracy" : Accuracy ()})
def validation ():
state = evaluator . run ( validation_data_loader )
# print computed metrics
print ( trainer . state . epoch , state . metrics )
# Run model's validation at the end of each epoch
trainer . add_event_handler ( Events . EPOCH_COMPLETED , validation )
# Start the training
trainer . run ( training_data_loader , max_epochs = 100 )
O legal dos manipuladores é que eles oferecem flexibilidade incomparável (em comparação com, por exemplo, retornos de chamada). Os manipuladores podem ser qualquer função: por exemplo, lambda, função simples, método de classe, etc. Assim, não precisamos herdar de uma interface e substituir seus métodos abstratos, o que poderia aumentar desnecessariamente seu código e sua complexidade.
trainer . add_event_handler ( Events . STARTED , lambda _ : print ( "Start training" ))
# attach handler with args, kwargs
mydata = [ 1 , 2 , 3 , 4 ]
logger = ...
def on_training_ended ( data ):
print ( f"Training is ended. mydata= { data } " )
# User can use variables from another scope
logger . info ( "Training is ended" )
trainer . add_event_handler ( Events . COMPLETED , on_training_ended , mydata )
# call any number of functions on a single event
trainer . add_event_handler ( Events . COMPLETED , lambda engine : print ( engine . state . times ))
@ trainer . on ( Events . ITERATION_COMPLETED )
def log_something ( engine ):
print ( engine . state . output )
# run the validation every 5 epochs
@ trainer . on ( Events . EPOCH_COMPLETED ( every = 5 ))
def run_validation ():
# run validation
# change some training variable once on 20th epoch
@ trainer . on ( Events . EPOCH_STARTED ( once = 20 ))
def change_training_variable ():
# ...
# Trigger handler with customly defined frequency
@ trainer . on ( Events . ITERATION_COMPLETED ( event_filter = first_x_iters ))
def log_gradients ():
# ...
Os eventos podem ser empilhados para permitir múltiplas chamadas:
@ trainer . on ( Events . COMPLETED | Events . EPOCH_COMPLETED ( every = 10 ))
def run_validation ():
# ...
Eventos personalizados relacionados a chamadas de etapa reversa e do otimizador:
from ignite . engine import EventEnum
class BackpropEvents ( EventEnum ):
BACKWARD_STARTED = 'backward_started'
BACKWARD_COMPLETED = 'backward_completed'
OPTIM_STEP_COMPLETED = 'optim_step_completed'
def update ( engine , batch ):
# ...
loss = criterion ( y_pred , y )
engine . fire_event ( BackpropEvents . BACKWARD_STARTED )
loss . backward ()
engine . fire_event ( BackpropEvents . BACKWARD_COMPLETED )
optimizer . step ()
engine . fire_event ( BackpropEvents . OPTIM_STEP_COMPLETED )
# ...
trainer = Engine ( update )
trainer . register_events ( * BackpropEvents )
@ trainer . on ( BackpropEvents . BACKWARD_STARTED )
def function_before_backprop ( engine ):
# ...
Métricas para várias tarefas: precisão, recall, exatidão, matriz de confusão, IoU etc., ~20 métricas de regressão.
Os usuários também podem compor suas métricas com facilidade a partir das existentes, usando operações aritméticas ou métodos de tocha.
precision = Precision ( average = False )
recall = Recall ( average = False )
F1_per_class = ( precision * recall * 2 / ( precision + recall ))
F1_mean = F1_per_class . mean () # torch mean method
F1_mean . attach ( engine , "F1" )
Do pip:
pip install pytorch-ignite
De Conda:
conda install ignite -c pytorch
Da fonte:
pip install git+https://github.com/pytorch/ignite
Do pip:
pip install --pre pytorch-ignite
Do conda (isso sugere instalar o lançamento noturno do pytorch em vez da versão estável como dependência):
conda install ignite -c pytorch-nightly
Extraia uma imagem docker pré-construída de nosso Docker Hub e execute-a com o docker v19.03+.
docker run --gpus all -it -v $PWD :/workspace/project --network=host --shm-size 16G pytorchignite/base:latest /bin/bash
Base
pytorchignite/base:latest
pytorchignite/apex:latest
pytorchignite/hvd-base:latest
pytorchignite/hvd-apex:latest
pytorchignite/msdp-apex:latest
Visão:
pytorchignite/vision:latest
pytorchignite/hvd-vision:latest
pytorchignite/apex-vision:latest
pytorchignite/hvd-apex-vision:latest
pytorchignite/msdp-apex-vision:latest
PNL:
pytorchignite/nlp:latest
pytorchignite/hvd-nlp:latest
pytorchignite/apex-nlp:latest
pytorchignite/hvd-apex-nlp:latest
pytorchignite/msdp-apex-nlp:latest
Para mais detalhes, veja aqui.
Algumas dicas para você começar:
Inspirados em torchvision/referências, fornecemos várias linhas de base reproduzíveis para tarefas de visão:
Características:
A maneira mais fácil de criar seus scripts de treinamento com PyTorch-Ignite:
Problemas do GitHub: perguntas, relatórios de bugs, solicitações de recursos, etc.
Discuss.PyTorch, categoria "Incendiar".
PyTorch-Ignite Discord Server: para conversar com a comunidade
Discussões do GitHub: discussões gerais relacionadas à biblioteca, ideias, perguntas e respostas, etc.
Criamos um formulário para "feedback do usuário". Agradecemos qualquer tipo de feedback e é assim que gostaríamos de ver nossa comunidade:
Obrigado!
Por favor, consulte as diretrizes de contribuição para obter mais informações.
Como sempre, PRs são bem-vindos :)
Veja outros projetos em "Usado por"
Se o seu projeto implementa um artigo, representa outros casos de uso não abordados em nossos tutoriais oficiais, no código da competição Kaggle, ou apenas seu código apresenta resultados interessantes e usa Ignite. Gostaríamos de adicionar seu projeto a esta lista, então envie um PR com uma breve descrição do projeto.
Se você usar PyTorch-Ignite em uma publicação científica, agradeceríamos citações ao nosso projeto.
@misc{pytorch-ignite,
author = {V. Fomin and J. Anmol and S. Desroziers and J. Kriss and A. Tejani},
title = {High-level library to help with training neural networks in PyTorch},
year = {2020},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/pytorch/ignite}},
}
PyTorch-Ignite é um projeto afiliado ao NumFOCUS, operado e mantido por voluntários na comunidade PyTorch na qualidade de indivíduos (e não como representantes de seus empregadores). Consulte a página "Sobre nós" para obter uma lista dos principais colaboradores. Para dúvidas e problemas de uso, consulte os vários canais aqui. Para todas as outras dúvidas e dúvidas, envie um e-mail para [email protected].