TensorLayer é uma nova biblioteca de aprendizado profundo e aprendizado por reforço baseada em TensorFlow, projetada para pesquisadores e engenheiros. Ele fornece uma extensa coleção de camadas neurais personalizáveis para construir modelos avançados de IA rapidamente, com base nisso, os tutoriais e aplicativos em massa de código aberto da comunidade. TensorLayer é premiado como Melhor Software de Código Aberto de 2017 pela ACM Multimedia Society. Este projeto também pode ser encontrado em OpenI e Gitee.
TensorLayer é uma nova biblioteca de aprendizado profundo projetada com simplicidade, flexibilidade e alto desempenho em mente.
O TensorLayer ocupa um lugar único nos wrappers do TensorFlow. Outros wrappers como Keras e TFLearn ocultam muitos recursos poderosos do TensorFlow e fornecem pouco suporte para escrever modelos de IA personalizados. Inspiradas no PyTorch, as APIs TensorLayer são simples, flexíveis e Pythonic, facilitando o aprendizado e ao mesmo tempo flexíveis o suficiente para lidar com tarefas complexas de IA. TensorLayer tem uma comunidade em rápido crescimento. Ele tem sido usado por pesquisadores e engenheiros de todo o mundo, incluindo os da Universidade de Pequim, Imperial College London, UC Berkeley, Universidade Carnegie Mellon, Universidade de Stanford e empresas como Google, Microsoft, Alibaba, Tencent, Xiaomi e Bloomberg.
TensorLayer possui extensa documentação para iniciantes e profissionais. A documentação está disponível em inglês e chinês.
Se quiser experimentar os recursos experimentais no branch master, você pode encontrar o documento mais recente aqui.
Você pode encontrar uma grande coleção de exemplos que usam TensorLayer aqui e no seguinte espaço:
TensorLayer 2.0 depende de TensorFlow, numpy e outros. Para usar GPUs, são necessários CUDA e cuDNN.
Instale o TensorFlow:
pip3 install tensorflow-gpu==2.0.0-rc1 # TensorFlow GPU (version 2.0 RC1)
pip3 install tensorflow # CPU version
Instale a versão estável do TensorLayer:
pip3 install tensorlayer
Instale a versão de desenvolvimento instável do TensorLayer:
pip3 install git+https://github.com/tensorlayer/tensorlayer.git
Se quiser instalar as dependências adicionais, você também pode executar
pip3 install --upgrade tensorlayer[all] # all additional dependencies
pip3 install --upgrade tensorlayer[extra] # only the `extra` dependencies
pip3 install --upgrade tensorlayer[contrib_loggers] # only the `contrib_loggers` dependencies
Se você for usuário do TensorFlow 1.X, poderá usar o TensorLayer 1.11.0:
# For last stable version of TensorLayer 1.X
pip3 install --upgrade tensorlayer==1.11.0
A tabela a seguir mostra as velocidades de treinamento do VGG16 usando TensorLayer e TensorFlow nativo em um TITAN Xp.
Modo | Biblioteca | Formato de dados | Uso máximo de memória GPU (MB) | Uso máximo de memória da CPU (MB) | Uso médio de memória da CPU (MB) | Tempo de execução (seg) |
---|---|---|---|---|---|---|
Autógrafo | TensorFlow 2.0 | último canal | 11833 | 2161 | 2136 | 74 |
TensorLayer 2.0 | último canal | 11833 | 2187 | 2169 | 76 | |
Gráfico | Keras | último canal | 8677 | 2580 | 2576 | 101 |
Ansioso | TensorFlow 2.0 | último canal | 8723 | 2052 | 2024 | 97 |
TensorLayer 2.0 | último canal | 8723 | 2010 | 2007 | 95 |
Leia as Diretrizes para Colaboradores antes de enviar seus PRs.
Sugerimos que os usuários relatem bugs usando problemas do Github. Os usuários também podem discutir como usar o TensorLayer no seguinte canal do Slack.
Se você achar o TensorLayer útil para o seu projeto, cite os seguintes artigos:
@article{tensorlayer2017,
author = {Dong, Hao and Supratak, Akara and Mai, Luo and Liu, Fangde and Oehmichen, Axel and Yu, Simiao and Guo, Yike},
journal = {ACM Multimedia},
title = {{TensorLayer: A Versatile Library for Efficient Deep Learning Development}},
url = {http://tensorlayer.org},
year = {2017}
}
@inproceedings{tensorlayer2021,
title={Tensorlayer 3.0: A Deep Learning Library Compatible With Multiple Backends},
author={Lai, Cheng and Han, Jiarong and Dong, Hao},
booktitle={2021 IEEE International Conference on Multimedia & Expo Workshops (ICMEW)},
pages={1--3},
year={2021},
organization={IEEE}
}