TensorLayer es una novedosa biblioteca de aprendizaje profundo y aprendizaje por refuerzo basada en TensorFlow diseñada para investigadores e ingenieros. Proporciona una extensa colección de capas neuronales personalizables para construir modelos avanzados de IA rápidamente, basándose en esto, las aplicaciones y tutoriales masivos de código abierto de la comunidad. TensorLayer recibe el premio al Mejor Software de Código Abierto de 2017 otorgado por la ACM Multimedia Society. Este proyecto también se puede encontrar en OpenI y Gitee.
TensorLayer es una nueva biblioteca de aprendizaje profundo diseñada teniendo en cuenta la simplicidad, la flexibilidad y el alto rendimiento.
TensorLayer se encuentra en un lugar único en los contenedores de TensorFlow. Otros contenedores como Keras y TFLearn ocultan muchas características poderosas de TensorFlow y brindan poco soporte para escribir modelos de IA personalizados. Inspiradas en PyTorch, las API de TensorLayer son simples, flexibles y pitónicas, lo que facilita el aprendizaje y, al mismo tiempo, son lo suficientemente flexibles para hacer frente a tareas complejas de IA. TensorLayer tiene una comunidad de rápido crecimiento. Ha sido utilizado por investigadores e ingenieros de todo el mundo, incluidos los de la Universidad de Pekín, el Imperial College de Londres, la UC Berkeley, la Universidad Carnegie Mellon, la Universidad de Stanford y empresas como Google, Microsoft, Alibaba, Tencent, Xiaomi y Bloomberg.
TensorLayer tiene documentación extensa tanto para principiantes como para profesionales. La documentación está disponible tanto en inglés como en chino.
Si desea probar las funciones experimentales en la rama maestra, puede encontrar el documento más reciente aquí.
Puede encontrar una gran colección de ejemplos que utilizan TensorLayer aquí y en el siguiente espacio:
TensorLayer 2.0 se basa en TensorFlow, numpy y otros. Para utilizar GPU, se requieren CUDA y cuDNN.
Instale TensorFlow:
pip3 install tensorflow-gpu==2.0.0-rc1 # TensorFlow GPU (version 2.0 RC1)
pip3 install tensorflow # CPU version
Instale la versión estable de TensorLayer:
pip3 install tensorlayer
Instale la versión de desarrollo inestable de TensorLayer:
pip3 install git+https://github.com/tensorlayer/tensorlayer.git
Si desea instalar las dependencias adicionales, también puede ejecutar
pip3 install --upgrade tensorlayer[all] # all additional dependencies
pip3 install --upgrade tensorlayer[extra] # only the `extra` dependencies
pip3 install --upgrade tensorlayer[contrib_loggers] # only the `contrib_loggers` dependencies
Si es usuario de TensorFlow 1.X, puede usar TensorLayer 1.11.0:
# For last stable version of TensorLayer 1.X
pip3 install --upgrade tensorlayer==1.11.0
La siguiente tabla muestra las velocidades de entrenamiento de VGG16 usando TensorLayer y TensorFlow nativo en una TITAN Xp.
Modo | librería | Formato de datos | Uso máximo de memoria de GPU (MB) | Uso máximo de memoria de la CPU (MB) | Uso promedio de memoria de la CPU (MB) | Tiempo de ejecución (seg.) |
---|---|---|---|---|---|---|
Autógrafo | TensorFlow 2.0 | último canal | 11833 | 2161 | 2136 | 74 |
TensorCapa 2.0 | último canal | 11833 | 2187 | 2169 | 76 | |
Gráfico | Keras | último canal | 8677 | 2580 | 2576 | 101 |
Ansioso | TensorFlow 2.0 | último canal | 8723 | 2052 | 2024 | 97 |
TensorCapa 2.0 | último canal | 8723 | 2010 | 2007 | 95 |
Lea las Directrices para colaboradores antes de enviar sus relaciones públicas.
Sugerimos a los usuarios que informen errores al utilizar problemas de Github. Los usuarios también pueden discutir cómo usar TensorLayer en el siguiente canal de slack.
Si encuentra que TensorLayer es útil para su proyecto, cite los siguientes artículos:
@article{tensorlayer2017,
author = {Dong, Hao and Supratak, Akara and Mai, Luo and Liu, Fangde and Oehmichen, Axel and Yu, Simiao and Guo, Yike},
journal = {ACM Multimedia},
title = {{TensorLayer: A Versatile Library for Efficient Deep Learning Development}},
url = {http://tensorlayer.org},
year = {2017}
}
@inproceedings{tensorlayer2021,
title={Tensorlayer 3.0: A Deep Learning Library Compatible With Multiple Backends},
author={Lai, Cheng and Han, Jiarong and Dong, Hao},
booktitle={2021 IEEE International Conference on Multimedia & Expo Workshops (ICMEW)},
pages={1--3},
year={2021},
organization={IEEE}
}