TensorLayer est une nouvelle bibliothèque d'apprentissage en profondeur et d'apprentissage par renforcement basée sur TensorFlow, conçue pour les chercheurs et les ingénieurs. Il fournit une vaste collection de couches neuronales personnalisables pour créer rapidement des modèles d'IA avancés, sur la base de didacticiels et d'applications de masse open source de la communauté. TensorLayer reçoit le prix du meilleur logiciel Open Source 2017 par l'ACM Multimedia Society. Ce projet est également disponible sur OpenI et Gitee.
TensorLayer est une nouvelle bibliothèque d'apprentissage en profondeur conçue dans un souci de simplicité, de flexibilité et de hautes performances.
TensorLayer occupe une place unique dans les wrappers TensorFlow. D'autres wrappers comme Keras et TFLearn cachent de nombreuses fonctionnalités puissantes de TensorFlow et fournissent peu de prise en charge pour l'écriture de modèles d'IA personnalisés. Inspirées de PyTorch, les API TensorLayer sont simples, flexibles et pythoniques, ce qui facilite l'apprentissage tout en étant suffisamment flexible pour faire face à des tâches d'IA complexes. TensorLayer possède une communauté en pleine croissance. Il a été utilisé par des chercheurs et des ingénieurs du monde entier, notamment ceux de l'Université de Pékin, de l'Imperial College de Londres, de l'UC Berkeley, de l'Université Carnegie Mellon, de l'Université de Stanford et des entreprises comme Google, Microsoft, Alibaba, Tencent, Xiaomi et Bloomberg.
TensorLayer dispose d'une documentation complète pour les débutants et les professionnels. La documentation est disponible en anglais et en chinois.
Si vous souhaitez essayer les fonctionnalités expérimentales sur la branche master, vous pouvez trouver le dernier document ici.
Vous pouvez trouver une large collection d'exemples utilisant TensorLayer ici et dans l'espace suivant :
TensorLayer 2.0 s'appuie sur TensorFlow, numpy et autres. Pour utiliser des GPU, CUDA et cuDNN sont requis.
Installez TensorFlow :
pip3 install tensorflow-gpu==2.0.0-rc1 # TensorFlow GPU (version 2.0 RC1)
pip3 install tensorflow # CPU version
Installez la version stable de TensorLayer :
pip3 install tensorlayer
Installez la version de développement instable de TensorLayer :
pip3 install git+https://github.com/tensorlayer/tensorlayer.git
Si vous souhaitez installer les dépendances supplémentaires, vous pouvez également exécuter
pip3 install --upgrade tensorlayer[all] # all additional dependencies
pip3 install --upgrade tensorlayer[extra] # only the `extra` dependencies
pip3 install --upgrade tensorlayer[contrib_loggers] # only the `contrib_loggers` dependencies
Si vous utilisez TensorFlow 1.X, vous pouvez utiliser TensorLayer 1.11.0 :
# For last stable version of TensorLayer 1.X
pip3 install --upgrade tensorlayer==1.11.0
Le tableau suivant montre les vitesses d'entraînement de VGG16 à l'aide de TensorLayer et de TensorFlow natif sur un TITAN Xp.
Mode | Lib | Format des données | Utilisation maximale de la mémoire GPU (Mo) | Utilisation maximale de la mémoire CPU (Mo) | Utilisation moyenne de la mémoire du processeur (Mo) | Durée d'exécution (secondes) |
---|---|---|---|---|---|---|
Autographe | TensorFlow 2.0 | dernière chaîne | 11833 | 2161 | 2136 | 74 |
TensorLayer 2.0 | dernière chaîne | 11833 | 2187 | 2169 | 76 | |
Graphique | Kéras | dernière chaîne | 8677 | 2580 | 2576 | 101 |
Désireux | TensorFlow 2.0 | dernière chaîne | 8723 | 2052 | 2024 | 97 |
TensorLayer 2.0 | dernière chaîne | 8723 | 2010 | 2007 | 95 |
Veuillez lire les lignes directrices du contributeur avant de soumettre vos PR.
Nous suggérons aux utilisateurs de signaler les bogues à l'aide des problèmes Github. Les utilisateurs peuvent également discuter de la façon d'utiliser TensorLayer dans le canal Slack suivant.
Si vous trouvez TensorLayer utile pour votre projet, veuillez citer les articles suivants :
@article{tensorlayer2017,
author = {Dong, Hao and Supratak, Akara and Mai, Luo and Liu, Fangde and Oehmichen, Axel and Yu, Simiao and Guo, Yike},
journal = {ACM Multimedia},
title = {{TensorLayer: A Versatile Library for Efficient Deep Learning Development}},
url = {http://tensorlayer.org},
year = {2017}
}
@inproceedings{tensorlayer2021,
title={Tensorlayer 3.0: A Deep Learning Library Compatible With Multiple Backends},
author={Lai, Cheng and Han, Jiarong and Dong, Hao},
booktitle={2021 IEEE International Conference on Multimedia & Expo Workshops (ICMEW)},
pages={1--3},
year={2021},
organization={IEEE}
}