Remarque : Comme annoncé, Chainer est en phase de maintenance et le développement ultérieur sera limité aux corrections de bugs et à la maintenance uniquement.
Site Web | Documents | Guide d'installation | Tutoriels (ja) | Exemples (officiels, externes) | Concepts | ChainerX
Forum (en, ja) | Invitation Slack (en, ja) | Twitter (en, ja)
Chainer est un framework d'apprentissage en profondeur basé sur Python visant la flexibilité. Il fournit des API de différenciation automatique basées sur l'approche de définition par exécution (alias graphiques informatiques dynamiques) ainsi que des API de haut niveau orientées objet pour créer et former des réseaux de neurones. Il prend également en charge CUDA/cuDNN en utilisant CuPy pour une formation et une inférence hautes performances. Pour plus de détails sur Chainer, consultez les documents et ressources répertoriés ci-dessus et rejoignez la communauté sur Forum, Slack et Twitter.
Pour plus de détails, consultez le guide d'installation.
Pour installer Chainer, utilisez pip
.
$ pip install chainer
Pour activer la prise en charge de CUDA, CuPy est requis. Reportez-vous au guide d'installation de CuPy.
Nous fournissons l'image Docker officielle. Cette image prend en charge nvidia-docker. Connectez-vous à l'environnement avec la commande suivante et exécutez l'interpréteur Python pour utiliser Chainer avec la prise en charge de CUDA et cuDNN.
$ nvidia-docker run -it chainer/chainer /bin/bash
Voir le guide des contributions.
Consultez la documentation ChainerX.
Licence MIT (voir fichier LICENSE
).
Tokui, Seiya et coll. "Chainer : un cadre d'apprentissage en profondeur pour accélérer le cycle de recherche." Actes de la 25e Conférence internationale ACM SIGKDD sur la découverte des connaissances et l'exploration de données . ACM, 2019. URL BibTex
Tokui, S., Oono, K., Hido, S. et Clayton, J., Chainer : a Next-Generation Open Source Framework for Deep Learning, Actes de l'atelier sur les systèmes d'apprentissage automatique (LearningSys) lors de la vingt-neuvième conférence annuelle sur les systèmes de traitement de l'information neuronale (NIPS) , (2015) URL, BibTex
Akiba, T., Fukuda, K. et Suzuki, S., ChainerMN : Scalable Distributed Deep Learning Framework, Actes de l'atelier sur les systèmes ML lors de la trente et unième conférence annuelle sur les systèmes de traitement de l'information neuronale (NIPS) , (2017) URL, BibTex