Hinweis: Wie angekündigt befindet sich Chainer in der Wartungsphase und die weitere Entwicklung wird sich ausschließlich auf Fehlerbehebungen und Wartung beschränken.
Website | Dokumente | Installationsanleitung | Tutorials (ja) | Beispiele (offiziell, extern) | Konzepte | ChainerX
Forum (en, ja) | Slack-Einladung (en, ja) | Twitter (en, ja)
Chainer ist ein Python-basiertes Deep-Learning-Framework, das auf Flexibilität abzielt. Es bietet automatische Differenzierungs-APIs basierend auf dem Define-by-Run -Ansatz (auch bekannt als dynamische Berechnungsgraphen) sowie objektorientierte High-Level-APIs zum Aufbau und Training neuronaler Netze. Es unterstützt auch CUDA/cuDNN mit CuPy für Hochleistungstraining und Inferenz. Weitere Informationen zu Chainer finden Sie in den oben aufgeführten Dokumenten und Ressourcen. Treten Sie der Community im Forum, Slack und Twitter bei.
Weitere Einzelheiten finden Sie in der Installationsanleitung.
Um Chainer zu installieren, verwenden Sie pip
.
$ pip install chainer
Um die CUDA-Unterstützung zu aktivieren, ist CuPy erforderlich. Weitere Informationen finden Sie in der CuPy-Installationsanleitung.
Wir stellen das offizielle Docker-Image zur Verfügung. Dieses Image unterstützt nvidia-docker. Melden Sie sich mit dem folgenden Befehl bei der Umgebung an und führen Sie den Python-Interpreter aus, um Chainer mit CUDA- und cuDNN-Unterstützung zu verwenden.
$ nvidia-docker run -it chainer/chainer /bin/bash
Siehe Beitragsleitfaden.
Siehe die ChainerX-Dokumentation.
MIT-Lizenz (siehe LICENSE
Datei).
Tokui, Seiya et al. „Chainer: Ein Deep-Learning-Framework zur Beschleunigung des Forschungszyklus.“ Tagungsband der 25. ACM SIGKDD International Conference on Knowledge Discovery & Data Mining . ACM, 2019. URL BibTex
Tokui, S., Oono, K., Hido, S. und Clayton, J., Chainer: ein Open-Source-Framework der nächsten Generation für Deep Learning, Proceedings of Workshop on Machine Learning Systems (LearningSys) in der 29. Jahreskonferenz über neuronale Informationsverarbeitungssysteme (NIPS) , (2015) URL, BibTex
Akiba, T., Fukuda, K. und Suzuki, S., ChainerMN: Scalable Distributed Deep Learning Framework, Proceedings of Workshop on ML Systems in The Thirty-first Annual Conference on Neural Information Processing Systems (NIPS) , (2017) URL, BibTex