Liste géniale de Pytorch
Contenu
- Pytorch et bibliothèques associées
- PNL et traitement de la parole
- Vision par ordinateur
- Bibliothèques probabilistes/génératives
- Autres bibliothèques
- Tutoriels, livres et exemples
- Implémentations papier
- Discussions et conférences
- Pytorch ailleurs
Pytorch et bibliothèques associées
- pytorch : Tenseurs et réseaux de neurones dynamiques en Python avec une forte accélération GPU.
- Captum : interprétabilité et compréhension du modèle pour PyTorch.
PNL et traitement de la parole :
- Texte pytorch : contenu lié au texte de la torche.
- pytorch-seq2seq : un cadre pour les modèles séquence à séquence (seq2seq) implémentés dans PyTorch.
- anuvada : Modèles interprétables pour la PNL à l'aide de PyTorch.
- audio : E/S audio simples pour pytorch.
- boucle : une méthode pour générer de la parole sur plusieurs locuteurs
- fairseq-py : boîte à outils séquence à séquence de recherche sur l'IA de Facebook écrite en Python.
- discours : implémentation de PyTorch ASR.
- OpenNMT-py : traduction automatique neuronale open source dans PyTorch http://opennmt.net
- neuralcoref : résolution de coréférence de pointe basée sur les réseaux neuronaux et spaCy huggingface.co/coref
- sentiment-discovery : modélisation linguistique non supervisée à grande échelle pour une classification robuste des sentiments.
- MUSE : une bibliothèque d'intégrations de mots multilingues non supervisées ou supervisées
- nmtpytorch : cadre de traduction automatique neuronale dans PyTorch.
- pytorch-wavenet : une implémentation de WaveNet avec une génération rapide
- Tacotron-pytorch : Tacotron : Vers une synthèse vocale de bout en bout.
- AllenNLP : une bibliothèque de recherche PNL open source, construite sur PyTorch.
- PyTorch-NLP : utilitaires de texte et ensembles de données pour PyTorch pytorchnlp.readthedocs.io
- quick-nlp : bibliothèque Pytorch NLP basée sur FastAI.
- TTS : apprentissage profond pour Text2Speech
- LASER : représentations de SEntences indépendantes du langage
- pyannote-audio : éléments de base neuronaux pour la diarisation des locuteurs : détection de l'activité vocale, détection des changements de locuteurs, intégration des locuteurs
- gensen : Apprentissage des représentations de phrases distribuées à usage général via un apprentissage multitâche à grande échelle.
- traduire : Traduire - une bibliothèque de langage PyTorch.
- espnet : boîte à outils de traitement vocal de bout en bout espnet.github.io/espnet
- pythia : une suite logicielle pour la réponse visuelle aux questions
- UnsupervisedMT : traduction automatique non supervisée basée sur des phrases et neuronale.
- jiant : La boîte à outils d'apprentissage de la représentation de phrases jiant.
- BERT-PyTorch : implémentation Pytorch du BERT 2018 de Google AI, avec une simple annotation
- InferSent : intégrations de phrases (InferSent) et code de formation pour NLI.
- uis-rnn : Il s'agit de la bibliothèque de l'algorithme UIS-RNN (Unbounded Interleaved-State Recurrent Neural Network), correspondant à l'article Fully Supervised Speaker Diarisation. arxiv.org/abs/1810.04719
- flair : un cadre très simple pour le traitement du langage naturel (NLP) de pointe
- pytext : un framework de modélisation de langage naturel basé sur PyTorch fb.me/pytextdocs
- voicefilter : implémentation non officielle par PyTorch du système VoiceFilter de Google AI http://swpark.me/voicefilter
- BERT-NER : Pytorch-Named-Entity-Recognition-with-BERT.
- transfer-nlp : bibliothèque NLP conçue pour une recherche et un développement flexibles
- texar-pytorch : boîte à outils pour l'apprentissage automatique et la génération de texte, dans PyTorch texar.io
- pytorch-kaldi : pytorch-kaldi est un projet visant à développer des systèmes de reconnaissance vocale hybrides DNN/RNN de pointe. La partie DNN est gérée par pytorch, tandis que l'extraction des fonctionnalités, le calcul des étiquettes et le décodage sont effectués avec la boîte à outils kaldi.
- NeMo : Neural Modules : une boîte à outils pour l'IA conversationnelle nvidia.github.io/NeMo
- pytorch-struct : Une bibliothèque d'implémentations vectorisées d'algorithmes de prédiction structurés de base (HMM, Dep Trees, CKY, ..,)
- espresso : Espresso : une boîte à outils de reconnaissance vocale neuronale rapide de bout en bout
- transformateurs : huggingface Transformateurs : traitement du langage naturel de pointe pour TensorFlow 2.0 et PyTorch. huggingface.co/transformers
- reformer-pytorch : Reformer, le transformateur efficace, dans Pytorch
- torch-metrics : métriques pour l'évaluation du modèle dans pytorch
- Speechbrain : SpeechBrain est une boîte à outils vocale open source tout-en-un basée sur PyTorch.
- Backprop : Backprop simplifie l'utilisation, l'ajustement et le déploiement de modèles ML de pointe.
CV :
- Vision pytorch : ensembles de données, transformations et modèles spécifiques à la vision par ordinateur.
- pt-styletransfer : transfert de style neuronal en tant que classe dans PyTorch.
- OpenFacePytorch : module PyTorch pour utiliser le modèle nn4.small2.v1.t7 d'OpenFace
- img_classification_pk_pytorch : Comparer rapidement vos modèles de classification d'images avec les modèles de pointe (tels que DenseNet, ResNet, ...)
- SparseConvNet : réseaux convolutifs clairsemés sous-variétés.
- Convolution_LSTM_pytorch : un module LSTM de convolution multicouche
- face-alignment : bibliothèque d'alignement de visages 2D et 3D créée à l'aide de pytorch adrianbulat.com
- pytorch-semantic-segmentation : PyTorch pour la segmentation sémantique.
- RoIAlign.pytorch : Il s'agit d'une version PyTorch de RoIAlign. Cette implémentation est basée sur crop_and_resize et prend en charge à la fois l'avant et l'arrière sur le CPU et le GPU.
- pytorch-cnn-finetune : Affinez les réseaux de neurones convolutifs pré-entraînés avec PyTorch.
- detectorch : Detectorch - détecteur pour PyTorch
- Augmentor : bibliothèque d'augmentation d'images en Python pour l'apprentissage automatique. http://augmentor.readthedocs.io
- s2cnn : Cette bibliothèque contient une implémentation PyTorch des CNN équivariants SO(3) pour les signaux sphériques (par exemple, caméras omnidirectionnelles, signaux sur le globe)
- TorchCV : un framework basé sur PyTorch pour l'apprentissage profond en vision par ordinateur.
- maskrcnn-benchmark : implémentation de référence rapide et modulaire des algorithmes de segmentation d'instance et de détection d'objets dans PyTorch.
- image-classification-mobile : Collection de modèles de classification pré-entraînés sur ImageNet-1K.
- medicaltorch : un cadre d'imagerie médicale pour Pytorch http://medicaltorch.readthedocs.io
- albumentations : bibliothèque d'augmentation rapide d'images.
- kornia : bibliothèque de vision par ordinateur différenciable.
- pytorch-text-recognition : combo de reconnaissance de texte - CRAFT + CRNN.
- facenet-pytorch : modèles de détection et de reconnaissance de visage Pytorch pré-entraînés portés depuis Davidsandberg/facenet.
- detectron2 : Detectron2 est la plateforme de recherche de nouvelle génération de FAIR pour la détection et la segmentation d'objets.
- vedaseg : Un cadre de segmentation sémantique par pyotrch
- ClassyVision : un framework PyTorch de bout en bout pour la classification d'images et de vidéos.
- detecto:Vision par ordinateur en Python avec moins de 10 lignes de code
- pytorch3d : PyTorch3D est la bibliothèque de composants réutilisables de FAIR pour l'apprentissage en profondeur avec des données 3D pytorch3d.org
- MMDetection : MMDetection est une boîte à outils de détection d'objets open source, qui fait partie du projet OpenMMLab.
- neural-dream : une implémentation PyTorch de l'algorithme DeepDream. Crée des visuels hallucinogènes oniriques.
- FlashTorch : boîte à outils de visualisation pour les réseaux de neurones dans PyTorch !
- Lucent : Tensorflow et Lucid d'OpenAI Clarity adaptés pour PyTorch.
- MMDetection3D : MMDetection3D est la plate-forme de nouvelle génération d'OpenMMLab pour la détection générale d'objets 3D, qui fait partie du projet OpenMMLab.
- MMSegmentation : MMSegmentation est une boîte à outils et un benchmark de segmentation sémantique, qui fait partie du projet OpenMMLab.
- MMEditing : MMEditing est une boîte à outils d'édition d'images et de vidéos, qui fait partie du projet OpenMMLab.
- MMAction2 : MMAction2 est la boîte à outils et le benchmark de compréhension des actions de nouvelle génération d'OpenMMLab, qui fait partie du projet OpenMMLab.
- MMPose : MMPose est une boîte à outils et un benchmark d'estimation de pose, qui fait partie du projet OpenMMLab.
- lightly - Lightly est un cadre de vision par ordinateur pour l'apprentissage auto-supervisé.
- RoMa : une bibliothèque légère et efficace pour gérer les rotations 3D.
Bibliothèques probabilistes/génératives :
- ptstat : programmation probabiliste et inférence statistique dans PyTorch
- pyro : programmation probabiliste universelle approfondie avec Python et PyTorch http://pyro.ai
- probtorch : Probabilistic Torch est une bibliothèque de modèles génératifs profonds qui étend PyTorch.
- paysage : Apprentissage non supervisé et modèles génératifs en python/pytorch.
- pyvarinf : package Python facilitant l'utilisation des méthodes bayésiennes de Deep Learning avec l'inférence variationnelle pour PyTorch.
- pyprob : une bibliothèque basée sur PyTorch pour la programmation probabiliste et la compilation d'inférences.
- mia : une bibliothèque pour exécuter des attaques d'inférence d'adhésion contre des modèles ML.
- pro_gan_pytorch : package ProGAN implémenté en tant qu'extension de PyTorch nn.Module.
- botorch : optimisation bayésienne dans PyTorch
Autres bibliothèques :
- Extras pytorch : Quelques fonctionnalités supplémentaires pour pytorch.
- zoo fonctionnel : PyTorch, contrairement à Lua Torch, a autograd dans son noyau, donc utiliser la structure modulaire des modules torch.nn n'est pas nécessaire, on peut facilement allouer les variables nécessaires et écrire une fonction qui les utilise, ce qui est parfois plus pratique. Ce référentiel contient des définitions de modèles de cette manière fonctionnelle, avec des poids pré-entraînés pour certains modèles.
- torch-sampling : ce package fournit un ensemble de transformations et de structures de données pour l'échantillonnage à partir de données en mémoire ou hors mémoire.
- torchcraft-py : wrapper Python pour TorchCraft, un pont entre Torch et StarCraft pour la recherche sur l'IA.
- aorun : Aorun a l'intention d'être un Keras avec PyTorch comme backend.
- logger : Un simple enregistreur pour les expériences.
- PyTorch-docset : ensemble de documents PyTorch ! à utiliser avec Dash, Zeal, Velocity ou LovelyDocs.
- convert_torch_to_pytorch : Convertissez le modèle de torche t7 en modèle et source pytorch.
- pretrained-models.pytorch : le but de ce référentiel est d'aider à reproduire les résultats des articles de recherche.
- pytorch_fft : wrapper PyTorch pour les FFT
- caffe_to_torch_to_pytorch
- pytorch-extension : Il s'agit d'une extension CUDA pour PyTorch qui calcule le produit Hadamard de deux tenseurs.
- tensorboard-pytorch : ce module enregistre les tenseurs PyTorch au format tensorboard pour inspection. Prend actuellement en charge les fonctionnalités scalaires, d'image, audio et d'histogramme dans le tableau tensoriel.
- gpytorch : GPyTorch est une bibliothèque de processus gaussien, implémentée à l'aide de PyTorch. Il est conçu pour créer facilement des modèles de processus gaussiens flexibles et modulaires, de sorte que vous n'avez pas besoin d'être un expert pour utiliser les GP.
- Pleins feux : modèles de recommandation approfondie utilisant PyTorch.
- pytorch-cns : recherche de réseau compressée avec PyTorch
- pyinn : CuPy a fusionné les opérations de réseaux neuronaux PyTorch
- inferno : Une bibliothèque d'utilitaires autour de PyTorch
- pytorch-fitmodule : méthode d'ajustement super simple pour les modules PyTorch
- inferno-sklearn : une bibliothèque de réseaux neuronaux compatible scikit-learn qui enveloppe pytorch.
- pytorch-caffe-darknet-convert : conversion entre pytorch, caffe prototxt/weights et darknet cfg/weights
- pytorch2caffe : Convertir le modèle PyTorch en modèle Caffe
- pytorch-tools : outils pour PyTorch
- sru : Former les RNN aussi rapidement que les CNN (arxiv.org/abs/1709.02755)
- torch2coreml : Torch7 -> CoreML
- PyTorch-Encoding : réseau d'encodage de texture profonde PyTorch http://hangzh.com/PyTorch-Encoding
- pytorch-ctc : PyTorch-CTC est une implémentation du décodage de recherche de faisceau CTC (Connectionist Temporal Classification) pour PyTorch. Code C++ largement emprunté à TensorFlow avec quelques améliorations pour augmenter la flexibilité.
- Candlegp : processus gaussiens dans Pytorch.
- dpwa : apprentissage distribué par moyenne par paires.
- dni-pytorch : interfaces neuronales découplées utilisant des dégradés synthétiques pour PyTorch.
- skorch : une bibliothèque de réseaux neuronaux compatible avec Scikit-learn qui enveloppe pytorch
- ignite : Ignite est une bibliothèque de haut niveau pour aider à la formation des réseaux de neurones dans PyTorch.
- Arnold : Arnold - Agent DOOM
- pytorch-mcn : Convertir les modèles de MatConvNet en PyTorch
- simple-faster-rcnn-pytorch : une implémentation simplifiée de Faster R-CNN avec des performances compétitives.
- generative_zoo : generative_zoo est un référentiel qui fournit des implémentations fonctionnelles de certains modèles génératifs dans PyTorch.
- pytorchviz : Un petit package pour créer des visualisations de graphiques d'exécution PyTorch.
- cogitare : Cogitare - Un framework d'apprentissage profond et d'apprentissage automatique moderne, rapide et modulaire en Python.
- pydlt : boîte à outils d'apprentissage profond basée sur PyTorch
- semi-supervisé-pytorch : implémentations de différents modèles semi-supervisés et génératifs basés sur VAE dans PyTorch.
- pytorch_cluster : bibliothèque d'extensions PyTorch d'algorithmes de cluster de graphiques optimisés.
- neural-assembly-compiler : un compilateur d'assemblage neuronal pour pyTorch basé sur une compilation neuronale adaptative.
- caffemodel2pytorch : convertissez les modèles Caffe en PyTorch.
- extension-cpp : extensions C++ dans PyTorch
- pytoune : un framework et des utilitaires de type Keras pour PyTorch
- jetson-reinforcement : bibliothèques d'apprentissage par renforcement profond pour NVIDIA Jetson TX1/TX2 avec PyTorch, OpenAI Gym et simulateur robotique Gazebo.
- matchbox : écrivez du code PyTorch au niveau d'exemples individuels, puis exécutez-le efficacement sur des mini-lots.
- torch-two-sample : une bibliothèque PyTorch pour les tests à deux échantillons
- pytorch-summary : Résumé du modèle dans PyTorch similaire à
model.summary()
dans Keras - mpl.pytorch : implémentation Pytorch de MaxPoolingLoss.
- scVI-dev : Branche de développement du projet scVI dans PyTorch
- apex : une extension expérimentale de PyTorch (sera obsolète ultérieurement)
- ELF : ELF : une plateforme de recherche de jeux.
- Torchlite : une bibliothèque de haut niveau au-dessus (pas seulement) de Pytorch
- joint-vae : implémentation Pytorch de JointVAE, un cadre pour démêler les facteurs de variation continus et discrets star2
- SLM-Lab : cadre d'apprentissage modulaire par renforcement profond dans PyTorch.
- bindsnet : un package Python utilisé pour simuler des réseaux de neurones à pointe (SNN) sur des processeurs ou des GPU à l'aide de PyTorch
- pro_gan_pytorch : package ProGAN implémenté en tant qu'extension de PyTorch nn.Module
- pytorch_geometric : bibliothèque d'extensions d'apprentissage profond géométrique pour PyTorch
- torchplus : implémente l'opérateur + sur les modules PyTorch, renvoyant des séquences.
- lagom : lagom : Une infrastructure PyTorch légère pour prototyper rapidement des algorithmes d'apprentissage par renforcement.
- torchbearer : flambeau : Une bibliothèque de formation modèle pour les chercheurs utilisant PyTorch.
- pytorch-maml-rl : apprentissage par renforcement avec méta-apprentissage indépendant du modèle dans Pytorch.
- NALU : implémentation de base de pytorch par NAC/NALU à partir du document Neural Arithmetic Logic Units rédigé par trask et.al arxiv.org/pdf/1808.00508.pdf
- QuCumber : Reconstruction de la fonction d'onde à plusieurs corps d'un réseau neuronal
- aimant : projets d'apprentissage profond qui se construisent eux-mêmes http://magnet-dl.readthedocs.io/
- opencv_transforms : implémentation OpenCV des augmentations d'images de Torchvision
- fastai : la bibliothèque, les leçons et les didacticiels d'apprentissage en profondeur fast.ai
- pytorch-dense-correspondence : Code pour "Réseaux d'objets denses : apprentissage de descripteurs d'objets visuels denses par et pour la manipulation robotique" arxiv.org/pdf/1806.08756.pdf
- colorization-pytorch : réimplémentation PyTorch de la colorisation profonde interactive richzhang.github.io/ideepcolor
- beauty-net : un modèle simple, flexible et extensible pour PyTorch. C'est beau.
- OpenChem : OpenChem : boîte à outils d'apprentissage profond pour la recherche en chimie computationnelle et en conception de médicaments mariewelt.github.io/OpenChem
- torchani : Potentiel précis du réseau neuronal sur PyTorch aiqm.github.io/torchani
- PyTorch-LBFGS : une implémentation PyTorch de L-BFGS.
- gpytorch : une implémentation hautement efficace et modulaire de processus gaussiens dans PyTorch.
- toile de jute : toile de jute en pytorch.
- vel : Vitesse de la recherche en apprentissage profond.
- nonechucks : ignorez les éléments défectueux dans votre PyTorch DataLoader, utilisez les transformations comme filtres, et plus encore !
- torchstat : analyseur de modèle dans PyTorch.
- QNNPACK : Quantized Neural Network PACKage - implémentation optimisée pour les mobiles d'opérateurs de réseaux neuronaux quantifiés.
- torchdiffeq : solveurs ODE différenciables avec prise en charge complète du GPU et rétropropagation de la mémoire O(1).
- redner : un traceur de chemin de Monte Carlo différentiable
- pixyz : une bibliothèque pour développer des modèles génératifs profonds de manière plus concise, intuitive et extensible.
- euclidesdb : une fonctionnalité d'apprentissage automatique multimodèle intégrant une base de données http://euclidesdb.readthedocs.io
- pytorch2keras : convertissez le graphique dynamique PyTorch en modèle Keras.
- salade : Apprentissage semi-supervisé et adaptation de domaine.
- netharn : harnais d'ajustement et de prédiction paramétrés pour pytorch.
- dgl : package Python conçu pour faciliter l'apprentissage en profondeur sur les graphiques, en plus des frameworks DL existants. http://dgl.ai.
- gandissect : outils basés sur Pytorch pour visualiser et comprendre les neurones d'un GAN. gandissect.csail.mit.edu
- delira : cadre léger pour le prototypage rapide et la formation de réseaux de neurones profonds en imagerie médicale delira.rtfd.io
- champignon : bibliothèque Python pour les expériences d'apprentissage par renforcement.
- Xlearn : bibliothèque d'apprentissage par transfert
- geoopt : méthodes d'optimisation adaptative riemannienne avec pytorch optim
- vegans : une bibliothèque fournissant divers GAN existants dans PyTorch.
- géométrie de la torche : TGM : géométrie PyTorch
- AdverTorch : une boîte à outils pour la recherche sur la robustesse contradictoire (attaque/défense/entraînement)
- AdaBound : un optimiseur qui s'entraîne aussi vite qu'Adam et aussi bon que SGD.a
- fenchel-young-losses : classification probabiliste dans PyTorch/TensorFlow/scikit-learn avec les pertes Fenchel-Young
- pytorch-OpCounter : comptez les FLOP de votre modèle PyTorch.
- Tor10 : une bibliothèque générique Tensor-Network conçue pour la simulation quantique, basée sur le pytorch.
- Catalyst : utilitaires de haut niveau pour la recherche PyTorch DL & RL. Il a été développé en mettant l’accent sur la reproductibilité, l’expérimentation rapide et la réutilisation du code/des idées. Être capable de rechercher/développer quelque chose de nouveau, plutôt que d'écrire une autre boucle de train régulière.
- Axe : plateforme d'expérimentation adaptative
- pywick : bibliothèque de formation sur les réseaux neuronaux de haut niveau avec batteries incluses pour Pytorch
- torchgpipe : une implémentation de GPipe dans PyTorch torchgpipe.readthedocs.io
- hub : Pytorch Hub est un référentiel de modèles pré-entraînés conçu pour faciliter la reproductibilité de la recherche.
- pytorch-lightning : cadre de recherche rapide pour Pytorch. La version chercheur de keras.
- Tor10 : une bibliothèque générique Tensor-Network conçue pour la simulation quantique, basée sur le pytorch.
- tensorwatch : débogage, surveillance et visualisation pour le Deep Learning et l'apprentissage par renforcement de Microsoft Research.
- wavetorch : résolution numérique et rétropropagation à travers l'équation d'onde arxiv.org/abs/1904.12831
- diffdist : diffdist est une bibliothèque python pour pytorch. Il étend la fonctionnalité par défaut de torch.autograd et ajoute la prise en charge de la communication différenciable entre les processus.
- torchprof : Une bibliothèque de dépendances minimale pour le profilage couche par couche des modèles Pytorch.
- osqpth : la couche de solveur OSQP différenciable pour PyTorch.
- mctorch : une bibliothèque d'optimisation multiple pour l'apprentissage en profondeur.
- pytorch-hessian-eigenthings : décomposition propre efficace de la Hesse PyTorch à l'aide du produit vectoriel hessien et de l'itération de puissance stochastique.
- MinkowskiEngine : Minkowski Engine est une bibliothèque de comparaison automatique pour les convolutions clairsemées généralisées et les tenseurs clairsemés de grande dimension.
- pytorch-cpp-rl : Apprentissage par renforcement PyTorch C++
- pytorch-toolbelt : extensions PyTorch pour un prototypage R&D rapide et l'agriculture Kaggle
- argus-tensor-stream : une bibliothèque pour le décodage de flux vidéo en temps réel vers la mémoire CUDA tensorstream.argus-ai.com
- macarico : apprendre à rechercher dans pytorch
- rlpyt : apprentissage par renforcement dans PyTorch
- pywarm : Une façon plus propre de créer des réseaux de neurones pour PyTorch. blue-season.github.io/pywarm
- learn2learn : cadre de méta-apprentissage PyTorch pour les chercheurs http://learn2learn.net
- torchbeast : une plate-forme PyTorch pour le RL distribué
- plus haut : plus haut est une bibliothèque pytorch permettant aux utilisateurs d'obtenir des gradients d'ordre plus élevé sur les pertes couvrant les boucles d'entraînement plutôt que les étapes d'entraînement individuelles.
- Torchelie : Torchélie est un ensemble de fonctions utilitaires, de couches, de pertes, de modèles, d'entraîneurs et d'autres éléments pour PyTorch. torchlie.readthedocs.org
- CrypTen : CrypTen est un cadre d'apprentissage automatique préservant la confidentialité écrit à l'aide de PyTorch qui permet aux chercheurs et aux développeurs de former des modèles à l'aide de données cryptées. CrypTen prend actuellement en charge le calcul multipartite sécurisé comme mécanisme de cryptage.
- cvxpylayers : cvxpylayers est une bibliothèque Python pour construire des couches d'optimisation convexes différenciables dans PyTorch
- RepDistiller : Contrastive Representation Distillation (CRD), et benchmark des méthodes récentes de distillation des connaissances
- kaolin : bibliothèque PyTorch visant à accélérer la recherche en apprentissage profond 3D
- PySNN : framework de réseau neuronal Spiking efficace, construit sur PyTorch pour l'accélération GPU.
- sparktorch : entraînez et exécutez des modèles Pytorch sur Apache Spark.
- pytorch-metric-learning : le moyen le plus simple d'utiliser l'apprentissage métrique dans votre application. Modulaire, flexible et extensible. Écrit dans PyTorch.
- autonome-learning-library : une bibliothèque PyTorch pour créer des agents d'apprentissage par renforcement profond.
- flambe : Un framework ML pour accélérer la recherche et son chemin vers la production. flambe.ai
- pytorch-optimizer : collections d'algorithmes d'optimisation modernes pour PyTorch, comprenant : AccSGD, AdaBound, AdaMod, DiffGrad, Lamb, RAdam, RAdam, Yogi.
- PyTorch-VAE : une collection d'auto-encodeurs variationnels (VAE) dans PyTorch.
- ray : un framework simple et rapide pour créer et exécuter des applications distribuées. Ray est fourni avec RLlib, une bibliothèque d'apprentissage par renforcement évolutive, et Tune, une bibliothèque de réglage d'hyperparamètres évolutive. ray.io
- Pytorch Géométrique Temporel : Une bibliothèque d'extensions temporelles pour PyTorch Géométrique
- Poutyne : un framework de type Keras pour PyTorch qui gère une grande partie du code passe-partout nécessaire à la formation des réseaux de neurones.
- Pytorch-Toolbox : Il s'agit d'un projet de boîte à outils pour Pytorch. Dans le but de vous permettre d'écrire du code Pytorch plus facilement, plus lisible et plus concis.
- Pytorch-contrib : il contient des implémentations révisées d'idées issues d'articles récents sur l'apprentissage automatique.
- EfficientNet PyTorch : il contient une réimplémentation PyTorch opérationnelle d'EfficientNet, ainsi que des modèles et des exemples pré-entraînés.
- PyTorch/XLA : PyTorch/XLA est un package Python qui utilise le compilateur d'apprentissage en profondeur XLA pour connecter le framework d'apprentissage en profondeur PyTorch et les Cloud TPU.
- webdataset : WebDataset est une implémentation de PyTorch Dataset (IterableDataset) offrant un accès efficace aux ensembles de données stockés dans les archives tar POSIX.
- volksdep : volksdep est une boîte à outils open source pour déployer et accélérer les modèles PyTorch, Onnx et Tensorflow avec TensorRT.
- PyTorch-StudioGAN : StudioGAN est une bibliothèque Pytorch fournissant des implémentations de réseaux contradictoires génératifs (GAN) représentatifs pour la génération d'images conditionnelles/inconditionnelles. StudioGAN vise à offrir un terrain de jeu identique pour les GAN modernes afin que les chercheurs en apprentissage automatique puissent facilement comparer et analyser une nouvelle idée.
- torchdrift : bibliothèque de détection de dérive
- accélérer : un moyen simple de former et d'utiliser des modèles PyTorch avec multi-GPU, TPU et précision mixte
- Lightning-Transformers : interface flexible pour une recherche haute performance utilisant des transformateurs SOTA exploitant Pytorch Lightning, Transformers et Hydra.
- Flower Une approche unifiée de l'apprentissage fédéré, de l'analyse et de l'évaluation. Il permet de fédérer n’importe quelle charge de travail de machine learning.
- Lightning-Flash : Flash est un ensemble de tâches permettant de créer rapidement un prototypage, de créer une base de référence et d'affiner des modèles de Deep Learning évolutifs, construits sur PyTorch Lightning.
- Pytorch géométrique signé réalisé : une bibliothèque d'extensions signée et dirigée pour PyTorch géométrique.
- Koila : Un simple wrapper autour de pytorch qui évite les problèmes de mémoire insuffisante de CUDA.
- Renate : une bibliothèque pour un apprentissage continu dans le monde réel.
Tutoriels, livres et exemples
- Pytorch pratique : Tutoriels expliquant différents modèles RNN
- DeepLearningForNLPInPytorch : un didacticiel IPython Notebook sur l'apprentissage en profondeur, en mettant l'accent sur le traitement du langage naturel.
- pytorch-tutorial : tutoriel permettant aux chercheurs d'apprendre le deep learning avec pytorch.
- exercices-pytorch : collection d'exercices pytorch.
- Tutoriels pytorch : Divers didacticiels pytorch.
- Exemples de pytorch : un référentiel présentant des exemples d'utilisation de pytorch
- Pratique de pytorch : quelques exemples de scripts sur pytorch.
- Mini-tutoriels pytorch : tutoriels minimaux pour PyTorch adaptés des didacticiels Theano d'Alec Radford.
- Classification de texte pytorch : une implémentation simple de la classification de texte basée sur CNN dans Pytorch
- cats vs dogs : exemple de réglage fin du réseau dans pytorch pour la compétition Kaggle Dogs vs. Cats Redux : Kernels Edition. Actuellement n°27 (0,05074) sur le classement.
- convnet : Il s'agit d'un exemple de formation complet pour les réseaux à convolution profonde sur divers ensembles de données (ImageNet, Cifar10, Cifar100, MNIST).
- pytorch-generative-adversarial-networks : réseau contradictoire génératif simple (GAN) utilisant PyTorch.
- Conteneurs pytorch : ce référentiel vise à aider les anciens Torchies à effectuer une transition plus transparente vers le monde "sans conteneur" de PyTorch en fournissant une liste des implémentations PyTorch des couches de table Torch.
- T-SNE dans pytorch : expériences t-SNE dans pytorch
- AAE_pytorch : auto-encodeurs contradictoires (avec Pytorch).
- Kind_PyTorch_Tutorial : Tutoriel Kind PyTorch pour les débutants.
- pytorch-poetry-gen : un char-RNN basé sur pytorch.
- pytorch-REINFORCE : implémentation PyTorch de REINFORCE, ce dépôt prend en charge les environnements continus et discrets dans la salle de sport OpenAI.
- Tutoriel PyTorch : Construisez votre réseau de neurones facilement et rapidement https://morvanzhou.github.io/tutorials/
- pytorch-intro : Quelques scripts pour illustrer comment créer des CNN et des RNN dans PyTorch
- pytorch-classification : un cadre unifié pour la tâche de classification d'images sur CIFAR-10/100 et ImageNet.
- pytorch_notebooks - hardmaru : Tutoriels aléatoires créés dans NumPy et PyTorch.
- pytorch_tutoria-quick : introduction rapide et tutoriel de PyTorch. Cible les chercheurs en vision par ordinateur, en graphisme et en apprentissage automatique désireux d’essayer un nouveau framework.
- Pytorch_fine_tuning_Tutorial : un court didacticiel sur la réalisation d'un réglage fin ou d'un apprentissage par transfert dans PyTorch.
- pytorch_exercises : exercices-pytorch
- détection des panneaux de signalisation : exemple nyu-cv-fall-2017
- mss_pytorch : Séparation de la voix chantée via des connexions d'inférence récurrente et de filtrage par saut - Implémentation de PyTorch. Démo : js-mim.github.io/mss_pytorch
- DeepNLP-models-Pytorch Implémentations Pytorch de divers modèles Deep NLP dans cs-224n (Stanford Univ : NLP with Deep Learning)
- Tutoriels d'introduction au Mila : Divers tutoriels dispensés pour l'accueil des nouveaux étudiants au MILA.
- pytorch.rl.learning : pour apprendre l'apprentissage par renforcement à l'aide de PyTorch.
- minimal-seq2seq : modèle Seq2Seq minimal avec attention pour la traduction automatique neuronale dans PyTorch
- tensorly-notebooks : méthodes Tensor en Python avec TensorLy tensorly.github.io/dev
- pytorch_bits : exemples liés à la prédiction de séries chronologiques.
- skip-thoughts : une implémentation de vecteurs Skip-Thought dans PyTorch.
- video-caption-pytorch : code pytorch pour le sous-titrage vidéo.
- Capsule-Network-Tutorial : Tutoriel Pytorch Capsule Network facile à suivre.
- code-of-learn-deep-learning-with-pytorch : Ceci est le code du livre "Apprendre le Deep Learning avec PyTorch" item.jd.com/17915495606.html
- RL-Adventure : Pytorch, didacticiel Deep Q Learning étape par étape, facile à suivre, avec un code propre et lisible.
- accéléré_dl_pytorch : apprentissage profond accéléré avec PyTorch au Jupyter Day Atlanta II.
- RL-Adventure-2 : Tutoriel PyTorch4 de : critique d'acteur / optimisation de politique proximale / acer / ddpg / double duel ddpg / critique d'acteur doux / apprentissage génératif par imitation contradictoire / relecture d'expérience rétrospective
- Réseaux adverses génératifs (GAN) en 50 lignes de code (PyTorch)
- encodeurs automatiques contradictoires avec pytorch
- transférer l'apprentissage à l'aide de pytorch
- comment-implémenter-un-détecteur-d'objet-yolo-dans-pytorch
- pytorch-pour-recommandateurs-101
- pytorch-pour-numpy-utilisateurs
- Tutoriel PyTorch : Tutoriels PyTorch en chinois.
- grokking-pytorch : Le guide de l'auto-stoppeur sur PyTorch
- PyTorch-Deep-Learning-Minicourse : Mini-cours d'apprentissage profond avec PyTorch.
- pytorch-custom-dataset-examples : Quelques exemples d'ensembles de données personnalisés pour PyTorch
- LSTM multiplicatif pour les recommandateurs basés sur des séquences
- deeplearning.ai-pytorch : implémentations PyTorch de la spécialisation Deep Learning (deeplearning.ai) de Coursera.
- MNIST_Pytorch_python_and_capi : ceci est un exemple de la façon de former un réseau MNIST en Python et de l'exécuter en C++ avec pytorch 1.0
- torch_light : Les didacticiels et exemples incluent la formation de renforcement, la PNL, le CV
- portrain-gan : code torche pour décoder (et presque encoder) les latents du Portrait GAN d'art-DCGAN.
- mri-analysis-pytorch : analyse IRM à l'aide de PyTorch et MedicalTorch
- cifar10-fast : Démonstration de formation d'un petit ResNet sur CIFAR10 jusqu'à une précision de test de 94 % en 79 secondes, comme décrit dans cette série de blogs.
- Introduction au Deep Learning avec PyTorch : un cours gratuit par Udacity et Facebook, avec une bonne introduction à PyTorch et une interview avec Soumith Chintala, l'un des auteurs originaux de PyTorch.
- pytorch-sentiment-analysis : tutoriels pour démarrer avec PyTorch et TorchText pour l'analyse des sentiments.
- pytorch-image-models : modèles d'image PyTorch, scripts, poids pré-entraînés - (SE)ResNet/ResNeXT, DPN, EfficientNet, MobileNet-V3/V2/V1, MNASNet, Single-Path NAS, FBNet, et plus encore.
- CIFAR-ZOO : implémentation de Pytorch pour plusieurs architectures CNN et amélioration des méthodes avec des résultats de pointe.
- d2l-pytorch : il s'agit d'une tentative de modification du code du manuel Dive into Deep Learning, Berkeley STAT 157 (printemps 2019) dans PyTorch.
- penser en tenseurs-écrire-dans-pytorch : penser en tenseurs, écrire dans PyTorch (une introduction pratique à l'apprentissage en profondeur).
- NER-BERT-pytorch : solution PyTorch de tâche de reconnaissance d'entité nommée utilisant le modèle BERT pré-entraîné de Google AI.
- pytorch-sync-batchnorm-example : Comment utiliser Cross Replica / Synchronized Batchnorm dans Pytorch.
- SentimentAnalysis : réseau neuronal d'analyse des sentiments formé par le réglage fin de BERT sur la Stanford Sentiment Treebank, grâce à la bibliothèque Transformers de Hugging Face.
- pytorch-cpp : implémentations C++ des didacticiels PyTorch pour les chercheurs en apprentissage profond (basées sur les didacticiels Python de pytorch-tutorial).
- Deep Learning avec PyTorch : Zero to GAN : série de didacticiels interactifs et axés sur le codage sur l'introduction au Deep Learning avec PyTorch (vidéo).
- Deep Learning avec PyTorch : Deep Learning with PyTorch vous apprend à mettre en œuvre des algorithmes d'apprentissage profond avec Python et PyTorch, le livre comprend une étude de cas : construire un algorithme capable de détecter les tumeurs malignes du poumon à l'aide de tomodensitogrammes.
- Serverless Machine Learning in Action avec PyTorch et AWS : Serverless Machine Learning in Action est un guide pour mettre en production votre code expérimental d'apprentissage automatique PyTorch à l'aide des capacités sans serveur des principaux fournisseurs de cloud comme AWS, Azure ou GCP.
- LabML NN : une collection d'implémentations PyTorch d'architectures et d'algorithmes de réseaux de neurones avec des notes côte à côte.
- Exécutez votre exemple PyTorch fédéré avec Flower : cet exemple montre comment un projet d'apprentissage automatique PyTorch centralisé déjà existant peut être fédéré avec Flower. Un ensemble de données Cifar-10 est utilisé avec un réseau neuronal convolutif (CNN).
Implémentations papier
- google_evolution : ceci implémente l'un des réseaux de résultats de l'évolution à grande échelle des classificateurs d'images par Esteban Real, et. al.
- pyscatwave : Transformation par diffusion rapide avec CuPy/PyTorch, lisez l'article ici
- scalingscattering : mise à l'échelle de la transformation de diffusion : réseaux hybrides profonds.
- deep-auto-ponctuation : une implémentation pytorch de la ponctuation automatique apprise caractère par caractère.
- Realtime_Multi-Person_Pose_Estimation : Il s'agit d'une version pytorch de Realtime_Multi-Person_Pose_Estimation, le code d'origine est ici.
- PyTorch-value-iteration-networks : implémentation PyTorch du document Value Iteration Networks (NIPS '16)
- pytorch_Highway : réseau routier implémenté dans pytorch.
- pytorch_NEG_loss : perte NEG implémentée dans pytorch.
- pytorch_RVAE : auto-encodeur variationnel récurrent qui génère des données séquentielles implémentées dans pytorch.
- pytorch_TDNN : NN temporisé implémenté dans pytorch.
- eve.pytorch : une implémentation d'Eve Optimizer, proposée dans Imploving Stochastic Gradient Descent with Feedback, Koushik et Hayashi, 2016.
- e2e-model-learning : apprentissage de modèles de bout en bout basé sur les tâches.
- pix2pix-pytorch : implémentation PyTorch de la « Traduction d'image à image à l'aide de réseaux contradictoires conditionnels ».
- Détecteur MultiBox à prise unique : une implémentation PyTorch du détecteur MultiBox à prise unique.
- DISCOGAN: Pytorch Implémentation de "Apprendre à découvrir les relations entre les domaines et les réseaux adversaires génératifs"
- Mise en œuvre officielle du DISCOGAN: mise en œuvre officielle de "Apprendre à découvrir les relations entre les domaines et les réseaux adversaires génératifs".
- Pytorch-ES: Il s'agit d'une mise en œuvre pytorch des stratégies d'évolution.
- PiWise: Segmentation par pixel sur le jeu de données VOC2012 à l'aide de pytorch.
- Pytorch-DQN: réseau de learning Q de Deep dans Pytorch.
- NeuralTalk2-Pytorch: modèle de sous-titrage d'image à Pytorch (CNN finetunable en branche avec_finetune)
- vnet.pytorch: Une implémentation Pytorch pour V-Net: réseaux de neurones entièrement convolutionnels pour la segmentation volumétrique de l'image médicale.
- Pytorch-FCN: mise en œuvre pytorch de réseaux entièrement convolutionnels.
- Wideresnets: Wideresnets pour CIFAR10 / 100 implémenté dans Pytorch. Cette implémentation nécessite moins de mémoire GPU que ce qui est exigé par l'implémentation officielle de la torche: https://github.com/szagoruyko/wide-residual-networks.
- pytorch_highway_networks: réseaux routiers implémentés dans pytorch.
- Pytorch-Neucom: mise en œuvre de Pytorch du papier ordinateur neuronal différenciable de DeepMind.
- LégendeGen: Générez des légendes pour une image utilisant Pytorch.
- Animegan: Une simple mise en œuvre pytorch des réseaux adversaires génératifs, en se concentrant sur le dessin du visage anime.
- Classification CNN-Text: Il s'agit de la mise en œuvre des réseaux de neurones convolutionnels de KIM pour le document de classification des phrases à Pytorch.
- DeepSpeech2: Mise en œuvre de DeepSpeech2 en utilisant Baidu Warp-CTC. Crée un réseau basé sur l'architecture DeepSpeech2, formé avec la fonction d'activation CTC.
- SEQ2SEQ: Ce référentiel contient des implémentations de modèles de séquence à la séquence (SEQ2SEQ) dans Pytorch
- Avantage asynchrone acteur-critique dans Pytorch: Il s'agit de la mise en œuvre du pytorch de l'A3C comme décrit dans des méthodes asynchrones pour l'apprentissage en renforcement profond. Étant donné que Pytorch a une méthode facile pour contrôler la mémoire partagée dans le multiprocess, nous pouvons facilement implémenter une méthode asynchrone comme A3C.
- Denset: Il s'agit d'une implémentation pytorch de l'architecture densenet-BC comme décrit dans les réseaux convolutionnels densément connectés de papier par G. Huang, Z. Liu, K. Weinberger et L. van der Maaten. Cette implémentation obtient un taux d'erreur CIFAR-10 + de 4,77 avec un denset-BC de 100 couches avec un taux de croissance de 12. Leur implémentation officielle et les liens vers de nombreuses autres implémentations tierces sont disponibles dans le repo Liuzhuang13 / densenet sur Github.
- NNINIT: schémas d'initialisation du poids pour Pytorch nn.modules. Ceci est un port du populaire nninit pour Torch7 par @kaixhin.
- RCNN plus rapide: Il s'agit d'une implémentation pytorch de RCNN plus rapide. Ce projet est principalement basé sur le py-faster-RCNN et le tffrcnn.Pour les détails sur R-CNN, veuillez vous référer au document R-CNN plus rapide: vers la détection d'objets en temps réel avec les réseaux de proposition de région par Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun.
- DOOMNET: La version de Pytorch de Doom-Net implémentant certains modèles RL dans l'environnement VizDoom.
- Flownet: la mise en œuvre de Pytorch de Flownet par Dosovitskiy et al.
- SQEEZENET: Implémentation de Squeezenet dans les modèles Pytorch, #### Pretraind sur les données CIFAR10 Afin de planifier pour former le modèle sur CIFAR 10 et ajouter également des connexions de blocs.
- Wassersteingan: Wassersteingan à Pytorch.
- OPTNET: Ce référentiel est de Brandon Amos et J. Zico Kolter et contient le code source de Pytorch pour reproduire les expériences de notre article Optnet: optimisation différenciable comme couche dans les réseaux de neurones.
- Solveur QP: un solveur QP rapide et différenciable pour Pytorch. Fabriqué par Brandon Amos et J. Zico Kolter.
- Apprentissage en Q Q avec accélération basée sur un modèle: réimplémentation de l'apprentissage en Q Q avec une accélération basée sur un modèle.
- Apprendre à apprendre par descente de gradient par descente de gradient: la mise en œuvre du pytorch de l'apprentissage à apprendre par descente de gradient par descente de gradient.
- style neural rapide: mise en œuvre pytorch de style neural rapide, le modèle utilise la méthode décrite dans les pertes perceptuelles pour le transfert de style en temps réel et la super-résolution ainsi que la normalisation des instances.
- Pytorchneuralstyletransfer: mise en œuvre du transfert de style neuronal à pytorch.
- Style neuronal rapide pour le style d'image Transforment par Pytorch: style neuronal rapide pour la transformée de style d'image par Pytorch.
- Transfert de style neuronal: une introduction à Pytorch à travers l'algorithme de style neuronal (https://arxiv.org/abs/1508.06576) développé par Leon A. Gatys, Alexander S. Ecker et Matthias Bethge.
- VIN_PYTORCH_VISDOM: Implémentation Pytorch des réseaux d'itération de valeur (VIN): propre, simple et modulaire. Visualisation dans Visdom.
- YOLO2: Yolov2 à Pytorch.
- Transfert d'attention: transfert d'attention à Pytorch, lisez le document ici.
- SVHNCLASSIFIER: Une mise en œuvre pytorch de la reconnaissance des nombres à plusieurs chiffres de Street View Imagery à l'aide de réseaux de neurones convolutionnels profonds.
- pytorch-deform-conv: implémentation pytorch de la convolution déformable.
- Début-Pytorch: Pytorch Implémentation de Begin: Boundary Equilibrium Generative Adversarial Networks.
- Treelstm.pytorch: implémentation d'arbre LSTM dans Pytorch.
- Âge: Code pour papier "Réseaux de générateur adversaire" par Dmitry Ulyanov, Andrea Vedaldi et Victor Lempitsky qui peuvent être trouvés ici
- Resnext.pytorch: reproduit Resnet-V3 (transformations résiduelles agrégées pour les réseaux de neurones profonds) avec pytorch.
- Pytorch-RL: Apprentissage en renforcement profond avec Pytorch et Visdom
- Deep-Leafsnap: Leafsnap s'est répliquée à l'aide de réseaux de neurones profonds pour tester la précision par rapport aux méthodes de vision informatique traditionnelles.
- pytorch-cyclegan-et-pix2pix: implémentation pytorch pour la traduction d'image à image non appariée et appariée.
- A3C-PYTORCH: Pytorch Implémentation de l'avantage Async Astor-Critic Algorithms (A3C) dans Pytorch
- Pytorch-Value-iTeration-Networks: Pytorch Implémentation des réseaux d'itération de valeur (NIPS 2016 Meilleur papier)
- Pytorch-style-transfert: implémentation pytorch du réseau génératif multi-style pour un transfert en temps réel
- Pytorch-DeepLab-Resnet: Pytorch-DeepLab-Resnet-Model.
- PointNet.pytorch: Implémentation de Pytorch pour "PointNet: apprentissage en profondeur sur les ensembles de points pour la classification et la segmentation 3D" https://arxiv.org/abs/1612.00593
- Pytorch-Playground: Modèles et ensembles de données pré-entraînés de base dans Pytorch (MNIST, SVHN, CIFAR10, CIFAR100, STL10, Alexnet, VGG16, VGG19, Resnet, Inception, Squeezenet) .
- Pytorch-DNC: Neural Turing Machine (NTM) et ordinateur neuronal différenciable (DNC) avec Pytorch & Visdom.
- PYTORCH_IMAGE_CLASSIFIER: Classificateur d'images minimal mais pratique Pipline en utilisant Pytorch, FineTune sur RESNET18, a obtenu une précision de 99% sur les petits ensembles de données.
- MNIST-SVHN-TRANSFER: Pytorch Implémentation de Cyclegan et SGAN pour le transfert de domaine (minimal).
- pytorch-yolo2: pytorch-yolo2
- DNI: Implémentez les interfaces neuronales découplées à l'aide de gradients synthétiques dans Pytorch
- WGAN-GP: Une mise en œuvre en pytorch du papier "Amélioration de la formation des gans Wasserstein".
- pytorch-seq2seq-intention-parsing: analyse d'intention et remplissage de machines à sous en pytorch avec SEQ2SEQ +
- pytorch_nce: une mise en œuvre de l'algorithme d'estimation contrasté du bruit pour pytorch. Travaillant, mais pas très efficace.
- molencoder: autoencoder moléculaire à pytorch
- Gan-Weight-Norm: Code pour "Sur les effets de la normalisation des lots et du poids dans les réseaux adversaires génératifs"
- LGAMMA: Implémentations de fonctions polygamma, lgamma et bêta pour pytorch
- Bigbatch: Code utilisé pour générer les résultats apparaissant dans "Train plus longtemps, généralisez mieux: combler l'écart de généralisation dans la formation par lots importants des réseaux de neurones"
- RL_A3C_PYTORCH: Apprentissage par renforcement avec implémentation d'A3C LSTM pour ATARI 2600.
- Pytorch-RetRecringing: Transfer Learning Shootout pour Pytorch's Model Zoo (TorchVision)
- NMP_QC: Message neuronal passant pour la vision informatique
- grad-cam: mise en œuvre pytorch de grad-cam
- Pytorch-Trpo: Pytorch Implémentation de l'optimisation des politiques de la région de confiance (TRPO)
- Pytorch-explate-Black-box: Pytorch Implémentation d'explications interprétables des boîtes noires par perturbation significative
- VAE_VPFLOWS: Code en pytorch pour la combinaison convexe linéaire IAF et The Householder Flow, JM Tomczak & M. Welling https://jmtomczak.github.io/deebmed.html
- Networks relationnels: implémentation pytorch d'un "module de réseau neuronal simple pour le raisonnement relationnel" (réseaux relationnels) https://arxiv.org/pdf/1706.01427.pdf
- vqa.pytorch: question visuelle répondant à Pytorch
- Negotiateur de bout en bout: Deal ou No Deal? Apprentissage de bout en bout pour les dialogues de négociation
- Odin-Pytorch: Détection de principe des exemples hors distribution dans les réseaux de neurones.
- Congeler: accélérer la formation neurale en neurale en ce qui concerne progressivement les couches.
- ARAE: code pour le papier "Autoencoders régularisés adversarialement pour générer des structures discrètes" par Zhao, Kim, Zhang, Rush et LeCun.
- Forward-Thinging-Pytorch: Pytorch Implémentation de "Forward Thinking: Building and Training Neural Networks One Layer à la fois" https://arxiv.org/pdf/1706.02480.pdf
- context_encoder_pytorch: implémentation pytorch des encodeurs de contexte
- Attention-Is-all-You-Need-Pytorch: une implémentation pytorch du modèle de transformateur dans "l'attention est tout ce dont vous avez besoin" .https: //github.com/thnkim/openfacepytorch
- OpenFacePyTorch: module Pytorch pour utiliser le modèle NN4.Small2.v1.t7 d'OpenFace
- neural-combatorial-rl-pytorch: mise en œuvre pytorch de l'optimisation combinatoire neurale avec apprentissage par renforcement.
- Pytorch-NEC: Implémentation de Pytorch du contrôle épisodique neuronal (NEC)
- seq2seq.pytorch: apprentissage de séquence à la séquence à l'aide de pytorch
- Pytorch-sketch-rnn: une implémentation pytorch de arXiv.org/abs/1704.03477
- Pytorch-Pruning: Pytorch Mise en œuvre de [1611.06440]
- DRQA: Une implémentation Pytorch de la lecture de Wikipedia pour répondre aux questions du domaine ouvert.
- YellowFin_pytorch: Optimiseur SGD Momentum de réglage automatique
- SAMPLERNN-PYTORCH: Implémentation de Pytorch de Samplernn: Un modèle de génération d'audio neuronale inconditionnel de bout en bout.
- Aegean: DCGAN plus profond avec stabilisation AE
- / Pytorch-SRRESNET: Implémentation de Pytorch pour la super-résolution de l'image unique-réaliste à l'aide d'un réseau adversaire génératif Arxiv: 1609.04802v2
- VSEPP: Code pour le papier "VSE ++: Amélioration des incorporations sémantiques visuelles"
- PYTORCH-DPPO: Pytorch Implémentation de l'optimisation de la politique proximale distribuée: arxiv.org/abs/1707.02286
- Unité: Pytorch Mise en œuvre de notre algorithme Vae-Gan couplé pour la traduction d'image à image non supervisée
- Efficient_Densenet_Pytorch: une implémentation économe en mémoire des densets
- TSN-PYTORCH: Réseaux de segments temporels (TSN) dans Pytorch.
- Smash: Une technique expérimentale pour explorer efficacement les architectures neuronales.
- Pytorch-Retinanet: Retinanet à Pytorch
- Biogans: mise en œuvre soutenant l'article ICCV 2017 "Gans for Biological Image Synthesis".
- Synthèse d'image sémantique via l'apprentissage adversaire: une implémentation pytorch de l'article "Synthèse d'image sémantique via l'apprentissage adversaire" dans ICCV 2017.
- FMPYTORCH: Une implémentation Pytorch d'un module de machine de factorisation dans Cython.
- ORN: une mise en œuvre pytorch de l'article des "réseaux de réponse orientés" dans CVPR 2017.
- Pytorch-MAML: Pytorch Implémentation de MAML: arXiv.org/abs/1703.03400
- Pytorch Generative-Model Collections: Collection de modèles génératifs en version Pytorch.
- VQA-vainqueur-CVPRW-2017: Implémentation Pytorch du gagnant de l'atelier de chlange VQA dans CVPR'17.
- tacotron_pytorch: mise en œuvre pytorch du modèle de synthèse de la parole tacotron.
- PSPNET-PYTORCH: Implémentation Pytorch du réseau de segmentation PSPNET
- LM-LSTM-CRF: Étiquetage des séquences d'autower avec le modèle de langue-aware http://arxiv.org/abs/1709.04109
- Alignement facial: mise en œuvre de Pytorch du document "Quelle distance est-il de résoudre le problème d'alignement de la face 2D et 3D? (Et un ensemble de données de 230 000 repères faciaux 3D)", ICCV 2017
- DepthNet: Pytorch DepthNet Training on Still Box DataSet.
- EDSR-PYTORCH: Version Pytorch de l'article «Réseaux résiduels profonds améliorés pour la super-résolution d'image unique» (CVPRW 2017)
- E2C-Pytorch: intégrer pour contrôler l'implémentation dans Pytorch.
- 3D-RESNETS-PYTORCH: RÉSNETS 3D pour la reconnaissance d'action.
- Bandit-NMT: Ceci est le référentiel de code pour notre article EMNLP 2017 "Apprentissage par renforcement pour la traduction de machine neuronale de bandit avec rétroaction humaine simulée", qui met en œuvre l'algorithme A2C en plus d'un modèle de coder neural et de benchmarks sous les récompenses bruyantes simulées.
- Pytorch-A2C-Pppo-ACHTR: Pytorch Implémentation d'Advantage Actor Critic (A2C), Optimisation de la politique proximale (PPO) et méthode de région de confiance évolutive pour l'apprentissage en renforcement profond en utilisant l'approximation facultative sur Kronecker (ACKTR).
- Zalando-Pytorch: Diverses expériences sur l'ensemble de données de mode-MNIST de Zalando.
- sphereface_pytorch: une implémentation pytorch de sphère.
- DQN catégorique: une implémentation pytorch du DQN catégorique dans une perspective distributionnelle sur l'apprentissage du renforcement.
- PYTORCH-NTM: Implémentation Pytorch NTM.
- mask_rcnn_pytorch: mask rcnn in pytorch.
- graph_convnets_pytorch: implémentation pytorch de graphes Convnets, Nips'16
- pytorch-faster-rcnn: une implémentation pytorch du cadre de détection RCNN plus rapide basé sur le TF-Faster-RCNN de Xinlei Chen.
- Torchmoji: une mise en œuvre pytorch du modèle Deepmoji: modèle d'apprentissage en profondeur de pointe pour analyser le sentiment, l'émotion, le sarcasme, etc.
- segment-segmentation-pytorch: implémentation pytorch pour la segmentation sémantique / analyse de scène sur le jeu de données MIT ADE20K
- pytorch-qrnn: mise en œuvre pytorch du réseau neuronal quasi-récurrent - jusqu'à 16 fois plus rapide que Cudnn LSTM de Nvidia
- Pytorch-SGNS: échantillonnage négatif de skipgram dans Pytorch.
- SfMlearner-Pytorch: Version Pytorch de SfMlearner de Tinghui Zhou et al.
- déformable-convolution-pytorch: mise en œuvre pytorch d'une convolution déformable.
- skip-gram-pytorch: une implémentation Pytorch complète du modèle Skipgram (avec sous-échantillonnage et échantillonnage négatif). Le résultat d'intégration est testé avec la corrélation de rang de Spearman.
- Stackgan-V2: Implémentation de Pytorch pour la reproduction de Stackgan_V2 Résultats dans le papier Stackgan ++: Synthèse d'image réaliste avec des réseaux adversariaux génératifs empilés par Han Zhang *, Tao Xu *, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris Metaxas.
- autocritique.pytorch: implémentation non officielle du Pytorch pour la formation de séquence autocritique pour le sous-titrage de l'image.
- PYGCN: Réseaux de convolution graphiques dans Pytorch.
- DNC: ordinateurs neuronaux différenciables, pour pytorch
- prog_gans_pytorch_inference: inférence pytorch pour "croissance progressive des Gans" avec un instantané Celeba.
- Pytorch-Capsule: Implémentation de Pytorch du routage dynamique d'Hinton entre les capsules.
- Pyramidnet-Pytorch: une implémentation de pytorch pour les pyramidnets (réseaux résiduels pyramidaux profonds, arxiv.org/abs/1610.02915)
- Radio-transformateur-Networks: une implémentation Pytorch des réseaux de transformateurs radio à partir de l'article "Une introduction à l'apprentissage en profondeur pour la couche physique". arXiv.org/abs/1702.00832
- Honk: Remplémentation Pytorch des CNN TensorFlow de Google pour les taches de mots clés.
- Deepcoral: A Pytorch Implementation of 'Deep Coral: Corrélation Alignement for Deep Domain Adaptation' '., ECCV 2016
- Pytorch Pose: une boîte à outils Pytorch pour l'estimation de la pose humaine 2D.
- Lang-Emerge-Parlai: Implémentation du papier EMNLP 2017 "Le langage naturel n'émerge pas« naturellement »dans la boîte de dialogue multi-agents» en utilisant Pytorch et Parlai
- Rainbow: Rainbow: combinant des améliorations de l'apprentissage en renforcement profond
- pytorch_compact_bilinear_pooling v1: Ce référentiel a une implémentation pure python de la mise en commun bilinéaire compacte et du comptage de comptage pour pytorch.
- CompactBilinearpooling-Pytorch V2: (Yang Gao, et al.) Une implémentation pytorch pour la regroupement bilinéaire compact.
- FewShotlearning: Pytorch Implémentation de l'article "L'optimisation comme modèle pour l'apprentissage à quelques coups"
- Meprop: codes pour "Meprop: propagation du dos sparsifiée pour un apprentissage en profondeur accéléré avec un sur-ajustement réduit".
- SFD_PYTORCH: Une implémentation Pytorch du détecteur de visage invariant à l'échelle unique.
- GradientePisodicMemory: Continuum Learning with GEM: Gradient Episodic Memory. https://arxiv.org/abs/1706.08840
- DeBlurgan: Pytorch Implémentation du papier Deblurgan: Blind Motion Déblure à l'aide de réseaux adversaires conditionnels.
- Stargan: Stargan: réseaux adversaires génératifs unifiés pour la transmission d'image à images multi-domaines.
- CapsNet-Pytorch: Implémentation Pytorch du routage dynamique de papier NIPS 2017 entre les capsules.
- Condensenet: Condensennet: une denset efficace utilisant des convolutions de groupe apprises.
- Image profond: restauration d'image avec réseaux de neurones mais sans apprentissage.
- Posé à tête profonde: Estimation de la pose de la tête en profondeur à l'aide de pytorch.
- Erasting aléatoire: ce code a le code source pour le papier "Augmentation de données d'effacement des données".
- FADERNETWORKS: FADER NETWORKS: Manipuler les images par des attributs coulissants - NIPS 2017
- Flownet 2.0: Flownet 2.0: Evolution de l'estimation du flux optique avec des réseaux profonds
- PIX2PIXHD: Synthèse et manipulant 2048x1024 Images avec Gans conditionnel TCWANG0509.github.io/pix2pixhd
- Pytorch-Soothgrad: Implémentation Smoothrad dans Pytorch
- Retinanet: une implémentation de Retinanet à Pytorch.
- plus rapide-rcnn.pytorch: ce projet est une implémentation R-CNN plus rapide, visant à accélérer la formation de modèles de détection d'objets R-CNN plus rapides.
- Mixup_pytorch: Une mise en œuvre pytorch du mélange papier: au-delà de la minimisation empirique des risques dans le pytorch.
- INPLACE_ABN: Batchnorm activé sur place pour la formation optimisée à la mémoire des DNN
- Pytorch-Pose-HG-3D: mise en œuvre de Pytorch pour l'estimation de la pose humaine 3D
- NMN-PYTORCH: Réseau de modules neuronaux pour VQA dans Pytorch.
- ByTenet: Pytorch Implémentation de ByTenet à partir du papier "Neural Machine Traduction in Linear Time"
- ascendante-agent-vqa: VQA, astraitement de bas, pytorch
- YOLO2-PYTORCH: Le Yolov2 est l'un des détecteurs d'objets en une étape les plus populaires. Ce projet adopte Pytorch comme cadre en développement pour augmenter la productivité et utiliser l'ONNX pour convertir les modèles en Caffe 2 en déploiement d'ingénierie BeniFit.
- Reseg-Pytorch: Pytorch Implémentation de Resseg (arXiv.org/pdf/1511.07053.pdf)
- Neutrones binaires-stochastiques: neurones stochastiques binaires dans Pytorch.
- Pytorch-Pose-Estimation: Pytorch Implémentation du projet d'estimation de la pose multi-personnes en temps réel.
- Interaction_network_pytorch: Pytorch Implémentation des réseaux d'interaction pour apprendre les objets, les relations et la physique.
- Noisynaturalgradient: mise en œuvre pytorch du papier "gradient naturel bruyant comme inférence variationnelle".
- ewc.pytorch: Une mise en œuvre de la consolidation de poids élastique (EWC), proposée dans James Kirkpatrick et al. Surmonter l'oubli catastrophique dans les réseaux de neurones 2016 (10.1073 / pnas.1611835114).
- PYTORCH-ZSSR: Pytorch Implémentation de la super-résolution "zéro-shot" 1712.06087
- Deep_image_prior: une implémentation des méthodes de reconstruction d'image de Deep Image Prior (Ulyanov et al., 2017) dans Pytorch.
- Pytorch-Transformateur: La mise en œuvre de l'attention Pytorch est tout ce dont vous avez besoin.
- Deeprl-Frounding: Il s'agit d'une mise en œuvre en pytorch de l'architecture AAAI-18 PAPE GADET-ATTERTISG pour la mise à la terre des langues orientées tâches
- Pytorch en profondeur: prédiction de vitesse du vent à l'aide de LSTMS dans Pytorch (arXiv.org/pdf/1707.08110.pdf)
- Cat-Net: transformations d'apparence canonique
- MINIMAL_GLO: Implémentation minimale de Pytorch de l'optimisation latente générative de l'article "Optimisation de l'espace latent des réseaux génératifs"
- LearningTocompare-Pytorch: Implémentation de Pytorch pour l'article: Apprentissage à comparer: Relation Network pour l'apprentissage à quelques coups.
- Poincare-Embeddings: Pytorch Implémentation de l'article NIPS-17 "Poincaré Embeddings for Learning Hiérarchical Representations".
- Pytorch-TRPO (Version du produit Vector Hessian): Il s'agit d'une implémentation Pytorch de "Trust Region Policy Optimization (TRPO)" avec un produit vivectier exact au lieu d'une approximation de différences finies.
- GGNN.PYTORCH: Une implémentation Pytorch des réseaux de neurones de séquence de graphiques fermés (GGNN).
- Visual-interaction-networks-pytorch: Il s'agit d'une implémentation du document de réseaux d'interaction visuelle DeepMind utilisant Pytorch
- Patch adversaire: mise en œuvre pytorch du patch adversaire.
- Prototypical-networks-for-few-shot-learning-pytorch: mise en œuvre de réseaux prototypiques pour quelques tirs d'apprentissage (arXiv.org/abs/1703.05175) à Pytorch
- Visual-Feature-Attribution-Using-Wasserstein-Gans-Pytorch: Implémentation de l'attribution des caractéristiques visuelles à l'aide de Wasserstein Gans (arXiv.org/abs/1711.08998) dans Pytorch.
- PhotographICImagesynthesis WithCascadeDeDeFinementNetWorks-Pytorch: Synthèse photographique avec des réseaux de raffinement en cascade - Implémentation de Pytorch
- ENAS-PYTORCH: Implémentation Pytorch de "Recherche d'architecture neuronale efficace via le partage des paramètres".
- Évaluation de l'image neuronale: une mise en œuvre pytorch de l'évaluation de l'image neuronale.
- Proxprop: rétropropagation proximale - un algorithme de formation de réseau neuronal qui prend implicite au lieu d'étapes de gradient explicites.
- Fastphotostyle: une solution de forme fermée à la stylisation d'image photoréaliste
- Image-Image-analogie-Pytorch: une mise en œuvre python de l'analogie d'image profonde basée sur le pytorch.
- Person-reid_pytorch: pytorch pour la personne re-id.
- PT-Dilate-RNN: RNN dilaté dans Pytorch.
- pytorch-i-revnet: implémentation pytorch de i-revnets.
- Orthnet: couches Tensorflow et Pytorch pour générer des polynômes orthogonaux.
- DRRN-PYTORCH: Une mise en œuvre du réseau résiduel récursif profond pour la super résolution (DRRN), CVPR 2017
- shampoo.pytorch: une implémentation de shampooing.
- Image neural-Évaluation 2: une mise en œuvre pytorch de l'évaluation de l'image neuronale.
- TCN: repères de modélisation de séquences et réseaux de convolution temporelle LocusLab / TCN
- DCC: Ce référentiel contient le code source et les données pour reproduire les résultats du papier de clustering continu profond.
- Packnet: Code pour Packnet: Ajout de plusieurs tâches à un seul réseau par élagage itératif arXiv.org/abs/1711.05769
- Pytorch-progressif_growing_of_gans: mise en œuvre pytorch de la croissance progressive des Gans pour une qualité, une stabilité et une variation améliorées.
- NON AUTO-NMT: Pytorch Implémentation de "Traduction de machine neuronale non autorégressive"
- Pytorch-Gan: Implémentations Pytorch des réseaux adversaires génératifs.
- Pytorchwavelets: mise en œuvre pytorch de l'analyse en ondelettes trouvées dans Torrence et Compo (1998)
- Pytorch-fabriqué: Implémentation de la densité Autoencoder Made (Masked Autoencoder) dans Pytorch
- VRNN: implémentation Pytorch du RNN variationnel (VRNN), à partir d'un modèle de variable latente récurrente pour les données séquentielles.
- Flux: Pytorch Implémentation de l'ICLR 2018 Papier Deep Learning for Physical Processs: Intégration des connaissances scientifiques antérieures.
- DeepVoice3_pytorch: Pytorch Implémentation de modèles de synthèse de texte-vocation basés sur des réseaux convolutionnels
- PSMM: Imlementation du modèle de mélange de Sentinel du pointeur, comme décrit dans l'article par Stephen Merity et al.
- Tacotron2: Tacotron 2 - Implémentation de Pytorch avec une inférence plus rapide que réalisée.
- ACCSGD: implémente le code pytorch pour l'algorithme SGD accéléré.
- Qanet-Pytorch: Une implémentation de Qanet avec Pytorch (EM / F1 = 70,5 / 77,2 après 20 époques pendant environ 20 heures sur une carte 1080ti.)
- Conve: Intégration de graphiques de connaissances 2D convolutionnels
- Structured-self-intention: mise en œuvre pour l'article une phrase auto-attentive structurée, qui est publiée dans ICLR 2017: arXiv.org/ABS/1703.03130.
- Graphsage-Simple: Implémentation de référence simple de Graphsage.
- Detectron.pytorch: Une implémentation Pytorch de Detectron. Les deux entraînements à partir de zéro et en déduction directement à partir de poids de détectif pré-entraînés sont disponibles.
- R2PLUS1D-PYTORCH: Pytorch Mise en œuvre de l'architecture RESNET basée sur la convolution R2PLUS1D décrite dans l'article "Un examen plus approfondi des convolutions spatio-temporelles pour la reconnaissance d'action"
- Stacknn: une implémentation Pytorch de piles différenciables à utiliser dans les réseaux de neurones.
- Transagent: code pour la traduction émergente dans la communication multi-agents.
- BAN-VQA: Réseaux d'attention bilinéaire pour la réponse aux questions visuelles.
- Pytorch-openai-Transformateur-LM: Il s'agit d'une implémentation pytorch du code Tensorflow fourni avec l'article d'Openai "Améliorer la compréhension du langage par la pré-formation générative" par Alec Radford, Karthik Narasimhan, Tim Salimans et Ilya Sutskever.
- T2F: génération de texte à face à l'aide d'un apprentissage en profondeur. Ce projet combine deux des architectures récentes Stackgan et Progan pour synthétiser les visages à partir de descriptions textuelles.
- Pytorch - FID: Un port de Fréchet Inception Distance (score FID) à Pytorch
- VAE_VPLOWS: Code en pytorch pour la combinaison convexe linéaire IAF et le Householder Flow, JM Tomczak & M. Welling Jmtomczak.github.io/deebmed.html
- CoordConv-Pytorch: Pytorch Implémentation de CoordConv introduit dans «un échec intrigant des réseaux de neurones convolutionnels et le document de la solution CoordConv». (arXiv.org/pdf/1807.03247.pdf)
- SDPOINT: Mise en œuvre de «réduction des réductions stochastiques pour une inférence au coût et une régularisation améliorée dans les réseaux de convolution», publié dans CVPR 2018.
- Srdeneset-Pytorch: Srdenenet-Pytorch (ICCV_2017)
- Gan_stabilité: code pour papier "Quelles méthodes de formation pour Gans convergent réellement? (ICML 2018)"
- Mask-RCNN: Une mise en œuvre pytorch de l'architecture de Mask RCNN, sert d'introduction à travailler avec Pytorch
- Pytorch-Coviar: reconnaissance de l'action vidéo comprimée
- Pnasnet.pytorch: implémentation pytorch de PNASNET-5 sur ImageNet.
- Nalu-Pytorch: Implémentation de base pytorch de NAC / NAU à partir des unités logiques arithmétiques neurales arXiv.org/pdf/1808.00508.pdf
- Lola_Dice: Implémentation Pytorch de Lola (arXiv.org/abs/1709.04326) en utilisant DICE (arXiv.org/abs/1802.05098)
- Generative-Queery-Network-Pytorch: Generative Query Network (GQN) à Pytorch comme décrit dans "Représentation et rendu de scène neuronale"
- pytorch_hmax: implémentation du modèle de vision Hmax dans pytorch.
- FCN-PYTORCH-ESAISER: Essayer d'être la mise en œuvre la plus facile et la plus à utiliser Pytorch de FCN (réseaux de convolotion entièrement)
- Transducteur: une implémentation de transducteur de séquence rapide avec les liaisons Pytorch.
- AVO-PYTORCH: Implémentation de l'optimisation variationnelle adversaire dans Pytorch.
- HCN-PYTORCH: Une réimplémentation pytorch de {co-occurrence caractéristique apprenant des données squelettes pour la reconnaissance et la détection d'action avec l'agrégation hiérarchique}.
- Resset à l'échelle binaire: mise en œuvre de Pytorch de réseaux résiduels larges avec des poids 1 bits par McDonnel (ICLR 2018)
- Piggyback: Code pour le reportage: adapter un seul réseau à plusieurs tâches en apprenant à masquer des poids arxiv.org/abs/1801.06519
- Vid2vid: mise en œuvre pytorch de notre méthode de traduction vidéo à video photoréaliste à haute résolution (par exemple 2048x1024).
- Poisson-Convolution-Sum: met en œuvre une somme infinie de convolutions pondérées de Poisson
- TBD-NETS: Pytorch Implémentation de "Transparence par conception: combler l'écart entre les performances et l'interprétabilité dans le raisonnement visuel" arXiv.org/abs/1803.05268
- ATTN2D: Attention omniprésente: Réseaux de convolution 2D pour la prédiction de séquence à séquence
- yolov3: yolov3: formation et inférence à pytorch pjreddie.com/darknet/yolo
- Deep-dream-in-pytorch: mise en œuvre pytorch de l'algorithme de vision informatique Deepdream.
- Pytorch-Flows: Implémentations Pytorch d'algorithmes pour l'estimation de la densité
- quantile-régression-dqn-pytorch: régression quantile dqn un exemple de travail minimal
- Relational-RNN-Pytorch: Une mise en œuvre des réseaux de neurones récurrents de DeepMind à Pytorch.
- Dextr-Pytorch: Deep Extreme Cut http://www.vision.ee.ethz.ch/~cvlsegmentation/dextr
- Pytorch_gbw_lm: modèle de langue pytorch pour l'ensemble de données de mots google milliards.
- Pytorch-NCE: L'estimation contrastive du bruit pour la sortie Softmax écrite en pytorch
- Modèles génératifs: implémentations Pytorch annotées, compréhensibles et visuellement interprétables de: Vae, Birvae, Nsgan, MMGAN, WGAN, WGANGP, LSGAN, DRAGAN, Begin, Ragan, Infogan, Fgan, Fishergan.
- ConvNet-Aig: implémentation Pytorch pour les réseaux convolutionnels avec des graphiques d'inférence adaptatifs.
- Integrated-Gradient-Pytorch: Il s'agit de la mise en œuvre pytorch de l'article - Attribution axiomatique pour les réseaux profonds.
- MALCONV-PYTORCH: Pytorch Implémentation de Malconv.
- Trellisnet: réseaux de treillis pour la modélisation de séquences
- Apprendre à communiquer avec l'apprentissage en renforcement multi-agents profond: mise en œuvre de l'apprentissage en pytorch pour communiquer avec un document d'apprentissage en renforcement multi-agents profond.
- PNN.PYTORCH: Pytorch Implémentation de CVPR'18 - Réseaux de neurones perturbatifs http://xujuefei.com/pnn.html.
- FACE_ATTENTISE_NETWORK: Pytorch Implémentation du réseau d'attention Face comme décrit dans le réseau d'attention Face: un détecteur de visage efficace pour les faces occluses.
- Glugure d'onde: un réseau génératif basé sur le flux pour la synthèse de la parole.
- Deepfloat: Ce référentiel contient le SystemVerilog RTL, C ++, HLS (Intel FPGA OpenCL pour envelopper le code RTL) et Python nécessaire pour reproduire les résultats numériques dans "Repenser le point flottant pour l'apprentissage en profondeur"
- EPSR: mise en œuvre pytorch de l'analyse du compromis de perception-distorsion à l'aide d'un réseau de super-résolution perceptuel amélioré. Ces travaux ont remporté la première place dans le concours PIRM2018-SR (région 1) dans le cadre de l'ECCV 2018.
- Clarinette: une mise en œuvre pytorch de la clarinette arxiv.org/abs/1807.07281
- PYTORCH-PRÉTRAINE-BERT: Version Pytorch du modèle Bert de Google AI avec script pour charger les modèles pré-formés de Google
- TORCH_WAVEGLOW: Une implémentation Pytorch de l'éclat d'onde: un réseau génératif basé sur le flux pour la synthèse de la parole.
- 3DDFA: La réimplémentation Pytorch améliorée du papier TPAMI 2017: Alignement du visage dans la plage de pose complète: une solution totale 3D.
- Perte-Landscape: Code de paysage de perte pour visualiser le paysage des pertes des filets neuronaux.
- FAMOS: Pytorch Implémentation du document "Copier l'ancien ou peindre à nouveau? Un cadre adversaire pour (non) stylisation d'image paramétrique" disponible sur http://arxiv.org/abs/1811.09236.
- Back2Future.pytorch: Il s'agit d'une implémentation Pytorch de Janai, J., Güney, F., Ranjan, A., Black, M. et Geiger, A., Apprentissage non supervisé du flux optique multi-trames avec des occlusions. ECCV 2018.
- FFTNET: Implémentation non officielle du papier VOCODE FFTNET.
- FACEBOXES.PYTORCH: Une implémentation Pytorch de FACEBOXES.
- Transformateur-xl: transformateur-xl: modèles de langage attentif au-delà d'un contexthttps: //github.com/Kimiyoung/transformer-xl
- associative_compression_networks: réseaux de compression associatifs pour l'apprentissage de la représentation.
- FLUIDNET_CXX: FLUIDNET REWRITTEN AVEC ATEN TENSEUR LIB.
- Les algorithmes de renforcement profond-renforcement-pytorch: ce référentiel contient des implémentations Pytorch d'algorithmes d'apprentissage en renforcement profond.
- Shufflenet-V2-Pytorch: Il s'agit d'une implémentation Pytorch de ShuffleNet-V2 de FacePlusplus.
- GraphWaveletneuralNetwork: Il s'agit d'une implémentation Pytorch du réseau neuronal d'ondelettes graphiques. ICLR 2019.
- ATTENTIONWALK: Il s'agit d'une implémentation pytorch de Watch Your Step: Learning Node incorporeds via l'attention du graphique. NIPS 2018.
- SGCN: Il s'agit d'une implémentation Pytorch du réseau de convolution de graphes signé. ICDM 2018.
- Sine: Il s'agit d'une implémentation Pytorch de Sine: Embeding incomplète de réseau évolutif. ICDM 2018.
- GAM: Il s'agit d'une implémentation pytorch de la classification des graphiques en utilisant l'attention structurelle. KDD 2018.
- style neuronal-PT: une mise en œuvre en pytorch du style neural de Justin Johnson.
- Tucker: Tucker: Factorisation du tenseur pour l'achèvement des graphiques de connaissances.
- Pytorch-Prunes: élagage des réseaux de neurones: est-il temps de le étouffer dans l'œuf?
- SimGNN: SimGNN: A Neural Network Approach to Fast Graph Similarity Computation.
- Character CNN: PyTorch implementation of the Character-level Convolutional Networks for Text Classification paper.
- XLM: PyTorch original implementation of Cross-lingual Language Model Pretraining.
- DiffAI: A provable defense against adversarial examples and library for building compatible PyTorch models.
- APPNP: Combining Neural Networks with Personalized PageRank for Classification on Graphs. ICLR 2019.
- NGCN: A Higher-Order Graph Convolutional Layer. NeurIPS 2018.
- gpt-2-Pytorch: Simple Text-Generator with OpenAI gpt-2 Pytorch Implementation
- Splitter: Splitter: Learning Node Representations that Capture Multiple Social Contexts. (WWW 2019).
- CapsGNN: Capsule Graph Neural Network. (ICLR 2019).
- BigGAN-PyTorch: The author's officially unofficial PyTorch BigGAN implementation.
- ppo_pytorch_cpp: This is an implementation of the proximal policy optimization algorithm for the C++ API of Pytorch.
- RandWireNN: Implementation of: "Exploring Randomly Wired Neural Networks for Image Recognition".
- Zero-shot Intent CapsNet: GPU-accelerated PyTorch implementation of "Zero-shot User Intent Detection via Capsule Neural Networks".
- SEAL-CI Semi-Supervised Graph Classification: A Hierarchical Graph Perspective. (WWW 2019).
- MixHop: MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing. ICML 2019.
- densebody_pytorch: PyTorch implementation of CloudWalk's recent paper DenseBody.
- voicefilter: Unofficial PyTorch implementation of Google AI's VoiceFilter system http://swpark.me/voicefilter.
- NVIDIA/semantic-segmentation: A PyTorch Implementation of Improving Semantic Segmentation via Video Propagation and Label Relaxation, In CVPR2019.
- ClusterGCN: A PyTorch implementation of "Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Networks" (KDD 2019).
- NVlabs/DG-Net: A PyTorch implementation of "Joint Discriminative and Generative Learning for Person Re-identification" (CVPR19 Oral).
- NCRF: Cancer metastasis detection with neural conditional random field (NCRF)
- pytorch-sift: PyTorch implementation of SIFT descriptor.
- brain-segmentation-pytorch: U-Net implementation in PyTorch for FLAIR abnormality segmentation in brain MRI.
- glow-pytorch: PyTorch implementation of Glow, Generative Flow with Invertible 1x1 Convolutions (arxiv.org/abs/1807.03039)
- EfficientNets-PyTorch: A PyTorch implementation of EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks.
- STEAL: STEAL - Learning Semantic Boundaries from Noisy Annotations nv-tlabs.github.io/STEAL
- EigenDamage-Pytorch: Official implementation of the ICML'19 paper "EigenDamage: Structured Pruning in the Kronecker-Factored Eigenbasis".
- Aspect-level-sentiment: Code and dataset for ACL2018 paper "Exploiting Document Knowledge for Aspect-level Sentiment Classification"
- breast_cancer_classifier: Deep Neural Networks Improve Radiologists' Performance in Breast Cancer Screening arxiv.org/abs/1903.08297
- DGC-Net: A PyTorch implementation of "DGC-Net: Dense Geometric Correspondence Network".
- universal-triggers: Universal Adversarial Triggers for Attacking and Analyzing NLP (EMNLP 2019)
- Deep-Reinforcement-Learning-Algorithms-with-PyTorch: PyTorch implementations of deep reinforcement learning algorithms and environments.
- simple-effective-text-matching-pytorch: A pytorch implementation of the ACL2019 paper "Simple and Effective Text Matching with Richer Alignment Features".
- Adaptive-segmentation-mask-attack (ASMA): A pytorch implementation of the MICCAI2019 paper "Impact of Adversarial Examples on Deep Learning Models for Biomedical Image Segmentation".
- NVIDIA/unsupervised-video-interpolation: A PyTorch Implementation of Unsupervised Video Interpolation Using Cycle Consistency, In ICCV 2019.
- Seg-Uncertainty: Unsupervised Scene Adaptation with Memory Regularization in vivo, In IJCAI 2020.
- pulse: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models
- distance-encoding: Distance-Encoding - Design Provably More PowerfulGNNs for Structural Representation Learning.
- Pathfinder Discovery Networks: Pathfinder Discovery Networks for Neural Message Passing.
- PyKEEN: A Python library for learning and evaluating knowledge graph embeddings.
- SSSNET: Official implementation of the SDM2022 paper "SSSNET: Semi-Supervised Signed Network Clustering".
- MagNet: Official implementation of the NeurIPS2021 paper "MagNet: A Neural Network for Directed Graphs".
- Semantic Search: Latest in the field of neural information retrieval / semantic search.
Talks & conferences
- PyTorch Conference 2018: First PyTorch developer conference at 2018.
Pytorch elsewhere
- the-incredible-pytorch : The Incredible PyTorch: a curated list of tutorials, papers, projects, communities and more relating to PyTorch.
- generative models: Collection of generative models, eg GAN, VAE in Tensorflow, Keras, and Pytorch. http://wiseodd.github.io
- pytorch vs tensorflow: an informative thread on reddit.
- Pytorch discussion forum
- pytorch notebook: docker-stack: A project similar to Jupyter Notebook Scientific Python Stack
- drawlikebobross: Draw like Bob Ross using the power of Neural Networks (With PyTorch)!
- pytorch-tvmisc: Totally Versatile Miscellanea for Pytorch
- pytorch-a3c-mujoco: Implement A3C for Mujoco gym envs.
- PyTorch in 5 Minutes.
- pytorch_chatbot: A Marvelous ChatBot implemented using PyTorch.
- malmo-challenge: Malmo Collaborative AI Challenge - Team Pig Catcher
- sketchnet: A model that takes an image and generates Processing source code to regenerate that image
- Deep-Learning-Boot-Camp: A nonprofit community run, 5-day Deep Learning Bootcamp http://deep-ml.com.
- Amazon_Forest_Computer_Vision: Satellite Image tagging code using PyTorch / Keras with lots of PyTorch tricks. kaggle competition.
- AlphaZero_Gomoku: An implementation of the AlphaZero algorithm for Gomoku (also called Gobang or Five in a Row)
- pytorch-cv: Repo for Object Detection, Segmentation & Pose Estimation.
- deep-person-reid: Pytorch implementation of deep person re-identification approaches.
- pytorch-template: PyTorch template project
- Deep Learning With Pytorch TextBook A practical guide to build neural network models in text and vision using PyTorch. Purchase on Amazon github code repo
- compare-tensorflow-pytorch: Compare outputs between layers written in Tensorflow and layers written in Pytorch.
- hasktorch: Tensors and neural networks in Haskell
- Deep Learning With Pytorch Deep Learning with PyTorch teaches you how to implement deep learning algorithms with Python and PyTorch.
- nimtorch: PyTorch - Python + Nim
- derplearning: Self Driving RC Car Code.
- pytorch-saltnet: Kaggle | 9th place single model solution for TGS Salt Identification Challenge.
- pytorch-scripts: A few Windows specific scripts for PyTorch.
- pytorch_misc: Code snippets created for the PyTorch discussion board.
- awesome-pytorch-scholarship: A list of awesome PyTorch scholarship articles, guides, blogs, courses and other resources.
- MentisOculi: A raytracer written in PyTorch (raynet?)
- DoodleMaster: "Don't code your UI, Draw it !"
- ocaml-torch: OCaml bindings for PyTorch.
- extension-script: Example repository for custom C++/CUDA operators for TorchScript.
- pytorch-inference: PyTorch 1.0 inference in C++ on Windows10 platforms.
- pytorch-cpp-inference: Serving PyTorch 1.0 Models as a Web Server in C++.
- tch-rs: Rust bindings for PyTorch.
- TorchSharp: .NET bindings for the Pytorch engine
- ML Workspace: All-in-one web IDE for machine learning and data science. Combines Jupyter, VS Code, PyTorch, and many other tools/libraries into one Docker image.
- PyTorch Style Guide Style guide for PyTorch code. Consistent and good code style helps collaboration and prevents errors!
Feedback: If you have any ideas or you want any other content to be added to this list, feel free to contribute.