Dies ist eine kuratierte Liste von Tutorials, Projekten, Bibliotheken, Videos, Artikeln, Büchern und allem, was mit dem unglaublichen PyTorch zu tun hat. Fühlen Sie sich frei, eine Pull-Anfrage zu stellen, um zu dieser Liste beizutragen.
Inhaltsverzeichnis
- Inhaltsverzeichnis
- Tutorials
- Große Sprachmodelle (LLMs)
- Tabellarische Daten
- Visualisierung
- Erklärbarkeit
- Objekterkennung
- Long-Tailed-/Out-of-Distribution-Erkennung
- Aktivierungsfunktionen
- Energiebasiertes Lernen
- Fehlende Daten
- Architektursuche
- Kontinuierliches Lernen
- Optimierung
- Quantisierung
- Quantenmaschinelles Lernen
- Komprimierung neuronaler Netzwerke
- Gesichts-, Aktions- und Posenerkennung
- Super Auflösung
- Ansichten synthetisieren
- Stimme
- Medizinisch
- 3D-Segmentierung, Klassifizierung und Regression
- Videoerkennung
- Wiederkehrende neuronale Netze (RNNs)
- Faltungs-Neuronale Netze (CNNs)
- Segmentierung
- Geometrisches Deep Learning: Graph und unregelmäßige Strukturen
- Sortierung
- Gewöhnliche Differentialgleichungsnetzwerke
- Multitasking-Lernen
- GANs, VAEs und AEs
- Unüberwachtes Lernen
- Gegnerische Angriffe
- Stilübertragung
- Bildunterschrift
- Transformatoren
- Ähnlichkeitsnetzwerke und -funktionen
- Argumentation
- Allgemeines NLP
- Frage und Antwort
- Spracherzeugung und -erkennung
- Dokumenten- und Textklassifizierung
- Textgenerierung
- Text zu Bild
- Übersetzung
- Stimmungsanalyse
- Deep Reinforcement Learning
- Deep Bayesianisches Lernen und probabilistische Programmierung
- Spikende neuronale Netze
- Anomalieerkennung
- Regressionstypen
- Zeitreihen
- Synthetische Datensätze
- Allgemeine Verbesserungen des neuronalen Netzwerks
- DNN-Anwendungen in Chemie und Physik
- Neues Denken zur allgemeinen neuronalen Netzwerkarchitektur
- Lineare Algebra
- API-Abstraktion
- Low-Level-Dienstprogramme
- PyTorch-Dienstprogramme
- PyTorch-Video-Tutorials
- Gemeinschaft
- Zu klassifizieren
- Links zu diesem Repository
- Beiträge
Tutorials
- Offizielle PyTorch-Tutorials
- Offizielle PyTorch-Beispiele
- Tauchen Sie ein in Deep Learning mit PyTorch
- Minikurs in Deep Learning mit PyTorch (mehrsprachig)
- Praktisches Deep Learning mit PyTorch
- Deep-Learning-Modelle
- C++-Implementierung von PyTorch Tutorial
- Einfache Beispiele zur Einführung von PyTorch
- Mini-Tutorials in PyTorch
- Deep Learning für NLP
- Deep-Learning-Tutorial für Forscher
- Vollständig Faltungsnetzwerke implementiert mit PyTorch
- Einfache PyTorch-Tutorials Zero to ALL
- DeepNLP-Modelle-Pytorch
- MILA PyTorch Willkommens-Tutorials
- Effektives PyTorch, Laufzeitoptimierung mit TorchScript und numerische Stabilitätsoptimierung
- Praktisches PyTorch
- PyTorch-Projektvorlage
- Semantische Suche mit PyTorch
Große Sprachmodelle (LLMs)
- LLM-Tutorials
- Erstellen Sie ein großes Sprachmodell (von Grund auf)
- Hugginface LLM Training Book, eine Sammlung von Methoden, die beim erfolgreichen Training großer Sprachmodelle helfen
- Allgemein
- Starcoder 2, Familie von Codegenerierungsmodellen
- GPT Schnelle, schnelle und hackbare native Pytorch-Transformator-Inferenz
- Mixtral Offloading: Führen Sie Mixtral-8x7B-Modelle in Colab oder Verbraucher-Desktops aus
- Lama
- Lama-Rezepte
- TinyLlama
- Mosaik vortrainierte Transformatoren (MPT)
- VLLM, speichereffiziente Inferenz- und Serving-Engine mit hohem Durchsatz für LLMs
- Dolly
- Vicuna
- Mistral 7B
- BigDL LLM, Bibliothek zum Ausführen von LLM (großes Sprachmodell) auf Intel XPU (vom Laptop über die GPU bis zur Cloud) unter Verwendung von INT4 mit sehr geringer Latenz1 (für jedes PyTorch-Modell)
- Einfacher LLM-Finetuner
- Blütenblätter, führen Sie LLMs zu Hause aus, im BitTorrent-Stil, Feinabstimmung und Inferenz bis zu 10x schneller als das Auslagern
- japanisch
- Japanisches Lama
- Japanisches GPT Neox und Open Calm
- chinesisch
- Chinesisches Lamma-2 7B
- Chinesisches Vicunja
- Retrieval Augmented Generation (RAG)
- LlamaIndex, Datenframework für Ihre LLM-Anwendung
- Einbettungen
- ChromaDB, Open-Source-Einbettungsdatenbank
- Anwendungen
- Langchain, Anwendungen mit LLMs durch Zusammensetzbarkeit erstellen
- Feinabstimmung
- Huggingface PEFT, modernste Parameter-effiziente Feinabstimmung
- Ausbildung
- Higgsfield, fehlertolerante, hoch skalierbare GPU-Orchestrierung und ein Framework für maschinelles Lernen, das für das Training von Modellen mit Milliarden bis Billionen Parametern entwickelt wurde
- Quantisierung
- AutoGPTQ, ein benutzerfreundliches LLMs-Quantisierungspaket mit benutzerfreundlicher API, basierend auf dem GPTQ-Algorithmus
Tabellarische Daten
- PyTorch Frame: Ein modulares Framework für multimodales tabellarisches Lernen
- Pytorch Tabular, Standard-Framework zur Modellierung von Deep-Learning-Modellen für tabellarische Daten
- Tab-Transformer
- PyTorch-TabNet: Aufmerksames interpretierbares tabellarisches Lernen
- carefree-learn: Eine minimale AutoML-Lösung (Automatic Machine Learning) für tabellarische Datensätze auf Basis von PyTorch
Visualisierung
- Verlustvisualisierung
- Grad-CAM: Visuelle Erklärungen aus tiefen Netzwerken mittels Gradienten-basierter Lokalisierung
- Deep Inside Convolutional Networks: Visualisierung von Bildklassifizierungsmodellen und Salienzkarten
- SmoothGrad: Entfernen von Rauschen durch Hinzufügen von Rauschen
- DeepDream: traumhafte halluzinogene Bilder
- FlashTorch: Visualisierungs-Toolkit für neuronale Netze in PyTorch
- Lucent: Lucid angepasst für PyTorch
- DreamCreator: Einfaches Trainieren von GoogleNet-Modellen für DeepDream mit benutzerdefinierten Datensätzen
- CNN-Feature-Map-Visualisierung
Erklärbarkeit
- Neuronale Entscheidungsbäume
- Effiziente Kovarianzschätzung aus zeitlichen Daten
- Hierarchische Interpretationen für Vorhersagen neuronaler Netzwerke
- Shap, ein einheitlicher Ansatz zur Erklärung der Ausgabe jedes Modells für maschinelles Lernen
- Visualisierung von in PyTorch gespeicherten .pth-Deep-Learning-Modellen mit Netron
- Destillieren eines neuronalen Netzwerks in einen weichen Entscheidungsbaum
- Captum, eine einheitliche Modellinterpretierbarkeitsbibliothek für PyTorch
Objekterkennung
- MMDetection-Toolbox zur Objekterkennung
- Mask R-CNN Benchmark: Schnelleres R-CNN und Mask R-CNN in PyTorch 1.0
- YOLO-Welt
- YOLOS
- YOLOF
- YOLOX
- YOlov10
- YOLOv9
- YOLOv8
- Yolov7
- YOLOv6
- Yolov5
- Yolov4
- YOlov3
- YOLOv2: Objekterkennung in Echtzeit
- SSD: Single-Shot-MultiBox-Detektor
- Detectron-Modelle zur Objekterkennung
- Erkennung mehrstelliger Zahlen aus Street View-Bildern mithilfe von Deep Convolutional Neural Networks
- Waldetektor
- Katalysatorerkennung
Long-Tailed-/Out-of-Distribution-Erkennung
- Verteilungsrobuste neuronale Netze für Gruppenverschiebungen: Zur Bedeutung der Regularisierung für die Worst-Case-Generalisierung
- Invariante Risikominimierung
- Training eines sicherheitskalibrierten Klassifikators zur Erkennung von Proben außerhalb der Verteilung
- Erkennung tiefer Anomalien mit Ausreißererkennung
- Groß angelegte Long-Tailed-Erkennung in einer offenen Welt
- Prinzipielle Erkennung von Beispielen außerhalb der Verteilung in neuronalen Netzen
- Lernvertrauen für die Erkennung außerhalb der Verteilung in neuronalen Netzen
- PyTorch Unbalanced Class Sampler
Aktivierungsfunktionen
- Rationale Aktivierungen – Erlernbare rationale Aktivierungsfunktionen
Energiebasiertes Lernen
- EBGAN, energiebasierte GANs
- Maximale Entropiegeneratoren für energiebasierte Modelle
Fehlende Daten
- BRITS: Bidirektionale rekurrente Imputation für Zeitreihen
Architektursuche
- EfficientNetV2
- DenseNAS
- DARTS: Differenzierbare Architektursuche
- Effiziente neuronale Architektursuche (ENAS)
- EfficientNet: Modellskalierung für Faltungs-Neuronale Netze neu denken
Kontinuierliches Lernen
- Renate, Automatisches Umtraining neuronaler Netze
Optimierung
- AccSGD, AdaBound, AdaMod, DiffGrad, Lamb, NovoGrad, RAdam, SGDW, Yogi und mehr
- Lookahead-Optimierer: k Schritte vorwärts, 1 Schritt zurück
- RAdam, Über die Varianz der adaptiven Lernrate und darüber hinaus
- Over9000, Vergleich von RAdam, Lookahead, Novograd und Kombinationen
- AdaBound, trainiere so schnell wie Adam und so gut wie SGD
- Riemannsche adaptive Optimierungsmethoden
- L-BFGS
- OptNet: Differenzierbare Optimierung als Schicht in neuronalen Netzen
- Lernen durch Gradientenabstieg durch Gradientenabstieg
- Ersatzgradientenlernen in Spiking-Neuronalen Netzen
- TorchOpt: Eine effiziente Bibliothek für differenzierbare Optimierung
Quantisierung
- Additive Zweierpotenzquantisierung: Eine effiziente ungleichmäßige Diskretisierung für neuronale Netze
Quantenmaschinelles Lernen
- Tor10, generische Tensor-Netzwerkbibliothek für die Quantensimulation in PyTorch
- PennyLane, plattformübergreifende Python-Bibliothek für Quantenmaschinelles Lernen mit PyTorch-Schnittstelle
Komprimierung neuronaler Netzwerke
- Bayesianische Komprimierung für Deep Learning
- Neural Network Distiller von Intel AI Lab: ein Python-Paket für die Komprimierungsforschung neuronaler Netzwerke
- Lernen spärlicher neuronaler Netze durch L0-Regularisierung
- Energiebeschränkte Komprimierung für tiefe neuronale Netze durch gewichtete Sparse-Projektion und Layer-Input-Maskierung
- EigenDamage: Strukturiertes Beschneiden in der Kronecker-Faktor-Eigenbasis
- Beschneiden von Faltungs-Neuronalen Netzen für ressourceneffiziente Inferenz
- Neuronale Netze beschneiden: Ist es an der Zeit, sie im Keim zu ersticken? (zeigt, dass reduzierte Netzwerke besser funktionieren)
Gesichts-, Aktions- und Posenerkennung
- Facenet: Vorab trainierte Pytorch-Modelle zur Gesichtserkennung und -erkennung
- DGC-Net: Dichtes geometrisches Korrespondenznetzwerk
- Hochleistungsfähige Gesichtserkennungsbibliothek auf PyTorch
- FaceBoxes, ein CPU-Echtzeit-Gesichtsdetektor mit hoher Genauigkeit
- Wie weit sind wir von der Lösung des Problems der 2D- und 3D-Gesichtsausrichtung entfernt? (und ein Datensatz von 230.000 3D-Gesichtspunkten)
- Erlernen räumlich-zeitlicher Merkmale mit 3D-Restnetzwerken zur Aktionserkennung
- PyTorch Echtzeit-Posenschätzung für mehrere Personen
- SphereFace: Deep Hypersphere Embedding zur Gesichtserkennung
- GANimation: Anatomisch bewusste Gesichtsanimation aus einem einzigen Bild
- Shufflenet V2 von Face++ mit besseren Ergebnissen als Papier
- Auf dem Weg zur dreidimensionalen menschlichen Posenschätzung in freier Wildbahn: ein schwach überwachter Ansatz
- Unüberwachtes Lernen von Tiefe und Ego-Bewegung aus Videos
- FlowNet 2.0: Entwicklung der optischen Flussschätzung mit tiefen Netzwerken
- FlowNet: Optischen Fluss mit Faltungsnetzwerken lernen
- Optische Flussschätzung mithilfe eines räumlichen Pyramidennetzwerks
- OpenFace in PyTorch
- Tiefe Gesichtserkennung in PyTorch
Super Auflösung
- Verbesserte tiefe Restnetzwerke für Einzelbild-Superauflösung
- Superauflösung unter Verwendung eines effizienten Subpixel-Faltungs-Neuronalen Netzwerks
- Wahrnehmungsverluste für Echtzeit-Stilübertragung und Superauflösung
Ansichten synthetisieren
- NeRF, Neuronale Radianfelder, Synthese neuartiger Ansichten komplexer Szenen
Stimme
- Google AI VoiceFilter: Gezielte Sprachtrennung durch sprecherbedingte Spektrogrammmaskierung
Medizinisch
- Medical Zoo, multimodale 3D-Bibliothek zur Segmentierung medizinischer Bilder in PyTorch
- U-Net für die FLAIR-Abnormalitätssegmentierung in der Gehirn-MRT
- Genomische Klassifizierung über ULMFiT
- Tiefe neuronale Netze verbessern die Leistung von Radiologen bei der Brustkrebsvorsorge
- Delira, leichtes Framework für das Prototyping medizinischer Bildgebung
- V-Net: Vollständig faltende neuronale Netze für die volumetrische Segmentierung medizinischer Bilder
- Medical Torch, medizinisches Bildgebungs-Framework für PyTorch
- TorchXRayVision – Eine Bibliothek für Thorax-Röntgendatensätze und -modelle. Einschließlich vorab trainierter Modelle.
3D-Segmentierung, Klassifizierung und Regression
- Kaolin, Bibliothek zur Beschleunigung der 3D-Deep-Learning-Forschung
- PointNet: Deep Learning zu Punktmengen für die 3D-Klassifizierung und -Segmentierung
- 3D-Segmentierung mit MONAI und Catalyst
Videoerkennung
- Tanzen zur Musik
- Der Teufel steckt im Abgrund: Semantische Grenzen aus verrauschten Anmerkungen lernen
- Tiefgreifende Videoanalyse
- PredRNN: Wiederkehrende neuronale Netze für prädiktives Lernen unter Verwendung spatiotemporaler LSTMs
Wiederkehrende neuronale Netze (RNNs)
- SRU: RNNs so schnell trainieren wie CNNs
- Geordnete Neuronen: Integration von Baumstrukturen in wiederkehrende neuronale Netze
- Gemittelter stochastischer Gradientenabstieg mit verringertem Gewicht LSTM
- RNNs so schnell trainieren wie CNNs
- Quasi-rekurrentes neuronales Netzwerk (QRNN)
- ReSeg: Ein auf wiederkehrenden neuronalen Netzwerken basierendes Modell für die semantische Segmentierung
- Ein wiederkehrendes latentes Variablenmodell für sequentielle Daten (VRNN)
- Verbesserte semantische Darstellungen aus baumstrukturierten Langzeit-Kurzzeitgedächtnisnetzwerken
- Aufmerksamkeitsbasierte wiederkehrende neuronale Netzwerkmodelle zur Erkennung gemeinsamer Absichten und zum Füllen von Slots
- Aufmerksame wiederkehrende Vergleicher
- Sammlung von Sequenz-zu-Sequenz-Modellen mit PyTorch
- Vanilla Sequence-to-Sequence-Modelle
- Aufmerksamkeitsbasierte Sequence-to-Sequence-Modelle
- Schnellere Aufmerksamkeitsmechanismen unter Verwendung von Skalarprodukten zwischen den endgültigen verborgenen Zuständen des Encoders und Decoders
Faltungs-Neuronale Netze (CNNs)
- LegoNet: Effiziente Faltungs-Neuronale Netze mit Lego-Filtern
- MeshCNN, ein Faltungs-Neuronales Netzwerk, das speziell für Dreiecksnetze entwickelt wurde
- Oktavfaltung
- PyTorch-Bildmodelle, ResNet/ResNeXT, DPN, MobileNet-V3/V2/V1, MNASNet, Single-Path-NAS, FBNet
- Tiefe neuronale Netze mit Box-Faltungen
- Invertierbare Restnetzwerke
- Stochastisches Downsampling für kostenanpassungsfähige Inferenz und verbesserte Regularisierung in Faltungsnetzwerken
- Schnellere R-CNN-Implementierung
- Schnelleres R-CNN, eine weitere Implementierung
- Der Aufmerksamkeit mehr Aufmerksamkeit schenken: Verbesserung der Leistung von Faltungs-Neuronalen Netzen durch Aufmerksamkeitsübertragung
- Breites ResNet-Modell in PyTorch -DiracNets: Training sehr tiefer neuronaler Netze ohne Skip-Verbindungen
- Ein durchgängig trainierbares neuronales Netzwerk für die bildbasierte Sequenzerkennung und seine Anwendung auf die Szenentexterkennung
- Effizientes Densenet
- Video-Frame-Interpolation über adaptive trennbare Faltung
- Lernen lokaler Merkmalsdeskriptoren mit Tripletts und flachen Faltungs-Neuronalen Netzen
- Dicht verbundene Faltungsnetzwerke
- Sehr tiefe Faltungsnetzwerke für die Bilderkennung im großen Maßstab
- SqueezeNet: Genauigkeit auf AlexNet-Niveau mit 50-mal weniger Parametern und einer Modellgröße von <0,5 MB
- Deep Residual Learning für die Bilderkennung
- Training von Wide ResNets für CIFAR-10 und CIFAR-100 in PyTorch
- Verformbares Faltungsnetzwerk
- Faltungsneurale Stoffe
- Verformbare Faltungsnetzwerke in PyTorch
- Dilated ResNet-Kombination mit Dilated Convolutions
- Streben nach Einfachheit: Das All Convolutional Net
- Faltungs-LSTM-Netzwerk
- Große Sammlung vorab trainierter Klassifizierungsmodelle
- PyTorch-Bildklassifizierung mit dem Datensatz „Kaggle Dogs vs. Cats“.
- CIFAR-10 auf Pytorch mit VGG, ResNet und DenseNet
- Basis vorab trainierter Modelle und Datensätze in Pytorch (MNIST, SVHN, CIFAR10, CIFAR100, STL10, AlexNet, VGG16, VGG19, ResNet, Inception, SqueezeNet)
- NVIDIA/unüberwachte Videointerpolation
Segmentierung
- Detectron2 von FAIR
- Pixelweise Segmentierung des VOC2012-Datensatzes mit PyTorch
- Pywick – Hochwertige, batteriebetriebene Trainingsbibliothek für neuronale Netze für Pytorch
- Verbesserung der semantischen Segmentierung durch Videopropagation und Label-Relaxation
- Super-BPD: Super-Grenze-zu-Pixel-Richtung für schnelle Bildsegmentierung
- Katalysator.Segmentierung
- Segmentierungsmodelle mit vortrainierten Backbones
Geometrisches Deep Learning: Graph und unregelmäßige Strukturen
- Geometrische PyTorch-Deep-Learning-Erweiterung
- PyTorch Geometrisch Temporal: Eine zeitliche Erweiterungsbibliothek für PyTorch Geometrisch
- PyTorch Geometric Signed Directed: Eine signierte und gerichtete Erweiterungsbibliothek für PyTorch Geometric
- ChemicalX: Eine PyTorch-basierte Deep-Learning-Bibliothek für die Bewertung von Arzneimittelpaaren
- Selbstaufmerksamkeitsdiagramm-Pooling
- Positionsbewusste graphische neuronale Netze
- Signiertes Graph-Faltungs-Neuronales Netzwerk
- Zeichnen Sie U-Netze
- Cluster-GCN: Ein effizienter Algorithmus zum Trainieren von Faltungsnetzwerken mit tiefen und großen Graphen
- MixHop: Graph-Faltungsarchitekturen höherer Ordnung über Sparsified Neighborhood Mixing
- Halbüberwachte Graphklassifizierung: Eine hierarchische Graphperspektive
- PyTorch BigGraph von FAIR zum Generieren von Einbettungen aus umfangreichen Diagrammdaten
- Kapselgraph-Neuronales Netzwerk
- Splitter: Lernen von Knotendarstellungen, die mehrere soziale Kontexte erfassen
- Eine Faltungsschicht für Graphen höherer Ordnung
- Vorhersagen und dann verbreiten: Graphische neuronale Netze treffen auf personalisierten PageRank
- Lorentz-Einbettungen: Lernen Sie kontinuierliche Hierarchien im hyperbolischen Raum
- Graph-Wavelet-Neuronales Netzwerk
- Beobachten Sie Ihren Schritt: Knoteneinbettungen über Graph Attention lernen
- Signiertes Graph-Faltungsnetzwerk
- Diagrammklassifizierung mithilfe struktureller Aufmerksamkeit
- SimGNN: Ein neuronaler Netzwerkansatz zur schnellen Berechnung der Graphähnlichkeit
- SINE: Skalierbare unvollständige Netzwerkeinbettung
- HypER: Hypernetwork Knowledge Graph-Einbettungen
- Tucker: Tensorfaktorisierung zur Vervollständigung von Wissensgraphen
- PyKEEN: Eine Python-Bibliothek zum Erlernen und Bewerten der Einbettung von Wissensgraphen
- Pathfinder Discovery Networks für die Weitergabe neuronaler Nachrichten
- SSSNET: Halbüberwachtes signiertes Netzwerk-Clustering
- MagNet: Ein neuronales Netzwerk für gerichtete Graphen
- PyTorch Geopooling: Geodaten-Pooling-Module für neuronale Netze in PyTorch
Sortierung
- Stochastische Optimierung von Sortiernetzwerken durch kontinuierliche Relaxationen
Gewöhnliche Differentialgleichungsnetzwerke
- Latente ODEs für unregelmäßig abgetastete Zeitreihen
- GRU-ODE-Bayes: Kontinuierliche Modellierung sporadisch beobachteter Zeitreihen
Multitasking-Lernen
- Hierarchisches Multi-Task-Lernmodell
- Aufgabenbasiertes End-to-End-Modelllernen
- TorchMTL: Ein leichtes Modul für Multi-Task-Lernen in Pytorch
GANs, VAEs und AEs
- BigGAN: Groß angelegtes GAN-Training für die Synthese natürlicher Bilder mit hoher Wiedergabetreue
- High-Fidelity-Leistungsmetriken für generative Modelle in PyTorch
- Mimicry, PyTorch-Bibliothek zur Reproduzierbarkeit der GAN-Forschung
- Sauber lesbares CycleGAN
- StarGAN
- Blockieren Sie den neuronalen autoregressiven Fluss
- Hochauflösende Bildsynthese und semantische Manipulation mit bedingten GANs
- Eine stilbasierte Generatorarchitektur für generative gegnerische Netzwerke
- GANDissec, PyTorch-Tool zur Visualisierung von Neuronen in GANs
- Erlernen tiefer Darstellungen durch gegenseitige Informationsschätzung und -maximierung
- Variationelle Laplace-Autoencoder
- VeGANS, Bibliothek zum einfachen Training von GANs
- Progressives Wachstum von GANs für verbesserte Qualität, Stabilität und Variation
- Bedingtes GAN
- Wasserstein GAN
- Gegnerisches Generator-Encoder-Netzwerk
- Bild-zu-Bild-Übersetzung mit bedingten gegnerischen Netzwerken
- Ungepaarte Bild-zu-Bild-Übersetzung mithilfe zykluskonsistenter gegnerischer Netzwerke
- Über die Auswirkungen der Chargen- und Gewichtsnormalisierung in generativen kontradiktorischen Netzwerken
- Verbessertes Training von Wasserstein-GANs
- Sammlung generativer Modelle mit PyTorch
- Generative Adversarial Nets (GAN)
- Vanille-GAN
- Bedingtes GAN
- InfoGAN
- Wasserstein GAN
- Modus Regularisiertes GAN
- Variationaler Autoencoder (VAE)
- Vanille VAE
- Bedingte VAE
- VAE entrauschen
- Gegnerischer Autoencoder
- Adversarial Variational Bayes
- Verbessertes Training von Wasserstein-GANs
- CycleGAN und halbüberwachtes GAN
- Verbesserung der Variations-Auto-Encoder unter Verwendung des Householder-Flusses und der Verwendung des linearen inversen autoregressiven Flusses mit konvexer Kombination
- PyTorch GAN-Sammlung
- Generative Adversarial Networks mit Schwerpunkt auf dem Zeichnen von Anime-Gesichtern
- Einfache generative gegnerische Netzwerke
- Gegnerische Auto-Encoder
- Torchgan: Framework zur Modellierung generativer gegnerischer Netzwerke in Pytorch
- Bewertung verlustbehafteter Komprimierungsraten tiefer generativer Modelle
- Katalysator.GAN
- Vanille-GAN
- Bedingtes GAN
- Wasserstein GAN
- Verbessertes Training von Wasserstein-GANs
Unüberwachtes Lernen
- Unüberwachtes Einbettungslernen über die Funktion „Invariante und Ausbreitung von Instanzen“.
- UND: Anchor Neighborhood Discovery
Gegnerische Angriffe
- Tiefe neuronale Netze lassen sich leicht täuschen: Hochzuverlässige Vorhersagen für nicht erkennbare Bilder
- Widersprüchliche Beispiele erklären und nutzen
- AdverTorch – Eine Toolbox für die Forschung zur gegnerischen Robustheit
Stilübertragung
- Pystiche: Framework für die Übertragung neuronaler Stile
- Widersprüchliche Beispiele mithilfe neuronaler Fingerabdrücke erkennen
- Ein neuronaler Algorithmus des künstlerischen Stils
- Generatives Netzwerk mit mehreren Stilen für die Echtzeitübertragung
- DeOldify, Einfärben alter Bilder
- Neuronale Stilübertragung
- Schnelle neuronale Stilübertragung
- Zeichnen Sie wie Bob Ross
Bildunterschrift
- CLIP (Kontrastive Sprache-Bild-Vorschulung)
- Neuraltalk 2, Bildunterschriftenmodell, in PyTorch
- Generieren Sie mit PyTorch Bildunterschriften aus einem Bild
- DenseCap: Vollständig konvolutionelle Lokalisierungsnetzwerke für dichte Untertitel
Transformatoren
- Aufmerksamkeit ist alles, was Sie brauchen
- Räumliche Transformatornetzwerke
Ähnlichkeitsnetzwerke und -funktionen
- Bedingte Ähnlichkeitsnetzwerke
Argumentation
- Ableiten und Ausführen von Programmen zum visuellen Denken
Allgemeines NLP
- nanoGPT, schnellstes Repository für Training/Feinabstimmung mittelgroßer GPTs
- minGPT, Neuimplementierung von GPT, um klein, sauber, interpretierbar und lehrreich zu sein
- Espresso, Modul Neural Automatic Speech Recognition Toolkit
- Beschriftungsbewusste Dokumentdarstellung durch hybride Aufmerksamkeit für extreme Textklassifizierung mit mehreren Beschriftungen
- XLNet
- Konversation durch Lesen: Inhaltliche neuronale Konversation mit maschinellem Lesen auf Abruf
- Vorschulung zum sprachübergreifenden Sprachmodell
- Libre Office Translate über PyTorch NMT
- BERT
- VSE++: Verbesserte visuell-semantische Einbettungen
- Eine strukturierte, selbstaufmerksame Satzeinbettung
- Modell zur Markierung neuronaler Sequenzen
- Skip-Thought-Vektoren
- Komplette Suite zum Trainieren von Seq2Seq-Modellen in PyTorch
- MUSE: Mehrsprachige unbeaufsichtigte und überwachte Einbettungen
- TorchMoji: PyTorch-Implementierung von DeepMoji in einer Sprache, die zum Ausdruck von Emotionen verwendet wird
Frage und Antwort
- Visuelle Beantwortung von Fragen in Pytorch
- Lesen Sie Wikipedia, um Open-Domain-Fragen zu beantworten
- Deal oder No Deal? End-to-End-Lernen für Verhandlungsdialoge
- Interpretierbares Zählen für die visuelle Beantwortung von Fragen
- Open-Source-Chatbot mit PyTorch
Spracherzeugung und -erkennung
- PyTorch-Kaldi-Spracherkennungs-Toolkit
- WaveGlow: Ein flussbasiertes generatives Netzwerk für die Sprachsynthese
- OpenNMT
- Deep Speech 2: End-to-End-Spracherkennung in Englisch und Mandarin
- WeNet: Production First und Production Ready End-to-End-Spracherkennungs-Toolkit
Dokumenten- und Textklassifizierung
- Hierarchisches Aufmerksamkeitsnetzwerk für die Dokumentenklassifizierung
- Hierarchische Aufmerksamkeitsnetzwerke zur Dokumentenklassifizierung
- CNN-basierte Textklassifizierung
Textgenerierung
- Pytorch Poetry Generation
Text zu Bild
- Stabile Diffusion
- Dall-E 2
- Dall-E
Übersetzung
- Open-Source-System (MIT) für neuronale maschinelle Übersetzung (NMT).
Stimmungsanalyse
- Wiederkehrende neuronale Netze für die Stimmungsanalyse (aspektbasiert) auf SemEval 2014
- Seq2Seq-Intent-Parsing
- Feinabstimmung von BERT für die Stimmungsanalyse
Deep Reinforcement Learning
- Bildvergrößerung ist alles, was Sie brauchen: Deep Reinforcement Learning aus Pixeln regulieren
- Exploration durch zufällige Netzwerkdestillation
- EGG: Entstehung von Sprache in Spielen, schnelle Implementierung von Multi-Agent-Spielen mit diskreter Kanalkommunikation
- Zeitliche Differenz VAE
- Hochleistungsfähiger Atari A3C-Agent in 180 Zeilen PyTorch
- Lernen, wann bei kooperativen und wettbewerbsorientierten Aufgaben mit mehreren Agenten in großem Maßstab kommuniziert werden muss
- Schauspieler-Aufmerksamkeitskritiker für Multi-Agent Reinforcement Learning
- PPO in PyTorch C++
- Verstärkungslernen für die neuronale maschinelle Übersetzung von Bandit mit simuliertem menschlichem Feedback
- Asynchrone Methoden für Deep Reinforcement Learning
- Kontinuierliches Deep Q-Learning mit modellbasierter Beschleunigung
- Asynchrone Methoden für Deep Reinforcement Learning für Atari 2600
- Optimierung der Trust-Region-Richtlinie
- Neuronale kombinatorische Optimierung mit Reinforcement Learning
- Verrauschte Netzwerke zur Erkundung
- Verteilte proximale Richtlinienoptimierung
- Verstärken Sie Lernmodelle in der ViZDoom-Umgebung mit PyTorch
- Verstärkungslernmodelle mit Gym und Pytorch
- SLM-Lab: Modulares Deep-Reinforcement-Learning-Framework in PyTorch
- Katalysator.RL
Deep Bayesianisches Lernen und probabilistische Programmierung
- BatchBALD: Effiziente und vielfältige Batch-Erfassung für Deep Bayesian Active Learning
- Subrauminferenz für Bayesian Deep Learning
- Bayesian Deep Learning mit Variational Inference Package
- Probabilistische Programmierung und statistische Inferenz in PyTorch
- Bayesianisches CNN mit Variational Inferece in PyTorch
Spikende neuronale Netze
- Norse, Bibliothek für Deep Learning mit Spiking Neural Networks
Anomalieerkennung
- Erkennung von Abrechnungsanomalien mithilfe von Deep Autoencoder Neural Networks
Regressionstypen
Zeitreihen
- Duales Selbstaufmerksamkeitsnetzwerk für multivariate Zeitreihenprognosen
- DILATE: Verzerrungsverlust mit Form und Zeit
- Variationaler wiederkehrender Autoencoder für Zeitreihen-Clustering
- Räumlich-zeitliche neuronale Netze für die Modellierung von Raum-Zeit-Reihen und die Entdeckung von Beziehungen
- Flow Forecast: Ein Deep-Learning-Framework für Zeitreihenprognosen, das in PyTorch erstellt wurde
Synthetische Datensätze
- Meta-Sim: Lernen, synthetische Datensätze zu generieren
Allgemeine Verbesserungen des neuronalen Netzwerks
- Vor Ort aktivierte BatchNorm für speicheroptimiertes Training von DNNs
- Länger trainieren, besser verallgemeinern: Die Generalisierungslücke beim Großserientraining neuronaler Netze schließen
- FreezeOut: Beschleunigen Sie das Training durch schrittweises Einfrieren von Schichten
- Binäre stochastische Neuronen
- Kompaktes bilineares Pooling
- Gemischtes Präzisionstraining in PyTorch
DNN-Anwendungen in Chemie und Physik
- Wellenphysik als analoges rekurrentes neuronales Netzwerk
- Neuronale Nachrichtenübermittlung für die Quantenchemie
- Automatisches chemisches Design mithilfe einer datengesteuerten kontinuierlichen Darstellung von Molekülen
- Deep Learning für physikalische Prozesse: Integration früherer wissenschaftlicher Erkenntnisse
- Differenzierbare molekulare Simulation für Lernen und Kontrolle
Neues Denken zur allgemeinen neuronalen Netzwerkarchitektur
- Ergänzende Zielschulung
- Entkoppelte neuronale Schnittstellen mithilfe synthetischer Gradienten
Lineare Algebra
- Eigenvektoren aus Eigenwerten
API-Abstraktion
- Torch-Ebenen, Forminferenz für PyTorch, SOTA-Ebenen
- Hummingbird, führen Sie trainierte Scikit-Learn-Modelle auf der GPU mit PyTorch aus
Low-Level-Dienstprogramme
- TorchSharp, .NET-API mit Zugriff auf die zugrunde liegende Bibliothek, die PyTorch unterstützt
PyTorch-Dienstprogramme
- Functorch: Prototyp von JAX-ähnlichen zusammensetzbaren Funktionstransformatoren für PyTorch
- Poutyne: Vereinfachtes Framework für das Training neuronaler Netze
- PyTorch-Metrik-Lernen
- Kornia: eine Open-Source-Bibliothek für differenzierbare Computer-Vision für PyTorch
- BackPACK zum einfachen Extrahieren von Varianz, Diagonale von Gauss-Newton und KFAC
- PyHessian zur Berechnung hessischer Eigenwerte, Trace of Matrix und ESD
- Hessisch in PyTorch
- Differenzierbare konvexe Schichten
- Albumentationen: Bibliothek zur schnellen Bildvergrößerung
- Höher: Erhalten Sie Gradienten höherer Ordnung über Verluste, die sich über Trainingsschleifen erstrecken
- Neural Pipeline, Trainingspipeline für PyTorch
- Schichtweiser PyTorch-Modellprofiler zur Überprüfung des Modellzeitverbrauchs
- Spärliche Verteilungen
- Diffdist fügt Unterstützung für differenzierbare Kommunikation hinzu, die verteilte Modellparallelität ermöglicht
- HessianFlow, Bibliothek für hessische Algorithmen
- Texar, PyTorch Toolkit zur Textgenerierung
- PyTorch FLOPs-Zähler
- PyTorch-Inferenz auf C++ in Windows
- EuclidesDB, Datenbank mit Funktionen für maschinelles Lernen mit mehreren Modellen
- Datenerweiterung und Sampling für Pytorch
- PyText, ein Deep-Learning-basiertes NLP-Modellierungsframework, das offiziell von FAIR verwaltet wird
- Torchstat für Statistiken zu PyTorch-Modellen
- Laden Sie Audiodateien direkt in PyTorch Tensors
- Gewichtsinitialisierungen
- In PyTorch implementierter räumlicher Transformator
- PyTorch AWS AMI, führen Sie PyTorch mit GPU-Unterstützung in weniger als 5 Minuten aus
- Verwenden Sie Tensorboard mit PyTorch
- Einfaches Fit-Modul in PyTorch, ähnlich wie Keras
- Torchbearer: Eine Modellanpassungsbibliothek für PyTorch
- PyTorch-zu-Keras-Modellkonverter
- Gluon-zu-PyTorch-Modellkonverter mit Codegenerierung
- Catalyst: Hochwertige Dienstprogramme für die PyTorch DL- und RL-Forschung
- PyTorch Lightning: Skalierbares und leichtes Deep-Learning-Forschungsframework
- Entschlossen: Skalierbare Deep-Learning-Plattform mit PyTorch-Unterstützung
- PyTorch-Ignite: High-Level-Bibliothek zur flexiblen und transparenten Schulung und Bewertung neuronaler Netze in PyTorch
- Torchvision: Ein Paket bestehend aus beliebten Datensätzen, Modellarchitekturen und gängigen Bildtransformationen für Computer Vision.
- Poutyne: Ein Keras-ähnliches Framework für PyTorch, das einen Großteil des Boilerplating-Codes verarbeitet, der zum Trainieren neuronaler Netze erforderlich ist.
- Torchensemble: Scikit-Learn-ähnliche Ensemble-Methoden in PyTorch
- TorchFix – ein Linter für PyTorch-verwendenden Code mit Autofix-Unterstützung
PyTorch-Video-Tutorials
- PyTorch Zero to All Vorlesungen
- PyTorch für Deep Learning, vollständiger Kurs
- PyTorch Lightning 101 mit Alfredo Canziani und William Falcon
- Praktisches Deep Learning mit PyTorch
Gemeinschaft
- PyTorch-Diskussionsforum
- StackOverflow PyTorch-Tags
- Katalysator.Slack
Zu klassifizieren
- Störende neuronale Netze
- Genaues neuronales Netzwerkpotenzial
- Skalierung der Streutransformation: Deep Hybrid Networks
- CortexNet: eine generische Netzwerkfamilie für robuste visuelle zeitliche Darstellungen
- Orientierte Reaktionsnetzwerke
- Assoziative Kompressionsnetzwerke
- Klarinette
- Kontinuierliche Wavelet-Transformationen
- Verwechslung: Jenseits der empirischen Risikominimierung
- Netzwerk im Netzwerk
- Autobahnnetze
- Hybrides Computing unter Verwendung eines neuronalen Netzwerks mit dynamischem externen Speicher
- Wertiterationsnetzwerke
- Differenzierbarer neuronaler Computer
- Eine neuronale Darstellung von Skizzenzeichnungen
- Tiefe Bilddarstellungen durch Invertieren verstehen
- NIMA: Neuronale Bildbewertung
- NASNet-A-Mobile. Portierte Gewichte
- Modell zur Generierung von Grafikcode mithilfe von Processing
Links zu diesem Repository
- Github-Repository
- Webseite
Beiträge
Fühlen Sie sich frei, einen Beitrag zu leisten!
Sie können ein Problem ansprechen oder eine Pull-Anfrage einreichen, je nachdem, was für Sie bequemer ist. Die Richtlinie ist einfach: Befolgen Sie einfach das Format des vorherigen Aufzählungspunkts oder erstellen Sie einen neuen Abschnitt, wenn es sich um eine neue Kategorie handelt.