Esta es una lista seleccionada de tutoriales, proyectos, bibliotecas, videos, artículos, libros y todo lo relacionado con el increíble PyTorch. No dudes en realizar una solicitud de extracción para contribuir a esta lista.
Tabla de contenido
- Tabla de contenido
- Tutoriales
- Modelos de lenguajes grandes (LLM)
- Datos tabulares
- Visualización
- Explicabilidad
- Detección de objetos
- Reconocimiento de cola larga/fuera de distribución
- Funciones de activación
- Aprendizaje basado en energía
- Datos faltantes
- Búsqueda de Arquitectura
- Aprendizaje continuo
- Mejoramiento
- Cuantización
- Aprendizaje automático cuántico
- Compresión de redes neuronales
- Reconocimiento facial, de acción y de pose.
- Súper resolución
- Sintetizando vistas
- Voz
- Médico
- Segmentación, clasificación y regresión 3D
- Reconocimiento de vídeo
- Redes neuronales recurrentes (RNN)
- Redes neuronales convolucionales (CNN)
- Segmentación
- Aprendizaje profundo geométrico: gráficos y estructuras irregulares
- Clasificación
- Redes de ecuaciones diferenciales ordinarias
- Aprendizaje multitarea
- GAN, VAE y AE
- Aprendizaje no supervisado
- Ataques adversarios
- Transferencia de estilo
- Subtítulos de imágenes
- Transformadores
- Redes de similitud y funciones
- Razonamiento
- PNL generales
- Preguntas y respuestas
- Generación y reconocimiento de voz
- Clasificación de documentos y textos
- Generación de texto
- Texto a imagen
- Traducción
- Análisis de sentimiento
- Aprendizaje por refuerzo profundo
- Aprendizaje bayesiano profundo y programación probabilística
- Redes neuronales puntiagudas
- Detección de anomalías
- Tipos de regresión
- Serie temporal
- Conjuntos de datos sintéticos
- Mejoras generales de la red neuronal
- Aplicaciones DNN en Química y Física
- Nuevas ideas sobre la arquitectura general de las redes neuronales
- Álgebra lineal
- Abstracción de API
- Utilidades de bajo nivel
- Utilidades de PyTorch
- Tutoriales en vídeo de PyTorch
- Comunidad
- Para ser clasificado
- Enlaces a este repositorio
- Contribuciones
Tutoriales
- Tutoriales oficiales de PyTorch
- Ejemplos oficiales de PyTorch
- Sumérgete en el aprendizaje profundo con PyTorch
- Minicurso de Aprendizaje Profundo con PyTorch (Multilenguaje)
- Aprendizaje profundo práctico con PyTorch
- Modelos de aprendizaje profundo
- Tutorial de implementación de PyTorch en C++
- Ejemplos simples para presentar PyTorch
- Mini tutoriales en PyTorch
- Aprendizaje profundo para PNL
- Tutorial de aprendizaje profundo para investigadores
- Redes totalmente convolucionales implementadas con PyTorch
- Tutoriales simples de PyTorch de cero a TODOS
- Modelos DeepNLP-Pytorch
- Tutoriales de bienvenida de MILA PyTorch
- PyTorch eficaz, optimización del tiempo de ejecución con TorchScript y optimización de la estabilidad numérica
- PyTorch práctico
- Plantilla de proyecto PyTorch
- Búsqueda semántica con PyTorch
Modelos de lenguajes grandes (LLM)
- Tutoriales de Maestría en Derecho
- Construya un modelo de lenguaje grande (desde cero)
- Libro de formación de Hugginface LLM, una colección de metodologías para ayudar con la formación exitosa de modelos de lenguaje grandes
- General
- Starcoder 2, familia de modelos de generación de código
- GPT Inferencia de transformador nativo de pytorch rápida, rápida y pirateable
- Descarga de Mixtral, ejecute modelos Mixtral-8x7B en Colab o escritorios de consumo
- Llama
- Recetas De Llamas
- TinyLlama
- Transformadores preentrenados en mosaico (MPT)
- VLLM, motor de servicio e inferencia de alto rendimiento y memoria eficiente para LLM
- Muñequita
- Vicuña
- Mistral 7B
- BigDL LLM, biblioteca para ejecutar LLM (modelo de lenguaje grande) en Intel XPU (desde computadora portátil hasta GPU y nube) usando INT4 con muy baja latencia1 (para cualquier modelo de PyTorch)
- Sintonizador simple de LLM
- Petals, ejecute LLM en casa, estilo BitTorrent, ajuste fino e inferencia hasta 10 veces más rápido que la descarga
- japonés
- llama japonesa
- GPT japonés Neox y Open Calm
- Chino
- Llama china-2 7B
- Vicuña china
- Recuperación de Generación Aumentada (RAG)
- LlamaIndex, marco de datos para tu aplicación LLM
- Incrustaciones
- ChromaDB, base de datos integrada de código abierto
- Aplicaciones
- Langchain, creando aplicaciones con LLM a través de la componibilidad
- Sintonia FINA
- Huggingface PEFT, ajuste fino eficiente en parámetros de última generación
- Capacitación
- Higgsfield, orquestación de GPU altamente escalable y tolerante a fallos, y un marco de aprendizaje automático diseñado para entrenar modelos con miles de millones o billones de parámetros.
- Cuantización
- AutoGPTQ, paquete de cuantificación de LLMs fácil de usar con apis fáciles de usar, basado en el algoritmo GPTQ
Datos tabulares
- Marco PyTorch: un marco modular para el aprendizaje tabular multimodal
- Pytorch Tabular, marco estándar para modelar modelos de aprendizaje profundo para datos tabulares
- Transformador de pestañas
- PyTorch-TabNet: aprendizaje tabular interpretable atento
- carefree-learn: una solución mínima de aprendizaje automático (AutoML) para conjuntos de datos tabulares basados en PyTorch
Visualización
- Visualización de pérdidas
- Grad-CAM: explicaciones visuales de redes profundas mediante localización basada en gradientes
- Redes convolucionales profundas: visualización de modelos de clasificación de imágenes y mapas de prominencia
- SmoothGrad: eliminar ruido agregando ruido
- DeepDream: imágenes alucinógenas de ensueño
- FlashTorch: kit de herramientas de visualización para redes neuronales en PyTorch
- Lucent: Lucid adaptado para PyTorch
- DreamCreator: Entrenamiento de modelos de GoogleNet para DeepDream con conjuntos de datos personalizados simplificados
- Visualización del mapa de funciones de CNN
Explicabilidad
- Árboles de decisión respaldados por neuronas
- Estimación eficiente de la covarianza a partir de datos temporales
- Interpretaciones jerárquicas para predicciones de redes neuronales.
- Shap, un enfoque unificado para explicar el resultado de cualquier modelo de aprendizaje automático
- Visualización de modelos de aprendizaje profundo .pth guardados en PyTorch con netron
- Destilando una red neuronal en un árbol de decisión suave
- Captum, una biblioteca de interpretabilidad de modelos unificada para PyTorch
Detección de objetos
- Caja de herramientas de detección de objetos MMDetection
- Prueba comparativa de Mask R-CNN: R-CNN y Mask R-CNN más rápidos en PyTorch 1.0
- YOLO-Mundo
- Yolos
- YOLOF
- YOLOX
- YOLOv10
- YOLOv9
- YOLOv8
- Yolov7
- YOLOv6
- Yolov5
- Yolov4
- YOLOv3
- YOLOv2: Detección de objetos en tiempo real
- SSD: Detector MultiBox de disparo único
- Modelos de Detectron para la detección de objetos
- Reconocimiento de números de varios dígitos a partir de imágenes de Street View mediante redes neuronales convolucionales profundas
- detector de ballenas
- Detección.de.catalizador
Reconocimiento de cola larga/fuera de distribución
- Redes neuronales distributivamente robustas para cambios de grupo: sobre la importancia de la regularización para la generalización en el peor de los casos
- Minimización de riesgos invariante
- Entrenamiento de clasificador calibrado por confianza para detectar muestras fuera de distribución
- Detección profunda de anomalías con exposición a valores atípicos
- Reconocimiento de cola larga a gran escala en un mundo abierto
- Detección basada en principios de ejemplos fuera de distribución en redes neuronales
- Confianza en el aprendizaje para la detección fuera de distribución en redes neuronales
- Muestra de clases desequilibradas de PyTorch
Funciones de activación
- Activaciones racionales: funciones de activación racionales que se pueden aprender
Aprendizaje basado en energía
- EBGAN, GAN basadas en energía
- Generadores de máxima entropía para modelos basados en energía
Datos faltantes
- BRITÁNICOS: Imputación recurrente bidireccional para series temporales
Búsqueda de Arquitectura
- EfficientNetV2
- DensoNAS
- DARTS: Búsqueda de arquitectura diferenciable
- Búsqueda eficiente de arquitectura neuronal (ENAS)
- EfficientNet: repensar el escalado de modelos para redes neuronales convolucionales
Aprendizaje continuo
- Renate, reentrenamiento automático de redes neuronales
Mejoramiento
- AccSGD, AdaBound, AdaMod, DiffGrad, Lamb, NovoGrad, RAdam, SGDW, Yogi y más
- Optimizador Lookahead: k pasos adelante, 1 paso atrás
- RAdam, Sobre la variación de la tasa de aprendizaje adaptativo y más allá
- Over9000, comparación de RAdam, Lookahead, Novograd y combinaciones
- AdaBound, entrena tan rápido como Adam y tan bien como SGD
- Métodos de optimización adaptativa de Riemann
- L-BFGS
- OptNet: optimización diferenciable como capa en redes neuronales
- Aprender a aprender mediante descenso de gradiente mediante descenso de gradiente
- Aprendizaje de gradiente sustituto en redes neuronales con picos
- TorchOpt: una biblioteca eficiente para optimización diferenciable
Cuantización
- Cuantización aditiva de potencia de dos: una discretización no uniforme eficiente para redes neuronales
Aprendizaje automático cuántico
- Tor10, biblioteca genérica de redes tensoras para simulación cuántica en PyTorch
- PennyLane, biblioteca Python multiplataforma para aprendizaje automático cuántico con interfaz PyTorch
Compresión de redes neuronales
- Compresión bayesiana para aprendizaje profundo
- Neural Network Distiller de Intel AI Lab: un paquete Python para la investigación de compresión de redes neuronales
- Aprendizaje de redes neuronales dispersas mediante la regularización L0
- Compresión con restricción de energía para redes neuronales profundas mediante proyección dispersa ponderada y enmascaramiento de entrada de capa
- EigenDamage: poda estructurada en la base propia factorizada por Kronecker
- Poda de redes neuronales convolucionales para una inferencia eficiente en el uso de recursos
- Poda de redes neuronales: ¿es hora de cortarla de raíz? (mostrando que las redes reducidas funcionan mejor)
Reconocimiento facial, de acción y de pose.
- Facenet: modelos de reconocimiento y detección de rostros de Pytorch previamente entrenados
- DGC-Net: Red de correspondencia geométrica densa
- Biblioteca de reconocimiento facial de alto rendimiento en PyTorch
- FaceBoxes, un detector de rostros en tiempo real con CPU de alta precisión
- ¿Qué tan lejos estamos de resolver el problema de la alineación facial 2D y 3D? (y un conjunto de datos de 230.000 puntos de referencia faciales en 3D)
- Aprendizaje de características espacio-temporales con redes residuales 3D para el reconocimiento de acciones
- Estimación de pose de varias personas en tiempo real de PyTorch
- SphereFace: Incrustación profunda de hiperesfera para reconocimiento facial
- GANimation: animación facial anatómicamente consciente a partir de una sola imagen
- Shufflenet V2 de Face++ con mejores resultados que el papel
- Hacia la estimación de la pose humana en 3D en la naturaleza: un enfoque débilmente supervisado
- Aprendizaje no supervisado de la profundidad y el movimiento del ego a partir de vídeos
- FlowNet 2.0: Evolución de la estimación del flujo óptico con redes profundas
- FlowNet: aprendizaje del flujo óptico con redes convolucionales
- Estimación del flujo óptico utilizando una red piramidal espacial
- Cara abierta en PyTorch
- Reconocimiento facial profundo en PyTorch
Súper resolución
- Redes residuales profundas mejoradas para superresolución de imágenes únicas
- Superresolución utilizando una red neuronal convolucional de subpíxeles eficiente
- Pérdidas de percepción para transferencia de estilo en tiempo real y superresolución
Sintetizando vistas
- NeRF, campos neuronales de radianes, síntesis de vistas novedosas de escenas complejas
Voz
- Google AI VoiceFilter: separación de voz dirigida mediante enmascaramiento de espectrograma condicionado por el altavoz
Médico
- Medical Zoo, biblioteca de segmentación de imágenes médicas multimodal 3D en PyTorch
- U-Net para la segmentación de anomalías FLAIR en resonancia magnética cerebral
- Clasificación genómica mediante ULMFiT
- Las redes neuronales profundas mejoran el desempeño de los radiólogos en la detección del cáncer de mama
- Delira, marco ligero para la creación de prototipos de imágenes médicas
- V-Net: redes neuronales totalmente convolucionales para segmentación de imágenes médicas volumétricas
- Medical Torch, marco de imágenes médicas para PyTorch
- TorchXRayVision: una biblioteca para conjuntos de datos y modelos de radiografías de tórax. Incluyendo modelos previamente entrenados.
Segmentación, clasificación y regresión 3D
- Kaolin, biblioteca para acelerar la investigación del aprendizaje profundo 3D
- PointNet: aprendizaje profundo sobre conjuntos de puntos para clasificación y segmentación 3D
- Segmentación 3D con MONAI y Catalyst
Reconocimiento de vídeo
- Bailando con música
- El diablo está en los límites: aprendiendo límites semánticos a partir de anotaciones ruidosas
- Análisis de vídeo profundo
- PredRNN: redes neuronales recurrentes para el aprendizaje predictivo utilizando LSTM espaciotemporales
Redes neuronales recurrentes (RNN)
- SRU: entrenando RNN tan rápido como CNN
- Neuronas ordenadas: integración de estructuras de árbol en redes neuronales recurrentes
- Descenso de gradiente estocástico promedio con LSTM con caída de peso
- Entrenando RNN tan rápido como CNN
- Red neuronal cuasi recurrente (QRNN)
- ReSeg: un modelo basado en redes neuronales recurrentes para la segmentación semántica
- Un modelo de variable latente recurrente para datos secuenciales (VRNN)
- Representaciones semánticas mejoradas a partir de redes de memoria a corto plazo estructuradas en árboles
- Modelos de redes neuronales recurrentes basados en la atención para la detección de intenciones conjuntas y el llenado de espacios
- Comparadores recurrentes atentos
- Colección de modelos de secuencia a secuencia con PyTorch
- Modelos Vanilla Sequence a Sequence
- Modelos de secuencia a secuencia basados en atención
- Mecanismos de atención más rápidos que utilizan productos escalares entre los estados ocultos del codificador final y el decodificador
Redes neuronales convolucionales (CNN)
- LegoNet: redes neuronales convolucionales eficientes con filtros Lego
- MeshCNN, una red neuronal convolucional diseñada específicamente para mallas triangulares
- Convolución de octava
- Modelos de imagen PyTorch, ResNet/ResNeXT, DPN, MobileNet-V3/V2/V1, MNASNet, NAS de ruta única, FBNet
- Redes neuronales profundas con convoluciones de caja
- Redes Residuales Invertibles
- Reducción de resolución estocástica para inferencias con costos ajustables y regularización mejorada en redes convolucionales
- Implementación más rápida de R-CNN
- Otra implementación más rápida de R-CNN
- Prestar más atención a la atención: mejorar el rendimiento de las redes neuronales convolucionales mediante la transferencia de atención
- Modelo Wide ResNet en PyTorch -DiracNets: entrenamiento de redes neuronales muy profundas sin conexiones saltadas
- Una red neuronal entrenable de extremo a extremo para el reconocimiento de secuencias basado en imágenes y su aplicación al reconocimiento de texto de escenas
- Densenet eficiente
- Interpolación de fotogramas de vídeo mediante convolución separable adaptativa
- Aprendizaje de descriptores de características locales con tripletes y redes neuronales convolucionales poco profundas
- Redes convolucionales densamente conectadas
- Redes convolucionales muy profundas para el reconocimiento de imágenes a gran escala
- SqueezeNet: precisión a nivel de AlexNet con 50 veces menos parámetros y un tamaño de modelo <0,5 MB
- Aprendizaje residual profundo para el reconocimiento de imágenes
- Entrenamiento de Wide ResNets para CIFAR-10 y CIFAR-100 en PyTorch
- Red convolucional deformable
- Tejidos neuronales convolucionales
- Redes convolucionales deformables en PyTorch
- Combinación de ResNet dilatada con convoluciones dilatadas
- Luchando por la simplicidad: la red totalmente convolucional
- Red LSTM convolucional
- Gran colección de modelos de clasificación previamente entrenados.
- Clasificación de imágenes de PyTorch con el conjunto de datos Kaggle Dogs vs Cats
- CIFAR-10 en Pytorch con VGG, ResNet y DenseNet
- Base de modelos y conjuntos de datos previamente entrenados en pytorch (MNIST, SVHN, CIFAR10, CIFAR100, STL10, AlexNet, VGG16, VGG19, ResNet, Inception, SqueezeNet)
- NVIDIA/interpolación-de-vídeo-no-supervisada
Segmentación
- Detectron2 de FERIA
- Segmentación por píxeles en el conjunto de datos VOC2012 usando PyTorch
- Pywick: biblioteca de entrenamiento de redes neuronales de alto nivel con baterías incluidas para Pytorch
- Mejora de la segmentación semántica mediante la propagación de vídeos y la relajación de etiquetas
- Super-BPD: Súper dirección de límite a píxel para una segmentación rápida de imágenes
- Catalizador.Segmentación
- Modelos de segmentación con backbones previamente entrenados
Aprendizaje profundo geométrico: gráficos y estructuras irregulares
- PyTorch Geométrico, Extensión de Aprendizaje Profundo
- PyTorch Geométrico Temporal: una biblioteca de extensión temporal para PyTorch Geométrico
- PyTorch Geométrico firmado dirigido: una biblioteca de extensión firmada y dirigida para PyTorch Geométrico
- ChemicalX: una biblioteca de aprendizaje profundo basada en PyTorch para la puntuación de pares de fármacos
- Agrupación de gráficos de autoatención
- Redes neuronales gráficas con reconocimiento de posición
- Red neuronal convolucional de gráfico firmado
- Graficar redes en U
- Cluster-GCN: un algoritmo eficiente para entrenar redes convolucionales de gráficos grandes y profundos
- MixHop: arquitecturas convolucionales de gráficos de orden superior mediante mezcla de vecindarios dispersos
- Clasificación de gráficos semisupervisados: una perspectiva de gráficos jerárquicos
- PyTorch BigGraph de FAIR para generar incrustaciones a partir de datos de gráficos a gran escala
- Red neuronal de gráfico de cápsula
- Splitter: representaciones de nodos de aprendizaje que capturan múltiples contextos sociales
- Una capa convolucional de gráfico de orden superior
- Predecir y luego propagar: las redes neuronales gráficas cumplen con el PageRank personalizado
- Incrustaciones de Lorentz: aprenda jerarquías continuas en el espacio hiperbólico
- Graficar la red neuronal Wavelet
- Observe sus pasos: aprenda las incrustaciones de nodos mediante la atención de gráficos
- Red convolucional de gráfico firmado
- Clasificación de gráficos mediante atención estructural
- SimGNN: un enfoque de red neuronal para el cálculo rápido de similitud de gráficos
- SINE: Integración escalable de red incompleta
- HypER: incorporaciones de gráficos de conocimiento de hiperred
- TuckER: factorización tensorial para completar gráficos de conocimiento
- PyKEEN: una biblioteca de Python para aprender y evaluar incorporaciones de gráficos de conocimiento
- Pathfinder Discovery Networks para el paso de mensajes neuronales
- SSSNET: agrupación de redes firmadas semisupervisadas
- MagNet: una red neuronal para gráficos dirigidos
- PyTorch Geopooling: módulos de agrupación geoespacial para redes neuronales en PyTorch
Clasificación
- Optimización estocástica de redes de clasificación mediante relajaciones continuas
Redes de ecuaciones diferenciales ordinarias
- EDO latentes para series temporales muestreadas irregularmente
- GRU-ODE-Bayes: modelado continuo de series temporales observadas esporádicamente
Aprendizaje multitarea
- Modelo de aprendizaje jerárquico multitarea
- Aprendizaje modelo de extremo a extremo basado en tareas
- torchMTL: un módulo liviano para aprendizaje multitarea en pytorch
GAN, VAE y AE
- BigGAN: entrenamiento GAN a gran escala para síntesis de imágenes naturales de alta fidelidad
- Métricas de rendimiento de alta fidelidad para modelos generativos en PyTorch
- Mimicry, Biblioteca PyTorch para la reproducibilidad de la investigación GAN
- Ciclo legible limpioGAN
- StarGAN
- Bloquear el flujo autorregresivo neuronal
- Síntesis de imágenes de alta resolución y manipulación semántica con GAN condicionales
- Una arquitectura generadora basada en estilos para redes generativas adversarias
- GANDissect, herramienta PyTorch para visualizar neuronas en GAN
- Aprendizaje de representaciones profundas mediante estimación y maximización mutua de información.
- Autocodificadores variacionales de Laplace
- VeGANS, biblioteca para entrenar GAN fácilmente
- Crecimiento progresivo de GAN para mejorar la calidad, la estabilidad y la variación
- GAN condicional
- Wasserstein GAN
- Red adversaria generador-codificador
- Traducción de imagen a imagen con redes adversarias condicionales
- Traducción de imagen a imagen no emparejada utilizando redes adversarias consistentes en ciclos
- Sobre los efectos de la normalización de lotes y pesos en redes generativas adversarias
- Entrenamiento mejorado de las GAN de Wasserstein
- Colección de modelos generativos con PyTorch
- Redes generativas adversarias (GAN)
- Vainilla GAN
- GAN condicional
- InfoGAN
- Wasserstein GAN
- Modo GAN regularizado
- Autocodificador variacional (VAE)
- Vainilla VAE
- VAE condicional
- Eliminación de ruido de VAE
- Autocodificador adversario
- Bayes variacional adversario
- Entrenamiento mejorado de las GAN de Wasserstein
- CycleGAN y GAN semisupervisado
- Mejora de los codificadores automáticos variacionales utilizando el flujo doméstico y el uso de un flujo autorregresivo inverso lineal combinado convexo
- Colección PyTorch GAN
- Generative Adversarial Networks, centrándose en el dibujo de caras de anime.
- Redes antagónicas generativas simples
- Codificadores automáticos adversarios
- torchgan: Marco para modelar redes generativas adversarias en Pytorch
- Evaluación de tasas de compresión con pérdida de modelos generativos profundos
- Catalyst.GAN
- Vainilla GAN
- GAN condicional
- Wasserstein GAN
- Entrenamiento mejorado de las GAN de Wasserstein
Aprendizaje no supervisado
- Aprendizaje integrado no supervisado a través de la función de instancia invariante y extendida
- Y: Descubrimiento del vecindario ancla
Ataques adversarios
- Las redes neuronales profundas se engañan fácilmente: predicciones de alta confianza para imágenes irreconocibles
- Explicar y aprovechar ejemplos contradictorios
- AdverTorch: una caja de herramientas para la investigación de robustez adversaria
Transferencia de estilo
- Pystiche: marco para la transferencia de estilo neuronal
- Detección de ejemplos contradictorios mediante huellas dactilares neuronales
- Un algoritmo neuronal de estilo artístico
- Red generativa multiestilo para transferencia en tiempo real
- DeOldify, colorear imágenes antiguas
- Transferencia de estilo neuronal
- Transferencia rápida de estilo neuronal
- Dibuja como Bob Ross
Subtítulos de imágenes
- CLIP (Preentrenamiento de imagen-lenguaje contrastante)
- Neuraltalk 2, modelo de subtítulos de imágenes, en PyTorch
- Generar títulos a partir de una imagen con PyTorch
- DenseCap: redes de localización totalmente convolucionales para subtítulos densos
Transformadores
- Atención es todo lo que necesitas
- Redes de transformadores espaciales
Redes de similitud y funciones
- Redes de similitud condicional
Razonamiento
- Inferir y ejecutar programas para el razonamiento visual
PNL generales
- nanoGPT, el repositorio más rápido para entrenar/afinar GPT de tamaño mediano
- minGPT, reimplementación de GPT para que sea pequeña, limpia, interpretable y educativa
- Espresso, kit de herramientas de reconocimiento automático de voz neuronal del módulo
- Representación de documentos con reconocimiento de etiquetas mediante atención híbrida para una clasificación extrema de texto con múltiples etiquetas
- XLnet
- Conversar leyendo: conversación neuronal llena de contenido con lectura automática bajo demanda
- Entrenamiento previo del modelo de lenguaje multilingüe
- Traductor de Libre Office a través de PyTorch NMT
- BERT
- VSE++: incrustaciones visual-semánticas mejoradas
- Incrustación de oraciones estructuradas y autoatentas
- Modelo de etiquetado de secuencia neuronal
- Vectores de omisión de pensamiento
- Suite completa para entrenar modelos Seq2Seq en PyTorch
- MUSE: Incrustaciones multilingües supervisadas y no supervisadas
- TorchMoji: Implementación de PyTorch de DeepMoji en el lenguaje utilizado para expresar emociones
Preguntas y respuestas
- Respuesta visual a preguntas en Pytorch
- Leer Wikipedia para responder preguntas de dominio abierto
- ¿Acuerdo o no trato? Aprendizaje de extremo a extremo para diálogos de negociación
- Conteo interpretable para respuesta visual a preguntas
- Chatbot de código abierto con PyTorch
Generación y reconocimiento de voz
- Kit de herramientas de reconocimiento de voz PyTorch-Kaldi
- WaveGlow: una red generativa basada en flujo para síntesis de voz
- AbiertoNMT
- Deep Speech 2: reconocimiento de voz de extremo a extremo en inglés y mandarín
- WeNet: kit de herramientas de reconocimiento de voz de extremo a extremo, primero en producción y listo para producción
Clasificación de documentos y textos
- Red de Atención Jerárquica para la Clasificación de Documentos
- Redes Jerárquicas de Atención para la Clasificación de Documentos
- Clasificación de texto basada en CNN
Generación de texto
- Generación de poesía Pytorch
Texto a imagen
- Difusión estable
- Dall-E 2
- Dall-E
Traducción
- Sistema de traducción automática neuronal (NMT) de código abierto (MIT)
Análisis de sentimiento
- Redes neuronales recurrentes para análisis de sentimiento (basado en aspectos) en SemEval 2014
- Análisis de intención Seq2Seq
- Ajuste de BERT para el análisis de sentimiento
Aprendizaje por refuerzo profundo
- El aumento de imágenes es todo lo que necesita: regularizar el aprendizaje por refuerzo profundo a partir de píxeles
- Exploración por destilación aleatoria de redes
- EGG: aparición del lenguaje en los juegos, implementación rápida de juegos multiagente con comunicación de canales discretos
- Diferencia temporal VAE
- Agente Atari A3C de alto rendimiento en 180 líneas PyTorch
- Aprender cuándo comunicarse a escala en tareas cooperativas y competitivas de múltiples agentes
- Actor-Atención-Crítico para el aprendizaje por refuerzo de múltiples agentes
- PPO en PyTorch C++
- Aprendizaje por refuerzo para la traducción automática neuronal Bandit con retroalimentación humana simulada
- Métodos asincrónicos para el aprendizaje por refuerzo profundo
- Q-Learning profundo y continuo con aceleración basada en modelos
- Métodos asincrónicos para el aprendizaje por refuerzo profundo para Atari 2600
- Optimización de la política de región de confianza
- Optimización combinatoria neuronal con aprendizaje por refuerzo
- Redes ruidosas para la exploración
- Optimización de políticas próximas distribuidas
- Modelos de aprendizaje por refuerzo en entorno ViZDoom con PyTorch
- Modelos de aprendizaje por refuerzo utilizando Gym y Pytorch.
- SLM-Lab: marco modular de aprendizaje por refuerzo profundo en PyTorch
- Catalyst.RL
Aprendizaje bayesiano profundo y programación probabilística
- BatchBALD: Adquisición de lotes eficiente y diversa para un aprendizaje activo bayesiano profundo
- Inferencia subespacial para el aprendizaje profundo bayesiano
- Paquete de aprendizaje profundo bayesiano con inferencia variacional
- Programación probabilística e inferencia estadística en PyTorch
- CNN bayesiana con inferencia variacional en PyTorch
Redes neuronales puntiagudas
- Nórdico, biblioteca para el aprendizaje profundo con redes neuronales puntiagudas
Detección de anomalías
- Detección de anomalías contables mediante redes neuronales de codificador automático profundo
Tipos de regresión
Serie temporal
- Red de autoatención dual para pronósticos de series temporales multivariadas
- DILATE: Pérdida por distorsión con la forma y el tiempo
- Codificador automático recurrente variacional para agrupación de series temporales
- Redes neuronales espacio-temporales para el modelado de series espacio-temporales y el descubrimiento de relaciones
- Pronóstico de flujo: un marco de aprendizaje profundo para el pronóstico de series de tiempo creado en PyTorch
Conjuntos de datos sintéticos
- Meta-Sim: aprender a generar conjuntos de datos sintéticos
Mejoras generales de la red neuronal
- BatchNorm activado in situ para el entrenamiento de DNN con memoria optimizada
- Entrene por más tiempo, generalice mejor: cerrando la brecha de generalización en el entrenamiento de redes neuronales por lotes grandes
- FreezeOut: Acelere el entrenamiento congelando capas progresivamente
- Neuronas estocásticas binarias
- Agrupación bilineal compacta
- Entrenamiento de precisión mixto en PyTorch
Aplicaciones DNN en Química y Física
- Física de ondas como red neuronal recurrente analógica
- Transmisión de mensajes neuronales para la química cuántica
- Diseño químico automático utilizando una representación continua de moléculas basada en datos.
- Aprendizaje profundo para procesos físicos: integración del conocimiento científico previo
- Simulación molecular diferenciable para aprendizaje y control
Nuevas ideas sobre la arquitectura general de las redes neuronales
- Complementar el entrenamiento objetivo
- Interfaces neuronales desacopladas mediante gradientes sintéticos
Álgebra lineal
- Vectores propios a partir de valores propios
Abstracción de API
- Capas de antorcha, inferencia de formas para PyTorch, capas SOTA
- Hummingbird, ejecuta modelos scikit-learn entrenados en GPU con PyTorch
Utilidades de bajo nivel
- TorchSharp, API .NET con acceso a la biblioteca subyacente que impulsa PyTorch
Utilidades de PyTorch
- Functorch: prototipo de transformadores de funciones componibles tipo JAX para PyTorch
- Poutyne: marco simplificado para entrenar redes neuronales
- Aprendizaje métrico de PyTorch
- Kornia: una biblioteca de visión por computadora diferenciable de código abierto para PyTorch
- BackPACK para extraer fácilmente varianza, diagonal de Gauss-Newton y KFAC
- PyHessian para calcular valores propios de Hesse, trazas de matriz y ESD
- Hesse en PyTorch
- Capas convexas diferenciables
- Albumentaciones: Biblioteca de aumento rápido de imágenes
- Más alto, obtenga gradientes de orden más altos sobre las pérdidas que abarcan bucles de entrenamiento
- Canalización neuronal, canalización de entrenamiento para PyTorch
- Perfilador de modelos PyTorch capa por capa para verificar el consumo de tiempo del modelo
- Distribuciones dispersas
- Diffdist, agrega soporte para comunicación diferenciable permitiendo el paralelismo de modelos distribuidos
- HessianFlow, biblioteca para algoritmos basados en Hesse
- Texar, kit de herramientas PyTorch para generación de texto
- Contador de FLOP de PyTorch
- Inferencia de PyTorch en C++ en Windows
- EuclidesDB, base de datos de funciones de aprendizaje automático multimodelo
- Aumento de datos y muestreo para Pytorch
- PyText, marco de modelado de PNL basado en aprendizaje profundo mantenido oficialmente por FAIR
- Torchstat para estadísticas sobre modelos PyTorch
- Cargue archivos de audio directamente en PyTorch Tensors
- Inicializaciones de peso
- Transformador espacial implementado en PyTorch
- PyTorch AWS AMI, ejecute PyTorch con soporte para GPU en menos de 5 minutos
- Utilice tensorboard con PyTorch
- Módulo de ajuste simple en PyTorch, similar a Keras
- torchbearer: una biblioteca de ajuste de modelos para PyTorch
- Convertidor de modelos de PyTorch a Keras
- Convertidor de modelo Gluon a PyTorch con generación de código
- Catalyst: utilidades de alto nivel para la investigación de PyTorch DL y RL
- PyTorch Lightning: marco de investigación de aprendizaje profundo escalable y liviano
- Determinado: plataforma escalable de aprendizaje profundo con soporte PyTorch
- PyTorch-Ignite: biblioteca de alto nivel para ayudar a entrenar y evaluar redes neuronales en PyTorch de forma flexible y transparente
- torchvision: un paquete que consta de conjuntos de datos populares, arquitecturas de modelos y transformaciones de imágenes comunes para visión por computadora.
- Poutyne: un marco similar a Keras para PyTorch y maneja gran parte del código repetitivo necesario para entrenar redes neuronales.
- torchensemble: Scikit-Learn como métodos de conjunto en PyTorch
- TorchFix: un linter para código que usa PyTorch con soporte de reparación automática
Tutoriales en vídeo de PyTorch
- PyTorch cero para todas las conferencias
- Curso completo de PyTorch para aprendizaje profundo
- PyTorch Lightning 101 con Alfredo Canziani y William Falcon
- Aprendizaje profundo práctico con PyTorch
Comunidad
- Foro de discusión de PyTorch
- StackOverflow Etiquetas de PyTorch
- Catalizador.holgura
Para ser clasificado
- Redes neuronales perturbadoras
- Potencial preciso de la red neuronal
- Ampliando la transformación de dispersión: redes híbridas profundas
- CortexNet: una familia de redes genéricas para representaciones temporales visuales sólidas
- Redes de respuesta orientada
- Redes de compresión asociativa
- Clarinete
- Transformadas Wavelet Continuas
- confusión: más allá de la minimización empírica del riesgo
- Red en red
- Redes de carreteras
- Computación híbrida utilizando una red neuronal con memoria externa dinámica.
- Redes de iteración de valor
- Computadora neuronal diferenciable
- Una representación neuronal de dibujos de bocetos
- Comprender las representaciones de imágenes profundas invirtiéndolas
- NIMA: Evaluación de imágenes neuronales
- NASNet-A-Mobile. Pesos portados
- Modelo de generación de código gráfico mediante Processing
Enlaces a este repositorio
- Repositorio Github
- Sitio web
Contribuciones
¡Siéntete libre de contribuir!
Puede plantear un problema o enviar una solicitud de extracción, lo que le resulte más conveniente. La pauta es simple: simplemente siga el formato de la viñeta anterior o cree una nueva sección si se trata de una categoría nueva.