Remarque : Vous pouvez facilement convertir ce fichier markdown en PDF dans VSCode à l'aide de cette extension pratique Markdown PDF.
Comment le CPU et le GPU fonctionnent ensemble lors de l'exécution du code d'application.
Architecture de mémoire unifiée
Ressources d'apprentissage GPU
Charge électrique, champ et potentiel
Charge et force électrique (loi de Coulomb) : charge électrique, champ et potentiel
Champ électrique : charge électrique, champ et potentiel
Énergie potentielle électrique, potentiel électrique et tension : charge électrique, champ et potentiel
Circuits
Loi d'Ohm et circuits avec résistances : Circuits
Circuits avec condensateurs : Circuits
Forces magnétiques, champs magnétiques et loi de Faraday
Aimants et force magnétique : forces magnétiques, champs magnétiques et loi de Faraday
Champ magnétique créé par un courant : forces magnétiques, champs magnétiques et loi de Faraday
Moteurs électriques : forces magnétiques, champs magnétiques et loi de Faraday
Flux magnétique et loi de Faraday
Ondes électromagnétiques et interférences
Introduction aux ondes électromagnétiques : ondes électromagnétiques et interférences
Interférence des ondes électromagnétiques
Optique géométrique
Réflexion et réfraction : Optique géométrique
Miroirs : Optique géométrique
Lentilles
Algèbre linéaire
Virtualisation
Calcul parallèle
Développement OpenCL
Développement CUDA
Algorithmes
Apprentissage automatique
Développement de l'apprentissage profond
Développement de la vision par ordinateur
Jeux
Développement de jeux
Développement OpenGL
Développement Vulkan
Développement DirectX
Développement audio/vidéo professionnel
Graphiques et conception 3D
Pomme Silicium
Développement de base de ML
Développement des métaux
Développement MATLAB
Développement C/C++
Développement Python
Développement R
Développement de Julia
Retour au sommet
L'unité de traitement graphique (GPU) est un circuit composé de centaines de cœurs capables de gérer des milliers de threads simultanément. Les GPUS peuvent rapidement manipuler et modifier la mémoire pour accélérer la création d'images dans un tampon d'image destiné à être sorti sur un périphérique d'affichage. Ils sont utilisés dans les systèmes embarqués, les téléphones mobiles, les ordinateurs personnels, les postes de travail professionnels et les consoles de jeux.
La mémoire vive (RAM) est une forme de mémoire informatique qui peut être lue et modifiée dans n'importe quel ordre, généralement utilisée pour stocker des données de travail et du code machine. Un dispositif de mémoire vive permet aux éléments de données d'être lus ou écrits dans presque le même laps de temps, quel que soit l'emplacement physique des données dans la mémoire, contrairement aux autres supports de stockage de données à accès direct.
La mémoire vidéo à accès aléatoire (VRAM) est la RAM allouée pour stocker des données liées aux images ou aux graphiques. Il fonctionne de la même manière que la RAM, stockant des données spécifiques pour un accès et des performances plus faciles. Les données d'image sont d'abord lues par le processeur et écrites sur la VRAM. Il est ensuite converti par un RAMDAC ou un convertisseur numérique-analogique RAM et affiché sous forme de sortie graphique.
La SDRAM graphique à double débit de données (GDDR) est un type de mémoire vive graphique synchrone (SGRAM) avec une interface à bande passante élevée (« double débit de données ») conçue pour être utilisée dans les cartes graphiques, les consoles de jeux et le calcul haute performance.
L'unité de traitement graphique intégrée (IGPU) est un composant construit sur la même puce (circuit intégré) avec le processeur (AMD Ryzen APU ou Intel HD Graphics) qui utilise une partie de la RAM système de l'ordinateur plutôt que de la mémoire graphique dédiée.
Le tenseur est un objet algébrique qui décrit une relation multilinéaire entre des ensembles d'objets algébriques liés à un espace vectoriel. Objets que les tenseurs peuvent mapper entre des vecteurs, des scalaires et d'autres tenseurs.
Les tenseurs sont des tableaux multidimensionnels avec un type uniforme (appelé dtype).
Les Tensor Cores sont un accélérateur d'inférence d'IA dans les GPU NVIDIA qui offrent des performances d'un ordre de grandeur supérieures avec des précisions réduites comme TF32, bfloat16, FP16, INT8, INT4 et FP64, pour accélérer le calcul scientifique avec la plus grande précision nécessaire.
RT (Real-time ray tracing) Cores est une accélération matérielle du traçage de rayons qui accélère les fonctions de traversée de la hiérarchie des volumes limites (BVH) et de test d'intersection de rayons/triangles (coulée de rayons). Les cœurs RT effectuent des tests de visibilité pour le compte des threads exécutés dans le SM, ce qui lui permet de gérer un autre travail d'ombrage de sommet, de pixel et de calcul.
L'unité centrale de traitement (CPU) est un circuit composé de plusieurs cœurs qui exécute des instructions comprenant un programme informatique. Le processeur effectue des opérations de base arithmétiques, logiques, de contrôle et d'entrée/sortie (E/S) spécifiées par les instructions du programme. Ceci est différent des autres composants externes tels que la mémoire principale, les circuits d'E/S et les unités de traitement graphique (GPU).
AMD Accelerated Processing Unit (APU), une série de microprocesseurs 64 bits d'Advanced Micro Devices (AMD), conçus pour agir comme une unité centrale de traitement (CPU) et une unité de traitement graphique (GPU) sur une seule puce.
Le processeur vectoriel est une unité centrale de traitement (CPU) qui implémente un jeu d'instructions dans lequel ses instructions sont conçues pour fonctionner de manière efficace et efficiente sur de grands tableaux unidimensionnels de données appelés vecteurs.
Le traitement du signal numérique (DSP) est l'application d'un ordinateur numérique pour modifier un signal analogique ou numérique. Il est largement utilisé dans de nombreuses applications, notamment les communications et réseaux vidéo/audio/données, l'imagerie médicale et la vision par ordinateur, la synthèse et le codage de la parole, l'audio et la vidéo numériques, ainsi que le contrôle de systèmes complexes et de processus industriels.
Le traitement du signal d'image (ISP) est le processus de conversion d'une image sous forme numérique en effectuant des opérations telles que la réduction du bruit, l'exposition automatique, la mise au point automatique, la balance des blancs automatique, la correction HDR et la netteté de l'image avec un type spécialisé de processeur multimédia.
Les circuits intégrés spécifiques à une application (ASIC) sont une puce de circuit intégré (IC) personnalisée pour une utilisation particulière dans les systèmes embarqués, les téléphones mobiles, les ordinateurs personnels, les postes de travail professionnels, plutôt que destinés à un usage général.
SIMD (Single Instruction, Multiple Data) est un type de traitement parallèle qui décrit des ordinateurs dotés de plusieurs éléments de traitement qui effectuent simultanément la même opération sur plusieurs points de données.
Qu'est-ce qu'un GPU ? Unités de traitement graphique définies | Intel
Institut de Deep Learning et solutions de formation | Nvidia
Cours en ligne d'apprentissage profond | Nvidia
Cours universitaires existants | Développeur NVIDIA
Utiliser des GPU pour faire évoluer et accélérer le Deep Learning | edX
Meilleurs cours GPU en ligne | Coursera
Programmation GPU CUDA Débutant à Avancé | Udemy
Calcul GPU dans Vulkan | Udemy
Cours sur les architectures GPU | Université de Washington
Retour au sommet
- Charge and electric force (Coulomb's law): Electric charge, field, and potential - Electric field: Electric charge, field, and potential - Electric potential energy, electric potential, and voltage: Electric charge, field, and potential
Énergie potentielle électrique. Source : sparkfun
Retour au sommet
- Ohm's law and circuits with resistors: Circuits - Circuits with capacitors: Circuits
Circuits électriques. Source : sdsu-physique
Symboles des circuits. Source : andrewpover.co.uk
Retour au sommet
- Magnets and Magnetic Force: Magnetic forces, magnetic fields, and Faraday's law - Magnetic field created by a current: Magnetic forces, magnetic fields, and Faraday's law - Electric motors: Magnetic forces, magnetic fields, and Faraday's law - Magnetic flux and Faraday's law
Champ magnétique. Source : vecteezy
Loi d'Ampère. Source : sdsu-physique
La loi de Farady. Source : sdsu-physique
Retour au sommet
- Introduction to electromagnetic waves: Electromagnetic waves and interference - Interference of electromagnetic waves
Onde électromagnétique. Source : différence entre
Spectre EMI. Source : electric4u
Retour au sommet
- Reflection and refraction: Geometric optics - Mirrors: Geometric optics - Lenses
Optique géométrique - Raytracing. Source : sdsu-physique
Optique Géométrique - Réflexion. Source : sdsu-physique
Retour au sommet
L'algèbre linéaire est le calcul des vecteurs et des matrices. La seule condition préalable pour ce guide est une compréhension de base des concepts mathématiques du secondaire tels que les nombres, les variables, les équations et les opérations arithmétiques fondamentales sur les nombres réels : addition (notée +), soustraction (notée −), multiplication (notée implicitement) et division (fractions). En outre, vous devez également être familier avec les fonctions qui prennent des nombres réels comme entrées et donnent des nombres réels comme sorties, f : R → R.
Algèbre linéaire - Cours en ligne | Université Harvard
Algèbre linéaire | Bibliothèque d'apprentissage ouverte du MIT
Algèbre linéaire - Khan Academy
Meilleurs cours d'algèbre linéaire sur Coursera
Mathématiques pour l'apprentissage automatique : algèbre linéaire sur Coursera
Meilleurs cours d'algèbre linéaire sur Udemy
Apprenez l'algèbre linéaire avec des cours et des classes en ligne sur edX
Les mathématiques de la science des données : cours d'algèbre linéaire sur edX
Algèbre linéaire en vingt-cinq conférences | Université de Californie à Davis
Algèbre linéaire | Extension de l'UC San Diego
Algèbre linéaire pour l'apprentissage automatique | Extension de l'UC San Diego
Introduction à l'algèbre linéaire, vidéo interactive en ligne | Wolfram
Ressources d'algèbre linéaire | Dartmouth
Nous définissons maintenant les opérations mathématiques pour les vecteurs. Les opérations que nous pouvons effectuer sur les vecteurs ~u = (u1, u2, u3) et ~v = (v1, v2, v3) sont : addition, soustraction, mise à l'échelle, norme (longueur), produit scalaire et produit vectoriel :
Le produit scalaire et le produit vectoriel de deux vecteurs peuvent également être décrits en termes d'angle θ entre les deux vecteurs.
Opérations vectorielles. Source : Slideserve
Opérations vectorielles. Source : Pinterest
Nous désignons par A la matrice dans son ensemble et désignons ses entrées par aij . Les opérations mathématiques définies pour les matrices sont les suivantes :
• déterminant (noté det(A) ou |A|) Notez que le produit matriciel n'est pas une opération commutative.
Opérations matricielles. Source : SDSU Physique
Recherchez les modules qui autorisent les opérations matricielles. Source : DPS Concepts
Le produit matrice-vecteur est un cas particulier important du produit matriciel.
Il existe deux manières fondamentalement différentes mais équivalentes d’interpréter le produit matrice-vecteur. Dans l'image des colonnes, (C), la multiplication de la matrice A par le vecteur ~x produit une combinaison linéaire des colonnes de la matrice : y = A x = x1A[:,1] + x2A[:,2], où A[:,1] et A[:,2] sont les première et deuxième colonnes de la matrice A. Dans l'image ligne, (R), la multiplication de la matrice A par le vecteur ~x produit un vecteur colonne avec des coefficients égal aux produits scalaires des lignes de la matrice avec le vecteur ~x.
Produit matrice-vecteur. Source : wikimédia
Produit matriciel-vecteur. Source : Mathisfun
Le produit matrice-vecteur permet de définir la notion de transformation linéaire, qui est l'une des notions clés dans l'étude de l'algèbre linéaire. La multiplication par une matrice A ∈ R m×n peut être considérée comme le calcul d'une transformation linéaire TA qui prend n-vecteurs comme entrées et produit m-vecteurs comme sorties :
Transformations linéaires. Source : Slideserve
Matrices élémentaires pour les transformations linéaires dans R^2. Source :Quora
Théorème fondamental de l'algèbre linéaire pour les espaces vectoriels. Source : wikimédia
Théorème fondamental de l'algèbre linéaire. Source : Wolfram
Système d'équations linéaires par représentation graphique. Source : slideshare
Systèmes d'équations comme équations matricielles. Source : Mathisfun
Dans cette section, nous examinerons plusieurs approches différentes pour calculer l'inverse d'une matrice. L'inverse de la matrice est unique, donc quelle que soit la méthode que nous utilisons pour trouver l'inverse, nous obtiendrons toujours la même réponse.
Inverse de la matrice 2x2. Source : Pinterest
Une approche pour calculer l'inverse consiste à utiliser la procédure d'élimination de Gauss – Jordan.
Opérations sur les lignes Elementray. Source : YouTube
Chaque opération de ligne que nous effectuons sur une matrice équivaut à une multiplication à gauche par une matrice élémentaire.
Matrices élémentaires. Source : SDSU Physique
Trouver l’inverse d’une matrice consiste à utiliser la méthode Transpose.
Transposition d'une matrice. Source : Slideserve
Dans cette section, discutez d'un certain nombre d'autres sujets importants de l'algèbre linéaire.
Intuitivement, une base est tout ensemble de vecteurs pouvant être utilisé comme système de coordonnées pour un espace vectoriel. Vous connaissez certainement la base standard du plan xy qui est composé de deux axes orthogonaux : l'axe des x et l'axe des y.
Base. Source : wikimédia
Changement de base. Source : wikimédia
Représentations matricielles de transformations linéaires. Source : Slideserve
La dimension d'un espace vectoriel est définie comme le nombre de vecteurs dans une base pour cet espace vectoriel. Considérons l'espace vectoriel suivant S = span{(1, 0, 0),(0, 1, 0),(1, 1, 0)}. Étant donné que l’espace est décrit par trois vecteurs, on pourrait penser que S est tridimensionnel. Ce n'est cependant pas le cas, puisque les trois vecteurs ne sont pas linéairement indépendants et ne constituent donc pas une base pour S. Deux vecteurs suffisent pour décrire n'importe quel vecteur dans S ; nous pouvons écrire S = span{(1, 0, 0),(0, 1, 0)}, et nous voyons que ces deux vecteurs sont linéairement indépendants donc ils forment une base et dim(S) = 2. Il existe une règle générale procédure pour trouver une base pour un espace vectoriel. Supposons que l'on vous donne une description d'un espace vectoriel en termes de m vecteurs V = span{~v1, ~v2, . . . , ~vm} et on vous demande de trouver une base pour V et la dimension de V. Pour trouver une base pour V, vous devez trouver un ensemble de vecteurs linéairement indépendants qui s'étendent sur V. Nous pouvons utiliser la procédure d'élimination de Gauss-Jordan pour accomplir cette tâche. Écrivez les vecteurs ~vi comme les lignes d'une matrice M. L'espace vectoriel V correspond à l'espace ligne de la matrice M. Ensuite, utilisez les opérations sur les lignes pour trouver la forme d'échelon de ligne réduite (RREF) de la matrice M. Puisque les opérations sur les lignes ne modifiez pas l'espace ligne de la matrice, l'espace ligne de la forme d'échelon de ligne réduit de la matrice M est le même que l'espace ligne de l'ensemble de vecteurs d'origine. Les lignes non nulles du RREF de la matrice forment une base pour l'espace vectoriel V et le nombre de lignes non nulles est la dimension de V.
Base et dimension. Source : sliderserve
Rappelez-vous les espaces vectoriels fondamentaux pour les matrices que nous avons définis dans la section II-E : l'espace colonne C(A), l'espace nul N (A) et l'espace ligne R(A). Une question standard d'examen d'algèbre linéaire consiste à vous donner une certaine matrice A et à vous demander de trouver la dimension et la base de chacun de ses espaces fondamentaux. Dans la section précédente, nous avons décrit une procédure basée sur l'élimination de Gauss-Jordan qui peut être utilisée pour « distiller » un ensemble de vecteurs linéairement indépendants qui constituent la base de l'espace de lignes R(A). Nous allons maintenant illustrer cette procédure avec un exemple, et montrer également comment utiliser le RREF de la matrice A pour trouver les bases de C(A) et N (A).
Espace de ligne et espace de colonne. Source : slideshare
Espace de ligne et espace de colonne. Source : slideshare
Rang et nullité. Source : slideshare
Il existe une distinction importante entre les matrices inversibles et celles qui ne sont pas formalisées par le théorème suivant. Théorème. Pour une matrice n×n A, les affirmations suivantes sont équivalentes :
Théorème de la matrice inversible. Source : SDSU Physique
Le déterminant d'une matrice, noté det(A) ou |A|, est une manière particulière de combiner les entrées d'une matrice qui sert à vérifier si une matrice est inversible ou non.
Déterminant d'une matrice carrée. Source : échange de pile
Déterminant de la matrice. Source : apprentissage des mathématiques en ligne
L'ensemble des vecteurs propres d'une matrice est un ensemble spécial de vecteurs d'entrée pour lesquels l'action de la matrice est décrite comme une simple mise à l'échelle. Lorsqu'une matrice est multipliée par l'un de ses vecteurs propres, le résultat est le même vecteur propre multiplié par une constante A eλ = λ eλ. La constante λ est appelée valeur propre de A.
Vecteurs propres généralisés. Source : YouTube
La régression linéaire est une approche permettant de modéliser la relation entre deux variables en ajustant une équation linéaire aux données observées. Une variable est considérée comme une variable explicative et l’autre est considérée comme une variable dépendante.
Régression linéaire multiple. Source : Médium
Retour au sommet
HVM (Hardware Virtual Machine) est un type de virtualisation qui offre la possibilité d'exécuter un système d'exploitation directement sur une machine virtuelle sans aucune modification, comme s'il était exécuté sur du matériel nu.
PV (ParaVirtualization) est une technique de virtualisation efficace et légère introduite par l'équipe du projet Xen, adoptée plus tard par d'autres solutions de virtualisation. PV ne nécessite pas d'extensions de virtualisation de la part du processeur hôte et permet ainsi la virtualisation sur des architectures matérielles qui ne prennent pas en charge la virtualisation assistée par matériel.
La virtualisation des fonctions réseau (NFV) consiste à remplacer le matériel des appareils réseau par des machines virtuelles. Les machines virtuelles utilisent un hyperviseur pour exécuter des logiciels et des processus réseau tels que le routage et l'équilibrage de charge. NFV permet de séparer les services de communication du matériel dédié, tel que les routeurs et les pare-feu. Cette séparation signifie que les opérations réseau peuvent fournir de nouveaux services de manière dynamique et sans installer de nouveau matériel. Le déploiement de composants réseau avec la virtualisation des fonctions réseau ne prend que quelques heures, contre des mois comme avec les solutions réseau traditionnelles.
La mise en réseau définie par logiciel (SDN) est une approche de mise en réseau qui utilise des contrôleurs logiciels ou des interfaces de programmation d'application (API) pour communiquer avec l'infrastructure matérielle sous-jacente et diriger le trafic sur un réseau. Ce modèle diffère de celui des réseaux traditionnels, qui utilisent des périphériques matériels dédiés (routeurs et commutateurs) pour contrôler le trafic réseau.
Virtualized Infrastructure Manager (VIM) est une prestation de services qui réduit les coûts grâce à une gestion du cycle de vie hautes performances. Gérez le cycle de vie complet des logiciels et du matériel composant votre infrastructure NFV (NFVI) et maintenez un inventaire en direct et un plan d'allocation des ressources physiques et virtuelles.
Management and Orchestration (MANO) est une initiative hébergée par l'ETSI visant à développer une pile logicielle Open Source NFV Management and Orchestration (MANO) alignée sur ETSI NFV. Deux des composants clés du cadre architectural ETSI NFV sont NFV Orchestrator et VNF Manager, connus sous le nom de NFV MANO.
Magma est une plate-forme logicielle open source qui offre aux opérateurs de réseaux une solution de réseau central mobile ouverte, flexible et extensible. Leur mission est de connecter le monde à un réseau plus rapide en permettant aux fournisseurs de services de construire des réseaux de niveau opérateur rentables et extensibles. Magma est de génération 3GPP (réseaux 2G, 3G, 4G ou 5G à venir) et agnostique du réseau d'accès (cellulaire ou WiFi). Il peut prendre en charge de manière flexible un réseau d'accès radio avec un minimum d'effort de développement et de déploiement.
OpenRAN est un réseau d'accès radio (RAN) intelligent intégré sur des plates-formes à usage général avec une interface ouverte entre les fonctions définies par logiciel. L'Open RANecosystem offre une flexibilité et une interopérabilité énormes avec une ouverture totale aux déploiements multi-fournisseurs.
Open vSwitch (OVS) est un commutateur virtuel multicouche de qualité de production open source sous licence open source Apache 2.0. Il est conçu pour permettre une automatisation massive du réseau grâce à une extension programmatique, tout en prenant en charge les interfaces et protocoles de gestion standard (NetFlow, sFlow, IPFIX, RSPAN, CLI, LACP, 802.1ag).
Edge est un cadre informatique distribué qui rapproche les applications d'entreprise des sources de données telles que les appareils IoT ou les serveurs Edge locaux. Cette proximité avec les données à leur source peut offrir d’importants avantages commerciaux, notamment des informations plus rapides, des temps de réponse améliorés et une meilleure disponibilité de la bande passante.
L'informatique de pointe multi-accès (MEC) est un groupe de spécifications industrielles (ISG) au sein de l'ETSI visant à créer un environnement standardisé et ouvert qui permettra l'intégration efficace et transparente des applications des fournisseurs, des fournisseurs de services et des tiers dans des environnements multi-fournisseurs. -accéder aux plateformes Edge Computing.
Les fonctions réseau virtualisées (VNF) sont une application logicielle utilisée dans une implémentation de virtualisation des fonctions réseau (NFV) qui possède des interfaces bien définies et fournit une ou plusieurs fonctions de mise en réseau de composants d'une manière définie. Par exemple, un VNF de sécurité fournit des fonctions de composant de traduction d'adresses réseau (NAT) et de pare-feu.
Cloud-Native Network Functions (CNF) est une fonction réseau conçue et implémentée pour s'exécuter à l'intérieur de conteneurs. Les CNF héritent de tous les principes architecturaux et opérationnels natifs du cloud, notamment la gestion du cycle de vie, l'agilité, la résilience et l'observabilité de Kubernetes (K8s).
La fonction de réseau physique (PNF) est un nœud de réseau physique qui n'a pas subi de virtualisation. Les PNF et les VNF (Virtualized Network Functions) peuvent être utilisés pour former un service réseau global.
L'infrastructure de virtualisation des fonctions réseau (NFVI) constitue le fondement de l'architecture globale NFV. Il fournit le matériel physique de calcul, de stockage et de réseau qui héberge les VNF. Chaque bloc NFVI peut être considéré comme un nœud NFVI et de nombreux nœuds peuvent être déployés et contrôlés géographiquement.
La sécurité basée sur la virtualisation (VBS) est une fonctionnalité de virtualisation matérielle permettant de créer et d'isoler une région de mémoire sécurisée du système d'exploitation normal.
L'intégrité du code imposé par l'hyperviseur (HVCI) est un mécanisme par lequel un hyperviseur, tel qu'Hyper-V, utilise la virtualisation matérielle pour protéger les processus en mode noyau contre l'injection et l'exécution de code malveillant ou non vérifié. La validation de l'intégrité du code est effectuée dans un environnement sécurisé résistant aux attaques de logiciels malveillants, et les autorisations de page pour le mode noyau sont définies et maintenues par l'hyperviseur.
KVM (pour Kernel-based Virtual Machine) est une solution complète de virtualisation pour Linux sur matériel x86 contenant des extensions de virtualisation (Intel VT ou AMD-V). Il se compose d'un module de noyau chargeable, kvm.ko, qui fournit l'infrastructure de virtualisation de base et d'un module spécifique au processeur, kvm-intel.ko ou kvm-amd.ko.
QEMU est un émulateur de processeur rapide utilisant un traducteur dynamique portable. QEMU émule un système complet, comprenant un processeur et divers périphériques. Il peut être utilisé pour lancer un système d'exploitation différent sans redémarrer le PC ou pour déboguer le code système.
Hyper-V permet d'exécuter des systèmes informatiques virtualisés sur un hôte physique. Ces systèmes virtualisés peuvent être utilisés et gérés comme s'il s'agissait de systèmes informatiques physiques, mais ils existent dans un environnement virtualisé et isolé. Un logiciel spécial appelé hyperviseur gère l'accès entre les systèmes virtuels et les ressources matérielles physiques. La virtualisation permet un déploiement rapide des systèmes informatiques, un moyen de restaurer rapidement les systèmes à un bon état précédemment connu et la possibilité de migrer des systèmes entre des hôtes physiques.
VirtManager est un outil graphique de gestion de machines virtuelles via libvirt. La plupart des utilisations se font avec les machines virtuelles QEMU/KVM, mais les conteneurs Xen et libvirt LXC sont bien pris en charge. Les opérations courantes pour n’importe quel pilote libvirt devraient fonctionner.
oVirt est une solution de virtualisation distribuée open source, conçue pour gérer l'ensemble de votre infrastructure d'entreprise. oVirt utilise l'hyperviseur KVM de confiance et s'appuie sur plusieurs autres projets communautaires, notamment libvirt, Gluster, PatternFly et Ansible. Fondé par Red Hat en tant que projet communautaire sur lequel est basé Red Hat Enterprise Virtualization, permettant une gestion centralisée des machines virtuelles, des calculs , des ressources de stockage et de mise en réseau, à partir d'un frontal Web facile à utiliser avec un accès indépendant de la plate-forme.
HyperKit est une boîte à outils permettant d'intégrer des fonctionnalités d'hyperviseur dans votre application. Il comprend un hyperviseur complet, basé sur xhyve/bhyve, optimisé pour les machines virtuelles légères et le déploiement de conteneurs. Il est conçu pour être interfacé avec des composants de niveau supérieur tels que VPNKit et DataKit. HyperKit ne prend actuellement en charge que macOS à l'aide de Hypervisor.framework, ce qui en fait un composant essentiel de Docker Desktop pour Mac.
La technologie de virtualisation graphique Intel® (Intel® GVT) est une solution de virtualisation GPU complète avec pass-through médiatisé, à partir des processeurs Intel Core (TM) de 4e génération avec processeur graphique Intel (Broadwell et plus récent). Il peut être utilisé pour virtualiser le GPU de plusieurs machines virtuelles invitées, fournissant ainsi des performances graphiques quasi natives dans la machine virtuelle tout en permettant à votre hôte d'utiliser normalement le GPU virtualisé.
Apple Hypervisor est un framework qui construit des solutions de virtualisation sur un hyperviseur léger, sans extensions de noyau tierces. Hypervisor fournit des API C afin que vous puissiez interagir avec les technologies de virtualisation dans l'espace utilisateur, sans écrire d'extensions de noyau (KEXT). Par conséquent, les applications que vous créez à l'aide de ce framework peuvent être distribuées sur le Mac App Store.
Apple Virtualization Framework est un framework qui fournit des API de haut niveau pour créer et gérer des machines virtuelles sur des ordinateurs Apple Silicon et Mac Intel. Ce framework est utilisé pour démarrer et exécuter un système d'exploitation basé sur Linux dans un environnement personnalisé que vous définissez. Il prend également en charge la spécification Virtio, qui définit des interfaces standard pour de nombreux types de périphériques, notamment les périphériques réseau, socket, port série, stockage, entropie et ballon mémoire.
Apple Paravirtualized Graphics Framework est un framework qui implémente des graphiques accélérés matériellement pour macOS exécutés sur une machine virtuelle, ci-après appelée invité. Le système d'exploitation fournit un pilote graphique qui s'exécute à l'intérieur de l'invité, communiquant avec le framework du système d'exploitation hôte pour tirer parti des graphiques accélérés par Metal.
Cloud Hypervisor est un moniteur de machine virtuelle (VMM) open source qui s'exécute sur KVM. Le projet se concentre sur l’exécution exclusive de charges de travail cloud modernes, au-dessus d’un ensemble limité d’architectures et de plates-formes matérielles. Les charges de travail cloud font référence à celles qui sont généralement exécutées par les clients d'un fournisseur cloud. Cloud Hypervisor est implémenté dans Rust et est basé sur les caisses rust-vmm.
VMware vSphere Hypervisor est un hyperviseur nu qui virtualise les serveurs ; vous permettant de consolider vos applications tout en économisant du temps et de l'argent dans la gestion de votre infrastructure informatique.
Xen se concentre sur l'avancement de la virtualisation dans un certain nombre d'applications commerciales et open source, notamment la virtualisation de serveurs, l'infrastructure en tant que services (IaaS), la virtualisation de postes de travail, les applications de sécurité, les appareils embarqués et matériels, ainsi que l'automobile et l'aviation.
Ganeti est un outil de gestion de cluster de machines virtuelles construit sur les technologies de virtualisation existantes telles que Xen ou KVM et d'autres logiciels open source. Une fois installé, l'outil assume la gestion des instances virtuelles (Xen DomU).
Packer est un outil open source permettant de créer des images machine identiques pour plusieurs plates-formes à partir d'une configuration source unique. Packer est léger, fonctionne sur tous les principaux systèmes d'exploitation et est très performant, créant des images machine pour plusieurs plates-formes en parallèle. Packer ne remplace pas la gestion de configuration comme Chef ou Puppet. En fait, lors de la création d'images, Packer est capable d'utiliser des outils comme Chef ou Puppet pour installer des logiciels sur l'image.
Vagrant est un outil permettant de créer et de gérer des environnements de machines virtuelles dans un seul flux de travail. Grâce à un flux de travail facile à utiliser et à l'accent mis sur l'automatisation, Vagrant réduit le temps de configuration de l'environnement de développement, augmente la parité de production et fait de l'excuse « travaille sur ma machine » une relique du passé. Il fournit des environnements de travail faciles à configurer, reproductibles et portables, basés sur une technologie standard de l'industrie et contrôlés par un flux de travail unique et cohérent pour aider à maximiser la productivité et la flexibilité de vous et de votre équipe.
Parallels Desktop est un hyperviseur de bureau qui fournit l'application la plus rapide, la plus simple et la plus puissante pour exécuter Windows/Linux sur Mac (y compris la nouvelle puce Apple M1) et ChromeOS.
VMware Fusion est un hyperviseur de bureau qui fournit des machines virtuelles de bureau et de « serveur », des conteneurs et des clusters Kubernetes aux développeurs et aux professionnels de l'informatique sur Mac.
VMware Workstation est un hyperviseur hébergé qui s'exécute sur les versions x64 des systèmes d'exploitation Windows et Linux ; il permet aux utilisateurs de configurer des machines virtuelles sur une seule machine physique et de les utiliser simultanément avec la machine réelle.
Retour au sommet
L'informatique parallèle est un environnement informatique dans lequel deux ou plusieurs processeurs (cœurs, ordinateurs) fonctionnent simultanément pour résoudre un seul problème. Les grands problèmes peuvent souvent être divisés en problèmes plus petits, qui peuvent ensuite être résolus en même temps. Il existe plusieurs formes différentes de calcul parallèle : [niveau bit]https://en.wikipedia.org/wiki/Bit-level_parallelism), parallélisme au niveau des instructions, des données et des tâches.
Calcul accéléré - Formation | Développeur NVIDIA
Cours Fondamentaux du calcul accéléré avec CUDA Python | Nvidia
Meilleurs cours d'informatique parallèle en ligne | Coursera
Meilleurs cours d'informatique parallèle en ligne | Udemy
Masterclass de calcul scientifique : parallèle et distribué
Apprenez le calcul parallèle en Python | Udemy
Calcul GPU dans Vulkan | Udemy
Cours de calcul haute performance | Udacité
Cours d'informatique parallèle | Stanford en ligne
Calcul parallèle | MIT OpenCourseWare
Parallélisme multithread : langages et compilateurs | MIT OpenCourseWare
Calcul parallèle avec CUDA | Pluriel vue
Architecture HPC et conception de systèmes | Intel
MATLAB Parallel Server™ est un outil qui vous permet de faire évoluer les programmes MATLAB® et les simulations Simulink® vers des clusters et des cloud. Vous pouvez prototyper vos programmes et simulations sur le bureau, puis les exécuter sur des clusters et des cloud sans recodage. MATLAB Parallel Server prend en charge les tâches par lots, les calculs parallèles interactifs et les calculs distribués avec de grandes matrices.
Parallel Computing Toolbox™ est un outil qui vous permet de résoudre des problèmes de calcul et de données gourmands en utilisant des processeurs multicœurs, des GPU et des clusters d'ordinateurs. Des constructions de haut niveau telles que des boucles for parallèles, des types de tableaux spéciaux et des algorithmes numériques parallélisés vous permettent de paralléliser les applications MATLAB® sans programmation CUDA ou MPI. La boîte à outils vous permet d'utiliser des fonctions parallèles dans MATLAB et d'autres boîtes à outils. Vous pouvez utiliser la boîte à outils avec Simulink® pour exécuter plusieurs simulations d'un modèle en parallèle. Les programmes et les modèles peuvent s'exécuter en mode interactif et par lots.
Statistics and Machine Learning Toolbox™ est un outil qui fournit des fonctions et des applications pour décrire, analyser et modéliser des données. Vous pouvez utiliser des statistiques descriptives, des visualisations et le clustering pour l'analyse exploratoire des données ; ajuster les distributions de probabilité aux données ; générer des nombres aléatoires pour les simulations de Monte Carlo et effectuer des tests d'hypothèse. Les algorithmes de régression et de classification vous permettent de tirer des conclusions à partir de données et de créer des modèles prédictifs, soit de manière interactive, à l'aide des applications Classification et Regression Learner, soit par programmation, à l'aide d'AutoML.
OpenMP est une API qui prend en charge la programmation parallèle multiplateforme à mémoire partagée en C/C++ et Fortran. L'API OpenMP définit un modèle portable et évolutif avec une interface simple et flexible pour développer des applications parallèles sur des plateformes allant du bureau au supercalculateur.
CUDA® est une plate-forme informatique parallèle et un modèle de programmation développés par NVIDIA pour le calcul général sur les unités de traitement graphique (GPU). Avec CUDA, les développeurs peuvent accélérer considérablement les applications informatiques en exploitant la puissance des GPU.
Message Passing Interface (MPI) est une norme de transmission de messages standardisée et portable conçue pour fonctionner sur des architectures informatiques parallèles.
Microsoft MPI (MS-MPI) est une implémentation Microsoft de la norme d'interface de passage du message pour développer et exécuter des applications parallèles sur la plate-forme Windows.
Slurm est un gestionnaire de charge de travail open source gratuit conçu spécifiquement pour satisfaire les besoins exigeants de l'informatique haute performance.
Portable Batch System (PBS) Pro est un gestionnaire de charge de travail rapide et puissant conçu pour améliorer la productivité, optimiser l'utilisation et l'efficacité et simplifier l'administration pour les clusters, les nuages et les superordinateurs.
AWS ParallelCluster est un outil de gestion des cluster open source soutenu par l'AWS qui vous permet de déployer et de gérer facilement les clusters informatiques de haute performance (HPC) sur AWS. ParallelCluster utilise un fichier texte simple pour modéliser et fournir toutes les ressources nécessaires pour vos applications HPC de manière automatisée et sécurisée.
NuMBA est un compilateur open source, AwaS-Aware Optimizing pour Python parrainé par Anaconda, Inc. Il utilise le projet de compilateur LLVM pour générer du code machine à partir de la syntaxe Python. Numba peut compiler un grand sous-ensemble de python axé sur numéros, y compris de nombreuses fonctions numpy. De plus, Numba prend en charge la parallélisation automatique des boucles, la génération de code accéléré par le GPU et la création de rappels UFUNC et C.
Chainer est un cadre d'apprentissage en profondeur basé sur Python visant la flexibilité. Il fournit des API de différenciation automatique en fonction de l'approche définie par course (graphiques de calcul dynamiques) ainsi que des API de haut niveau orientées objet pour construire et former des réseaux de neurones. Il soutient également Cuda / Cudnn en utilisant Cupy pour une formation et une inférence haute performance.
XGBOost est une bibliothèque optimisée sur le gradient distribué conçu pour être très efficace, flexible et portable. Il met en œuvre des algorithmes d'apprentissage automatique dans le cadre de stimulation du gradient. XGBOost fournit un augmentation de l'arbre parallèle (également connu sous le nom de GBDT, GBM) qui résolvent de nombreux problèmes de science des données de manière rapide et précise. Il prend en charge une formation distribuée sur plusieurs machines, y compris les grappes AWS, GCE, Azure et File. En outre, il peut être intégré aux systèmes Flink, Spark et d'autres systèmes de flux de données cloud.
CUML est une suite de bibliothèques qui implémentent les algorithmes d'apprentissage automatique et les fonctions de primitives mathématiques qui partagent des API compatibles avec d'autres projets RAPIDS. CUML permet aux scientifiques des données, aux chercheurs et aux ingénieurs logiciels d'exécuter des tâches Tabular ML traditionnelles sur les GPU sans entrer dans les détails de la programmation CUDA. Dans la plupart des cas, l'API Python de CUML correspond à l'API de Scikit-Learn.
Apache Cassandra ™ est une base de données Open Source Nosql Distribuée de confiance par des milliers d'entreprises pour l'évolutivité et la haute disponibilité sans compromettre les performances. Cassandra fournit une évolutivité linéaire et une tolérance aux pannes éprouvée sur le matériel de base ou l'infrastructure cloud en fait la plate-forme parfaite pour les données critiques de mission.
Apache Flume est un service distribué, fiable et disponible pour la collecte efficace, l'agrégation et le déplacement de grandes quantités de données d'événements de streaming.
Apache Mesos est un gestionnaire de cluster qui fournit une isolation efficace des ressources et le partage entre les applications distribuées ou les cadres. Il peut exécuter Hadoop, Jenkins, Spark, Aurora et d'autres cadres sur un pool de nœuds partagé dynamiquement.
Apache HBASE ™ est un magasin de Big Data Distribué Open source, Open-source. Il permet un accès aléatoire, strictement cohérent et en temps réel aux pétaoctets de données. HBASE est très efficace pour gérer de grands ensembles de données clairsemés. HBASE sert d'entrée et de sortie directes dans le framework Apache MapReduce pour Hadoop, et fonctionne avec Apache Phoenix pour activer les requêtes de type SQL sur les tables HBASE.
Hadoop Distributed File System (HDFS) est un système de fichiers distribué qui gère les grands ensembles de données exécutés sur le matériel de marchandise. Il est utilisé pour mettre à l'échelle un seul cluster Apache Hadoop à des centaines (et même des milliers) de nœuds. HDFS est l'un des principaux composants d'Apache Hadoop, les autres étant MapReduce et Yarn.
Apache Arrow est un format de mémoire colonnel indépendant du langage pour des données plates et hiérarchiques, organisées pour des opérations analytiques efficaces sur du matériel moderne comme les CPU et les GPU.
Apache Spark ™ est un moteur d'analyse unifié pour le traitement des données à grande échelle. Il fournit des API de haut niveau dans Scala, Java, Python et R, et un moteur optimisé qui prend en charge les graphiques de calcul généraux pour l'analyse des données. Il prend également en charge un riche ensemble d'outils de niveau supérieur, notamment Spark SQL pour SQL et DataFrames, MLIB pour l'apprentissage automatique, GraphX pour le traitement des graphiques et le streaming structuré pour le traitement des flux.
Apache PredictionIo est un cadre d'apprentissage automatique open source pour les développeurs, les scientifiques des données et les utilisateurs finaux. Il prend en charge la collecte d'événements, le déploiement d'algorithmes, l'évaluation, l'interrogation des résultats prédictifs via les API REST. Il est basé sur des services open source évolutifs comme Hadoop, HBASE (et autres DBS), Elasticsearch, Spark et implémente ce qu'on appelle une architecture lambda.
Microsoft Project Bonsai est une plate-forme AI à faible code qui accélère le développement d'automatisation alimentée par l'IA et une partie de la suite de systèmes autonomes de Microsoft. Le bonsaï est utilisé pour construire des composants d'IA qui peuvent fournir des conseils de l'opérateur ou prendre des décisions indépendantes pour optimiser les variables de processus, améliorer l'efficacité de la production et réduire les temps d'arrêt.
Cluster Manager pour Apache Kafka (CMAK) est un outil pour gérer les clusters Apache Kafka.
Bigdl est une bibliothèque d'apprentissage en profondeur distribuée pour Apache Spark. Avec BIGDL, les utilisateurs peuvent rédiger leurs applications d'apprentissage en profondeur en tant que programmes Spark standard, qui peuvent dire directement en plus des clusters Spark ou Hadoop existants.
Apache Cassandra ™ est une base de données Open Source Nosql Distribuée de confiance par des milliers d'entreprises pour l'évolutivité et la haute disponibilité sans compromettre les performances. Cassandra fournit une évolutivité linéaire et une tolérance aux pannes éprouvée sur le matériel de base ou l'infrastructure cloud en fait la plate-forme parfaite pour les données critiques de mission.
Apache Flume est un service distribué, fiable et disponible pour la collecte efficace, l'agrégation et le déplacement de grandes quantités de données d'événements de streaming.
Apache Mesos est un gestionnaire de cluster qui fournit une isolation efficace des ressources et le partage entre les applications distribuées ou les cadres. Il peut exécuter Hadoop, Jenkins, Spark, Aurora et d'autres cadres sur un pool de nœuds partagé dynamiquement.
Apache Beam est un modèle open source et unifié et un ensemble de SDK spécifiques à la langue pour définir et exécuter les flux de travail de traitement des données, ainsi que les flux d'ingestion et d'intégration des données, en prenant en charge les modèles d'intégration d'entreprise (EIPS) et les langages spécifiques au domaine (DSL).
Jupyter Notebook est une application Web open source qui vous permet de créer et de partager des documents contenant du code en direct, des équations, des visualisations et du texte narratif. Jupyter est largement utilisé dans les industries qui effectuent le nettoyage et la transformation des données, la simulation numérique, la modélisation statistique, la visualisation des données, la science des données et l'apprentissage automatique.
NEO4J est la seule base de données de graphiques de force d'entreprise qui combine le stockage de graphiques natifs, la sécurité avancée, l'architecture optimisée à la vitesse évolutive et la conformité à l'acide pour assurer la prévisibilité et l'intégrité des requêtes basées sur la relation.
Elasticsearch est un moteur de recherche basé sur la bibliothèque Lucene. Il fournit un moteur de recherche en texte intégral distribué et compatible multitinnant avec une interface Web HTTP et des documents JSON sans schéma. Elasticsearch est développé en Java.
Logstash est un outil pour gérer les événements et les journaux. Lorsqu'il est utilisé génériquement, le terme englobe un plus grand système d'activités de collecte, de traitement, de stockage et de recherche.
Kibana est un plugin de visualisation de données open source pour Elasticsearch. Il fournit des capacités de visualisation en plus du contenu indexé sur un cluster Elasticsearch. Les utilisateurs peuvent créer des graphiques de barres, de lignes et de dispersion, ou des graphiques à tarte et des cartes au-dessus de grands volumes de données.
Trino est un moteur de requête SQL distribué pour les mégadonnées. Il est capable d'accélérer considérablement les processus ETL, de leur permettre à tous d'utiliser une instruction SQL standard et de travailler avec de nombreuses sources de données et cibles dans le même système.
Extraire, transformer et charger (ETL) est un pipeline de données utilisé pour collecter des données à partir de diverses sources, transformer les données en fonction des règles métier et les charger en un magasin de données de destination.
Redis (district de dictionnaire distant) est un magasin de structure de données open source (BSD sous licence), utilisé comme courtier de base de données, de cache et de messages. Il fournit des structures de données telles que des chaînes, des hachages, des listes, des ensembles, des ensembles triés avec des requêtes de plage, des bitmaps, des hyperloglogs, des index géospatiaux et des flux.
Apache OpenNLP est une bibliothèque open source pour une boîte à outils basée sur l'apprentissage automatique utilisé dans le traitement du texte du langage naturel. Il dispose d'une API pour les cas d'utilisation tels que la reconnaissance des entités nommés, la détection de phrases, le marquage POS (partie de la parole), l'extraction de fonctionnalités de tokenisation, le groupe, l'analyse et la résolution de coreférence.
Apache AirFlow est une plate-forme de gestion de workflow open source créée par la communauté pour auteur, planifier et surveiller les workflows programmatiques. Installer. Principes. Évolutif. Airflow a une architecture modulaire et utilise une file d'attente de messages pour orchestrer un nombre arbitraire de travailleurs. Le flux d'air est prêt à évoluer vers l'infini.
Open Neural Network Exchange (ONNX) est un écosystème ouvert qui permet aux développeurs de l'IA de choisir les bons outils à mesure que leur projet évolue. ONNX fournit un format open source pour les modèles d'IA, à la fois l'apprentissage en profondeur et le ML traditionnel. Il définit un modèle de graphique de calcul extensible, ainsi que des définitions des opérateurs intégrés et des types de données standard.
Apache Mxnet est un cadre d'apprentissage en profondeur conçu à la fois pour l'efficacité et la flexibilité. Il vous permet de mélanger la programmation symbolique et impérative pour maximiser l'efficacité et la productivité. À la base, MXNET contient un planificateur de dépendances dynamique qui parallélise automatiquement les opérations symboliques et impératives à la volée. Une couche d'optimisation de graphique en plus de cela rend l'exécution symbolique rapide et efficace à la mémoire. MXNET est portable et léger, évoluant efficacement vers plusieurs GPU et plusieurs machines. Prise en charge de Python, R, Julia, Scala, Go, JavaScript et plus encore.
Autogluon est la boîte à outils pour l'apprentissage en profondeur qui automatise les tâches d'apprentissage automatique vous permettant de réaliser facilement de solides performances prédictives dans vos applications. Avec seulement quelques lignes de code, vous pouvez vous entraîner et déployer des modèles d'apprentissage en profondeur de haute performance sur les données tabulaires, image et texte.
Retour au sommet
Le langage informatique ouvert (OpenCL) est une norme ouverte pour la programmation parallèle des plates-formes hétérogènes composées de processeurs, de GPU et d'autres accélérateurs matériels trouvés dans les supercalculateurs, les serveurs cloud, les ordinateurs personnels, les appareils mobiles et les plates-formes intégrées.
OpenCl | GitHub
Groupe Khronos | GitHub
Cours et formation technologiques de Khronos
Tutoriels OpenCL - StreamHPC
Introduction aux outils Intel® OpenCL
OpenCl | Développeur NVIDIA
Introduction à OpenCL sur le cours FPGAS | Coursera
Compilation du noyau d'openCl au cours FPGAS | Coursera
RenderDoc est un débogueur graphique autonome qui permet une capture rapide et facile et une introspection détaillée de toute application utilisant Vulkan, D3D11, OpenGL & OpenGL ES ou D3D12 à travers Windows, Linux, Android, Stadia ou Nintendo Switch ™.
Gpuverify est un outil d'analyse formelle des noyaux GPU écrits en OpenCL et CUDA. L'outil peut prouver que les grains sont exempts de certains types de défauts, y compris les races de données.
Le chargeur ICD OpenCL est un mécanisme de pilote client installable (ICD) pour permettre aux développeurs de créer des applications contre un chargeur de pilote client installable (chargeur ICD) plutôt que de lier leurs applications à une implémentation OpenCL spécifique.
CLBLAS est une bibliothèque de logiciels contenant des fonctions BLAS écrites dans OpenCL.
CLFFT est une bibliothèque de logiciels contenant des fonctions FFT écrites dans OpenCL.
CLSParse est une bibliothèque de logiciels contenant des fonctions clairsemées écrites dans OpenCL.
CLRNG est une bibliothèque de logiciels basée sur OpenCL contenant des fonctions de génération de nombres aléatoires.
CLSmith est un outil qui utilise deux techniques de test existantes, des tests différentiels aléatoires et des entrées de modulo d'équivalence (EMI), en les appliquant dans un environnement à plusieurs cœurs, OpenCL. Sa principale caractéristique est la génération de grains d'openCl aléatoires, exerçant de nombreuses caractéristiques de la langue. Il apporte également une nouvelle idée d'appliquer EMI, via l'injection de code mort.
Oclgrind est un simulateur de périphérique Virtual OpenCL, y compris un exécution OpenCL avec la prise en charge ICD. L'objectif est de fournir une plate-forme pour créer des outils pour faciliter le développement d'OpenCL. En particulier, ce projet met actuellement en œuvre les services publics pour le débogage des erreurs d'accès à la mémoire, la détection des roes de données et la divergence de la barrière, la collecte d'histogrammes d'instructions et le débogage interactif du noyau d'openCl. Le simulateur est construit sur un interprète pour LLVM IR.
NVIDIA® NSIGHT ™ Visual Studio Edition est un environnement de développement d'applications pour les plates-formes hétérogènes qui apportent l'informatique GPU dans Microsoft Visual Studio. NVIDIA NSIGHT ™ VSE vous permet de créer et de déboguer les noyaux GPU intégrés et le code CPU natif ainsi que d'inspecter l'état du GPU et de la mémoire.
Radeon ™ GPU Profiler est un outil de performance qui peut être utilisé par les développeurs pour optimiser les applications DirectX®12, Vulkan® et OpenCL ™ pour le matériel AMD RDNA ™ et GCN.
Radeon ™ GPU Analyzer est un compilateur et un outil d'analyse de code pour Vulkan®, DirectX®, OpenGL® et OpenCL ™.
AMD Radeon Prorder est un puissant moteur de rendu physiquement basé sur physique qui permet aux professionnels de la création de produire des images incroyablement photoréalistes sur pratiquement tous les GPU, tout processeur et tout système d'exploitation dans plus d'une douzaine d'applications de création de contenu numérique et de CAO de premier plan.
NVIDIA OMIVERSE est une plate-forme de simulation et de collaboration puissante puissante, multi-GPU, en temps réel pour les pipelines de production 3D basés sur la description universelle de Pixar et NVIDIA RTX.
Intel® SDK pour les applications OpenCL ™ est une charge de travail à déchargement de calcul. Personnaliser les applications de calcul hétérogènes et accélérer les performances avec la programmation basée sur le noyau.
NVIDIA NGC est un centre pour les logiciels optimisés GPU pour l'apprentissage en profondeur, l'apprentissage automatique et les charges de travail de l'informatique haute performance (HPC).
Les conteneurs NVIDIA NGC sont un registre qui fournit aux chercheurs, aux scientifiques des données et aux développeurs ayant un accès simple à un catalogue complet de logiciels accélérés par GPU pour l'IA, l'apprentissage automatique et le HPC. Ces conteneurs profitent pleinement des GPU NVIDIA sur site et dans le cloud.
Nvidia Cudnn est une bibliothèque de primitives accélérée par GPU pour les réseaux de neurones profonds. CUDNN fournit des implémentations hautement réglées pour des routines standard telles que les couches de convolution avant et arrière, de mise en commun, de normalisation et d'activation. CUDNN accélère les cadres d'apprentissage en profondeur largement utilisés, notamment CAFE2, Chainer, Keras, Matlab, Mxnet, Pytorch et TensorFlow.
Nvidia Container Toolkit est une collection d'outils et de bibliothèques qui permet aux utilisateurs de créer et d'exécuter des conteneurs Docker accélérés GPU. La boîte à outils comprend une bibliothèque d'exécution de conteneurs et des utilitaires pour configurer automatiquement les conteneurs pour tirer parti des GPU NVIDIA.
Retour au sommet
Cuda Toolkit. Source: développeur NVIDIA CUDA
CUDA est une plate-forme informatique parallèle et un modèle de programmation développé par NVIDIA pour l'informatique générale sur les unités de traitement graphique (GPU). Avec CUDA, les développeurs sont capables d'accélérer considérablement les applications informatiques en exploitant la puissance des GPU. Dans les applications accélérées par le GPU, la partie séquentielle de la charge de travail s'exécute sur le CPU, qui est optimisée pour un seul thread. La partie de calcul intensive de l'application fonctionne sur des milliers de cœurs GPU en parallèle. Lorsque vous utilisez CUDA, les développeurs peuvent programmer dans des langues populaires telles que C, C ++, Fortran, Python et Matlab.
Documentation de la boîte à outils CUDA
Guide de démarrage rapide de Cuda
Cuda sur wsl
CUDA GPU Prise en charge de TensorFlow
Nvidia Deep Learning Cudnn Documentation
Documentation du cloud GPU NVIDIA
NVIDIA NGC est un centre pour les logiciels optimisés GPU pour l'apprentissage en profondeur, l'apprentissage automatique et les charges de travail de l'informatique haute performance (HPC).
Les conteneurs NVIDIA NGC sont un registre qui fournit aux chercheurs, aux scientifiques des données et aux développeurs ayant un accès simple à un catalogue complet de logiciels accélérés par GPU pour l'IA, l'apprentissage automatique et le HPC. Ces conteneurs profitent pleinement des GPU NVIDIA sur site et dans le cloud.
CUDA Toolkit est une collection d'outils et de bibliothèques qui fournissent un environnement de développement pour créer des applications accélérées par GPU haute performance. La boîte à outils CUDA vous permet de développer, d'optimiser et de déployer vos applications sur des systèmes embarqués accélérés par le GPU, des postes de travail de bureau, des centres de données d'entreprise, des plateformes basées sur le cloud et des supercomputeurs HPC. La boîte à outils comprend des bibliothèques accélérées par GPU, des outils de débogage et d'optimisation, un compilateur C / C ++ et une bibliothèque d'exécution pour créer et déployer votre application sur des architectures majeures, y compris x86,