注: この便利な拡張機能 Markdown PDF を使用すると、VSCode でこのマークダウン ファイルを PDF に簡単に変換できます。
アプリケーション コードを実行するときに CPU と GPU がどのように連携するか。
統合メモリアーキテクチャ
GPU 学習リソース
電荷、場、および電位
電荷と電気力(クーロンの法則):電荷、場、ポテンシャル
電場:電荷、場、電位
電位エネルギー、電位、電圧:電荷、場、ポテンシャル
回路
オームの法則と抵抗を含む回路: 回路
コンデンサを使用した回路: 回路
磁力、磁場、ファラデーの法則
磁石と磁力: 磁力、磁場、およびファラデーの法則
電流によって生成される磁場: 磁力、磁場、およびファラデーの法則
電気モーター: 磁力、磁場、およびファラデーの法則
磁束とファラデーの法則
電磁波と干渉
電磁波入門: 電磁波と干渉
電磁波の干渉
幾何光学
反射と屈折: 幾何光学
ミラー: 幾何光学
レンズ
線形代数
仮想化
並列コンピューティング
OpenCLの開発
CUDA開発
アルゴリズム
機械学習
ディープラーニング開発
コンピュータビジョン開発
ゲーム
ゲーム開発
OpenGLの開発
バルカン開発
DirectX 開発
プロフェッショナルなオーディオ/ビデオ開発
3D グラフィックスとデザイン
アップルシリコン
コア ML 開発
金属の開発
MATLAB 開発
C/C++開発
Python 開発
R開発
ジュリア開発
トップに戻る
グラフィックス プロセッシング ユニット (GPU) は、数千のスレッドを同時に処理できる数百のコアで構成される回路です。 GPUS はメモリを迅速に操作および変更して、表示デバイスへの出力を目的としたフレーム バッファ内の画像の作成を高速化できます。これらは、組み込みシステム、携帯電話、パーソナル コンピュータ、プロフェッショナル ワークステーション、ゲーム コンソールで使用されています。
ランダム アクセス メモリ (RAM) は、任意の順序で読み取りおよび変更できるコンピュータ メモリの一種で、通常は作業データやマシン コードを保存するために使用されます。ランダム アクセス メモリ デバイスでは、他の直接アクセス データ ストレージ メディアとは異なり、メモリ内のデータの物理的な位置に関係なく、データ項目の読み取りまたは書き込みをほぼ同じ時間で行うことができます。
ビデオ ランダム アクセス メモリ (VRAM) は、画像またはグラフィックス関連データを保存するために割り当てられた RAM です。 RAM と同じように機能し、アクセスとパフォーマンスを容易にするために特定のデータを保存します。画像データはまずプロセッサによって読み取られ、VRAM に書き込まれます。次に、RAMDAC または RAM デジタル - アナログ コンバーターによって変換され、グラフィック出力として表示されます。
グラフィックス ダブル データ レート (GDDR) SDRAM は、グラフィックス カード、ゲーム コンソール、およびハイ パフォーマンス コンピューティングで使用するために設計された、高帯域幅 (「ダブル データ レート」) インターフェイスを備えた同期グラフィックス ランダム アクセス メモリ (SGRAM) の一種です。
Integrated Graphics Processing Unit (IGPU) は、CPU (AMD Ryzen APU または Intel HD Graphics) と同じダイ (集積回路) 上に構築されたコンポーネントであり、専用グラフィックス メモリではなくコンピュータのシステム RAM の一部を利用します。
テンソルは、ベクトル空間に関連する代数オブジェクトのセット間の多線形関係を記述する代数オブジェクトです。テンソルがベクトル、スカラー、および他のテンソル間でマッピングできるオブジェクトです。
テンソルは、均一な型 (dtype と呼ばれる) を持つ多次元配列です。
Tensor コアは、NVIDIA GPU の AI 推論アクセラレータであり、TF32、bfloat16、FP16、INT8、INT4、FP64 などの精度を下げても桁違いに高いパフォーマンスを提供し、必要な最高の精度で科学技術コンピューティングを高速化します。
RT (リアルタイム レイ トレーシング) コアは、ハードウェア ベースのレイ トレーシング アクセラレーションで、バウンディング ボリューム階層 (BVH) トラバーサルおよびレイ/トライアングル交差テスト (レイ キャスティング) 機能を加速します。 RT コアは、SM 内で実行されているスレッドに代わって可視性テストを実行し、別の頂点、ピクセル、計算シェーディング作業を処理できるようにします。
中央処理装置 (CPU) は、コンピューター プログラムを構成する命令を実行する複数のコアで構成される回路です。 CPU は、プログラム内の命令によって指定された基本的な算術、論理、制御、および入出力 (I/O) 操作を実行します。これは、メイン メモリ、I/O 回路、グラフィックス プロセッシング ユニット (GPU) などの他の外部コンポーネントとは異なります。
AMD Accelerated Processing Unit (APU) は、Advanced Micro Devices (AMD) の一連の 64 ビット マイクロプロセッサであり、単一のダイ上で中央処理装置 (CPU) およびグラフィックス プロセッシング ユニット (GPU) として機能するように設計されています。
ベクトル プロセッサは、ベクトルと呼ばれる大きな 1 次元のデータ配列を効率的かつ効果的に処理するように設計された命令セットを実装する中央処理装置 (CPU) です。
デジタル信号処理 (DSP) は、アナログまたはデジタル信号を変更するためのデジタル コンピューターのアプリケーションです。ビデオ/オーディオ/データ通信とネットワーキング、医療画像とコンピュータ ビジョン、音声合成とコーディング、デジタル オーディオとビデオ、複雑なシステムと産業プロセスの制御など、多くのアプリケーションで広く使用されています。
画像信号処理 (ISP) は、専用タイプのメディア プロセッサを使用して、ノイズ低減、自動露出、オートフォーカス、自動ホワイト バランス、HDR 補正、画像鮮明化などの操作を実行することにより、画像をデジタル形式に変換するプロセスです。
特定用途向け集積回路 (ASIC) は、一般的な使用を目的としたものではなく、組み込みシステム、携帯電話、パーソナル コンピューター、プロフェッショナル ワークステーションでの特定の用途向けにカスタマイズされた集積回路 (IC) チップです。
単一命令複数データ (SIMD) は、複数のデータ ポイントに対して同じ操作を同時に実行する複数の処理要素を備えたコンピューターを記述する並列処理の一種です。
GPUとは何ですか?グラフィックス プロセッシング ユニットの定義 |インテル
ディープ ラーニング インスティテュートとトレーニング ソリューション |エヌビディア
ディープラーニングオンラインコース |エヌビディア
既存の大学コース | NVIDIA 開発者
GPU を使用してディープ ラーニングをスケーリングおよび高速化する | edX
オンラインのトップ GPU コース |コーセラ
CUDA GPU プログラミングの初心者から上級者まで | Udemy
Vulkan の GPU コンピューティング | Udemy
GPU アーキテクチャ コース |ワシントン大学
トップに戻る
- Charge and electric force (Coulomb's law): Electric charge, field, and potential - Electric field: Electric charge, field, and potential - Electric potential energy, electric potential, and voltage: Electric charge, field, and potential
電位エネルギー。出典: スパークファン
トップに戻る
- Ohm's law and circuits with resistors: Circuits - Circuits with capacitors: Circuits
電気回路。出典: sdsu-physics
回路のシンボル 出典: andrewpover.co.uk
トップに戻る
- Magnets and Magnetic Force: Magnetic forces, magnetic fields, and Faraday's law - Magnetic field created by a current: Magnetic forces, magnetic fields, and Faraday's law - Electric motors: Magnetic forces, magnetic fields, and Faraday's law - Magnetic flux and Faraday's law
磁場。出典: vecteezy
アンフィアの法則。出典: sdsu-physics
ファラディの法則。出典: sdsu-physics
トップに戻る
- Introduction to electromagnetic waves: Electromagnetic waves and interference - Interference of electromagnetic waves
電磁波。出典: 間の違い
EMIスペクトル。出典: electric4u
トップに戻る
- Reflection and refraction: Geometric optics - Mirrors: Geometric optics - Lenses
幾何光学 - レイトレーシング。出典: sdsu-physics
幾何光学 - 反射。出典: sdsu-physics
トップに戻る
線形代数はベクトルと行列の数学です。このガイドの唯一の前提条件は、数値、変数、方程式などの高校数学の概念と、加算 (+ で示される)、減算 (- で示される)、乗算 (暗黙的に示される)、および実数の基本的な算術演算の基本的な理解です。割り算(分数)。また、実数を入力として受け取り、実数を出力として与える関数 f : R → R にも精通している必要があります。
線形代数 - オンライン コース |ハーバード大学
線形代数 | MITオープンラーニングライブラリ
線形代数 - カーン アカデミー
Coursera のトップ線形代数コース
機械学習のための数学: Coursera の線形代数
Udemyのトップ線形代数コース
edX のオンライン コースとクラスで線形代数を学習
データ サイエンスの数学: edX の線形代数コース
線形代数 25 講義 |カリフォルニア大学デービス校
線形代数 |カリフォルニア大学サンディエゴ校の拡張
機械学習のための線形代数 |カリフォルニア大学サンディエゴ校の拡張
線形代数の概要、インタラクティブなオンライン ビデオ |ヴォルフラム
線形代数のリソース |ダートマス
次に、ベクトルの数学演算を定義します。ベクトル ~u = (u1, u2, u3) および ~v = (v1, v2, v3) に対して実行できる演算は、加算、減算、スケーリング、ノルム (長さ)、ドット積、および外積です。
2 つのベクトルの内積と外積は、2 つのベクトル間の角度 θ の観点から説明することもできます。
ベクトル演算。出典: スライドサーブ
ベクトル演算。出典:ピンタレスト
行列全体を A で表し、そのエントリを aij と呼びます。行列に対して定義された数学演算は次のとおりです。
• 行列式 (det(A) または |A| と表記) 行列の積は可換演算ではないことに注意してください。
マトリックス演算。出典: SDSU の物理学
マトリックス演算を許可するモジュールを確認してください。出典: DPS コンセプト
行列とベクトルの積は、行列積の重要な特殊なケースです。
行列とベクトルの積を解釈するには、根本的には異なりますが同等の 2 つの方法があります。列の図 (C) では、行列 A とベクトル ~x の乗算により、行列の列の線形結合が生成されます。 y = A x = x1A[:,1] + x2A[:,2]、ここで、A[:,1] と A[:,2] は行列 A の 1 列目と 2 列目です。行ピクチャ (R) では、行列 A とベクトル ~x を乗算して、係数を持つ列ベクトルを生成します。行の内積に等しいベクトル ~x を持つ行列の。
行列ベクトル積。出典: ウィキメディア
行列ベクトル積。出典: マティスファン
行列とベクトルの積は、線形代数の研究における重要な概念の 1 つである線形変換の概念を定義するために使用されます。行列 A ∈ R m×n による乗算は、n ベクトルを入力として受け取り、m ベクトルを出力として生成する線形変換 TA を計算するものと考えることができます。
線形変換。出典: スライドサーブ
R^2 の線形変換の基本行列。出典:クオラ
ベクトル空間の線形代数の基本定理。出典: ウィキメディア
線形代数の基本定理。出典: ウルフラム
グラフによる一次方程式系。出典: スライドシェア
行列方程式としての連立方程式。出典: マティスファン
このセクションでは、逆行列を計算するためのいくつかの異なるアプローチを見ていきます。逆行列は一意であるため、逆行列を見つけるためにどの方法を使用しても、常に同じ答えが得られます。
2x2 行列の逆行列。出典:ピンタレスト
逆数を計算する 1 つのアプローチは、ガウス・ジョルダン消去法を使用することです。
Elementray の行操作。出典: YouTube
行列に対して実行するすべての行演算は、基本行列による左乗算と同等です。
初等行列。出典: SDSU の物理学
逆行列を求めるには、転置法を使用します。
行列の転置。出典: スライドサーブ
このセクションでは、線形代数の他の重要なトピックについて説明します。
直観的には、基底とは、ベクトル空間の座標系として使用できる任意のベクトルのセットです。 2 つの直交軸、x 軸と y 軸で構成される xy 平面の標準的な基礎についてはよくご存じでしょう。
基礎。出典: ウィキメディア
基準の変更。出典: ウィキメディア
線形変換の行列表現。出典: スライドサーブ
ベクトル空間の次元は、そのベクトル空間の基底内のベクトルの数として定義されます。次のベクトル空間 S = span{(1, 0, 0),(0, 1, 0),(1, 1, 0)} を考えてみましょう。空間が 3 つのベクトルで記述されているのを見ると、S は 3 次元であると考えるかもしれません。ただし、3 つのベクトルは線形独立ではないため、S の基礎を形成しないため、これは当てはまりません。S のベクトルを記述するには 2 つのベクトルで十分です。 S = span{(1, 0, 0),(0, 1, 0)} と書くことができ、これら 2 つのベクトルは線形独立であるため、基底を形成し、dim(S) = 2 であることがわかります。ベクトル空間の基底を見つける手順。 m 個のベクトル V = span{~v1, ~v2, ... という観点からベクトル空間の記述が与えられたとします。 。 。 , ~vm} そして、V の基底と V の次元を見つけるように求められます。V の基底を見つけるには、V にわたる線形独立ベクトルのセットを見つける必要があります。ガウス・ジョルダン消去法を使用して、次のことができます。このタスクを達成します。ベクトル ~vi を行列 M の行として書き込みます。ベクトル空間 V は行列 M の行空間に対応します。次に、行演算を使用して行列 M の縮小行階層形式 (RREF) を求めます。行列の行空間は変更しないでください。行列 M の縮小行階層形式の行空間は、元のベクトルのセットの行空間と同じです。行列の RREF 内の非ゼロ行はベクトル空間 V の基礎を形成し、非ゼロ行の数は V の次元になります。
基礎と次元。出典: スライダーサーブ
セクション II-E で定義した行列の基本ベクトル空間、つまり列空間 C(A)、ヌル空間 N (A)、行空間 R(A) を思い出してください。標準的な線形代数の試験問題は、特定の行列 A を与え、その基本空間のそれぞれの次元と基底を見つけるように求めるものです。前のセクションでは、行空間 R(A) の基礎を形成する線形独立ベクトルのセットを「蒸留」するために使用できるガウス・ジョルダン消去法に基づく手順について説明しました。この手順を例で説明し、行列 A の RREF を使用して C(A) と N (A) の基底を見つける方法も示します。
行スペースと列スペース。出典: スライドシェア
行スペースと列スペース。出典: スライドシェア
ランクと無効度。出典: スライドシェア
可逆行列と、次の定理によって形式化されない行列の間には重要な違いがあります。定理。 n×n 行列 A の場合、次のステートメントは同等です。
可逆行列定理。出典: SDSU の物理学
det(A) または |A| で示される行列の行列式は、行列のエントリを結合する特別な方法であり、行列が可逆かどうかをチェックするのに役立ちます。
正方行列の行列式。ソース: stackexchange
行列の行列式。出典: オンラインマスラーニング
行列の固有ベクトルのセットは、行列の動作が単純なスケーリングとして記述される特別な入力ベクトルのセットです。行列にその固有ベクトルの 1 つを乗算すると、出力は同じ固有ベクトルに定数 A eλ = λ eλ を乗算したものになります。定数 λ は A の固有値と呼ばれます。
一般化された固有ベクトル。出典: YouTube
線形回帰は、観測データに線形方程式を当てはめることによって 2 つの変数間の関係をモデル化するアプローチです。一方の変数は説明変数とみなされ、もう一方の変数は従属変数とみなされます。
重線形回帰。出典: メディア
トップに戻る
HVM (ハードウェア仮想マシン) は、あたかもベアメタル ハードウェア上で実行されているかのように、変更を加えずに仮想マシン上でオペレーティング システムを直接実行できる機能を提供する仮想化タイプです。
PV(ParaVirtualization) は、Xen プロジェクト チームによって導入された効率的で軽量な仮想化技術であり、その後他の仮想化ソリューションにも採用されました。 PV はホスト CPU からの仮想化拡張機能を必要としないため、ハードウェア支援による仮想化をサポートしていないハードウェア アーキテクチャ上での仮想化が可能になります。
ネットワーク機能仮想化 (NFV) は、ネットワーク アプライアンス ハードウェアを仮想マシンに置き換えることです。仮想マシンはハイパーバイザーを使用して、ネットワーク ソフトウェアと、ルーティングや負荷分散などのプロセスを実行します。 NFV により、ルーターやファイアウォールなどの専用ハードウェアから通信サービスを分離できます。この分離は、ネットワーク運用が、新しいハードウェアを設置することなく、新しいサービスを動的に提供できることを意味します。ネットワーク機能仮想化を使用したネットワーク コンポーネントの導入には、従来のネットワーク ソリューションの場合は数か月かかるのに比べ、わずか数時間しかかかりません。
ソフトウェア デファインド ネットワーク (SDN) は、ソフトウェア ベースのコントローラーまたはアプリケーション プログラミング インターフェイス (API) を使用して、基盤となるハードウェア インフラストラクチャと通信し、ネットワーク上のトラフィックを制御するネットワークへのアプローチです。このモデルは、専用のハードウェア デバイス (ルーターとスイッチ) を使用してネットワーク トラフィックを制御する従来のネットワークのモデルとは異なります。
仮想化インフラストラクチャ マネージャー (VIM) は、高パフォーマンスのライフサイクル管理によってサービスを提供し、コストを削減します。NFV インフラストラクチャ (NFVI) を構成するソフトウェアとハードウェアのライフサイクル全体を管理し、物理リソースと仮想リソースの両方のライブ インベントリと割り当て計画を維持します。
Management and Orchestration (MANO) は、ETSI NFV に合わせたオープンソース NFV Management and Orchestration (MANO) ソフトウェア スタックを開発するための ETSI がホストする取り組みです。 ETSI NFV アーキテクチャ フレームワークの 2 つの主要コンポーネントは、NFV オーケストレーターと、NFV MANO として知られる VNF マネージャーです。
Magma は、ネットワーク事業者にオープンで柔軟かつ拡張可能なモバイル コア ネットワーク ソリューションを提供するオープン ソース ソフトウェア プラットフォームです。彼らの使命は、サービス プロバイダーがコスト効率が高く拡張可能なキャリア グレードのネットワークを構築できるようにすることで、世界をより高速なネットワークに接続することです。 Magma は 3GPP 世代 (2G、3G、4G、または今後の 5G ネットワーク) であり、アクセス ネットワーク (セルラーまたは WiFi) に依存しません。最小限の開発と展開の労力で、無線アクセス ネットワークを柔軟にサポートできます。
OpenRAN は、ソフトウェア定義機能間のオープン インターフェイスを備えた汎用プラットフォームに統合されたインテリジェントな無線アクセス ネットワーク (RAN) です。オープン RANecosystem は、マルチベンダー展開に対する完全なオープン性により、非常に高い柔軟性と相互運用性を実現します。
Open vSwitch (OVS) は、オープン ソースの Apache 2.0 ライセンスに基づいてライセンス供与された、オープン ソースの実稼働品質のマルチレイヤ仮想スイッチです。標準の管理インターフェイスとプロトコル (NetFlow、sFlow、IPFIX、RSPAN、CLI、LACP、802.1ag) をサポートしながら、プログラムによる拡張を通じて大規模なネットワーク自動化を可能にするように設計されています。
Edge は、エンタープライズ アプリケーションを IoT デバイスやローカル エッジ サーバーなどのデータ ソースに近づける分散コンピューティング フレームワークです。このようにソースのデータに近いことにより、より迅速な洞察、応答時間の改善、帯域幅の可用性の向上など、ビジネスに強力なメリットがもたらされます。
マルチアクセス エッジ コンピューティング (MEC) は、ETSI 内の業界仕様グループ (ISG) であり、ベンダー、サービス プロバイダー、およびサードパーティのアプリケーションをマルチベンダー マルチ プラットフォーム間で効率的かつシームレスに統合できる標準化されたオープン環境を構築します。 -エッジ コンピューティング プラットフォームにアクセスします。
仮想化ネットワーク機能 (VNF) は、明確に定義されたインターフェイスを備え、定義された方法で 1 つ以上のコンポーネント ネットワーキング機能を提供するネットワーク機能仮想化 (NFV) 実装で使用されるソフトウェア アプリケーションです。たとえば、セキュリティ VNF は、ネットワーク アドレス変換 (NAT) およびファイアウォール コンポーネントの機能を提供します。
クラウドネイティブ ネットワーク機能 (CNF) は、コンテナ内で実行されるように設計および実装されたネットワーク機能です。 CNF は、Kubernetes (K8s) ライフサイクル管理、俊敏性、復元力、可観測性を含む、クラウド ネイティブのアーキテクチャおよび運用原則をすべて継承します。
Physical Network Function(PNF)は、仮想化されていない物理ネットワークノードです。 PNF と VNF (仮想化ネットワーク機能) の両方を使用して、ネットワーク サービス全体を形成できます。
ネットワーク機能仮想化インフラストラクチャ (NFVI) は、NFV アーキテクチャ全体の基盤です。 VNF をホストする物理コンピューティング、ストレージ、ネットワーク ハードウェアを提供します。各 NFVI ブロックは NFVI ノードとして考えることができ、多くのノードを地理的に展開して制御できます。
仮想化ベースのセキュリティ (VBS) は、メモリの安全な領域を作成し、通常のオペレーティング システムから分離するためのハードウェア仮想化機能です。
ハイパーバイザー強制コード整合性 (HVCI) は、Hyper-V などのハイパーバイザーがハードウェア仮想化を使用して、悪意のあるコードまたは未検証のコードの挿入および実行からカーネル モード プロセスを保護するメカニズムです。コードの整合性検証は、悪意のあるソフトウェアからの攻撃に耐性のある安全な環境で実行され、カーネル モードのページ権限はハイパーバイザーによって設定および維持されます。
KVM (カーネルベースの仮想マシン用) は、仮想化拡張機能 (Intel VT または AMD-V) を含む、x86 ハードウェア上の Linux 用の完全な仮想化ソリューションです。これは、コア仮想化インフラストラクチャを提供するロード可能なカーネル モジュール kvm.ko と、プロセッサ固有のモジュール kvm-intel.ko または kvm-amd.ko で構成されます。
QEMU は、ポータブルな動的トランスレータを使用する高速プロセッサ エミュレータです。 QEMU は、プロセッサーやさまざまな周辺機器を含むシステム全体をエミュレートします。 PC を再起動せずに別のオペレーティング システムを起動したり、システム コードをデバッグしたりするために使用できます。
Hyper-V を使用すると、物理ホスト上で仮想化されたコンピュータ システムを実行できます。これらの仮想化システムは、仮想化された隔離された環境に存在しますが、あたかも物理的なコンピュータ システムであるかのように使用および管理できます。ハイパーバイザーと呼ばれる特別なソフトウェアが、仮想システムと物理ハードウェア リソース間のアクセスを管理します。仮想化により、コンピュータ システムの迅速な展開、システムを以前の良好な状態に迅速に復元する方法、および物理ホスト間でシステムを移行する機能が可能になります。
VirtManager は、libvirt 経由で仮想マシンを管理するためのグラフィカル ツールです。ほとんどの使用は QEMU/KVM 仮想マシンで行われますが、Xen および libvirt LXC コンテナーも十分にサポートされています。任意の libvirt ドライバーの一般的な操作が機能するはずです。
oVirt は、エンタープライズ インフラストラクチャ全体を管理するために設計されたオープンソースの分散仮想化ソリューションです。 oVirt は信頼できる KVM ハイパーバイザーを使用し、libvirt、Gluster、PatternFly、Ansible などの他のいくつかのコミュニティ プロジェクトに基づいて構築されています。Red Hat Enterprise Virtualization の基礎となるコミュニティ プロジェクトとして Red Hat によって設立され、仮想マシン、コンピューティングの集中管理を可能にします。 、ストレージおよびネットワーキング リソースに、プラットフォームに依存しないアクセスを備えた使いやすい Web ベースのフロントエンドからアクセスできます。
HyperKit は、アプリケーションにハイパーバイザー機能を組み込むためのツールキットです。これには、軽量の仮想マシンとコンテナーの展開用に最適化された、xhyve/bhyve に基づく完全なハイパーバイザーが含まれています。 VPNKit や DataKit などの上位レベルのコンポーネントとインターフェイスできるように設計されています。 HyperKit は現在、Hypervisor.framework を使用する macOS のみをサポートしており、これが Docker Desktop for Mac のコア コンポーネントとなっています。
インテル® グラフィックス仮想化テクノロジー (インテル® GVT) は、インテル プロセッサー・グラフィックス (Broadwell 以降) を搭載した第 4 世代インテル Core (TM) プロセッサーから始まる、仲介パススルーを備えた完全な GPU 仮想化ソリューションです。これを使用して複数のゲスト仮想マシンの GPU を仮想化し、仮想マシンでネイティブに近いグラフィックス パフォーマンスを効果的に提供しながら、ホストが仮想化された GPU を通常どおり使用できるようにします。
Apple Hypervisor は、サードパーティのカーネル拡張機能を使用せずに、軽量のハイパーバイザー上に仮想化ソリューションを構築するフレームワークです。ハイパーバイザーは C API を提供するため、カーネル拡張機能 (KEXT) を作成しなくても、ユーザー空間で仮想化テクノロジを操作できます。その結果、このフレームワークを使用して作成したアプリは、Mac App Store での配布に適しています。
Apple Virtualization Framework は、Apple シリコンおよび Intel ベースの Mac コンピュータ上で仮想マシンを作成および管理するための高レベル API を提供するフレームワークです。このフレームワークは、定義したカスタム環境で Linux ベースのオペレーティング システムを起動して実行するために使用されます。また、ネットワーク、ソケット、シリアル ポート、ストレージ、エントロピー、メモリー バルーン デバイスなど、多くのデバイス タイプの標準インターフェイスを定義する Virtio 仕様もサポートしています。
Apple Paravirtualized Graphics Framework は、仮想マシン (以下、ゲストと呼びます) で実行される macOS 用のハードウェア アクセラレーション グラフィックスを実装するフレームワークです。オペレーティング システムは、ゲスト内で実行されるグラフィック ドライバーを提供し、ホスト オペレーティング システムのフレームワークと通信して、メタル アクセラレーション グラフィックを利用します。
Cloud Hypervisor は、KVM 上で実行されるオープンソースの仮想マシン モニター (VMM) です。このプロジェクトは、限られたハードウェア アーキテクチャとプラットフォーム上で最新のクラウド ワークロードを独占的に実行することに焦点を当てています。クラウド ワークロードとは、通常、クラウド プロバイダー内で顧客によって実行されるワークロードを指します。 Cloud Hypervisor は Rust で実装されており、rust-vmm クレートに基づいています。
VMware vSphere Hypervisor は、サーバーを仮想化するベアメタル ハイパーバイザーです。 IT インフラストラクチャの管理にかかる時間と費用を節約しながら、アプリケーションを統合できます。
Xen は、サーバー仮想化、サービスとしてのインフラストラクチャ (IaaS)、デスクトップ仮想化、セキュリティ アプリケーション、組み込みおよびハードウェア アプライアンス、自動車/航空など、さまざまな商用およびオープン ソース アプリケーションの仮想化を推進することに重点を置いています。
Ganeti は、Xen や KVM などの既存の仮想化テクノロジやその他のオープン ソース ソフトウェア上に構築された仮想マシン クラスタ管理ツールです。このツールをインストールすると、仮想インスタンス (Xen DomU) の管理が行われます。
Packer は、単一のソース構成から複数のプラットフォーム用に同一のマシン イメージを作成するためのオープン ソース ツールです。 Packer は軽量で、すべての主要なオペレーティング システムで実行され、パフォーマンスが高く、複数のプラットフォーム用のマシン イメージを並行して作成します。 Packer は、Chef や Puppet のような構成管理を置き換えるものではありません。実際、イメージを構築するときに、Packer は Chef や Puppet などのツールを使用してイメージにソフトウェアをインストールできます。
Vagrant は、単一のワークフローで仮想マシン環境を構築および管理するためのツールです。 Vagrant は、使いやすいワークフローと自動化に重点を置いているため、開発環境のセットアップ時間を短縮し、本番環境の同等性を高め、「自分のマシンで動作する」という言い訳を過去の遺物にします。業界標準のテクノロジーに基づいて構築され、単一の一貫したワークフローによって制御される、構成が簡単で再現性のあるポータブルな作業環境を提供し、ユーザーとチームの生産性と柔軟性を最大化します。
Parallels Desktop は、Mac (新しい Apple M1 チップを含む) および ChromeOS 上で Windows/Linux を実行するための最速、簡単、そして最も強力なアプリケーションを提供するデスクトップ ハイパーバイザーです。
VMware Fusion は、Mac 上の開発者および IT プロフェッショナルにデスクトップおよび「サーバー」仮想マシン、コンテナ、および Kubernetes クラスタを提供するデスクトップ ハイパーバイザです。
VMware Workstation は、x64 バージョンの Windows および Linux オペレーティング システム上で実行されるホスト型ハイパーバイザーです。これにより、ユーザーは 1 台の物理マシン上に仮想マシンをセットアップし、実際のマシンと同時に使用できるようになります。
トップに戻る
並列コンピューティングは、2 つ以上のプロセッサ (コア、コンピュータ) が同時に動作して 1 つの問題を解決するコンピューティング環境です。多くの場合、大きな問題は小さな問題に分割され、同時に解決できます。並列コンピューティングには、[ビットレベル]https://en.wikipedia.org/wiki/Bit-level_Parallelism)、命令レベル、データ、およびタスク並列処理など、いくつかの異なる形式があります。
アクセラレーテッド コンピューティング - トレーニング | NVIDIA 開発者
CUDA による高速コンピューティングの基礎 Python コース |エヌビディア
オンラインのトップ並列コンピューティング コース |コーセラ
オンラインのトップ並列コンピューティング コース | Udemy
科学コンピューティングのマスタークラス: 並列および分散
Python で並列コンピューティングを学ぶ | Udemy
Vulkan の GPU コンピューティング | Udemy
ハイ パフォーマンス コンピューティング コース |ユダシティ
並列コンピューティング コース |スタンフォードオンライン
並列コンピューティング | MIT オープンコースウェア
マルチスレッド並列処理: 言語とコンパイラ | MIT オープンコースウェア
CUDA による並列コンピューティング |複数の視力
HPC アーキテクチャとシステム設計 |インテル
MATLAB Parallel Server™ は、MATLAB® プログラムと Simulink® シミュレーションをクラスターやクラウドに拡張できるツールです。デスクトップ上でプログラムやシミュレーションのプロトタイプを作成し、再コーディングせずにクラスターやクラウド上で実行できます。 MATLAB Parallel Server は、バッチ ジョブ、対話型並列計算、および大規模な行列を使用した分散計算をサポートします。
Parallel Computing Toolbox™ は、マルチコア プロセッサ、GPU、およびコンピューター クラスターを使用して、計算量とデータ量が多い問題を解決できるツールです。並列 for ループ、特殊な配列型、並列数値アルゴリズムなどの高レベルの構造により、CUDA や MPI プログラミングを行わずに MATLAB® アプリケーションを並列化できます。このツールボックスを使用すると、MATLAB や他のツールボックスで並列対応関数を使用できます。ツールボックスを Simulink® とともに使用すると、モデルの複数のシミュレーションを並行して実行できます。プログラムとモデルは、対話モードとバッチ モードの両方で実行できます。
Statistics and Machine Learning Toolbox™ は、データを記述、分析、モデル化するための機能とアプリを提供するツールです。探索的なデータ分析には、記述統計、視覚化、クラスタリングを使用できます。確率分布をデータに適合させる。モンテカルロ シミュレーション用の乱数を生成し、仮説検定を実行します。回帰アルゴリズムと分類アルゴリズムを使用すると、データから推論を導き出し、分類学習器アプリと回帰学習器アプリを使用して対話的に、または AutoML を使用してプログラム的に予測モデルを構築できます。
OpenMP は、C/C++ および Fortran でマルチプラットフォームの共有メモリ並列プログラミングをサポートする API です。 OpenMP API は、デスクトップからスーパーコンピューターまでのプラットフォーム上で並列アプリケーションを開発するための、シンプルで柔軟なインターフェイスを備えたポータブルでスケーラブルなモデルを定義します。
CUDA® は、グラフィック プロセッシング ユニット (GPU) での一般的なコンピューティングのために NVIDIA によって開発された並列コンピューティング プラットフォームおよびプログラミング モデルです。 CUDA を使用すると、開発者は GPU の能力を利用してコンピューティング アプリケーションを劇的に高速化できます。
メッセージ パッシング インターフェイス (MPI) は、並列コンピューティング アーキテクチャで機能するように設計された、標準化された移植可能なメッセージ パッシング標準です。
Microsoft MPI(MS-MPI)は、Windowsプラットフォームで並列アプリケーションを開発および実行するためのメッセージパッシングインターフェイス標準のMicrosoft実装です。
Slurmは、高性能コンピューティングの厳しいニーズを満たすために特別に設計された無料のオープンソースワークロードマネージャーです。
Portable Batch System(PBS)Proは、生産性を向上させ、利用と効率を最適化し、クラスター、クラウド、スーパーコンピューターの管理を簡素化するように設計された高速で強力なワークロードマネージャーです。
AWS Parallelclusterは、AWSサポートされたオープンソースクラスター管理ツールであり、AWSの高性能コンピューティング(HPC)クラスターを簡単に展開および管理できます。 Parallelclusterは、シンプルなテキストファイルを使用して、自動化された安全な方法でHPCアプリケーションに必要なすべてのリソースをモデル化および提供します。
Numbaは、Anaconda、Inc。がスポンサーを務めるPython用のオープンソース、Numpy-Aware Optimizingコンパイラです。LLVMコンパイラプロジェクトを使用して、Python Syntaxからマシンコードを生成します。 Numbaは、多くのNumpy関数を含む、数値に焦点を当てたPythonの大きなサブセットをコンパイルできます。さらに、NUMBAは、ループの自動並列化、GPU加速コードの生成、およびUFUNCとCコールバックの作成をサポートしています。
Chainerは、柔軟性を目的としたPythonベースのディープラーニングフレームワークです。定義ごとのアプローチ(動的計算グラフ)と、ニューラルネットワークを構築およびトレーニングするオブジェクト指向の高レベルAPIに基づいて、自動分化APIを提供します。また、Cuda/CudnnをCudnnを使用して高性能トレーニングと推論をサポートしています。
XGBoostは、非常に効率的で柔軟性があり、ポータブルになるように設計された最適化された分散グラデーションブーストライブラリです。グラデーションブーストフレームワークの下で機械学習アルゴリズムを実装します。 Xgboostは、多くのデータサイエンスの問題を高速かつ正確な方法で解決する並列ツリーブースト(GBDT、GBMとも呼ばれます)を提供します。 AWS、GCE、Azure、Yarnクラスターなど、複数のマシンでの分散トレーニングをサポートしています。また、Flink、Spark、およびその他のクラウドデータフローシステムと統合できます。
CUMLは、互換性のあるAPIを他のRapidsプロジェクトと共有する機械学習アルゴリズムと数学的プリミティブ関数を実装するライブラリスイートです。 CUMLにより、データサイエンティスト、研究者、ソフトウェアエンジニアは、CUDAプログラミングの詳細を説明することなく、GPUで従来の表形式のMLタスクを実行できます。ほとんどの場合、CumlのPython APIはScikit-LearnのAPIと一致します。
Apache Cassandra™は、パフォーマンスを損なうことなく、スケーラビリティと高可用性のために何千もの企業が信頼するオープンソースのNOSQL分散データベースです。 Cassandraは、コモディティハードウェアまたはクラウドインフラストラクチャの線形スケーラビリティと実証済みのフォールトトレランスを提供し、ミッションクリティカルなデータに最適なプラットフォームになります。
Apache Flumeは、大量のストリーミングイベントデータを効率的に収集、集約、および移動するための分散、信頼性の高い、利用可能なサービスです。
Apache Mesosは、分散アプリケーションまたはフレームワーク全体で効率的なリソースの分離と共有を提供するクラスターマネージャーです。 Hadoop、Jenkins、Spark、Aurora、およびその他のフレームワークを動的に共有されたノードのプールで実行できます。
Apache HBase™は、オープンソースのNOSQL、分散ビッグデータストアです。これにより、ペタバイトのデータへのランダムで厳密に一貫したリアルタイムアクセスが可能になります。 HBaseは、大きなまばらなデータセットを処理するのに非常に効果的です。 HBaseは、HadoopのApache MapReduceフレームワークへの直接入力と出力として機能し、Apache Phoenixと協力してSQLのようなクエリをHBaseテーブルで有効にします。
Hadoop分散ファイルシステム(HDFS)は、コモディティハードウェアで実行されている大規模なデータセットを処理する分散ファイルシステムです。単一のApache Hadoopクラスターを数百(および数千)のノードにスケーリングするために使用されます。 HDFSはApache Hadoopの主要なコンポーネントの1つであり、その他はMapReduceとYarnです。
Apache Arrowは、CPUやGPUなどの最新のハードウェアで効率的な分析操作用に整理された、フラットおよび階層データの言語に依存しない柱状メモリ形式です。
Apache Spark™は、大規模なデータ処理用の統一された分析エンジンです。 Scala、Java、Python、およびRで高レベルのAPIを提供し、データ分析のために一般的な計算グラフをサポートする最適化されたエンジンを提供します。また、SQLおよびDataFrames用のSpark SQL、機械学習用のMllib、グラフ処理用のGraphx、ストリーム処理用の構造ストリーミングなど、高レベルのツールのリッチセットもサポートしています。
Apache Predictionioは、開発者、データサイエンティスト、およびエンドユーザー向けのオープンソースの機械学習フレームワークです。イベントコレクション、アルゴリズムの展開、評価、REST APIを介した予測結果のクエリをサポートします。これは、Hadoop、Hbase(およびその他のDB)、Elasticsearch、Spark、およびLambda Architectureと呼ばれるものなどのスケーラブルなオープンソースサービスに基づいています。
Microsoft Project Bonsaiは、AIを搭載した自動化開発とMicrosoftのAutonomous Systems Suiteの一部を高速化する低コードAIプラットフォームです。 Bonsaiは、オペレーターのガイダンスを提供したり、プロセス変数を最適化したり、生産効率を改善したり、ダウンタイムを削減したりするための独立した決定を下すことができるAIコンポーネントを構築するために使用されます。
Apache Kafka(CMAK)のクラスターマネージャーは、Apache Kafkaクラスターを管理するためのツールです。
Bigdlは、Apache Sparkの分散ディープラーニングライブラリです。 BIGDLを使用すると、ユーザーはディープラーニングアプリケーションを標準のSparkプログラムとして作成できます。これは、既存のSparkクラスターまたはHadoopクラスターの上で直接実行できます。
Apache Cassandra™は、パフォーマンスを損なうことなく、スケーラビリティと高可用性のために何千もの企業が信頼するオープンソースのNOSQL分散データベースです。 Cassandraは、コモディティハードウェアまたはクラウドインフラストラクチャの線形スケーラビリティと実証済みのフォールトトレランスを提供し、ミッションクリティカルなデータに最適なプラットフォームになります。
Apache Flumeは、大量のストリーミングイベントデータを効率的に収集、集約、および移動するための分散、信頼性の高い、利用可能なサービスです。
Apache Mesosは、分散アプリケーションまたはフレームワーク全体で効率的なリソースの分離と共有を提供するクラスターマネージャーです。 Hadoop、Jenkins、Spark、Aurora、およびその他のフレームワークを動的に共有されたノードのプールで実行できます。
Apache Beamは、データ処理ワークフローを定義および実行するためのオープンソース、統一モデル、および言語固有のSDKのセット、およびデータの摂取と統合フロー、エンタープライズ統合パターン(EIP)およびドメイン固有言語(DSL)をサポートするためのセットです。
Jupyter Notebookは、ライブコード、方程式、視覚化、物語テキストを含むドキュメントを作成および共有できるオープンソースWebアプリケーションです。 Jupyterは、データのクリーニングと変換、数値シミュレーション、統計モデリング、データ視覚化、データサイエンス、および機械学習を行う業界で広く使用されています。
NEO4Jは、ネイティブグラフストレージ、高度なセキュリティ、スケーラブルな速度最適化アーキテクチャ、および酸性コンプライアンスを組み合わせて、関係ベースのクエリの予測可能性と完全性を確保する唯一のエンタープライズ強度グラフデータベースです。
Elasticsearchは、Lucene Libraryに基づいた検索エンジンです。 HTTP WebインターフェイスとスキーマフリーのJSONドキュメントを備えた、分散型のマルチテキストのフルテキスト検索エンジンを提供します。 ElasticsearchはJavaで開発されています。
Logstashは、イベントやログを管理するためのツールです。一般的に使用すると、この用語には、ログ収集、処理、ストレージ、および検索アクティビティのより大きなシステムが含まれます。
Kibanaは、ElasticSearch用のオープンソースデータ視覚化プラグインです。 ElasticSearchクラスターにインデックスが付けられたコンテンツの上に視覚化機能を提供します。ユーザーは、大量のデータの上にバー、ライン、散布、またはパイチャートとマップを作成できます。
Trinoは、ビッグデータ用の分散SQLクエリエンジンです。 ETLプロセスを大いにスピードアップし、すべてが標準のSQLステートメントを使用できるようにし、同じシステム内の多数のデータソースとターゲットを使用して作業することができます。
抽出、変換、ロード(ETL)は、さまざまなソースからデータを収集し、ビジネスルールに従ってデータを変換し、宛先データストアにロードするために使用されるデータパイプラインです。
Redis(リモートディクショナリサーバー)は、データベース、キャッシュ、およびメッセージブローカーとして使用されるオープンソース(BSDライセンス)、メモリデータ構造ストアです。文字列、ハッシュ、リスト、セット、範囲クエリ、ビットマップ、ハイパーログログ、地理空間インデックス、ストリームを備えたソートセットなどのデータ構造を提供します。
Apache OpenNLPは、自然言語テキストの処理に使用される機械学習ベースのツールキット用のオープンソースライブラリです。指定されたエンティティ認識、文の検出、POS(スピーチの一部)タグ付け、トークン化機能抽出、チャンク、解析、コアファレンス解像度などのユースケースのAPIを特徴としています。
Apache Airflowは、コミュニティによって作成されたオープンソースのワークフロー管理プラットフォームであり、ワークフローをプログラム的に著者、スケジュール、監視します。インストール。原則。スケーラブル。 Airflowにはモジュラーアーキテクチャがあり、メッセージキューを使用して、任意の数の労働者を調整します。エアフローは無限にスケーリングする準備ができています。
Open Neural Network Exchange(ONNX)は、AI開発者がプロジェクトの進化に応じて適切なツールを選択できるようにするオープンエコシステムです。 ONNXは、深い学習と従来のMLの両方のAIモデルにオープンソース形式を提供します。拡張可能な計算グラフモデル、および組み込みの演算子と標準データ型の定義を定義します。
Apache MXNetは、効率と柔軟性の両方のために設計された深い学習フレームワークです。これにより、シンボリックと命令的なプログラミングを組み合わせて、効率と生産性を最大化できます。その中心にあるMXNETには、シンボリック操作と命令操作の両方を自動的に平行に並べる動的依存関係スケジューラが含まれています。その上にグラフ最適化レイヤーにより、シンボリック実行が高速になり、メモリ効率が高くなります。 MXNETはポータブルで軽量で、複数のGPUおよび複数のマシンに効果的にスケーリングします。 Python、R、Julia、Scala、Go、JavaScriptなどのサポート。
Autogluonは、機械学習タスクを自動化して、アプリケーションで強力な予測パフォーマンスを簡単に達成できるようにするディープラーニングのためのツールキットです。わずか数行のコードを使用すると、高精度の深い学習モデルを表、画像、テキストデータにトレーニングおよび展開できます。
トップに戻る
Open Computing Language(OPENCL)は、CPU、GPU、およびスーパーコンピューター、クラウドサーバー、パーソナルコンピューター、モバイルデバイス、埋め込まれたプラットフォームで見つかったCPU、GPU、およびその他のハードウェアアクセラレータで構成される不均一なプラットフォームの並列プログラミングのオープン標準です。
opencl | GitHub
クロノスグループ| GitHub
Khronosテクノロジーコースとトレーニング
OpenCLチュートリアル-StreamHPC
Intel®OPENCLツールの紹介
opencl | Nvidia開発者
FPGASコースのOpenCLの紹介| Coursera
OpenCLカーネルをFPGASコースにコンパイル| Coursera
RenderDocは、Windows、Linux、Android、Stadia、またはNintendo Switch™を越えて、Vulkan、D3D11、OpenGL&OpenGL ESまたはD3D12を使用して、任意のアプリケーションの迅速かつ簡単な単一フレームキャプチャと詳細な内省を可能にするスタンドアロンのグラフィックデバッガーです。
GPUVERIFYは、OpenCLおよびCUDAで書かれたGPUカーネルの正式な分析のためのツールです。このツールは、カーネルにデータレースを含む特定のタイプの欠陥がないことを証明できます。
OpenCL ICDローダーは、インストール可能なクライアントドライバー(ICD)メカニズムであり、開発者が特定のOPENCL実装とリンクするのではなく、インストール可能なクライアントドライバーローダー(ICDローダー)に対してアプリケーションを構築できるようにします。
Clblasは、OpenCLで記述されたBLAS関数を含むソフトウェアライブラリです。
Clfftは、OpenCLで記述されたFFT関数を含むソフトウェアライブラリです。
Clsparseは、OpenCLで記述されたスパース機能を含むソフトウェアライブラリです。
CLRNGは、乱数生成関数を含むOPENCLベースのソフトウェアライブラリです。
Clsmithは、ランダム微分テストと等価モジュロ入力(EMI)の2つの既存のテスト手法を使用し、多くのコア環境であるOpenCLを使用するツールです。その主な機能は、ランダムなOpenCLカーネルの生成であり、言語の多くの機能を行使します。また、デッドコードインジェクションを介してEMIを適用するという新しいアイデアをもたらします。
OCLGRINDは、ICDサポートを備えたOpenCLランタイムを含む仮想OpenCLデバイスシミュレーターです。目標は、OpenCL開発を支援するツールを作成するためのプラットフォームを提供することです。特に、このプロジェクトは現在、メモリアクセスエラーのデバッグ、データレースとバリアの発散の検出、命令のヒストグラムの収集、およびインタラクティブなOpenCLカーネルデバッグのためのユーティリティを実装しています。シミュレータは、LLVM IRの通訳に構築されています。
NVIDIA®NSIGHT™Visual Studio Editionは、GPUコンピューティングをMicrosoft Visual Studioに持ち込む不均一なプラットフォーム向けのアプリケーション開発環境です。 NVIDIA NSIGHT™VSEでは、統合されたGPUカーネルとネイティブCPUコードを構築およびデバッグし、GPUとメモリの状態を検査することができます。
Radeon™GPUプロファイラーは、AMD RDNA™およびGCNハードウェアのDirectX®12、Vulkan®、OpenCL™アプリケーションを最適化するために開発者が使用できるパフォーマンスツールです。
Radeon™GPUアナライザーは、Vulkan®、Directx®、OpenGL®、OpenCL™のコンパイラおよびコード分析ツールです。
AMD Radeon ProRenderは、創造的な専門家が、ほぼすべてのGPU、CPU、および12を超える主要なデジタルコンテンツ作成とCADアプリケーションの驚くほど光エリスティックな画像を作成できるようにする強力な物理ベースのレンダリングエンジンです。
Nvidia Omniverseは、Pixarのユニバーサルシーンの説明とNVIDIA RTXに基づいた3D生産パイプラインの強力でマルチGPUのリアルタイムシミュレーションおよびコラボレーションプラットフォームです。
Opencl™アプリケーション用のIntel®SDKは、オフロード計算集約型のワークロードです。異種の計算アプリケーションをカスタマイズし、カーネルベースのプログラミングでパフォーマンスを加速します。
NVIDIA NGCは、深い学習、機械学習、高性能コンピューティング(HPC)ワークロードのためのGPU最適化ソフトウェアのハブです。
NVIDIA NGCコンテナは、AI、機械学習、HPC用のGPUアクセラレーションソフトウェアの包括的なカタログへの簡単なアクセスを研究者、データ科学者、開発者に提供するレジストリです。これらのコンテナは、Nvidia GPUのオンプレミスとクラウドで最大限に活用しています。
Nvidia Cudnnは、深いニューラルネットワーク用のPrimitivesのGPU加速ライブラリです。 Cudnnは、前後の畳み込み、プーリング、正規化、活性化層などの標準的なルーチンに高度に調整された実装を提供します。 Cudnnは、Caffe2、Chainer、Keras、Matlab、Mxnet、Pytorch、Tensorflowなど、広く使用されている深い学習フレームワークを加速します。
Nvidia Container Toolkitは、ユーザーがGPU加速Dockerコンテナを構築および実行できるツールとライブラリのコレクションです。ツールキットには、コンテナランタイムライブラリとユーティリティが含まれており、NVIDIA GPUを活用するコンテナを自動的に構成します。
トップに戻る
CUDAツールキット。出典:NVIDIA開発者CUDA
CUDAは、グラフィカル処理ユニット(GPU)の一般的なコンピューティングのためにNVIDIAが開発した並行コンピューティングプラットフォームおよびプログラミングモデルです。 CUDAを使用すると、開発者はGPUのパワーを活用することにより、コンピューティングアプリケーションを劇的にスピードアップできます。 GPU加速アプリケーションでは、ワークロードのシーケンシャル部分がCPUで実行され、シングルスレッド用に最適化されています。アプリケーションの計算集中部分は、数千のGPUコアで並行して実行されます。 CUDAを使用する場合、開発者はC、C ++、Fortran、Python、Matlabなどの一般的な言語でプログラムできます。
CUDAツールキットドキュメント
CUDAクイックスタートガイド
WSLのCUDA
TensorflowのCuda GPUサポート
Nvidia Deep Learning Cudnnドキュメント
Nvidia GPUクラウドドキュメント
NVIDIA NGCは、深い学習、機械学習、高性能コンピューティング(HPC)ワークロードのためのGPU最適化ソフトウェアのハブです。
NVIDIA NGCコンテナは、AI、機械学習、HPC用のGPUアクセラレーションソフトウェアの包括的なカタログへの簡単なアクセスを研究者、データ科学者、開発者に提供するレジストリです。これらのコンテナは、Nvidia GPUのオンプレミスとクラウドで最大限に活用しています。
CUDA Toolkitは、高性能GPUアクセラレーションされたアプリケーションを作成するための開発環境を提供するツールとライブラリのコレクションです。 CUDA Toolkitを使用すると、GPUが加速した組み込みシステム、デスクトップワークステーション、エンタープライズデータセンター、クラウドベースのプラットフォーム、HPCスーパーコンピューターでアプリケーションを開発、最適化、展開できます。このツールキットには、GPUに加速ライブラリ、デバッグおよび最適化ツール、C/C ++コンパイラ、X86を含む主要なアーキテクチャにアプリケーションを構築および展開するランタイムライブラリが含まれています。