참고: 이 편리한 확장 Markdown PDF를 사용하면 VSCode에서 이 마크다운 파일을 PDF로 쉽게 변환할 수 있습니다.
애플리케이션 코드를 실행할 때 CPU와 GPU가 함께 작동하는 방식.
통합 메모리 아키텍처
GPU 학습 리소스
전하, 장, 전위
전하와 전기력(쿨롱의 법칙): 전하, 장, 전위
전기장: 전하, 장, 전위
전위에너지, 전위, 전압 : 전하, 장, 전위
회로
옴의 법칙과 저항이 있는 회로: 회로
커패시터가 있는 회로: 회로
자기력, 자기장 및 패러데이의 법칙
자석과 자기력: 자기력, 자기장, 패러데이의 법칙
전류에 의해 생성되는 자기장: 자기력, 자기장, 패러데이의 법칙
전기 모터: 자기력, 자기장, 패러데이 법칙
자속과 패러데이의 법칙
전자기파와 간섭
전자기파 소개: 전자기파와 간섭
전자파의 간섭
기하광학
반사와 굴절: 기하광학
거울: 기하학적 광학
렌즈
선형대수학
가상화
병렬 컴퓨팅
OpenCL 개발
CUDA 개발
알고리즘
기계 학습
딥러닝 개발
컴퓨터 비전 개발
노름
게임 개발
OpenGL 개발
불칸 개발
DirectX 개발
전문 오디오/비디오 개발
3D 그래픽 및 디자인
애플실리콘
핵심 ML 개발
금속개발
MATLAB 개발
C/C++ 개발
파이썬 개발
R 개발
줄리아 개발
맨 위로 돌아가기
GPU(그래픽 처리 장치)는 수천 개의 스레드를 동시에 처리할 수 있는 수백 개의 코어로 구성된 회로입니다. GPUS는 메모리를 신속하게 조작하고 변경하여 디스플레이 장치로 출력할 프레임 버퍼의 이미지 생성을 가속화할 수 있습니다. 이는 임베디드 시스템, 휴대폰, 개인용 컴퓨터, 전문 워크스테이션 및 게임 콘솔에 사용됩니다.
RAM(Random Access Memory)은 임의의 순서로 읽고 변경할 수 있는 컴퓨터 메모리의 한 형태로, 일반적으로 작업 데이터와 기계어 코드를 저장하는 데 사용됩니다. 랜덤 액세스 메모리 장치는 다른 직접 액세스 데이터 저장 매체와 달리 메모리 내부 데이터의 물리적 위치에 관계없이 거의 동일한 시간 내에 데이터 항목을 읽거나 쓸 수 있습니다.
VRAM(비디오 랜덤 액세스 메모리)은 이미지 또는 그래픽 관련 데이터를 저장하기 위해 할당된 RAM입니다. RAM과 동일한 방식으로 작동하여 더 쉬운 액세스와 성능을 위해 특정 데이터를 저장합니다. 이미지 데이터는 먼저 프로세서에서 읽고 VRAM에 기록됩니다. 그런 다음 RAMDAC 또는 RAM 디지털-아날로그 변환기로 변환되어 그래픽 출력으로 표시됩니다.
GDDR(그래픽 이중 데이터 전송률) SDRAM은 그래픽 카드, 게임 콘솔 및 고성능 컴퓨팅에 사용하도록 설계된 고대역폭("이중 데이터 전송률") 인터페이스를 갖춘 동기식 그래픽 랜덤 액세스 메모리(SGRAM) 유형입니다.
IGPU(통합 그래픽 처리 장치)는 전용 그래픽 메모리가 아닌 컴퓨터 시스템 RAM의 일부를 활용하는 CPU(AMD Ryzen APU 또는 Intel HD 그래픽)와 동일한 다이(집적 회로)에 구축된 구성 요소입니다.
텐서는 벡터 공간과 관련된 대수 개체 집합 간의 다중 선형 관계를 설명하는 대수 개체입니다. 텐서가 벡터, 스칼라 및 기타 텐서 간에 매핑할 수 있는 개체입니다.
텐서는 균일한 유형(dtype이라고 함)을 가진 다차원 배열입니다.
Tensor 코어는 필요한 최고 정확도로 과학 컴퓨팅을 가속화하기 위해 TF32, bfloat16, FP16, INT8, INT4 및 FP64와 같이 감소된 정밀도로 훨씬 더 높은 성능을 제공하는 NVIDIA GPU의 AI 추론 가속기입니다.
RT(실시간 광선 추적) 코어는 하드웨어 기반 광선 추적 가속화 BVH(경계 볼륨 계층 구조) 탐색 및 광선/삼각형 교차 테스트(광선 캐스팅) 기능입니다. RT 코어는 SM에서 실행되는 스레드를 대신하여 가시성 테스트를 수행하여 다른 정점, 픽셀 및 컴퓨팅 셰이딩 작업을 처리할 수 있도록 합니다.
중앙 처리 장치(CPU)는 컴퓨터 프로그램으로 구성된 명령을 실행하는 여러 코어로 구성된 회로입니다. CPU는 프로그램의 명령어에 지정된 기본 산술, 논리, 제어 및 입출력(I/O) 작업을 수행합니다. 이는 메인 메모리, I/O 회로, 그래픽 처리 장치(GPU) 등 다른 외부 구성 요소와 다릅니다.
AMD APU(가속 처리 장치)는 AMD(Advanced Micro Devices)의 64비트 마이크로프로세서 시리즈로, 단일 다이에서 중앙 처리 장치(CPU) 및 그래픽 처리 장치(GPU) 역할을 하도록 설계되었습니다.
벡터 프로세서는 명령이 벡터라고 불리는 대규모 1차원 데이터 배열에서 효율적이고 효과적으로 작동하도록 설계된 명령 세트를 구현하는 중앙 처리 장치(CPU)입니다.
디지털 신호 처리(DSP)는 아날로그 또는 디지털 신호를 수정하기 위해 디지털 컴퓨터를 적용한 것입니다. 비디오/오디오/데이터 통신 및 네트워킹, 의료 영상 및 컴퓨터 비전, 음성 합성 및 코딩, 디지털 오디오 및 비디오, 복잡한 시스템 및 산업 프로세스 제어를 포함한 많은 응용 분야에서 널리 사용됩니다.
ISP(이미지 신호 처리)는 특수 유형의 미디어 프로세서를 사용하여 노이즈 감소, 자동 노출, 자동 초점, 자동 화이트 밸런스, HDR 보정, 이미지 선명화 등의 작업을 수행하여 이미지를 디지털 형식으로 변환하는 프로세스입니다.
ASIC(주문형 집적 회로)은 일반적인 용도가 아닌 임베디드 시스템, 휴대폰, 개인용 컴퓨터, 전문 워크스테이션의 특정 용도로 맞춤화된 집적 회로(IC) 칩입니다.
SIMD(Single Instruction, Multiple Data)는 여러 데이터 포인트에 대해 동일한 작업을 동시에 수행하는 여러 처리 요소가 있는 컴퓨터를 설명하는 일종의 병렬 처리입니다.
GPU란 무엇입니까? 그래픽 처리 장치 정의 | 인텔
딥러닝 연구소 및 교육 솔루션 | 엔비디아
딥러닝 온라인 강좌 | 엔비디아
기존 대학 강좌 | 엔비디아 개발자
GPU를 사용하여 딥 러닝 확장 및 속도 향상 | edX
최고의 GPU 온라인 강좌 | 코세라
CUDA GPU 프로그래밍 초급부터 고급까지 | 유데미
Vulkan의 GPU 컴퓨팅 | 유데미
GPU 아키텍처 코스 | 워싱턴대학교
맨 위로 돌아가기
- Charge and electric force (Coulomb's law): Electric charge, field, and potential - Electric field: Electric charge, field, and potential - Electric potential energy, electric potential, and voltage: Electric charge, field, and potential
전기적 위치 에너지. 출처: 스파크펀
맨 위로 돌아가기
- Ohm's law and circuits with resistors: Circuits - Circuits with capacitors: Circuits
전기 회로. 출처: sdsu-물리학
회로의 상징.출처: andrewpover.co.uk
맨 위로 돌아가기
- Magnets and Magnetic Force: Magnetic forces, magnetic fields, and Faraday's law - Magnetic field created by a current: Magnetic forces, magnetic fields, and Faraday's law - Electric motors: Magnetic forces, magnetic fields, and Faraday's law - Magnetic flux and Faraday's law
자기장. 출처: vecteezy
암페어의 법칙. 출처: sdsu-물리학
패러디의 법칙. 출처: sdsu-물리학
맨 위로 돌아가기
- Introduction to electromagnetic waves: Electromagnetic waves and interference - Interference of electromagnetic waves
전자기파. 출처 : 차이
EMI 스펙트럼. 출처: Electrical4u
맨 위로 돌아가기
- Reflection and refraction: Geometric optics - Mirrors: Geometric optics - Lenses
기하학적 광학 - 광선 추적. 출처: sdsu-물리학
기하학적 광학 - 반사. 출처: sdsu-물리학
맨 위로 돌아가기
선형 대수학은 벡터와 행렬의 수학입니다. 이 가이드의 유일한 전제 조건은 숫자, 변수, 방정식과 같은 고등학교 수학 개념과 실수에 대한 기본 산술 연산(덧셈(+로 표시), 뺄셈(-로 표시), 곱셈(암묵적으로 표시), 나눗셈(분수). 또한 실수를 입력으로 취하고 실수를 출력으로 제공하는 함수(f : R → R)에도 익숙해야 합니다.
선형대수학 - 온라인 강좌 | 하버드 대학교
선형대수학 | MIT 개방형 학습 라이브러리
선형대수학 - 칸아카데미
Coursera의 최고의 선형 대수 강좌
기계 학습을 위한 수학: Coursera의 선형 대수학
Udemy의 최고의 선형 대수 강좌
edX의 온라인 강좌와 수업으로 선형 대수학을 배워보세요
데이터 과학 수학: edX의 선형 대수 과정
25개 강의의 선형대수학 | UC 데이비스
선형대수학 | UC 샌디에이고 확장
기계 학습을 위한 선형 대수학 | UC 샌디에이고 확장
선형대수학 소개, 대화형 온라인 비디오 | 볼프람
선형대수학 자료 | 다트머스
이제 벡터에 대한 수학 연산을 정의합니다. 벡터 ~u = (u1, u2, u3) 및 ~v = (v1, v2, v3)에 대해 수행할 수 있는 작업은 덧셈, 뺄셈, 스케일링, 노름(길이), 내적 및 교차곱입니다.
두 벡터의 내적과 외적은 두 벡터 사이의 각도 θ로 설명할 수도 있습니다.
벡터 연산. 출처: 슬라이드서버
벡터 연산. 출처 : 핀터레스트
행렬 전체를 A로 표시하고 해당 항목을 aij로 참조합니다. 행렬에 대해 정의된 수학적 연산은 다음과 같습니다.
• 행렬식(det(A) 또는 |A|로 표시) 행렬 곱은 교환 연산이 아닙니다.
매트릭스 운영. 출처: SDSU 물리학
매트릭스 연산을 허용하는 모듈을 확인하세요. 출처: DPS 개념
행렬-벡터 곱은 행렬 곱의 중요한 특수 사례입니다.
행렬-벡터 곱을 해석하는 데는 근본적으로 다르지만 동등한 두 가지 방법이 있습니다. 열 그림(C)에서 행렬 A에 벡터 ~x를 곱하면 행렬 열의 선형 결합이 생성됩니다. y = A x = x1A[:,1] + x2A[:,2], 여기서 A[:,1] 및 A[:,2]는 행렬 A의 첫 번째 열과 두 번째 열입니다. 행 그림(R)에서 행렬 A에 벡터 ~x를 곱하면 계수가 있는 열 벡터가 생성됩니다. 행의 내적과 같습니다. 벡터 ~x를 갖는 행렬.
행렬-벡터 곱. 출처: 위키미디어
매트릭스-벡터 제품. 출처: mathisfun
행렬-벡터 곱은 선형 대수학 연구의 핵심 개념 중 하나인 선형 변환의 개념을 정의하는 데 사용됩니다. 행렬 A ∈ R m×n에 의한 곱셈은 n 벡터를 입력으로 취하고 m 벡터를 출력으로 생성하는 선형 변환 TA를 계산하는 것으로 생각할 수 있습니다.
선형 변환. 출처: 슬라이드서버
R^2의 선형 변환을 위한 기본 행렬입니다. 출처:쿼라
벡터 공간에 대한 선형 대수학의 기본 정리. 출처: 위키미디어
선형대수학의 기본정리. 출처: 볼프람
그래프를 통한 선형 방정식 시스템. 출처: 슬라이드쉐어
행렬 방정식으로서의 방정식 시스템. 출처: mathisfun
이 섹션에서는 역행렬을 계산하는 여러 가지 다른 접근 방식을 살펴보겠습니다. 역행렬은 고유하므로 역행렬을 찾기 위해 어떤 방법을 사용하더라도 항상 동일한 답을 얻게 됩니다.
2x2 매트릭스의 역. 출처 : 핀터레스트
역함수를 계산하는 한 가지 접근 방식은 Gauss-Jordan 제거 절차를 사용하는 것입니다.
Elementray 행 작업. 출처: 유튜브
행렬에 대해 수행하는 모든 행 연산은 기본 행렬을 왼쪽으로 곱하는 것과 동일합니다.
기본 행렬. 출처: SDSU 물리학
행렬의 역행렬을 찾는 것은 Transpose 방법을 사용하는 것입니다.
행렬의 전치. 출처: 슬라이드서버
이 섹션에서는 선형 대수학의 다른 중요한 주제에 대해 논의합니다.
직관적으로 기저란 벡터 공간의 좌표계로 사용할 수 있는 모든 벡터 집합을 의미합니다. 여러분은 두 개의 직교 축인 x축과 y축으로 구성된 xy 평면의 표준 기반에 대해 확실히 잘 알고 있습니다.
기초. 출처: 위키미디어
기준 변경. 출처: 위키미디어
선형 변환의 행렬 표현. 출처: 슬라이드서버
벡터 공간의 차원은 해당 벡터 공간의 기저에 있는 벡터 수로 정의됩니다. 다음 벡터 공간 S = 범위{(1, 0, 0),(0, 1, 0),(1, 1, 0)}을 고려하십시오. 공간이 세 개의 벡터로 표현되는 것을 보면 S가 3차원이라고 생각할 수도 있습니다. 그러나 세 개의 벡터는 선형 독립이 아니므로 S의 기초를 형성하지 않기 때문에 그렇지 않습니다. 두 개의 벡터는 S의 모든 벡터를 설명하는 데 충분합니다. S = 스팬{(1, 0, 0),(0, 1, 0)}이라고 쓸 수 있으며, 이 두 벡터는 선형적으로 독립이므로 기저를 형성하고 희미(S) = 2라는 것을 알 수 있습니다. 벡터 공간의 기초를 찾는 절차. m개의 벡터 V =span{~v1, ~v2, . . . , ~vm} 그리고 V에 대한 기저와 V의 차원을 찾으라는 메시지가 표시됩니다. V의 기저를 찾으려면 V에 걸쳐 있는 선형 독립 벡터 세트를 찾아야 합니다. Gauss-Jordan 소거 절차를 사용하여 다음을 수행할 수 있습니다. 이 임무를 완수하세요. 벡터 ~vi를 행렬 M의 행으로 씁니다. 벡터 공간 V는 행렬 M의 행 공간에 해당합니다. 다음으로 행 연산을 사용하여 행렬 M의 RREF(Reduced Row Echelon Form)를 찾습니다. 행렬의 행 공간을 변경하지 않으면 행렬 M의 축소된 행 사다리꼴 형태의 행 공간은 원래 벡터 집합의 행 공간과 동일합니다. 행렬의 RREF에서 0이 아닌 행은 벡터 공간 V의 기초를 형성하고 0이 아닌 행의 개수는 V의 차원입니다.
기초와 차원. 출처: 슬라이더서버
섹션 II-E에서 정의한 행렬의 기본 벡터 공간인 열 공간 C(A), 영 공간 N(A) 및 행 공간 R(A)을 떠올려 보세요. 표준 선형 대수 시험 문제는 특정 행렬 A를 제공하고 각 기본 공간에 대한 차원과 기초를 찾도록 요청하는 것입니다. 이전 섹션에서 우리는 행 공간 R(A)의 기초를 형성하는 선형 독립 벡터 세트를 "증류"하는 데 사용할 수 있는 Gauss-Jordan 소거법을 기반으로 하는 절차를 설명했습니다. 이제 예제를 통해 이 절차를 설명하고 행렬 A의 RREF를 사용하여 C(A) 및 N(A)에 대한 기본을 찾는 방법도 보여줍니다.
행 공간과 열 공간. 출처: 슬라이드쉐어
행 공간과 열 공간. 출처: 슬라이드쉐어
순위 및 무효. 출처: 슬라이드쉐어
가역 행렬과 다음 정리에 따라 형식화되지 않은 행렬 사이에는 중요한 차이가 있습니다. 정리. n×n 행렬 A의 경우 다음 명령문은 동일합니다.
가역행렬 정리. 출처: SDSU 물리학
det(A) 또는 |A|로 표시되는 행렬식은 행렬이 역행렬인지 여부를 확인하는 데 사용되는 행렬의 항목을 결합하는 특별한 방법입니다.
정사각형 행렬의 행렬식. 출처: 스택익스체인지
행렬의 결정자. 출처: 온라인수학학습
행렬의 고유벡터 집합은 행렬의 동작이 간단한 스케일링으로 설명되는 특수한 입력 벡터 집합입니다. 행렬에 고유 벡터 중 하나를 곱하면 출력은 동일한 고유 벡터에 상수 A e λ = λ e 를 곱한 것과 같습니다. 상수 λ를 A의 고유값이라고 합니다.
일반화된 고유 벡터. 출처: 유튜브
선형 회귀는 관측된 데이터에 선형 방정식을 적용하여 두 변수 간의 관계를 모델링하는 접근 방식입니다. 한 변수는 설명 변수로 간주되고 다른 변수는 종속 변수로 간주됩니다.
다중 선형 회귀. 출처 : 매체
맨 위로 돌아가기
HVM(Hardware Virtual Machine)은 마치 베어메탈 하드웨어에서 실행되는 것처럼 아무런 수정 없이 가상 머신 위에서 직접 운영 체제를 실행할 수 있는 기능을 제공하는 가상화 유형입니다.
PV(ParaVirtualization)는 Xen 프로젝트 팀이 도입한 효율적이고 가벼운 가상화 기술로, 나중에 다른 가상화 솔루션에 채택되었습니다. PV는 호스트 CPU의 가상화 확장이 필요하지 않으므로 하드웨어 지원 가상화를 지원하지 않는 하드웨어 아키텍처에서 가상화를 가능하게 합니다.
NFV(네트워크 기능 가상화)는 네트워크 어플라이언스 하드웨어를 가상 머신으로 교체하는 것입니다. 가상 머신은 하이퍼바이저를 사용하여 라우팅 및 로드 밸런싱과 같은 네트워킹 소프트웨어 및 프로세스를 실행합니다. NFV를 사용하면 라우터 및 방화벽과 같은 전용 하드웨어에서 통신 서비스를 분리할 수 있습니다. 이러한 분리는 네트워크 운영이 새로운 하드웨어를 설치하지 않고도 새로운 서비스를 동적으로 제공할 수 있음을 의미합니다. 네트워크 기능 가상화를 통해 네트워크 구성 요소를 배포하는 데는 기존 네트워킹 솔루션처럼 몇 달이 걸리던 것과 비교하면 몇 시간 밖에 걸리지 않습니다.
SDN(소프트웨어 정의 네트워킹)은 소프트웨어 기반 컨트롤러 또는 API(애플리케이션 프로그래밍 인터페이스)를 사용하여 기본 하드웨어 인프라와 통신하고 네트워크의 트래픽을 전달하는 네트워킹 접근 방식입니다. 이 모델은 전용 하드웨어 장치(라우터 및 스위치)를 사용하여 네트워크 트래픽을 제어하는 기존 네트워크의 모델과 다릅니다.
VIM(Virtualized Infrastructure Manager)은 고성능 라이프사이클 관리를 통해 서비스를 제공하고 비용을 절감합니다. NFVI(NFV 인프라)를 구성하는 소프트웨어 및 하드웨어의 전체 라이프사이클을 관리하고 물리적 리소스와 가상 리소스 모두의 실시간 인벤토리 및 할당 계획을 유지합니다.
MANO(관리 및 오케스트레이션)는 ETSI NFV에 맞춰진 오픈 소스 NFV 관리 및 오케스트레이션(MANO) 소프트웨어 스택을 개발하기 위해 ETSI가 주최하는 이니셔티브입니다. ETSI NFV 아키텍처 프레임워크의 두 가지 주요 구성 요소는 NFV MANO로 알려진 NFV Orchestrator와 VNF Manager입니다.
Magma는 네트워크 사업자에게 개방적이고 유연하며 확장 가능한 모바일 코어 네트워크 솔루션을 제공하는 오픈 소스 소프트웨어 플랫폼입니다. 이들의 임무는 서비스 제공업체가 비용 효율적이고 확장 가능한 통신업체급 네트워크를 구축할 수 있도록 하여 세상을 더 빠른 네트워크에 연결하는 것입니다. Magma는 3GPP 세대(2G, 3G, 4G 또는 향후 5G 네트워크)이며 네트워크에 구애받지 않는 액세스(셀룰러 또는 WiFi)입니다. 최소한의 개발 및 배포 노력으로 무선 액세스 네트워크를 유연하게 지원할 수 있습니다.
OpenRAN은 소프트웨어 정의 기능 간의 개방형 인터페이스를 갖춘 범용 플랫폼에 통합된 지능형 무선 액세스 네트워크(RAN)입니다. 개방형 RANecosystem은 다중 공급업체 배포에 대한 완전한 개방성을 통해 엄청난 유연성과 상호 운용성을 제공합니다.
Open vSwitch(OVS)는 오픈 소스 Apache 2.0 라이센스에 따라 라이센스가 부여된 오픈 소스 프로덕션 품질의 다중 계층 가상 스위치입니다. 이는 표준 관리 인터페이스 및 프로토콜(NetFlow, sFlow, IPFIX, RSPAN, CLI, LACP, 802.1ag)을 계속 지원하는 동시에 프로그래밍 방식 확장을 통해 대규모 네트워크 자동화를 가능하게 하도록 설계되었습니다.
Edge는 엔터프라이즈 애플리케이션을 IoT 장치 또는 로컬 엣지 서버와 같은 데이터 소스에 더 가깝게 만드는 분산 컴퓨팅 프레임워크입니다. 소스의 데이터에 대한 이러한 근접성은 더 빠른 통찰력, 향상된 응답 시간 및 더 나은 대역폭 가용성을 포함하여 강력한 비즈니스 이점을 제공할 수 있습니다.
MEC(Multi-access Edge Computing)는 ETSI 내의 ISG(산업 사양 그룹)로, 다중 공급업체 멀티 전반에 걸쳐 공급업체, 서비스 제공업체 및 타사의 애플리케이션을 효율적이고 원활하게 통합할 수 있는 표준화된 개방형 환경을 만듭니다. -엣지 컴퓨팅 플랫폼에 액세스합니다.
VNF(가상화된 네트워크 기능)는 인터페이스가 잘 정의되어 있고 정의된 방식으로 하나 이상의 구성 요소 네트워킹 기능을 제공하는 NFV(네트워크 기능 가상화) 구현에 사용되는 소프트웨어 애플리케이션입니다. 예를 들어 보안 VNF는 NAT(Network Address Translation) 및 방화벽 구성 요소 기능을 제공합니다.
CNF(클라우드 네이티브 네트워크 기능)는 컨테이너 내부에서 실행되도록 설계 및 구현된 네트워크 기능입니다. CNF는 Kubernetes(K8s) 수명주기 관리, 민첩성, 탄력성, 관찰 가능성을 포함한 모든 클라우드 네이티브 아키텍처 및 운영 원칙을 상속합니다.
PNF(Physical Network Function)는 가상화되지 않은 물리적 네트워크 노드입니다. PNF와 VNF(Virtualized Network Function) 모두 전체 네트워크 서비스를 구성하는 데 사용될 수 있습니다.
NFVI(네트워크 기능 가상화 인프라)는 전체 NFV 아키텍처의 기초입니다. VNF를 호스팅하는 물리적 컴퓨팅, 스토리지 및 네트워킹 하드웨어를 제공합니다. 각 NFVI 블록은 NFVI 노드로 간주할 수 있으며 많은 노드를 지리적으로 배포하고 제어할 수 있습니다.
VBS(가상화 기반 보안)는 일반 운영 체제에서 보안 메모리 영역을 생성하고 격리하는 하드웨어 가상화 기능입니다.
HVCI(하이퍼바이저 적용 코드 무결성)는 Hyper-V와 같은 하이퍼바이저가 하드웨어 가상화를 사용하여 악의적이거나 확인되지 않은 코드의 삽입 및 실행으로부터 커널 모드 프로세스를 보호하는 메커니즘입니다. 코드 무결성 검증은 악성 소프트웨어의 공격에 강한 안전한 환경에서 수행되며, 커널 모드에 대한 페이지 권한은 하이퍼바이저에 의해 설정 및 유지됩니다.
KVM(커널 기반 가상 머신용)은 가상화 확장(Intel VT 또는 AMD-V)이 포함된 x86 하드웨어 기반 Linux용 전체 가상화 솔루션입니다. 이는 핵심 가상화 인프라를 제공하는 로드 가능한 커널 모듈 kvm.ko와 프로세서별 모듈 kvm-intel.ko 또는 kvm-amd.ko로 구성됩니다.
QEMU는 휴대용 동적 변환기를 사용하는 빠른 프로세서 에뮬레이터입니다. QEMU는 프로세서와 다양한 주변 장치를 포함한 전체 시스템을 에뮬레이트합니다. PC를 재부팅하지 않고 다른 운영 체제를 시작하거나 시스템 코드를 디버깅하는 데 사용할 수 있습니다.
Hyper-V를 사용하면 물리적 호스트 위에서 가상화된 컴퓨터 시스템을 실행할 수 있습니다. 이러한 가상화된 시스템은 물리적 컴퓨터 시스템처럼 사용 및 관리될 수 있지만 가상화되고 격리된 환경에 존재합니다. 하이퍼바이저라는 특수 소프트웨어는 가상 시스템과 물리적 하드웨어 리소스 간의 액세스를 관리합니다. 가상화를 사용하면 컴퓨터 시스템을 빠르게 배포할 수 있고 시스템을 이전에 알려진 양호한 상태로 신속하게 복원할 수 있으며 물리적 호스트 간에 시스템을 마이그레이션할 수 있습니다.
VirtManager는 libvirt를 통해 가상 머신을 관리하기 위한 그래픽 도구입니다. 대부분의 사용법은 QEMU/KVM 가상 머신에서 이루어지지만 Xen 및 libvirt LXC 컨테이너도 잘 지원됩니다. 모든 libvirt 드라이버에 대한 일반적인 작업이 작동해야 합니다.
oVirt는 전체 엔터프라이즈 인프라를 관리하도록 설계된 오픈 소스 분산 가상화 솔루션입니다. oVirt는 신뢰할 수 있는 KVM 하이퍼바이저를 사용하며 libvirt, Gluster, PatternFly 및 Ansible을 포함한 여러 다른 커뮤니티 프로젝트를 기반으로 구축되었습니다. Red Hat Enterprise Virtualization의 기반이 되는 커뮤니티 프로젝트로 Red Hat에서 설립하여 가상 머신, 컴퓨팅의 중앙 집중식 관리를 허용합니다. , 스토리지 및 네트워킹 리소스를 플랫폼 독립적인 액세스 기능을 갖춘 사용하기 쉬운 웹 기반 프런트엔드에서 제공합니다.
HyperKit은 애플리케이션에 하이퍼바이저 기능을 내장하기 위한 툴킷입니다. 여기에는 경량 가상 머신 및 컨테이너 배포에 최적화된 xhyve/bhyve 기반의 완전한 하이퍼바이저가 포함되어 있습니다. VPNKit 및 DataKit과 같은 상위 수준 구성 요소와 인터페이스되도록 설계되었습니다. HyperKit은 현재 Mac용 Docker Desktop의 핵심 구성 요소인 Hypervisor.framework를 사용하여 macOS만 지원합니다.
인텔® 그래픽 가상화 기술(인텔® GVT)은 인텔 프로세서 그래픽(Broadwell 이상)을 탑재한 4세대 인텔 코어(TM) 프로세서부터 시작하여 매개 패스스루를 갖춘 완전한 GPU 가상화 솔루션입니다. 여러 게스트 가상 머신용 GPU를 가상화하는 데 사용할 수 있으며, 가상 머신에서 기본에 가까운 그래픽 성능을 효과적으로 제공하면서도 호스트가 가상화된 GPU를 정상적으로 사용할 수 있도록 합니다.
Apple Hypervisor는 타사 커널 확장 없이 경량 하이퍼바이저 위에 가상화 솔루션을 구축하는 프레임워크입니다. 하이퍼바이저는 커널 확장(KEXT)을 작성하지 않고도 사용자 공간에서 가상화 기술과 상호 작용할 수 있도록 C API를 제공합니다. 결과적으로 이 프레임워크를 사용하여 만든 앱은 Mac App Store 배포에 적합합니다.
Apple Virtualization Framework는 Apple Silicon 및 Intel 기반 Mac 컴퓨터에서 가상 머신을 생성하고 관리하기 위한 고급 API를 제공하는 프레임워크입니다. 이 프레임워크는 사용자가 정의한 사용자 정의 환경에서 Linux 기반 운영 체제를 부팅하고 실행하는 데 사용됩니다. 또한 네트워크, 소켓, 직렬 포트, 스토리지, 엔트로피 및 메모리 풍선 장치를 포함한 다양한 장치 유형에 대한 표준 인터페이스를 정의하는 Virtio 사양을 지원합니다.
Apple 반가상화 그래픽 프레임워크는 가상 머신(이하 게스트)에서 실행되는 macOS용 하드웨어 가속 그래픽을 구현하는 프레임워크입니다. 운영 체제는 게스트 내부에서 실행되는 그래픽 드라이버를 제공하여 호스트 운영 체제의 프레임워크와 통신하여 Metal 가속 그래픽을 활용합니다.
Cloud Hypervisor는 KVM 위에서 실행되는 오픈 소스 VMM(Virtual Machine Monitor)입니다. 이 프로젝트는 제한된 하드웨어 아키텍처 및 플랫폼 세트를 기반으로 최신 클라우드 워크로드를 독점적으로 실행하는 데 중점을 둡니다. 클라우드 워크로드는 일반적으로 클라우드 공급자 내부의 고객이 실행하는 워크로드를 의미합니다. Cloud Hypervisor는 Rust로 구현되었으며 Rust-vmm 상자를 기반으로 합니다.
VMware vSphere Hypervisor는 서버를 가상화하는 베어메탈 하이퍼바이저입니다. IT 인프라 관리에 소요되는 시간과 비용을 절약하면서 애플리케이션을 통합할 수 있습니다.
Xen은 서버 가상화, IaaS(Infrastructure as a Services), 데스크탑 가상화, 보안 애플리케이션, 임베디드 및 하드웨어 어플라이언스, 자동차/항공 등 다양한 상용 및 오픈 소스 애플리케이션에서 가상화를 발전시키는 데 중점을 두고 있습니다.
Ganeti는 Xen, KVM 및 기타 오픈 소스 소프트웨어와 같은 기존 가상화 기술을 기반으로 구축된 가상 머신 클러스터 관리 도구입니다. 일단 설치되면 도구는 가상 인스턴스(Xen DomU) 관리를 맡습니다.
Packer는 단일 소스 구성에서 여러 플랫폼에 대해 동일한 머신 이미지를 생성하기 위한 오픈 소스 도구입니다. Packer는 가볍고 모든 주요 운영 체제에서 실행되며 성능이 뛰어나 여러 플랫폼용 머신 이미지를 병렬로 생성합니다. Packer는 Chef나 Puppet과 같은 구성 관리를 대체하지 않습니다. 실제로 이미지를 구축할 때 Packer는 Chef 또는 Puppet과 같은 도구를 사용하여 이미지에 소프트웨어를 설치할 수 있습니다.
Vagrant는 단일 워크플로에서 가상 머신 환경을 구축하고 관리하기 위한 도구입니다. 사용하기 쉬운 작업 흐름과 자동화에 중점을 둔 Vagrant는 개발 환경 설정 시간을 줄이고 생산 패리티를 높이며 "내 컴퓨터에서 작업"을 과거의 유물로 변명하게 만듭니다. 업계 표준 기술을 기반으로 구축되고 일관된 단일 워크플로우로 제어되어 구성이 쉽고 재현 가능하며 이동 가능한 작업 환경을 제공하여 귀하와 팀의 생산성과 유연성을 극대화하는 데 도움을 줍니다.
Parallels Desktop은 Mac(새로운 Apple M1 칩 포함) 및 ChromeOS에서 Windows/Linux를 실행하기 위한 가장 빠르고, 쉽고, 강력한 응용프로그램을 제공하는 데스크탑 하이퍼바이저입니다.
VMware Fusion은 Mac의 개발자 및 IT 전문가에게 데스크톱 및 '서버' 가상 머신, 컨테이너 및 Kubernetes 클러스터를 제공하는 데스크톱 하이퍼바이저입니다.
VMware Workstation은 x64 버전의 Windows 및 Linux 운영 체제에서 실행되는 호스팅된 하이퍼바이저입니다. 이를 통해 사용자는 단일 물리적 머신에 가상 머신을 설정하고 실제 머신과 함께 동시에 사용할 수 있습니다.
맨 위로 돌아가기
병렬 컴퓨팅은 두 개 이상의 프로세서(코어, 컴퓨터)가 동시에 작동하여 단일 문제를 해결하는 컴퓨팅 환경입니다. 큰 문제는 종종 작은 문제로 나누어 동시에 해결될 수 있습니다. 병렬 컴퓨팅에는 [비트 수준]https://en.wikipedia.org/wiki/Bit-level_parallelism), 명령 수준, 데이터 및 작업 병렬 처리 등 여러 가지 형태가 있습니다.
가속 컴퓨팅 - 교육 | 엔비디아 개발자
CUDA Python 과정을 통한 가속 컴퓨팅의 기초 | 엔비디아
최고의 온라인 병렬 컴퓨팅 강좌 | 코세라
최고의 온라인 병렬 컴퓨팅 강좌 | 유데미
과학 컴퓨팅 마스터클래스: 병렬 및 분산
Python에서 병렬 컴퓨팅 배우기 | 유데미
Vulkan의 GPU 컴퓨팅 | 유데미
고성능 컴퓨팅 강좌 | 유다시티
병렬 컴퓨팅 강좌 | 스탠포드 온라인
병렬 컴퓨팅 | MIT 오픈코스웨어
다중 스레드 병렬 처리: 언어 및 컴파일러 | MIT 오픈코스웨어
CUDA를 사용한 병렬 컴퓨팅 | Pluralsight
HPC 아키텍처 및 시스템 설계 | 인텔
MATLAB Parallel Server™는 MATLAB® 프로그램과 Simulink® 시뮬레이션을 클러스터와 클라우드로 확장할 수 있는 도구입니다. 데스크톱에서 프로그램과 시뮬레이션의 프로토타입을 만든 다음, 기록하지 않고도 클러스터와 클라우드에서 실행할 수 있습니다. MATLAB Parallel Server는 배치 작업, 대화형 병렬 계산, 대규모 행렬을 사용한 분산 계산을 지원합니다.
Parallel Computing Toolbox™는 멀티코어 프로세서, GPU 및 컴퓨터 클러스터를 사용하여 계산 및 데이터 집약적인 문제를 해결할 수 있는 도구입니다. 병렬 for 루프, 특수 배열 유형 및 병렬화된 수치 알고리즘과 같은 고급 구조를 사용하면 CUDA 또는 MPI 프로그래밍 없이 MATLAB® 응용 프로그램을 병렬화할 수 있습니다. 툴박스를 사용하면 MATLAB 및 기타 툴박스에서 병렬 지원 함수를 사용할 수 있습니다. Simulink®와 함께 도구 상자를 사용하여 모델의 여러 시뮬레이션을 병렬로 실행할 수 있습니다. 프로그램과 모델은 대화형 모드와 배치 모드 모두에서 실행될 수 있습니다.
Statistics and Machine Learning Toolbox™는 데이터를 설명, 분석, 모델링하는 기능과 앱을 제공하는 도구입니다. 탐색적 데이터 분석을 위해 기술 통계, 시각화 및 클러스터링을 사용할 수 있습니다. 확률 분포를 데이터에 맞추십시오. 몬테카를로 시뮬레이션을 위한 난수를 생성하고 가설 테스트를 수행합니다. 회귀 및 분류 알고리즘을 사용하면 분류 및 회귀 학습기 앱을 사용하여 대화형으로 또는 AutoML을 사용하여 프로그래밍 방식으로 데이터에서 추론을 도출하고 예측 모델을 구축할 수 있습니다.
OpenMP는 C/C++ 및 Fortran에서 다중 플랫폼 공유 메모리 병렬 프로그래밍을 지원하는 API입니다. OpenMP API는 데스크톱에서 슈퍼컴퓨터에 이르는 플랫폼에서 병렬 애플리케이션을 개발하기 위한 간단하고 유연한 인터페이스를 갖춘 이식 가능하고 확장 가능한 모델을 정의합니다.
CUDA®는 그래픽 처리 장치(GPU)의 일반 컴퓨팅을 위해 NVIDIA가 개발한 병렬 컴퓨팅 플랫폼이자 프로그래밍 모델입니다. CUDA를 사용하면 개발자는 GPU의 성능을 활용하여 컴퓨팅 애플리케이션의 속도를 획기적으로 높일 수 있습니다.
MPI(메시지 전달 인터페이스)는 병렬 컴퓨팅 아키텍처에서 작동하도록 설계된 표준화되고 이식 가능한 메시지 전달 표준입니다.
MS-MPI(Microsoft MPI)는 Windows 플랫폼에서 병렬 애플리케이션을 개발하고 실행하기 위한 메시지 전달 인터페이스 표준을 Microsoft에서 구현한 것입니다.
Slurm은 고성능 컴퓨팅의 까다로운 요구 사항을 충족하도록 특별히 설계된 무료 오픈 소스 워크로드 관리자입니다.
휴대용 배치 시스템(PBS) Pro는 생산성을 향상하고 활용도와 효율성을 최적화하며 클러스터, 클라우드 및 슈퍼컴퓨터의 관리를 단순화하도록 설계된 빠르고 강력한 워크로드 관리자입니다.
AWS ParemalCluster는 AWS 지원 오픈 소스 클러스터 관리 도구로 AWS에서 고성능 컴퓨팅 (HPC) 클러스터를 쉽게 배포하고 관리 할 수 있습니다. ParallelCluster는 간단한 텍스트 파일을 사용하여 자동화되고 안전한 방식으로 HPC 응용 프로그램에 필요한 모든 리소스를 모델링하고 제공합니다.
Numba는 Anaconda, Inc가 후원하는 Python 용 오픈 소스의 Numpy-Aware 최적화 컴파일러입니다. LLVM 컴파일러 프로젝트를 사용하여 Python Syntax에서 기계 코드를 생성합니다. NUMBA는 많은 Numpy 함수를 포함하여 수치 적으로 집중된 파이썬의 큰 부분 집합을 컴파일 할 수 있습니다. 또한 NUMBA는 루프의 자동 병렬화, GPU로 인한 코드의 생성 및 ufuncs 및 C 콜백 생성을 지원합니다.
Chainer는 유연성을 목표로하는 파이썬 기반 딥 러닝 프레임 워크입니다. 정의 별 접근 방식 (동적 계산 그래프)과 신경 네트워크를 구축하고 훈련시키는 객체 지향 고급 API를 기반으로 자동 차별화 API를 제공합니다. 또한 고성능 교육 및 추론을 위해 Cupy를 사용하는 Cuda/Cudnn을 지원합니다.
Xgboost는 매우 효율적이고 유연하며 휴대용으로 설계된 최적화 된 분산 그라디언트 부스트 라이브러리입니다. 그라디언트 부스트 프레임 워크에서 기계 학습 알고리즘을 구현합니다. Xgboost는 빠르고 정확한 방식으로 많은 데이터 과학 문제를 해결하는 평행 트리 부스트 (GBDT, GBM이라고도 함)를 제공합니다. AWS, GCE, AZURE 및 원사 클러스터를 포함한 여러 기계에 대한 분산 교육을 지원합니다. 또한 Flink, Spark 및 기타 클라우드 데이터 흐름 시스템과 통합 될 수 있습니다.
CUML은 기계 학습 알고리즘 및 수학 프리미티브 기능을 다른 Rapids 프로젝트와 공유하는 라이브러리 제품군입니다. CUML을 통해 데이터 과학자, 연구원 및 소프트웨어 엔지니어는 CUDA 프로그래밍의 세부 사항을 사용하지 않고 GPU에서 기존의 표식 ML 작업을 실행할 수 있습니다. 대부분의 경우 Cuml의 Python API는 Scikit-Learn의 API와 일치합니다.
Apache Cassandra ™는 성능을 손상시키지 않고 확장 성 및 고 가용성을 위해 수천 개의 회사가 신뢰하는 오픈 소스 NOSQL 분산 데이터베이스입니다. Cassandra는 상품 하드웨어 또는 클라우드 인프라에서 선형 확장 성을 제공하고 입증 된 오류가 발생하여 미션 크리티컬 데이터를위한 완벽한 플랫폼입니다.
Apache Flume은 대량의 스트리밍 이벤트 데이터를 효율적으로 수집, 집계 및 이동하기위한 분산되고 신뢰할 수 있으며 사용 가능한 서비스입니다.
Apache Mesos는 분산 응용 프로그램 또는 프레임 워크에서 효율적인 리소스 격리 및 공유를 제공하는 클러스터 관리자입니다. 동적 공유 노드 풀에서 Hadoop, Jenkins, Spark, Aurora 및 기타 프레임 워크를 실행할 수 있습니다.
Apache HBase ™는 오픈 소스, NOSQL, 분산 빅 데이터 스토어입니다. 페타 바이트의 데이터에 대한 무작위, 엄격하게 일관된 실시간 액세스를 가능하게합니다. HBase는 크고 드문 드문 데이터 세트를 처리하는 데 매우 효과적입니다. HBase는 Hadoop의 Apache Mapreduce 프레임 워크에 대한 직접 입력 및 출력 역할을하며 Apache Phoenix와 협력하여 HBase 테이블을 통해 SQL 유사 쿼리를 가능하게합니다.
HADOOP 분산 파일 시스템 (HDFS)은 분산 파일 시스템으로 상품 하드웨어에서 실행되는 대형 데이터 세트를 처리합니다. 단일 Apache Hadoop 클러스터를 수백 (수천 개)의 노드로 확장하는 데 사용됩니다. HDFS는 Apache Hadoop의 주요 구성 요소 중 하나이며, 다른 하나는 Mapreduce와 원사입니다.
Apache Arrow는 평평하고 계층 적 데이터를위한 언어 독립적 인 원주 메모리 형식으로, CPU 및 GPU와 같은 최신 하드웨어에서 효율적인 분석 작업을 위해 구성됩니다.
Apache Spark ™는 대규모 데이터 처리를위한 통합 분석 엔진입니다. 스칼라, 자바, 파이썬 및 R에서 고급 API와 데이터 분석을위한 일반적인 계산 그래프를 지원하는 최적화 된 엔진을 제공합니다. 또한 SQL 및 Dataframes 용 Spark SQL, 기계 학습 용 Mllib, 그래프 처리 용 그래픽 및 스트림 처리를위한 구조적 스트리밍을 포함한 풍부한 고급 도구 세트를 지원합니다.
Apache Predictionio는 개발자, 데이터 과학자 및 최종 사용자를위한 오픈 소스 머신 러닝 프레임 워크입니다. 이벤트 컬렉션, 알고리즘 배포, 평가, REST API를 통한 예측 결과 쿼리를 지원합니다. Hadoop, HBase (및 기타 DBS), Elasticsearch, Spark 및 Spark와 같은 확장 가능한 오픈 소스 서비스를 기반으로하며 Lambda 아키텍처를 구현합니다.
Microsoft Project Bonsai는 AI 기반 자동화 개발 속도와 Microsoft의 자율 시스템 제품군의 일부를 속이는 로우 코드 AI 플랫폼입니다. Bonsai는 작업자 지침을 제공하거나 독립적 인 결정을 내릴 수있는 AI 구성 요소를 구축하는 데 사용됩니다. 프로세스 변수를 최적화하고 생산 효율성을 높이며 가동 중지 시간을 줄입니다.
Apache Kafka (CMAK)의 클러스터 관리자는 Apache Kafka 클러스터를 관리하는 도구입니다.
Bigdl은 Apache Spark의 분산 딥 러닝 라이브러리입니다. BigDL을 사용하면 사용자는 딥 러닝 애플리케이션을 표준 Spark 프로그램으로 작성할 수 있으며, 이는 기존 Spark 또는 Hadoop 클러스터 위에서 직접 실행할 수 있습니다.
Apache Cassandra ™는 성능을 손상시키지 않고 확장 성 및 고 가용성을 위해 수천 개의 회사가 신뢰하는 오픈 소스 NOSQL 분산 데이터베이스입니다. Cassandra는 상품 하드웨어 또는 클라우드 인프라에서 선형 확장 성을 제공하고 입증 된 오류가 발생하여 미션 크리티컬 데이터를위한 완벽한 플랫폼입니다.
Apache Flume은 대량의 스트리밍 이벤트 데이터를 효율적으로 수집, 집계 및 이동하기위한 분산되고 신뢰할 수 있으며 사용 가능한 서비스입니다.
Apache Mesos는 분산 응용 프로그램 또는 프레임 워크에서 효율적인 리소스 격리 및 공유를 제공하는 클러스터 관리자입니다. 동적 공유 노드 풀에서 Hadoop, Jenkins, Spark, Aurora 및 기타 프레임 워크를 실행할 수 있습니다.
Apache Beam은 데이터 처리 워크 플로우를 정의하고 실행하기위한 오픈 소스, 통합 모델 및 언어 별 SDK 세트이며, 데이터 수집 및 통합 흐름, 엔터프라이즈 통합 패턴 (EIP) 및 도메인 특정 언어 (DSL)를 지원합니다.
Jupyter Notebook은 라이브 코드, 방정식, 시각화 및 내러티브 텍스트를 포함하는 문서를 작성하고 공유 할 수있는 오픈 소스 웹 응용 프로그램입니다. Jupyter는 데이터 청소 및 변환, 수치 시뮬레이션, 통계 모델링, 데이터 시각화, 데이터 과학 및 기계 학습을 수행하는 산업에서 널리 사용됩니다.
NEO4J는 기본 그래프 스토리지, 고급 보안, 확장 가능한 속도 최적화 된 아키텍처 및 산 준수를 결합하여 관계 기반 쿼리의 예측 가능성과 무결성을 보장하는 유일한 엔터프라이즈 강도 그래프 데이터베이스입니다.
Elasticsearch는 Lucene 라이브러리를 기반으로하는 검색 엔진입니다. HTTP 웹 인터페이스와 스키마가 없는 JSON 문서를 갖춘 분산형 멀티 테넌트 가능 전체 텍스트 검색 엔진을 제공합니다. Elasticsearch는 Java에서 개발되었습니다.
Logstash는 이벤트 및 로그 관리를위한 도구입니다. 일반적으로 사용될 때이 용어는 더 큰 로그 수집 시스템, 처리, 저장 및 검색 활동 시스템을 포함합니다.
Kibana는 Elasticsearch를위한 오픈 소스 데이터 시각화 플러그인입니다. Elasticsearch 클러스터에서 인덱싱 된 컨텐츠 위에 시각화 기능을 제공합니다. 사용자는 대량의 데이터 위에 막대, 라인 및 산란 플롯, 파이 차트 및 맵을 만들 수 있습니다.
Trino는 빅 데이터 용 분산 된 SQL 쿼리 엔진입니다. ETL 프로세스 속도를 크게 높이고, 모두 표준 SQL 문을 사용할 수 있으며, 동일한 시스템에서 수많은 데이터 소스 및 대상과 함께 작업 할 수 있습니다.
ETL (Extract, Transform 및 Load)은 다양한 소스에서 데이터를 수집하고 비즈니스 규칙에 따라 데이터를 변환하고 대상 데이터 저장소에로드하는 데 사용되는 데이터 파이프 라인입니다.
Redis (원격 사전 서버)는 오픈 소스 (BSD 라이센스), 메모리 내 데이터 구조 저장소이며 데이터베이스, 캐시 및 메시지 중개인으로 사용됩니다. 문자열, 해시, 목록, 세트, 범위 쿼리, 비트 맵, 하이퍼 로글 로그, 지리 공간 인덱스 및 스트림이있는 정렬 세트와 같은 데이터 구조를 제공합니다.
Apache OpenNLP는 자연어 텍스트 처리에 사용되는 기계 학습 기반 툴킷을위한 오픈 소스 라이브러리입니다. 이름이 지정된 엔티티 인식, 문장 감지, POS (부품-연설) 태깅, 토큰 화 기능 추출, 청킹, 구문 분석 및 코퍼 컨퍼런스 해상도와 같은 사용 사례에 대한 API가 특징입니다.
Apache Airflow는 커뮤니티가 프로그래밍 방식으로 저자, 일정 및 모니터링 및 모니터링하기 위해 커뮤니티가 만든 오픈 소스 워크 플로 관리 플랫폼입니다. 설치하다. 원칙. 확장 가능. 공기 흐름에는 모듈 식 아키텍처가 있으며 메시지 대기열을 사용하여 임의의 작업자를 조정합니다. 공기 흐름은 무한대로 확장 할 준비가되었습니다.
Open Neural Network Exchange (ONNX)는 AI 개발자가 프로젝트가 발전함에 따라 올바른 도구를 선택할 수 있도록하는 Open Ecosystem입니다. Onnx는 딥 러닝 및 전통적인 ML의 AI 모델에 대한 오픈 소스 형식을 제공합니다. 확장 가능한 계산 그래프 모델과 내장 연산자 및 표준 데이터 유형의 정의를 정의합니다.
Apache MXnet은 효율성과 유연성을 위해 설계된 딥 러닝 프레임 워크입니다. 이를 통해 기호 및 명령형 프로그래밍을 혼합하여 효율성과 생산성을 극대화 할 수 있습니다. MXNET은 핵심에서 동적 의존성 스케줄러가 포함되어 있으며, 이는 상징적 및 명령적인 작업을 자동으로 평행하게 평행하게합니다. 그 위에 그래프 최적화 계층은 상징적 실행을 빠르고 메모리 효율적으로 만듭니다. MXNET은 휴대용 및 가벼운 중량이며 여러 GPU 및 여러 시스템으로 효과적으로 스케일링됩니다. Python, R, Julia, Scala, Go, JavaScript 등을 지원합니다.
AutoGluon은 기계 학습 작업을 자동화하여 응용 프로그램에서 강력한 예측 성능을 쉽게 달성 할 수있는 딥 러닝을위한 툴킷입니다. 몇 줄의 코드만으로도 표, 이미지 및 텍스트 데이터로 고 진수성 딥 러닝 모델을 교육하고 배포 할 수 있습니다.
맨 위로 돌아가기
Open Computing Language (OPENCL)는 CPU, GPU 및 기타 하드웨어 가속기로 구성된 이질 플랫폼의 병렬 프로그래밍을위한 개방형 표준입니다.
Opencl | GitHub
Khronos Group | GitHub
Khronos 기술 과정 및 교육
OpenCL 튜토리얼 - StreamHPC
Intel® OpenCL 도구 소개
Opencl | 엔비디아 개발자
FPGAS 과정에서 OpenCL 소개 | 코세라
OpenCl 커널 컴파일 FPGAS 코스 | 코세라
RenderDoc은 Windows, Linux, Android, Stadia 또는 Nintendo Switch ™를 통해 Vulkan, D3D11, OpenGL & OpenGL ES 또는 D3D12를 사용하여 모든 응용 프로그램의 빠르고 쉬운 단일 프레임 캡처 및 상세한 내성을 허용하는 독립형 그래픽 디버거입니다.
GPUVERIFY는 OpenCL 및 CUDA로 작성된 GPU 커널의 공식적인 분석 도구입니다. 이 도구는 커널이 데이터 경주를 포함하여 특정 유형의 결함이 없음을 증명할 수 있습니다.
OpenCL ICD 로더는 설치 가능한 클라이언트 드라이버 (ICD) 메커니즘으로, 개발자가 애플리케이션을 특정 OPENCL 구현에 연결하지 않고 설치 가능한 클라이언트 드라이버 로더 (ICD 로더)에 대한 응용 프로그램을 구축 할 수 있도록하는 메커니즘입니다.
CLBLAS는 OpenCL로 작성된 BLAS 기능을 포함하는 소프트웨어 라이브러리입니다.
CLFFT는 OpenCL로 작성된 FFT 기능을 포함하는 소프트웨어 라이브러리입니다.
CLSPARSE는 OpenCL로 작성된 드문 기능이 포함 된 소프트웨어 라이브러리입니다.
CLRNG는 임의의 숫자 생성 기능을 포함하는 OpenCL 기반 소프트웨어 라이브러리입니다.
CLSMITH는 기존의 두 가지 테스트 기술, 무작위 차동 테스트 및 동등성 모듈로 입력 (EMI)을 사용하여 많은 코어 환경 인 OpenCL에 적용하는 도구입니다. 주요 특징은 언어의 많은 특징을 행사하는 임의의 OpenCL 커널의 생성입니다. 또한 데드 코드 주입을 통해 EMI를 적용한다는 새로운 아이디어를 제공합니다.
Oclgrind는 ICD 지원이 포함 된 OpenCL 런타임을 포함하여 가상 OpenCL 장치 시뮬레이터입니다. 목표는 OpenCL 개발에 도움이되는 도구를 만드는 플랫폼을 제공하는 것입니다. 특히,이 프로젝트는 현재 메모리 액세스 오류를 디버깅하고 데이터 레이스 및 장벽 발산을 감지하고 명령어 히스토그램 수집 및 대화식 OpenCL 커널 디버깅을위한 유틸리티를 구현합니다. 시뮬레이터는 LLVM IR의 통역사를 기반으로합니다.
NVIDIA® NSIGHT ™ Visual Studio Edition은 GPU 컴퓨팅을 Microsoft Visual Studio로 가져 오는 이기종 플랫폼을위한 애플리케이션 개발 환경입니다. NVIDIA NSIGHT ™ VSE를 사용하면 통합 GPU 커널 및 기본 CPU 코드를 구축하고 디버그하고 GPU 및 메모리의 상태를 검사 할 수 있습니다.
Radeon ™ GPU Profiler는 개발자가 AMD RDNA ™ 및 GCN 하드웨어 용 OPENCL ™ 애플리케이션을 최적화하는 데 개발자가 사용할 수있는 성능 도구입니다.
Radeon ™ GPU 분석기는 Vulkan®, DirectX®, OpenGL® 및 OpenCL ™을위한 컴파일러 및 코드 분석 도구입니다.
AMD Radeon Prorender는 강력한 물리적 기반 렌더링 엔진으로, 창의적인 전문가가 거의 모든 GPU, 모든 CPU 및 OS가 수십 개가 넘는 주요 디지털 컨텐츠 제작 및 CAD 응용 프로그램에서 놀랍도록 사진 이미지를 생산할 수 있습니다.
Nvidia Omniverse는 Pixar의 Universal Scene 설명 및 NVIDIA RTX를 기반으로 3D 생산 파이프 라인을위한 강력한 멀티 GPU, 실시간 시뮬레이션 및 협업 플랫폼입니다.
OpenCL ™ 응용 프로그램 용 Intel® SDK는 오프로드 컴퓨팅 집약적 인 워크로드입니다. 이기종 컴퓨팅 애플리케이션을 사용자 정의하고 커널 기반 프로그래밍으로 성능을 가속화하십시오.
NVIDIA NGC는 딥 러닝, 머신 러닝 및 고성능 컴퓨팅 (HPC) 워크로드를위한 GPU 최적화 소프트웨어의 허브입니다.
NVIDIA NGC 컨테이너는 연구원, 데이터 과학자 및 개발자에게 AI, 머신 러닝 및 HPC 용 GPU에 액세스 된 소프트웨어의 포괄적 인 카탈로그에 대한 간단한 액세스를 제공하는 레지스트리입니다. 이 컨테이너는 NVIDIA GPU 온 프레미스 및 클라우드에서 최대한 활용합니다.
NVIDIA CUDNN은 심층 신경망을위한 GPU로 된 프리미티브 라이브러리입니다. CUDNN은 전방 및 후진 컨볼 루션, 풀링, 정규화 및 활성화 층과 같은 표준 루틴에 대한 고도로 조정 된 구현을 제공합니다. CUDNN은 Caffe2, Chainer, Keras, Matlab, MXNet, Pytorch 및 Tensorflow를 포함하여 널리 사용되는 딥 러닝 프레임 워크를 가속화합니다.
NVIDIA 컨테이너 툴킷은 사용자가 GPU 가속 Docker 컨테이너를 구축하고 실행할 수있는 도구 및 라이브러리 모음입니다. 툴킷에는 컨테이너 런타임 라이브러리와 유틸리티가 포함되어있어 NVIDIA GPU를 활용하도록 컨테이너를 자동으로 구성합니다.
맨 위로 돌아가기
CUDA 툴킷. 출처 : Nvidia 개발자 Cuda
CUDA는 그래픽 처리 장치 (GPU)에 대한 일반 컴퓨팅을 위해 NVIDIA가 개발 한 병렬 컴퓨팅 플랫폼 및 프로그래밍 모델입니다. CUDA를 통해 개발자는 GPU의 전력을 활용하여 컴퓨팅 애플리케이션 속도를 크게 높일 수 있습니다. GPU-Accelerated Applications에서 워크로드의 순차적 부분은 CPU에서 실행되며 단일 스레드에 최적화됩니다. 응용 프로그램의 집중 부분은 수천 개의 GPU 코어에서 동시에 실행됩니다. CUDA를 사용할 때 개발자는 C, C ++, Fortran, Python 및 Matlab과 같은 인기있는 언어로 프로그래밍 할 수 있습니다.
CUDA 툴킷 문서
CUDA 빠른 시작 가이드
wsl에 대한 cuda
텐서 플로우에 대한 CUDA GPU 지원
NVIDIA 딥 러닝 CUDNN 문서
NVIDIA GPU 클라우드 문서
NVIDIA NGC는 딥 러닝, 머신 러닝 및 고성능 컴퓨팅 (HPC) 워크로드를위한 GPU 최적화 소프트웨어의 허브입니다.
NVIDIA NGC 컨테이너는 연구원, 데이터 과학자 및 개발자에게 AI, 머신 러닝 및 HPC 용 GPU에 액세스 된 소프트웨어의 포괄적 인 카탈로그에 대한 간단한 액세스를 제공하는 레지스트리입니다. 이 컨테이너는 NVIDIA GPU 온 프레미스 및 클라우드에서 최대한 활용합니다.
CUDA 툴킷은 고성능 GPU Accelerated Application을 생성하기위한 개발 환경을 제공하는 도구 및 라이브러리 모음입니다. CUDA 툴킷을 사용하면 GPU에 액세스 된 임베디드 시스템, 데스크탑 워크 스테이션, 엔터프라이즈 데이터 센터, 클라우드 기반 플랫폼 및 HPC 슈퍼 컴퓨터에 응용 프로그램을 개발, 최적화 및 배포 할 수 있습니다. 툴킷에는 gpu-accelerated 라이브러리, 디버깅 및 최적화 도구, C/C ++ 컴파일러 및 런타임 라이브러리가 포함되어있어 X86을 포함한 주요 아키텍처에 응용 프로그램을 구축하고 배포 할 수 있습니다.