최근 CES 전시회에서 Nvidia CEO Jensen Huang은 회사의 AI 칩 성능 개선 속도가 무어 법의 역사적 표준을 초과했다고 발표했습니다. 이 진술은 특히 기술 커뮤니티의 AI 진보 정체와 관련하여 광범위한 관심을 끌었습니다.
무어의 법칙은 1965 년 인텔의 공동 창립자 인 고든 무어 (Gordon Moore)가 제안했으며, 컴퓨터 칩의 트랜지스터 수는 매년 대략 두 배가 될 것으로 예측하여 그에 따라 칩 성능을 두 배로 늘 렸습니다. 그러나 최근 몇 년 동안 무어의 법칙은 크게 둔화되어 Nvidia의 획기적인 혁신을 더욱 매력적으로 만들었습니다.
Huang Renxun은 NVIDIA의 최신 데이터 센터 슈퍼 칩이 AI 추론 워크로드를 실행할 때 이전 세대보다 30 배 이상 빠르다고 지적했습니다. "우리는 아키텍처, 칩, 시스템, 라이브러리 및 알고리즘을 동시에 구축 할 수 있으며, 그렇게 할 수 있다면이 포괄적 인 기술 혁신으로 인해 Nvidia가 주도적 인 기술을 유지할 수 있기 때문에 무어의 법칙을 넘어 설 수 있습니다 AI 칩 필드에서 위치.
현재 Google, OpenAi 및 Anthropic과 같은 주요 AI 실험실은 NVIDIA의 AI 칩을 사용하여 AI 모델을 훈련하고 실행하고 있습니다. 따라서 이러한 칩의 발전은 AI 모델의 기능에 직접적인 영향을 미치고 전체 AI 산업의 개발을 촉진합니다.
Huang Renxun은 또한 현재 3 가지 활성 AI 확장 규칙, 즉 사전 훈련, 사후 훈련 및 테스트 시간 계산이 있다고 언급했습니다. 그는 계산 역사에서 무어의 법칙이 계산 비용의 감소를 유발하고 추론 프로세스의 성능 개선으로 추론 비용의 감소로 이어질 것이라고 강조했다. 이 견해는 AI 모델의 광범위한 적용을위한 경제적 타당성을 제공합니다.
일부 사람들은 Nvidia의 비싼 칩이 추론 분야에서 계속 이어질 수 있는지에 대한 우려를 표명했지만 Huang Renxun은 최신 GB200NVL72 칩이 추론 작업량의 H100 칩보다 30 ~ 40 배 빠르다고 말했다. 보다 경제적이고 저렴한 모델. 이러한 성능 향상은 NVIDIA의 시장 경쟁력을 향상시킬뿐만 아니라 AI 기술의 대중화에 더 많은 가능성을 제공합니다.
Huang Renxun은 컴퓨팅 전력을 향상시키는 것이 계산 성능과 추론 비용 경제성의 문제를 해결하는 직접적이고 효과적인 방법이라고 강조했습니다. 그는 컴퓨팅 기술의 지속적인 발전으로 AI 모델의 비용이 계속 감소 할 것으로 예상하지만, OpenAI와 같은 회사의 일부 모델은 현재 더 높은 비용으로 실행되고 있습니다. 이 예측은 AI 기술의 미래 개발을위한 낙관적 인 그림을 그립니다.
Huang Renxun은 오늘날의 AI 칩이 10 년 전과 비교하여 1,000 배 증가했으며 이는 무어의 법을 초과하는 진전의 속도이며,이 추세는 곧 멈추지 않을 것이라고 믿는다. 이 지속적인 기술 혁신은 AI 산업에 더 많은 혁신과 기회를 제공 할 것입니다.
주요 요점 : Nvidia CEO Huang Renxun 은이 회사의 AI 칩 성능 개선이 무어의 법률을 능가했다고 말했다. 최신 GB200NVL72 칩은 이전 세대보다 AI 추론 워크로드에서 30 ~ 40 배 빠릅니다. Huang Renxun은 컴퓨팅 파워의 개선으로 AI 모델 사용 비용이 점차 감소 할 것으로 예측합니다. 이러한 진보는 NVIDIA의 기술 강점을 보여줄뿐만 아니라 AI 기술의 미래 개발 방향을 지적합니다.