최근 독일 함부르크에서 열린 SC24 International High -Performance Computing Conference에서 Dell은 AI 응용 프로그램을위한 일련의 새로운 제품 및 서비스를 발표했습니다. 이 조치는 회사가 생성 AI 및 LLM (Lange Language Models)을 사용하는 과정에서 발생하는 데이터 품질, 비용, 에너지 소비 및 지속 가능성과 같은 과제를 극복하여 디지털 경제 시대의 기업의 경쟁력을 향상시키는 것을 목표로합니다. Dell에서 시작한 새로운 제품 및 서비스는 서버, 데이터 호수 및 일련의 지원 서비스를 포함하여 기업에 포괄적 인 AI 인프라 솔루션을 제공하기위한 것입니다.
11 월 17 일부터 22 일까지 개최 된 국제 고성능 컴퓨팅, 네트워크, 스토리지 및 분석 컨퍼런스 (SC24)에서 Dell은 공식적으로 공식 생성에서 AI 및 대형 언어 생성의 사용을 극복 할 수 있도록 일련의 새로운 제품 및 서비스를 시작했습니다. 모델 (LLM) 중에 AI 및 대형 문제가 발생합니다. Dell Infrastructure and Telecommunications 제품 마케팅 담당 수석 부사장 인 Varun Chhabra는 AI를 적용 할 때 현재 기업이 직면 한 주요 문제에는 데이터 품질, 비용, 에너지 소비 및 지속 가능성이 포함된다고 말했다.
분석가 인 Dave Vellanter는 기업이 데이터를 효과적으로 사용하여 경쟁이 치열한 디지털 환경에서 이점을 유지해야한다고 지적했습니다. Dell의 AI 인프라, 솔루션 및 서비스는 이러한 요구를 충족시키기 위해 시작되며, 이는 기업이 더 나은 프로세스 데이터를 개선하고 통찰력을 추출하고 작업을 자동화하며 프로세스를 개선하는 데 도움이됩니다.
이 회의에서 Dell은 AI 워크로드, 즉 PowerEdge XE7740 및 PowerEdge XE9685L에 중점을두고 Integrated Rack 5000 (IR5000) 시리즈로 업그레이드하는 3 개의 새로운 서버를 발표했습니다. PowerEdge XE7740에는 Xeon6 프로세서가 장착되어 있으며, 이는 8 개의 전면 PCIE 슬롯이 있으며 높은 속도 GPU 상호 연결을 달성 할 수 있습니다. Chhabra는 이것이 기업이 AI를 사용할 수있는 최고의 플랫폼이라고 생각합니다.
또 다른 PowerEdge XE9685L은 최대 96 NVIDIA 텐서 코어 H200 또는 B200GPU를 지원할 수 있으며, 이는 고밀도 컴퓨팅의 요구를 충족시키고 특히 AI 교육에 적합합니다. Dell은 또한 새로운 솔루션, 즉 통합 Rack 5000 시리즈 인 Liquid Cold and Cold를 지원하고 96 GPU를 수용 할 수 있으며 다가오는 NVIDIA GB200GRACE BlackWell NVL4 슈퍼 칩과 호환됩니다.
또한 최신 버전의 Dell Data Lake House는 Trino 쿼리 엔진과 Apache Spark Processing 시스템 간의 통합 액세스 제어를 지원하므로 데이터 처리가보다 효율적입니다. Dell은 또한 AI 인프라에서 NVIDIA와 심도있게 협력하고 있습니다.
마지막으로 Dell은 데이터 관리 서비스, 지속 가능한 데이터 센터 서비스, AI 네트워크 설계 서비스 및 Servicenow Assist의 구현 서비스를 포함한 일련의 새로운 서비스를 시작했습니다.
전철기:
Dell은 SC24 컨퍼런스에서 새로운 AI 인프라를 시작하여 기업이 AI에 도전 할 수 있도록 도와주었습니다.
PowerEdge 서버는 강력한 컴퓨팅 능력을 가지고 있으며 AI 워크로드의 요구를 충족시키는 데 중점을 둡니다.
Dell은 기업이 지속 가능한 개발 및 지능적인 변화를 달성하기 위해 많은 서비스를 시작했습니다.
이번에 발표 된 Dell의 신제품 및 서비스 포트폴리오는 기업의 AI 전환을 돕기위한 결정과 강점을 보여주고 기업이 효율적이고 지속 가능한 AI를 강력하게 지원할 수 있도록 강력한 지원을 제공합니다. 이러한 혁신은 기업이 AI 시대의 과제에 더 나은 대응에 도움이되고 치열한 시장 경쟁에서 선도적 인 위치를 유지하는 데 도움이 될 것입니다.