ダウンコード編集者のレポート: 最近米国で開催された国際ハイパフォーマンス コンピューティング、ネットワーキング、ストレージ、分析会議 (SC24) で、デルは、企業が生成 AI および大規模言語モデル (LLM) アプリケーションの課題を克服できるように設計された一連の製品をリリースしました。 . 新しい製品とサービス。 デルは、AI アプリケーションにおいて企業が直面するデータ品質、コスト、エネルギー消費、持続可能性の問題に対処する包括的なソリューションを開始し、企業が競争の激しいデジタル環境で最先端を維持できるよう支援することを目指しています。 これらの新しい製品とサービスは、複数のレベルのハードウェア、ソフトウェア、およびサービスをカバーしており、AI インフラストラクチャ分野におけるデルの継続的な投資とイノベーションを反映しています。
アナリストのデイブ・ベランテ氏は、企業は競争の激しいデジタル環境で優位性を維持するためにデータを効果的に活用する必要があると指摘した。デルの AI インフラストラクチャ、ソリューション、サービスは、このニーズを満たすために開始され、企業がデータをより適切に処理し、洞察を抽出し、タスクを自動化し、プロセスを改善できるように設計されています。
このカンファレンスで、デルは AI ワークロードに焦点を当てた 3 つの新しいサーバー、つまり PowerEdge XE7740 および PowerEdge XE9685L と、Integrated Rack 5000 (IR5000) シリーズへのアップグレードをリリースしました。 PowerEdge XE7740 は、推論と微調整に適した Xeon6 プロセッサを搭載しており、高速 GPU 相互接続用に 8 個の前面 PCIe スロットを備えています。 Chhabra は、これが企業が AI の導入を開始するための最良のプラットフォームであると信じています。
もう 1 つの PowerEdge XE9685L は、ラックあたり最大 96 個の NVIDIA Tensor Core H200 または B200 GPU をサポートして、高密度コンピューティングのニーズを満たすことができ、特に AI トレーニングに適しています。デルはまた、新しいプラグアンドプレイ ソリューションである統合ラック 5000 シリーズを発売しました。このソリューションは水冷および空冷をサポートし、96 個の GPU を収容でき、今後の NVIDIA GB200Grace Blackwell NVL4 スーパー チップと互換性があります。
さらに、Dell Data Lake House の最新バージョンは、Trino クエリ エンジンと Apache Spark 処理システム間の統合アクセス制御をサポートし、データ処理をより効率的にします。デルは AI インフラストラクチャでも NVIDIA と深く協力しており、年末までに H200SXM クラウド GPU を含む NVIDIA Tensor コア GPU をサポートする予定です。
最後に、デルは、企業がより効率的な AI アプリケーションとデータ活用を実現できるように設計された、データ管理サービス、持続可能なデータセンター サービス、AI ネットワーク設計サービス、ServiceNow Assist 導入サービスなどの一連の新しいサービスも開始しました。
全体として、SC24 カンファレンスでデルが発表した新製品とサービスは、AI 分野におけるデルの強力な強みと企業顧客のニーズに対する深い理解を示しています。 これらのイノベーションは、企業が AI 変革を加速し、デジタル化の波の中で競争上の優位性を獲得するのに効果的に役立ちます。 デルが今後も AI 分野でさらなる画期的な進歩をもたらすことを楽しみにしています。