Downcodes の編集者は、企業が AI 関連のワークロードをより効率的に処理できるようにすることを目的として、Cisco が最近、人工知能モデルに最適化された 2 つのデータセンター機器をリリースしたことを知りました。今回リリースされた 2 つの製品は、UCS C885A M8 シリーズ サーバと AI POD 大型データセンター機器であり、どちらも AI ハードウェア分野におけるシスコの最新の技術的進歩を反映しており、エンタープライズ レベルの AI アプリケーションに対する強力なハードウェア サポートを提供します。この動きは、シスコにとって AI 市場競争における重要な一歩でもあり、データセンター分野におけるリーダーとしての地位をさらに強固なものとします。
新しく発売された最初の製品ラインは、UCS C885A M8 シリーズ サーバーです。このサーバーは最大 8 つのグラフィックス プロセッシング ユニット (GPU) をサポートし、ビジネス ユーザーに強力なコンピューティング機能を提供します。 Cisco は、Nvidia Corp. の H100 および H200、および競合する AMD の MI300X チップを含む、このシリーズに 3 つの GPU オプションを提供しています。
さらに、UCS C885A M8 シリーズの各グラフィックス カードには、独立したネットワーク インターフェイス コントローラ (NIC) が装備されており、これらの特殊なチップは、サーバとネットワークの間の仲介者として機能します。シスコは、ConnectX-7 と BlueField-3 という 2 つの Nvidia NIC オプションを提供しています。後者は、データトラフィックの暗号化などのタスクを高速化する「スーパーNIC」と呼ばれる高度なソリューションです。
同時に、シスコは BlueField-3 チップを新しいサーバーに統合しています。これは、同じく Nvidia 製のデータ処理ユニット (DPU) で、接続されたストレージとネットワーク インフラストラクチャの管理効率を向上させることができます。専用チップでは処理できないコンピューティング タスクを処理するのは AMD の中央処理装置 (CPU) であり、ユーザーは最新の第 5 世代 CPU または 2022 サーバー プロセッサ シリーズから選択できます。
シスコはサーバーに加えて、AI POD と呼ばれる 4 つの大規模データセンター デバイスも発売しました。これらの AI POD には、最大 16 個の Nvidia グラフィックス カード、ネットワーク機器、その他のサポート コンポーネントを組み込むことができ、顧客は NetApp または Pure Storage からストレージを追加することを選択できます。ソフトウェアに関しては、AI POD には Nvidia AI Enterprise のライセンスが装備されており、企業が独自のニューラル ネットワークをトレーニングするために使用できる一連のパッケージ化された AI モデルとツールが含まれています。さらに、AI 主導のサイバーセキュリティ ソフトウェアを構築するための Nvidia Morpheus フレームワーク、AI クラスター ネットワークの最適化を支援する HPC-X ツールキット、コンテナ アプリケーションの構築と展開を簡素化する Red Hat OpenShift プラットフォームもあります。
シスコの最高製品責任者であるジートゥ・パテル氏は、「特にインテリジェントなワークフローが現実になり、AIが自律的に問題を解決し始めるにつれ、企業顧客はAIワークロードの導入を迫られている」と述べ、シスコのAI PODとGPUサーバーのイノベーションによりセキュリティが向上すると付け加えた。これらのワークロードのコンプライアンスと処理能力。
シスコは来月 AI POD の注文の受け付けを開始する予定で、UCS C885A M8 サーバー シリーズは現在注文可能で、年末までに出荷が開始される予定です。
全体として、シスコがリリースする新製品は、エンタープライズ レベルの AI アプリケーションの開発を大幅に促進し、企業のデジタル変革に対する強力な技術サポートを提供します。 将来的には、シスコが AI 分野でさらなるイノベーションをもたらすことを楽しみにしています。