Pada Konferensi Komputasi Kinerja Tinggi Internasional SC24 yang diadakan baru-baru ini di Hamburg, Jerman, Dell merilis serangkaian produk dan layanan baru untuk aplikasi AI. Langkah ini bertujuan untuk membantu perusahaan mengatasi tantangan seperti kualitas data, biaya, konsumsi energi, dan keberlanjutan yang dihadapi dalam proses penerapan AI generatif dan model bahasa besar (LLM), sehingga meningkatkan daya saing perusahaan di era ekonomi digital. Produk dan layanan baru yang diluncurkan oleh Dell mencakup server, data lake, dan serangkaian layanan pendukung, yang bertujuan untuk menyediakan solusi infrastruktur AI yang komprehensif bagi perusahaan.
Pada Konferensi Komputasi, Jaringan, Penyimpanan, dan Analisis Berkinerja Tinggi Internasional (SC24) yang diadakan pada tanggal 17 hingga 22 November, Dell secara resmi meluncurkan serangkaian produk dan layanan baru yang dirancang untuk membantu perusahaan mengatasi tantangan dalam mengadopsi AI generatif dan bahasa skala besar . Tantangan yang dihadapi selama proses model (LLM). Varun Chhabra, wakil presiden senior pemasaran produk infrastruktur dan telekomunikasi di Dell, mengatakan bahwa masalah utama yang saat ini dihadapi oleh perusahaan ketika menerapkan AI mencakup kualitas data, biaya, konsumsi energi, dan keberlanjutan.
Analis Dave Vellante menyatakan bahwa perusahaan perlu memanfaatkan data mereka secara efektif untuk mempertahankan keunggulan dalam lingkungan digital yang sangat kompetitif. Infrastruktur, solusi, dan layanan AI Dell diluncurkan untuk memenuhi kebutuhan ini dan dirancang untuk membantu perusahaan memproses data dengan lebih baik, mengekstrak wawasan, mengotomatiskan tugas, dan meningkatkan proses.
Pada konferensi ini, Dell merilis tiga server baru yang berfokus pada beban kerja AI, yaitu PowerEdge XE7740 dan PowerEdge XE9685L, serta upgrade ke seri Integrated Rack 5000 (IR5000). PowerEdge XE7740 dilengkapi dengan prosesor Xeon6, cocok untuk inferensi dan fine-tuning, serta memiliki delapan slot PCIe menghadap ke depan untuk interkoneksi GPU berkecepatan tinggi. Chhabra percaya bahwa ini adalah platform terbaik bagi perusahaan untuk mulai mengadopsi AI.
PowerEdge XE9685L lainnya dapat mendukung hingga 96 GPU NVIDIA Tensor Core H200 atau B200 per rak untuk memenuhi kebutuhan komputasi kepadatan tinggi dan sangat cocok untuk pelatihan AI. Dell juga meluncurkan solusi plug-and-play baru, Integrated Rack 5000 Series, yang mendukung pendingin cair dan udara, mampu menampung 96 GPU, dan akan kompatibel dengan super chip NVIDIA GB200Grace Blackwell NVL4 yang akan datang.
Selain itu, versi terbaru Dell Data Lake House mendukung kontrol akses terpadu antara mesin kueri Trino dan sistem pemrosesan Apache Spark, sehingga menjadikan pemrosesan data lebih efisien. Dell juga bekerja sama secara mendalam dengan NVIDIA dalam infrastruktur AI dan berencana untuk mendukung GPU NVIDIA Tensor Core, termasuk GPU cloud H200SXM, pada akhir tahun ini.
Terakhir, Dell juga meluncurkan serangkaian layanan baru, termasuk layanan manajemen data, layanan pusat data berkelanjutan, layanan desain jaringan AI, dan layanan implementasi ServiceNow Assist, yang dirancang untuk membantu perusahaan mencapai aplikasi AI dan pemanfaatan data yang lebih efisien.
Menyorot:
Dell meluncurkan infrastruktur AI baru pada konferensi SC24 untuk membantu perusahaan mengatasi tantangan adopsi AI.
Server PowerEdge yang dirilis memiliki kemampuan komputasi yang kuat dan berfokus pada pemenuhan kebutuhan beban kerja AI.
Dell telah meluncurkan sejumlah layanan untuk mendukung perusahaan dalam mencapai pembangunan berkelanjutan dan transformasi cerdas.
Secara keseluruhan, portofolio produk dan layanan baru yang dirilis Dell kali ini menunjukkan tekad dan kekuatan Dell dalam membantu perusahaan dalam transformasi AI, dan memberikan dukungan kuat bagi perusahaan untuk menerapkan AI secara efisien dan berkelanjutan. Inovasi-inovasi ini akan membantu perusahaan mengatasi tantangan era AI dengan lebih baik dan tetap menjadi yang terdepan dalam persaingan pasar yang ketat.