Pada pameran CES baru -baru ini, CEO NVIDIA Jensen Huang mengumumkan bahwa kecepatan peningkatan kinerja chip AI perusahaan telah melampaui standar historis hukum Moore. Pernyataan ini telah menarik perhatian luas, terutama dalam konteks stagnasi komunitas teknologi tentang kemajuan AI.
Hukum Moore diusulkan oleh salah satu pendiri Intel Gordon Moore pada tahun 1965, memprediksi bahwa jumlah transistor pada chip komputer akan kira-kira dua kali lipat setiap tahun, sehingga menggandakan kinerja chip yang sesuai. Namun, dalam beberapa tahun terakhir, hukum Moore telah melambat secara signifikan, membuat terobosan Nvidia semakin menarik.
Huang Renxun menunjukkan bahwa chip super pusat data terbaru NVIDIA lebih dari 30 kali lebih cepat dari generasi sebelumnya saat menjalankan beban kerja inferensi AI. "Kami dapat membangun arsitektur, chip, sistem, perpustakaan, dan algoritma pada saat yang sama, dan jika kami dapat melakukan itu, kami dapat melampaui hukum Moore karena kami dapat berinovasi di seluruh tumpukan teknologi." Posisi di bidang chip AI.
Saat ini, laboratorium AI terkemuka seperti Google, Openai dan Anthropic menggunakan chip AI Nvidia untuk melatih dan menjalankan model AI. Oleh karena itu, kemajuan chip ini akan secara langsung mempengaruhi kemampuan model AI dan dengan demikian mempromosikan pengembangan seluruh industri AI.
Huang Renxun juga menyebutkan bahwa sekarang ada tiga aturan ekspansi AI aktif: perhitungan pra-pelatihan, pasca-pelatihan dan waktu tes. Dia menekankan bahwa hukum Moore sangat penting dalam menghitung sejarah karena mendorong pengurangan biaya komputasi, dan peningkatan kinerja dalam proses inferensi juga akan mengarah pada pengurangan biaya inferensi. Pandangan ini memberikan kelayakan ekonomi untuk penerapan luas model AI.
Meskipun beberapa orang menyatakan kekhawatiran tentang apakah chip mahal NVIDIA dapat terus memimpin di bidang penalaran, Huang Renxun mengatakan bahwa chip GB200NVL72 terbaru adalah 30 hingga 40 kali lebih cepat daripada chip H100 dalam beban kerja inferensi, yang akan membuat inferensi AI. Model lebih ekonomis dan terjangkau. Peningkatan kinerja ini tidak hanya meningkatkan daya saing pasar NVIDIA, tetapi juga memberikan lebih banyak kemungkinan untuk mempopulerkan teknologi AI.
Huang Renxun menekankan bahwa meningkatkan daya komputasi adalah cara langsung dan efektif untuk menyelesaikan masalah kinerja komputasi dan keterjangkauan biaya dalam penalaran. Dia berharap bahwa dengan kemajuan teknologi komputasi yang berkelanjutan, biaya model AI akan terus menurun, meskipun beberapa model di perusahaan seperti Openai saat ini berjalan dengan biaya yang lebih tinggi. Prediksi ini melukiskan gambaran yang optimis untuk pengembangan teknologi AI di masa depan.
Huang Renxun mengatakan bahwa chip AI saat ini telah meningkat 1.000 kali dibandingkan dengan sepuluh tahun yang lalu, yang merupakan kecepatan kemajuan yang jauh melebihi hukum Moore, dan ia percaya bahwa tren ini tidak akan berhenti dalam waktu dekat. Inovasi teknologi berkelanjutan ini akan membawa lebih banyak terobosan dan peluang bagi industri AI.
Poin -poin penting: CEO NVIDIA Huang Renxun mengatakan bahwa peningkatan kinerja chip AI perusahaan telah melampaui hukum Moore. Chip GB200NVL72 terbaru adalah 30 hingga 40 kali lebih cepat pada beban kerja inferensi AI daripada generasi sebelumnya. Huang Renxun memperkirakan bahwa dengan peningkatan daya komputasi, biaya menggunakan model AI secara bertahap akan berkurang. Kemajuan ini tidak hanya menunjukkan kekuatan teknologi Nvidia, tetapi juga menunjukkan arah untuk pengembangan teknologi AI di masa depan.