Groq, yang didirikan oleh mantan karyawan Google, baru-baru ini meluncurkan chip akselerasi AI LPU. Chip ini secara signifikan meningkatkan kecepatan inferensi dan pembangkitan model besar melalui teknologi penyimpanan SRAM yang inovatif dan desain arsitektur yang mengurangi akses memori. Dikatakan bahwa kecepatannya bisa mencapai sepuluh kali lipat dari GPU. LPU mendukung berbagai model besar seperti Llama dan Mixtral. Peluncurannya akan membantu mengoptimalkan kinerja model besar dan meningkatkan kecepatan respons aplikasi seperti asisten suara dan penulisan AI, sehingga menghadirkan kemungkinan baru untuk peningkatan kinerja aplikasi AI. Hal ini menandai terobosan penting di bidang chip AI.
Groq adalah startup chip AI yang didirikan oleh mantan karyawan Google. Perusahaan telah meluncurkan chip akselerasi AI yang disebut LPU, yang mempercepat inferensi dan pembuatan model besar melalui inovasi teknologi, dengan kecepatan hingga 10 kali lipat dari GPU. Hal ini terutama disebabkan oleh penggunaan teknologi penyimpanan SRAM berkecepatan tinggi dan desain arsitektur yang mengurangi akses memori. Pengguna dapat menjalankan Llama, Mixtral, dan model besar lainnya di LPU. Pengenalan LPU dapat membantu lebih mengoptimalkan kinerja model besar, atau digunakan untuk meningkatkan kecepatan respons aplikasi seperti asisten suara dan penulisan AI.Kemunculan chip LPU telah membawa vitalitas baru ke bidang AI. Performa berkecepatan tinggi diharapkan dapat mendorong pemasyarakatan dan pengembangan lebih banyak aplikasi AI . Kami berharap dapat melihat lebih banyak aplikasi inovatif berdasarkan LPU muncul di masa depan.