Groq公司,由谷歌前员工创立,近期推出了其AI加速芯片LPU。这款芯片通过创新的SRAM存储技术和减少内存访问的架构设计,显著提升了大模型的推理和生成速度,据称速度可达GPU的十倍。LPU支持Llama、Mixtral等多种大模型,其推出将有助于优化大模型性能,并提升诸如语音助手和AI写作等应用的响应速度,为AI应用的性能提升带来新的可能性。 这标志着AI芯片领域的一次重要突破。
Groq是一家AI芯片创业公司,由谷歌前员工创立。该公司推出了一款名为LPU的AI加速芯片,通过技术创新大幅提速大模型的推理与生成,速度可达GPU的10倍。这主要得益于采用了高速的SRAM存储技术,以及减少内存访问的架构设计。用户可以在LPU上运行Llama、Mixtral等多种大模型。LPU的推出有助于进一步优化大模型性能,或用于提升语音助手、AI写作等应用的响应速度。LPU芯片的出现,为AI领域带来了新的活力,其高速性能有望推动更多AI应用的普及和发展,值得持续关注其在未来市场中的表现和影响。 期待未来看到更多基于LPU的创新应用出现。