蘋果近日發布了其大型多模態基礎模型MM1,參數規模達到300億,採用了混合專家(MoE)架構。值得關注的是,該模型研發團隊中超過一半成員為華人,體現了華人科學家在人工智慧領域的重要貢獻。 MM1在多模態基準測試中表現出色,預示著蘋果在生成式人工智慧領域取得了重大突破,並可能為未來產品研發奠定堅實基礎。其採用MoE變體,在預訓練指標和多項多模態基準測試上均表現領先,研究者也透過多項消融實驗驗證了模型架構和預訓練資料選擇的重要性。
蘋果發表了名為MM1的大型多模態基礎模型,參數達到300億,採用MoE架構,並有超過一半的作者是華人。該模型在多模態領域具有重要意義,可能預示蘋果未來推出相關產品。蘋果加大對生成式人工智慧領域的投入,展現了取得重大進展的決心。 MM1採用MoE變體,在預訓練指標和多項多模態基準測試上表現領先。研究者透過多項消融試驗,探討了模型架構、預訓練資料選擇等面向的重要性。MM1的發布標誌著蘋果在人工智慧領域邁出了重要一步,其強大的性能和華人團隊的貢獻都值得關注。未來,我們可以期待蘋果基於MM1推出更多創新產品和服務,進一步推動多模態人工智慧技術的發展與應用。