新京報貝殼財經訊(記者白金蕾陳維城)10月25日至26日,由RTE開發者社群與聲網聯合主辦的RTE2024第十屆即時網路大會在京舉行。會上一場由Lepton AI創始人兼首席執行官賈揚清,MiniMax合夥人魏偉,面壁智能聯合創始人、首席技術官曾國洋,Hugging Face工程師王鐵震等組成的針對“AI的6000億美元難題:從基礎設施到商業化落地」的圓桌論壇,引發業界關注。 「AI的6000億美元難題」起源於紅杉資本的合夥人David Cahn(大衛·卡恩)的文章,他認為:AI(人工智慧)基礎設施的巨額投資和實際收入之間差距過大,人工智慧將要到達泡沫的臨界點;AI可能是下一個變革性的技術浪潮,GPU(圖形處理器)運算價格的下降,實際上對長期創新和新創公司是有利的,而投資者會受損。 RTE2024第十屆即時網路大會。圖|受訪者供圖針對AI的基礎建設,賈揚清分享了兩個核心觀點:同等尺寸的模型,能力會越來越強,尤其是透過蒸餾、壓縮等技術,現在的LLama 3.2 3B模型甚至可以和以前的LLama 70B模型能力相近;除了極少數頭公司之外,越來越多的企業會採用「開源+精調」來做下一代模型,因此開源架構的應用會越來越普遍。 「開源模型的優勢是生態和社區,從實際應用角度,很多人找個開源模型然後微調是可以用的,但用開源模型解決所有問題是不夠的。」王鐵震說,「我們將在未來看到越來越多Infra(基礎設施)和Realtime(即時處理) 的工作,大家不僅需要關注開源模型本身,還需要重視開源模型的基礎設施和資料閉環,才能把開源模型跑得更好、更快。 Realtime需要TTS(文字轉語音),也需要大模型,如果能夠透過一些方式放在一起
,放在邊緣側、離用戶更近的地方,才能產生非常好的效果。推理的成本問題?曾國洋分享到,「隨著技術的前進,算力一定會越來越便宜,相同能力的模型規模也會越來越小,但算力成本優化會最終轉化為訓練更強大的模型。真正達到agi (通用人工智慧)水平之前,我們只能感受到模型在變得越來越強,很難感受到成本的變化。讓模型在端上跑得更快,在實際部署過程中,他們會用各種量化壓縮甚至是稀疏化方法去優化實際部署的開銷。賈揚清也指出成本不是一個考量。他判斷,推理成本一年內會降到現在的十分之一,創業者在構建應用時可以按照做一個應用成本是目前十分之一來進行成本核算,看能不能做,包括模型、硬體和應用在上量後,也都是可以降低成本的。近期有報稱,OpenAI正在解散其聚集於AI安全研究的「AGI Readiness」團隊。在場的AI企業創辦人是如何看待AI安全和倫理問題的?賈揚清舉例稱,目前的飛機有許多安全需求,但造火箭就被給予了更多彈性。所以他猜測,OpenAI可能是為了更好地先期發展,也可能是覺得AI安全沒有跳出傳統的安全範疇,傳統的資料安全、雲端安全已經足夠保障了。王鐵震表示,現在擔心AI取代人類是比較早的,但是AI已經對一些行業產生了不好影響,比如視頻以假亂真的影響,包括對青少年心理的影響,而這裡創業的機會也是非常多的。活動現場,聲網宣布與MiniMax正在打磨中國第一個Realtime API (即時處理應用程式介面)。那麼,應該如何看待音視頻多模態模型的實際應用潛力?魏偉表示,隨著多模態的出現,生成式人工智慧的邊界一定會被持續拓展,並加速這一產業的改變。從產品和用戶服務過程中魏偉發現,文字、語音、音樂、影片這些模型可以很好地幫助藝術、影視、音樂等領域的創作者極大地提高效率,並為他們提供新的思路和方法。王鐵震也認為,如果影片生成的效果,能超過電影等級的效果,而且不需要多次生成,即使價格高,也有人願意嘗試。