在AI產業蓬勃發展的當下,對先進AI基礎設施的需求日益增長。 GMI Cloud,一家矽谷的GPU雲計算提供商,抓住這一機遇,宣布完成8200萬美元的A輪融資,由Headline Asia領投,Banpu Next和緯創資通等參與投資。這筆融資將用於提升其在北美市場的服務能力,鞏固其在AI雲服務領域的領先地位,進一步推動全球AI的部署和應用。
在全球對先進人工智能基礎設施需求不斷上升的背景下,矽谷的GPU 雲計算提供商GMI Cloud 宣布完成8200萬美元的A 輪融資。
此次融資由Headline Asia 主導,並得到了Banpu Next 和緯創資通等知名合作夥伴的支持。這輪融資後,GMI Cloud 的總資本已經超過9300萬美元,資金將用於在科羅拉多州開設新的數據中心,從而進一步提升其在北美市場的服務能力,鞏固其作為領先的AI 雲服務提供商的地位。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
GMI Cloud 的成立初衷是為了讓更多的企業能夠輕鬆接入先進的AI 基礎設施。公司的目標是簡化全球AI 的部署,提供一個垂直整合的平台,結合頂級硬件和強大的軟件解決方案,確保企業能夠高效便捷地構建、部署和擴展AI。
GMI Cloud 的平台為AI 項目提供了一個完整的生態系統,整合了先進的GPU 基礎設施、專有的資源調度系統,以及管理和部署模型的工具。這些綜合解決方案有效消除了許多傳統基礎設施所面臨的挑戰。比如,用戶可以快速訪問NVIDIA 的GPU,選擇按需或私有云實例,適應從小型項目到企業級機器學習工作負載的各種需求。
此外,GMI Cloud 的集群引擎基於Kubernetes,能夠實現GPU 資源的無縫管理和優化,提供多集群能力,靈活地滿足項目的擴展需求。其應用平台則專為AI 開發設計,提供可定制的環境,兼容API、SDK 和Jupyter 筆記本,支持模型訓練、推理和定制化。
位於科羅拉多的新數據中心是GMI Cloud 擴展的重要一步,為北美客戶提供低延遲、高可用性的基礎設施,滿足日益增長的需求。這一新中心將與GMI 在台灣及其他關鍵地區的現有數據中心形成互補,實現快速的市場部署。
GMI Cloud 還是NVIDIA 合作夥伴網絡的成員,集成了NVIDIA 最先進的GPU,如NVIDIA H100,確保客戶能夠使用強大的計算能力,處理複雜的AI 和機器學習工作負載。 NVIDIA H100Tensor Core GPU 以其出色的性能、可擴展性和安全性,專為AI 應用優化,可以加速大型語言模型的處理速度,適合對話式AI 等高強度機器學習任務。
劃重點:
GMI Cloud 獲得8200萬美元A 輪融資,將在科羅拉多州新建數據中心,擴展北美市場。
公司提供一體化的AI 基礎設施平台,幫助企業輕鬆構建和部署AI 項目。
GMI Cloud 與NVIDIA 合作,使用先進的GPU 技術,推動AI 和機器學習的發展。
總而言之,GMI Cloud 的A 輪融資和科羅拉多州新數據中心的建設,標誌著其在AI雲服務市場上的進一步擴張和鞏固。其強大的技術實力和與NVIDIA的合作,將為全球企業提供更便捷、高效的AI基礎設施服務,推動AI技術的快速發展和應用。