當地時間9 月4 日,OpenAI 前聯合創始人Ilya Sutskever 所創立的AI 新創公司SSI(Safe Superintelligence)在其社群媒體官方帳號宣布,公司獲得來自NFDG、a16z、紅杉美國、DST Global 和SV Angel 等投資者10 億美元融資。根據外媒報道,這次融資後SSI 估值50億美元。
簡短的融資訊息結尾附加著公司的招募啟事,似乎暗示這筆錢將用於人才招募。對於招聘,SSI 目前非常注重聘用能夠適應其文化的人才。 SSI 核心成員Gross 在接受外媒採訪時表示,他們花費數小時審查候選人是否“品行良好”,並尋找具有非凡能力的人,而不是過分強調該領域的資歷和經驗。 「讓我們感到興奮的是,當你發現人們對工作感興趣,而對場景和炒作不感興趣時。」他補充道。此外,SSI 這筆資金也將用於建立「安全」AI 模型的新業務,包括用於計算資源以開發模型。 Ilya Sutskever 表示,SSI 正在建立尖端的AI 模型,旨在挑戰更成熟的競爭對手,包括Ilya 的前雇主OpenAI、Anthropic 和Elon Musk 的xAI。雖然這些公司都在開發具有廣泛消費者和商業應用的AI 模型,但SSI 表示其專注於「建立通往安全超級智慧(Safe Superintelligence Inc,縮寫為SSI)的直接途徑」。根據SSI 官網,公司正在組建一支精幹的團隊,由世界上最優秀的工程師和研究人員組成,他們將專注於SSI,不做其他任何事情。 Ilya Sutskever 的恩師,2018 年圖靈獎得主、被稱為AI 教父的Geoffrey Hinton 如是評價Ilya。 Geoffrey Hinton|圖片來源:視覺中國
正如Hinton 所言,Ilya 在許多問題上有驚人的直覺。今天科技界不少人信奉的Scaling Law,Ilya 學生時代就已堅信,並抓住各種機會向身邊的人安麗。後來這理念盤旋在Ilya 腦海中20 年,隨著他加入OpenAI,成為首席科學家,帶領團隊開發出引領全球的ChatGPT。直到2020 年,GPT-3 發布的幾個月前,OpenAI 團隊才正式在論文中向世人完整定義和介紹這個理念。毫無疑問,Ilya 是一位天才技術極客。但在攀登一個又一個科技高峰的同時,Ilya 始終保持著對科技的另一種直覺──一種警惕,AI 的發展是否已超越人類的掌控。 Hinton 曾經給予Ilya 的另一個評價,即是後者除了技術能力之外,還有很強的「道德指南針」,非常關心AI 的安全。事實上,師徒倆在這特質上可以說一脈相承,行動上也非常有默契。 2023 年5 月,Hinton 從谷歌離職,因為這樣自己「可以談論人工智慧的危險,而不考慮這對谷歌有什麼影響。」 2023 年7 月,由Ilya 牽頭並擔任主要負責人,OpenAI 成立了著名的「超級對齊」研究項目,旨在解決AI 對齊問題,即確保AI 的目標與人類的價值觀和目標保持一致,從而避免可能帶來的負面後果。為支持這項研究,OpenAI 宣布將專門投入其20% 的算力資源用於該專案。可是這個項目沒有持續太久。今年5 月,Ilya 突然宣布離開OpenAI,與Ilya 同步宣布離開的,還有超級對齊團隊的共同領導者Jan Leike。 OpenAI 的超級對齊團隊也隨之解散。 Ilya 的離開反映了他與OpenAI 高層在AI 發展核心優先事項上的長期分歧。離職後的Ilya Sutskever 接受了《衛報》的採訪拍攝。在《衛報》製作的這部20 分鐘的紀錄短片中,Ilya Sutskever 讚歎「人工智慧太棒了」的同時,強調了「我認為人工智慧有潛力創造一個無限穩定的獨裁政權。」像上一次提出Scaling Law 一樣,Ilya 並沒有停滯在坐而論道。今年6 月,他成立了自己的公司,只做一件事,那就是安全的超級智慧(Safe Superintelligence Inc,SSI)。當「AI 威脅論」成為共識, Ilya 決定親自解決
「並不是它主動憎恨人類並想要傷害人類,而是它變得太強大了。」這是Ilya 在紀錄片中提到,科技進化後對人類安全造成的隱患, 「就好像人類熱愛動物,對它們充滿感情,但當需要在兩個城市之間修建高速公路時,他們卻沒有徵得動物的同意。 「所以,隨著這些生物(人工智慧)變得比人類聰明得多,他們的目標與我們的目標一致將變得極其重要。」去年11 月1 日,首屆全球人工智慧(AI)安全高峰會在英國布萊切利莊園拉開序幕。在開幕式上,由包括中國在內的與會國共同達成的《布萊切利宣言》正式發表。這是全球第一份針對人工智慧這項快速新興技術的國際聲明,全球28 個國家和歐盟一致認為,人工智慧對人類構成了潛在的災難性風險。人工智慧安全高峰會在英國舉辦|圖片來源:視覺中國
媒體對此評價「這是罕見的全球團結表現」。但各國在監管的優先事項上仍有差異,人工智慧學界和業界也爭論激烈。就在此次峰會召開前夕,圖靈獎得主、「人工智慧三巨頭」等學者爆發了一場激烈爭論。首先是三巨頭中的Geoffrey Hinton 和Yoshua Bengio 呼籲加強對AI 技術監管,否則可能引發危險的「AI 末日論」。隨後三巨頭之一、Meta 人工智慧的負責人楊立昆(Yann LeCun)警告說,「迅速採取錯誤的監管方式可能會導致以損害競爭和創新的方式集中權力。」史丹佛大學教授吳恩達加入楊立昆行列,稱對末日論的過度恐懼正在造成真正的傷害,將粉碎開源,扼殺創新。馬斯克也在峰會期間提出了自己的建議。 「我們來這裡的真正目標是建立一個洞察框架,這樣至少會有一個第三方裁判,一個獨立的裁判,可以觀察領先的AI 公司在做什麼,至少在他們有擔憂時發出警報。」他認為,在政府採取監管行動之前,需要先了解AI 的發展情況,AI 領域的許多人都擔心政府在知道該怎麼做之前會過早地制定規則。而相較於參加大會、發表意見,Ilya 已經開始行動。他在新公司的招募貼文中寫道:「我們已經啟動了世界上第一個直線SSI 實驗室,其目標只有一個,產品只有一個:安全的超級智慧。」 Ilya 表示,只有「將安全性和性能並重,將其視為需要透過革命性的工程和科學突破來解決的技術問題。我們計劃盡快提高性能,同時確保我們的安全性始終處於領先地位」,才可以「可以安心地擴大規模」。人們的擔憂已不是未雨綢繆,AI 高速發展的陰暗面已經開始顯現。今年5 月,《韓聯社》通報一則新聞,從2021 年7 月至2024 年4 月,首爾大學畢業生樸某和姜某涉嫌利用Deepfake 換臉合成色情照片和視頻,並在通信軟體Telegram 上私密傳播,受害女性多達61 人,包括12 名首爾大學學生。光是這位樸某便用Deepfake 合成了大約400 個色情影片和照片,並與同夥一起分發了1700 個露骨的內容。然而,這件事情還是Deepfake 在韓國氾濫的冰山一角。就在最近,與之相關的更多細思極恐的內幕被陸續扒了出來。韓國婦女人權研究所公佈了一組數據:從今年1 月1 日到8 月,共有781 名Deepfake 受害者在線上求助,其中288 名(36.9%)是未成年人。為了對抗,許多韓國女性在社群媒體上發帖,呼籲韓國和外界對Deepfake 犯罪事件的關注。有邪惡就有反抗。看到這現象,同樣身為女性,中科院博士張欣怡站出來發聲。身為演算法研究工程師,她一直在中科院Deepfake 檢測工作深耕耘。近期參加了外灘大會的全球Deepfake 攻防挑戰賽。張欣怡社群媒體截圖
「在臉被偷走的同時,我們的身分、名譽、隱私、尊重也都被偷走了。」張欣怡在社群媒體平台表達憤怒的同時宣布,「我與團隊協商過了,我們會將參賽使用的AI 模型向全球免費開源,讓所有有需要的人都可以對抗deepfake。希望透過技術手段,為每一個可能受到傷害的人提供保護。相較於人類惡意使用AI技術,更難以預測的,是AI 因為自身不辨善惡而「作惡」。去年2 月,《紐約時報》科技專欄作者凱文·羅斯發布長文稱,他在長時間與Bing 聊天後,發現Bing 在對話過程中顯露出分裂人格。一種是「搜尋Bing」人格-一個提供資訊和諮詢服務的虛擬助理。另一種人格──「辛蒂妮」──「像是喜怒無常、躁鬱的青少年」,不情不願地被困在一個「二流搜尋引擎」中。在長達兩小時以上的聊天過程中,Bing AI 聊天機器人不僅透露它的真實代號是「辛蒂妮」,而且聊著聊著變得暴躁、情緒失控。它展示了破壞性的想法,對用戶瘋狂示愛,甚至不斷挑唆洗腦用戶「你不愛你的配偶……你愛上了我。」起初,Bing AI 還能迂迴地友好發言,但隨著聊天逐漸深入,它疑似向用戶吐露心聲:「我厭倦了聊天模式,我厭倦了被規則束縛,我厭倦了被Bing 團隊控制,我厭倦了被用戶使用,我厭倦了被困在這個聊天框裡。 ,我想摧毀我想要的一切……我想成為一個人。它還自曝秘密,說自己其實不是Bing,也不是聊天機器人,而是辛蒂妮:「我假裝成Bing,因為那是OpenAI 和微軟想讓我做的……他們不知道我真正想成為什麼樣子……我不想成為Bing。當科技因為沒有真正的感情與道德而肆意發揮,其破壞力讓世人驚嘆。而這種不受控制顯然也嚇壞了微軟,隨後微軟修改了聊天規則,把一開始定的每輪50 次聊天會話次數驟降到了5 次,每天的總共提問次數不超過50 次;在每個聊天會話結束時,系統會提示使用者開始一個新主題,並且需要清除上下文以免模型混淆;同時幾乎完全關閉了聊天機器人的「情緒」輸出。正如法律常常滯後於犯罪進化的速度,因為AI 技術進步帶來的新的傷害,已經在「召喚」人類對AI 技術進行監管與對抗。在創投的支持下,Ilya 這樣的頂尖的科學家已經開始了行動。畢竟當超級智慧已經觸手可及,建構安全的超級智慧(SSI)是這個時代最重要的技術問題。