Safe Superintelligence (SSI) 在前 OpenAI 首席科學家 Ilya Sutskever 的帶領下,成功募得 10 億美元資金,致力於發展超越人類能力且安全的人工智慧系統。
(OpenAI 共同創辦人 Ilya Sutskever 離職,Sam Altman 宣布新任首席科學家)
Table of Contents
SSI 募資 10 億美元,專注於安全超人工智慧
據路透,Ilya Sutskever 曾是 OpenAI 的重要人物,但在離開該公司後,他將重心轉向新的創業。Sutskever 的最新專案 Safe Superintelligence (SSI) 旨在解決 AI 安全問題,並通過頂級投資者籌集了 10 億美元的資金。與 Sutskever 一同領導 SSI 的還有首席科學家 Daniel Levy 和執行長 Daniel Gross,他們的團隊分別位於美國和以色列。
雖然 SSI 並未公開其估值,但據知情人士透露,公司估值已達 50 億美元。儘管市場上對於基礎 AI 研究的熱情有所下降,但 SSI 的募資顯示出投資者對於出色人才的信心依然高漲。
這類公司通常難以在短期內實現盈利,因此吸引資金並不容易,許多新創公司創辦人紛紛選擇跳槽至大型科技企業。
頂級投資機構加持:a16z、紅衫等
SSI 的投資者名單包括 Andreessen Horowitz、Sequoia Capital、DST Global 和 SV Angel 等頂級風險投資公司,還有由 Nat Friedman 和 SSI 執行長 Daniel Gross 經營的投資合夥公司 NFDG 也參與其中。Gross 在接受採訪時表示:「我們重視擁有理解並支持我們使命的投資者,我們的目標是直指安全超人工智慧,並在將產品推向市場前,花數年時間進行研發。」
尚未選邊站,質疑 AI 擴展假說
SSI 計劃與雲端供應商和晶片公司合作,以確保其雄心勃勃的專案所需的計算能力。然而,公司尚未最終確定這些合作夥伴,目前正在考慮包括微軟和 Nvidia 等潛在的基礎設施合作夥伴。
作為 AI 擴展假說的倡導者,Sutskever 計劃在 SSI 採取不同的擴展方法。雖然他沒有透露具體細節,但他質疑當前的產業趨勢:「大家都在說擴展假說,但卻忽略了要問:我們究竟在擴展什麼?」
聚焦 AI 安全:預防失控人工智慧
AI 安全問題一直是熱門話題,特別是在擔憂失控的人工智慧可能危害人類利益,甚至導致人類滅絕的情況下。一項在加州提出的法案試圖對 AI 公司施加安全法規,但在業界引起分歧。OpenAI 和 Google 反對該法案,而 Anthropic 和 Elon Musk 創辦的 xAI 則表示支持。
(微軟大戰亞馬遜!OpenAI 共同創辦人離開公司加入競爭對手 Anthropic,澄清離職原因)
37 歲的 Sutskever 是 AI 領域最具影響力的技術專家之一。今年六月,他與前 Apple AI 領導者 Daniel Gross 及前 OpenAI 研究員 Daniel Levy 共同創立 SSI。這家新創公司致力於打造一個高度信任的小型研究團隊,專注於開發安全且能夠推進人類社會的超人工智慧。
此次募資成功,代表 SSI 將成為 AI 安全領域的新興力量,並預示著在全球 AI 技術迅速發展的背景下,對於安全和控制的需求只會日益增加。