OpenAI共同創辦人自立門戶
OpenAI共同創辦人暨伊爾亞.蘇茨克維(Ilya Sutskever)近日在X發佈貼文,表示正在打造一個新的人工智慧公司,致力於開發「安全的超級人工智慧(safe superintelligence)」。
這家公司的名字與它的目標相同,就叫做Safe Superintelligence Inc.(SSI),而該公司還有其他兩位共同創辦人,分別是前OpenAI前技術人員丹尼爾.列維(Daniel Levy)與前Apple AI負責人丹尼爾.葛羅斯(Daniel Gross)。
Safe Superintelligence Inc.認為,「超級人工智慧」的出現近在咫尺,而確保其對人類安全,是這個時代最重要的技術挑戰。他們的宗旨,就是成為一個專注於安全超級人工智慧的實驗室,研究技術的同時,視安全為主要目標。
💡 超級人工智慧(Superintelligence) :具備遠超於人類的認知能力和智慧,並具有自我學習、自我改的能力。因可能對社會、經濟和倫理產生深遠影響,因此安全性和控制,是開發超級人工智慧時關鍵的考量因素。
「我們正在組織一個精簡高效的團隊,由世界上最優秀的工程師和研究人員組成,並專注於打造安全超級人工智慧,不涉及任何其他事務。」Safe Superintelligence Inc.在X貼文中寫道。
根據《彭博社》報導,Safe Superintelligence Inc.是一個純研究組織,除了創造一個安全且強大的人工智慧系統外,近期內沒有意圖出售商業化的AI產品或服務。
接受《彭博社》採訪時,蘇茨克維拒絕透露公司財務支持者的名字,或已募集的資金總額,而葛羅斯則表示,資金籌集「不會」成為公司的問題。目前已知,Safe Superintelligence Inc. 將總部設在美國加州的帕羅奧圖(Palo Alto),並在以色列的特拉維夫市(Tel Aviv)設有辦公室。
因AI開發目標不同而離開OpenAI
蘇茨克維自立門戶前,在2024年5月因為一場OpenAI內部的爭議而離開公司,而他正是在2023年11月發起「政變」,投票解僱OpenAI執行長山姆.奧特曼(Sam Altman)的關鍵人物之一。
蘇茨克維傾向於推動純粹的科學研究和技術創新,並且重視AI公共安全,而非單純的商業利益。奧特曼則擅長技術商業應用和市場推廣,並將OpenAI的研究成果轉化為具體產品及服務。兩人最終因戰略方向、技術發展等內部意見問題而產生分歧。
此外,外媒《Vox》報導,OpenAI的研究員揚.萊克(Jan Leike)和葛蕾琴·克魯格(Gretchen Krueger)近期也從公司離職,理由是對AI安全性產生擔憂。《Vox》還透露,至少還有五名「關注安全的員工」,自去年11月以來陸續離開OpenAI。
如今蘇茨克維打造Safe Superintelligence Inc.,再次喚起對AI安全問題的關注,強大且安全的AI系統是技術創新的一大挑戰,也是AI進入人類日常生活之前,必須全面作好的關鍵準備。
資料來源:CryptoSlate、Bloomberg、Vox
