美國當地時間週三,人工智能新創公司OpenAI宣布正建立一個新的團隊,以開發引導和控制「超智慧(superintelligent)人工智慧」系統的方法。這個團隊由OpenAI首席科學家、聯合創始人伊利亞·蘇斯克維爾(Ilya Sutskever)領導。
在部落格文章中,蘇斯克維爾和OpenAI協調團隊的負責人簡·萊克(Jan Leike)預測,「智商」超過人類的人工智慧將在十年內出現。他們警告稱,這種AI不一定對人類抱有仁慈之心,因此有必要研究控制和限制它的方法。
蘇斯克維爾和萊克寫道:「目前,我們還沒有任何解決方案可以用來操縱或控制潛在的超智慧人工智慧,並防止它失控。我們目前調整人工智慧的技術——比如從人類反饋中強化學習——都是依賴人類監督的能力。但人類將無法可靠地監督比我們聰明得多的人工智慧系統。」
為了在「超智慧對齊」(Superintelligence Alignment)領域取得進展,OpenAI正在創建新的超級對齊團隊,由蘇斯克維爾和萊克共同領導,該團隊將有權使用OpenAI高達20%的算力資源。這個團隊將與OpenAI之前的對齊部門科學家和工程師以及公司其他機構的研究人員一起,致力於在未來四年解決控制超智慧人工智慧的核心技術挑戰。
那麼,如何確保比人類聰明得多的人工智慧系統遵循人類的意圖?這就需要蘇斯克維爾和萊克所描述的「人類級別的自動對齊研究員」幫助。目標是使用人類反饋來訓練人工智慧系統,訓練AI協助評估其他人工智慧系統,並最終構建可以進行對齊研究的AI。這裡的“對齊研究”指的是,確保人工智慧系統達到預期的結果,或者不會偏離研究軌道。
OpenAI的假設是,人工智慧可以比人類更快、更好地進行對齊研究。
「隨著我們在這方面取得進展,我們的人工智慧可以接管越來越多的對齊工作,並最終構思、實施、研究和開發比我們現在更好的對齊技術」,萊克和他的同事約翰·舒爾曼(John Schulman)、杰弗裡·吳(Jeffrey Wu)在之前的一篇部落格文章中這樣假設,「它們將與人類共同努力,以確保它們自己的繼任者與人類始終保持一致。人類研究員把更多精力集中在審查人工智慧系統完成的對齊研究上,而不是自己進行這類研究。」
當然,沒有任何方法是萬無一失的,萊克、舒爾曼以及杰弗裡·吳在他們的文章中承認,OpenAI的方法存在許多侷限性。他們提到,使用人工智慧進行評估有可能擴大人工智慧中的不一致、偏見或漏洞。結果可能是,對齊問題中最困難的部分可能根本與工程無關。
但蘇斯克維爾和萊克認為值得一試。他們寫道:「從根本上說,超智慧對齊是一個機器學習問題,我們認為優秀的機器學習專家(即使他們還沒有開始研究對齊)對解決這個問題也至關重要。我們計劃廣泛分享這一努力的成果,並將促進非OpenAI模型的一致性和安全性視為我們工作的重要組成部分。」
本文授權轉載自:網易科技
責任編輯:錢玉紘