一封公開信引爆AI界論戰!論文原意「從來不是AI太強大」,真正可怕的是⋯
一封公開信引爆AI界論戰!論文原意「從來不是AI太強大」,真正可怕的是⋯

特斯拉執行長馬斯克(Elon Musk)、蘋果聯合創辦人史蒂夫·沃茲尼亞克(Steve Wozniak)以及其他上千名AI研究人員日前簽署公開信,呼籲暫停研究更先進的AI技術。然而,此信遭到許多專家甚至簽名者的質疑,被指加劇AI炒作、簽名造假以及歪曲論文等。

這封公開信由非營利組織「生命未來研究所」(Future of Life Institute)撰寫,其使命是“減少強大技術帶來的全球災難性和生存風險”。具體來說,該研究所專注於減輕人類的長期「生存」風險,比如超級AI。馬斯克是該組織的支持者,他在2015年曾向其捐贈了1000萬美元。

馬斯克為何要暫停更先進的AI?連署信說了什麼?

信中寫道:「只有在我們確信AI的影響是積極的、風險是可控的情況下,才應該開發更強大的AI系統。因此, 我們呼籲所有AI實驗室立即暫停至少6個月訓練比GPT-4更強大的AI系統。 AI實驗室和獨立專家應該利用這段時間,共同開發和實施一套高級AI設計和開發的共享安全協議,這些協議由獨立的外部專家嚴格審計和監督。」

這封信還澄清說:「這並不意味著AI發展總體上處於暫停狀態,只是從危險的競賽退回到具有緊急功能的更大、不可預測的黑箱模型。」 它指的是微軟和Google等大型科技公司之間的AI競賽,這兩家公司在過去一年發布了許多新的AI產品。

微軟Bing
隨著微軟、Google等科技公司等公布更多AI工具服務,AI戰爭已進入白熱化階段。
圖/ shutterstock

其他著名的簽名者包括圖像生成器新創Stability AI首席執行官伊馬德·穆斯塔克(Emad Mostaque)、作家兼歷史學家尤瓦爾·諾亞·哈拉里(Yuval Noah Harari)和Pinterest聯合創始人埃文·夏普(Evan Sharp)等。也有參與AI競賽的公司的員工簽名,包括谷歌姊妹公司DeepMind和微軟。儘管OpenAI開發並商業化了GPT系列AI模型,但沒有人在信上簽名。

延伸閱讀:暫停GPT-4研究6個月!馬斯克帶頭千名CEO、科學家聯名信,他們恐懼什麼?

儘管經過了驗證過程,但這封信一開始還是有許多虛假簽名者,包括冒充OpenAI首席執行官薩姆·阿爾特曼(Sam Altman)、Meta首席AI科學家雅恩·勒昆(Yann LeCun)的人。之後,生命未來研究所清理了名單,並在驗證每個簽名時暫停了在信上顯示更多簽名。

AI專家反對連署信:暫停訓練6個月沒意義,這是AI炒作!

然而,這封公開信的發布已經引起了軒然大波,受到許多AI研究人員的仔細審查,包括許多簽名者本人。 有些簽名者重新改變了自己的立場,有些知名人士的簽名被證明是假的,更多AI研究人員和專家則公開對這封信中的描述和提議的方法表達了反對意見。

紐約大學心理學和神經科學教授加里·馬庫斯(Gary Marcus)說:「這封信並不完美,但其精神是正確的。」同時,Stability AI首席執行官穆斯塔克在推特上表示,OpenAI是一家真正「開放」的AI公司,「所以,我不認為暫停訓練六個月時間是最好的主意,也不同意信中的很多觀點,但這封信中有些地方的確很有趣。」

AI專家批評這封信進一步推動了「AI炒作」,但卻沒有列出或呼籲對當今存在的AI危害採取具體行動。有些人認為,這宣揚了一種長期卻有些不符合實際的觀點,這種觀點被批評為有害和反民主的,因為它對超級富豪更有利,並允許他們在某些理由下採取道德上可疑的行為。

Elon Musk Flickr cc by JamesDuncanDavidson.jpg
特斯拉執行長馬斯克(Elon Musk)以及其他上千名AI研究人員日前簽署公開信,呼籲暫停研究更先進的AI技術。
圖/ Flickr cc by JamesDuncanDavidson

學者:這封AI公開信濫用了我的研究成果

華盛頓大學語言學系教授、公開信開頭所引用論文的合著者艾米麗·本德爾(Emily M. Bender)在推特上寫道,這封信中“充斥著AI炒作”,並濫用了她的研究成果。信中稱:「廣泛的研究表明,具有堪比人類智慧的AI系統可能會對社會和人類構成重大威脅。」但本德爾反駁說,她在研究中特別指出,這種威脅是指目前的大型語言模型及其在壓迫系統中的使用情況,這比公開信中假設的未來AI威脅要具體得多,也更緊迫。

本德爾繼續寫道:「我們在2020年底發布了完整論文,指出這種不考慮風險而急於建立更大語言模型的做法存在問題。 但風險和危害從來都不是『AI過於強大』,相反地,它們關乎權力集中在人民手中,關乎重現壓迫體系,關乎對訊息生態系統的破壞,關乎對自然生態系統的破壞等。

AI新創公司Hugging Face的研究科學家薩莎·盧西奧尼(Sasha Luccioni)在接受採訪時表示:「公開信在本質上是一種誤導:讓每個人都注意到大型語言模型被臆想的力量和危害,並提出非常模糊、幾乎無效的解決方案,而不是在此時此刻關注這些危害並解決它們。例如,在涉及LLM的培訓數據和能力時要求更多的透明度,或者要求立法規定在哪裡和何時可以使用它們。」

人類應該如何思考AI?我們如何與AI共存?

普林斯頓大學計算機科學副教授阿爾溫德·納拉亞南(Arvind Narayanan)表示,這封公開信充滿了AI炒作,「使解決真實的、正在發生的AI危害變得更加困難」。

公開信中提出了幾個問題:「我們是否應該自動化所有工作,包括那些讓人有成就感的工作?我們是否應該培養非人類思維,這些思維最終可能會超過人類智慧並取代我們?我們應該冒著失去對文明控制的風險繼續開發AI嗎?」

對此,納拉亞南說,這些問題都是「無稽之談」、「荒謬無比」。計算機是否會取代人類並接管人類文明,這是一個非常遙遠的問題,是長期主義思維的一部分,它分散了我們對當前問題的注意力。畢竟,AI已經被整合到人們的工作中,減少了對某些職業的需求,而不是一種會讓我們「過時」的「非人類思維」。

納拉亞南還稱:「我認為,這些可以算是合理的長期擔憂,但它們已被反覆提及,轉移了人們對當前危害的注意力,包括非常真實的訓息安全和安全風險!而解決這些安全風險將需要我們精誠合作。 但不幸的是,這封信中的炒作,包括對AI能力和事關人類生存風險的誇大,可能會導致AI模型被更多地束縛,使應對風險變得更加困難。

延伸閱讀:「AI提示詞工程師」是什麼?年薪百萬、企業想要⋯但其實很容易被取代?

不過,許多公開信的簽字人也進行了辯護。研究機構Mila創始人兼科學主任約書亞·本吉奧(Yoshua Bengio)表示, 六個月的暫停時間對於包括政府在內的治理機構理解、審計和驗證AI系統是必要的,可以確保這些系統對公眾是安全的 。他補充說,目前存在危險的權力集中,AI工具有可能破壞民主的穩定,「民主價值觀和開發這些工具的方式之間存在衝突」。

麻省理工學院NSF AI與基礎交互研究所(IAIFI)物理學教授、未來生命研究所所長馬克斯·泰格馬克(Max Tegmark)表示,最糟糕的情況是,人類將逐漸失去對文明的控制。他說,目前的風險在於,「我們失去了對科技公司中一群未經選舉產生的權力人士的控制,他們的影響力太大了。」

這些評論談到了廣闊的未來,暗示著對失去文明控制的恐懼,但除了呼籲6個月的暫停期之外,沒有談到任何具體措施。

計算機科學家、分佈式AI研究所創始人蒂姆尼特·格布魯(Timnit Gebru)在推特上發文稱,具有諷刺意味的是,他們呼籲暫停訓練比GPT-4更強大的AI模型,但卻未能解決圍繞GPT-4本身的大量擔憂。

本文授權轉載自:網易科技

關鍵字: #AI #ai人工智慧
本網站內容未經允許,不得轉載。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
台日半導體新局 全解讀
© 2024 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓