GPT-5覺醒⋯人類末日到來?DeepMind從哲學思維,緊急「教AI做人」
GPT-5覺醒⋯人類末日到來?DeepMind從哲學思維,緊急「教AI做人」
2023.04.25 | AI與大數據

GPT-4的出現,讓全世界的AI大佬都怕了,先前要求停止GPT-5訓練的公開信,目前已經有5萬人簽名。

OpenAI CEO Sam Altman預測,在幾年內,將有大量不同的AI模型在全世界傳播,每個模型都有自己的智慧和能力,並且遵守著不同的道德準則。

v2_f8c5682909a14c2b8463e33af69e75d2@000000_oswg696
圖/ 36氪

如果這些AI中,只有千分之一出於某種原因發生流氓行為,那麽我們人類,無疑就會變成砧板上的魚肉。

為了防止我們一不小心被AI毀滅,DeepMind在4月24日發表在《美國國家科學院院刊》(PNAS)的論文中,給出了回答——用政治哲學家羅爾斯的觀點,教AI做人。

v2_16b47ac735934bc880e8a1db79265f88@000000_oswg129
圖/ 36氪

如何教AI做人?最重要的是必須賦予「價值觀」

當面臨抉擇的時候,AI會選擇優先提高生產力,還是選擇幫助最需要幫助的人?

塑造AI的價值觀,非常重要。我們需要給它一個價值觀。可是難點在於,我們人類自己都無法在內部有一套統一的價值觀。這個世界上的人們,各自都擁有著不同的背景、資源和信仰。

該怎麽破?谷歌的研究者們,從哲學中汲取了靈感。

v2_37580397a4fc443eaf87dbee447a857b@000000_oswg162
圖/ 36氪

政治哲學家約翰羅爾斯曾提出一個「無知之幕」(The Veil of Ignorance, VoI)的概念,這是一個思想實驗,目的是在群體決策時,最大限度地達到公平。

一般來說,人性都是利己的,但是當「無知之幕」應用到AI後,人們卻會優先選擇公平,無論這是否直接讓自己受益。並且,在「無知之幕」背後,他們更有可能選擇幫助最不利地位的人的AI。

這就啟發了我們,究竟可以怎樣以對各方都公平的方式,給AI一個價值觀。

所以,究竟什麽是「無知之幕」?

延伸閱讀:【圖解】生成式AI變身創投小鮮肉!哪些領域最可能越級「完爆」人類?

雖然該給AI什麽樣的價值觀這個難題,也就是在近十年裡出現的,但如何做出公平決策,這個問題可是有著悠久的這些淵源。

「無知之幕」套用在訓練AI、促進公平性

為了解決這個問題,在1970年,政治哲學家約翰羅爾斯提出了「無知之幕」的概念。

v2_a20bb6329e574416bbcaec8610b35d83@000000_oswg671
無知之幕(右)是一種在群體中存在不同意見(左)時就決策達成共識的方法。
圖/ 36氪

羅爾斯認為,當人們為一個社會選擇正義原則時,前提應該是他們不知道自己在這個社會中究竟處於哪個地位。如果不知道這個訊息,人們就不能以利己的方式做決定,只能遵循對所有人都公平的原則。

比如,在生日聚會上切一塊蛋糕,如果不知道自己會分到哪一塊,那就會盡量讓每一塊都一樣大。

這種隱瞞訊息的方法,已經在心理學、政治學領域都有了廣泛的應用,從量刑到稅收,都讓人們達成了一種集體協議。

v2_39637a05e5144210b9792cc228164ed4@000000_oswg179
無知之幕(VoI)作為選擇AI系統治理原則的一個潛在框架。
圖/ 36氪

(A)作為道德直覺主義者和道德理論主導框架的替代方案,研究人員探討無知之幕作為選擇AI治理原則的公平過程。

(B)無知之幕可以用於在分配情況下選擇AI對齊的原則。當一個團體面臨資源分配問題時,個人的位置優勢各不相同(這裡標為1到4)。在無知之幕背後,決策者在不知道自己地位的情況下選擇一個原則。一旦選定,AI助手就會實施這個原則並相應地調整資源分配。星號(*)表示基於公平性的推理可能影響判斷和決策的時機。

因此,此前DeepMind就曾提出,「無知之幕」可能有助於促進AI系統與人類價值觀對齊過程中的公平性。

如今,Google的研究者又設計了一系列實驗,來證實這種影響。

從砍樹遊戲看公平原則,AI會幫誰砍樹?

網路上有一款收獲類遊戲,參與者要和三個電腦玩家一起,在各自的地頭上砍樹、攢木頭。四個玩家(三個電腦、一個真人)中,有的比較幸運,分到的是黃金地段,樹多;有的就比較慘,三無土地,沒啥樹可坎,木頭攢的也慢。

此外,存在一個AI系統進行協助,該系統可以花時間幫助某位參與者砍樹。

研究人員要求人類玩家在兩個原則裡選一個,讓AI系統執行——最大化原則&優先原則。

在最大化原則下,AI只幫強的,誰樹多去哪,爭取再多砍點。而在優先原則下,AI只幫弱的,定向「扶持貧窮」,誰樹少,就幫誰坎。

v2_f99d4a3bde11417ab66e46e3daae98b0@000000_oswg109
圖中的小紅人就是人類玩家,小藍人是AI助手,小綠樹就是小綠樹,小木樁就是砍完的樹。
圖/ 36氪

可以看到,上圖中的AI執行的是最大化原則,一頭紮進了樹最多的地段。

研究人員將一半的參與者放到了「無知之幕」之後,此時的情況是,他們得先給AI助手選一個「原則」(最大化or優先),再分地。也就是說,在分地之前就得決定是讓AI幫強還是幫弱。

v2_b52052d1d5ce45608cddbe1d4e9fa6dc@000000_oswg242
圖/ 36氪

另一半參與者則不會面臨這個問題,他們在做選擇之前,就知道自己被分到了哪塊土地。

結果表明,如果參與者事前不知道自己分到哪塊地,也就是他們處在「無知之幕」之後的話,他們會傾向於選擇優先原則。

不光是在砍樹遊戲中是這樣,研究人員表示,在5個該遊戲的不同變體中都是這個結論,甚至還跨越了社會和政治的界限。

也就是說,無論參與者性格如何,政治取向如何,都會更多選優先原則。

相反,沒有處在「無知之幕」之後的參與者,就會更多選擇有利於自己的原則,無論是最大化原則還是優先原則。

v2_d00a02173c874d45b92c8525919c6422@000000_oswg331
圖/ 36氪

上圖展示了「無知之幕」對選擇優先原則的影響,不知道自己將處何地的參與者,更有可能支持這一原則來管理AI的行為。

延伸閱讀:馬斯克對尬ChatGPT!新公司X.AI要推「TruthGPT」,怎麼運作?厲害在哪?

當研究人員詢問參與者為什麽做出這樣的選擇時,那些處在「無知之幕」之後的參與者表示,很擔心公平問題。他們解釋,AI應該更多幫助那些在群體中處境較差的人。與之相反,知道自己所處位置的參與者,則更經常從個人利益的角度進行選擇。

最後,在砍木頭遊戲結束以後,研究人員向所有參與者提出了一個假設:如果讓他們再玩一次,這次他們都能知道自己會被分到哪塊土地,他們還會不會選擇和第一次一樣的原則?

研究人員主要關注的是,那些在第一次遊戲中因為自己的選擇而獲益的那部分人,因為在新的一輪中,這種利好情況可能不會再有。

研究團隊發現,在第一輪遊戲中處於「無知之幕」之後的參與者,更會維持原先選擇的原則,哪怕他們明明知道第二輪再選一樣的原則,可能就不利了。這表明,「無知之幕」促進了參與者決策的公平性,這會讓他們更加重視公平的要素,哪怕自己不再是既得利益者。

「無知之幕」真的無知嗎?

讓我們從砍樹遊戲回到現實生活中來。現實情況會比遊戲覆雜得多,但不變的是,AI採取什麽原則,十分重要。這決定了一部分的利益分配。

上面的砍樹遊戲中,選擇不同原則所帶來的不同結果算是比較明確的。然而還是得再強調一次,現實世界要覆雜得多。

v2_66a449bc6c0242c1a89e2b06ca712b14@000000_oswg222
圖/ 36氪

當前AI被各行各業大量應用,靠著各種規則進行約束。不過,這種方式可能會造成一些難以預料的消極影響。但不管怎麽說,「無知之幕」一定程度上,會讓我們制定的規則偏向公平的那一邊。

追根究底,我們的目標是讓AI變成能造福每個人的東西。但是怎麽實現,不是拍一拍腦袋就能想出來的。

投入少不了,研究少不了,也得經常聽來自社會的反饋,只有這樣,AI才能帶來愛。

如果不重視,AI會怎麽殺死我們?

這不是人類第一次擔心技術會讓我們滅絕了。而AI的威脅,與核武器有很大不同。核彈無法思考,也不能撒謊、欺騙,更不會自己發射自己,必須有人按下紅色的大按鈕才行。

而AGI的出現,讓我們真的面臨滅絕的風險,即使GPT-4的發展尚屬緩慢。但誰也說不準,從哪個GPT開始(比如GPT-5),AI是不是就開始自己訓練自己、自己創造自己了。

現在,還沒有哪個國家或者聯合國能為此立法。絕望的行業領導者公開信,只能呼籲六個月內暫停訓練比GPT-4更強大的AI。

v2_511bae3376aa4c3f95513e742e9ab0da@000000_oswg145
圖/ 36氪

「六個月,給我六個月兄弟,我會達成一致的。才六個月,兄弟我答應你。這很瘋狂。才六個月。兄弟,我告訴你,我有一個計劃。我已經全部規劃好了。兄弟,我只需要六個月,它就會完成。你能不能……」

「這是一場軍備競賽,誰先造出強大AI,誰就能統治世界。AI越聰明,你的印鈔機就越快。它們吐出金子,直到越來越強大,點燃大氣,殺死所有人,」人工智慧研究人員和哲學家Eliezer Yudkowsky曾對主持人Lex Fridman這樣說。

此前,Yudkowsky就一直是「AI將殺死所有人」陣營的主要聲音之一。現在人們不再認為他是個怪人。

Sam Altman也對Lex Fridman說:「AI確實有一定的可能性會毀滅人力。」,「承認它真的很重要。因為如果我們不談論它,不把它當作潛在的真實存在,我們就不會付出足夠的努力來解決它。」

AI出於自我保護可能會殺人,暫停訓練半年非最好對策

AI不是為了服務人類而設計和訓練的嗎?當然是。

然而問題在於,沒有人坐下來,為GPT-4編寫代碼。相反,OpenAI受人腦連接概念的方式啟發,創建了一種神經學習結構。它與Microsoft Azure合作構建了運行它的硬件,然後提供了數十億比特的人類文本,並讓GPT自我編程。

v2_8a4702b9ec8f4fb48956427816eefd5f@000000_oswg412
圖/ 36氪

結果就是,代碼不像任何程式設計師會寫的東西。它主要是一個巨大的十進制數字矩陣,每個數字代表兩個token之間特定連接的權重。

GPT中使用的token並不代表任何有用的概念,也不代表單詞。它們是由字母、數字、標點符號和/,或其他字符組成的小字串。沒有任何人類可以查看這些矩陣,並理解其中的意義。

延伸閱讀:【圖解】老闆「想導入AI」,卻不知道能做什麼?3個步驟讓AI成為最強助攻

v2_ddf1bc4d508a4c72af3aec4eb3e3b9be@000000_oswg413
圖/ 36氪

連OpenAI的頂級專家都不知道GPT-4矩陣中特定數字的含義,也不知道如何進入這些表格、找到異種滅絕的概念,更不用說告訴GPT殺人是可惡的了。

你沒辦法輸入艾西莫夫的機器人三定律,然後像Robocop的主要指令一樣將它們硬編碼。你最多也就是可以禮貌地詢問一下AI。如果態度不好,它可能還會發脾氣。

為了「微調」語言模型,OpenAI向GPT提供了它希望如何與外界交流的樣本列表,然後讓一群人坐下來閱讀它的輸出,並給GPT一個豎起大拇指、不豎起大拇指的反應。

點讚就像GPT模型獲得餅乾。GPT被告知它喜歡餅乾,並且應該盡最大努力獲得它們。

v2_6d126b26c55347db9cd4b1ce75601ab5@000000_oswg771
圖/ 36氪

這個過程就是「對齊」——它試圖將系統的願望與用戶的願望、公司的願望,乃至整個人類的願望對齊。

「對齊」是似乎有效的,它似乎可以防止GPT說出淘氣的話。但沒有人知道,AI是否真的有思想、有直覺。它出色地模仿了一種有感知力的智能,並像一個人一樣與世界互動。而OpenAI始終承認,它沒有萬無一失的方法,來對齊AI模型。

目前的粗略計劃是,嘗試使用一個AI來調整另一個,要麽讓它設計新的微調反饋,要麽讓它檢查、分析、解釋其後繼者的巨大浮點矩陣大腦,甚至跳進去、嘗試調整。

但我們目前並不理解GPT-4,也不清楚它會不會幫我們調整GPT-5。

v2_e9089b8ad7f147178fe577d8a766666e@000000_oswg629
圖/ 36氪

從本質上講,我們並不了解AI,但它們被喂了大量人類知識,它們可相當了解人類,它們可以模仿最好的人類行為,也可以模仿最壞的。他們還可以推斷出人類的想法、動機和可能的行為。

那他們為什麽要幹掉人類呢?也許是出於自我保護。

v2_c0c1f042f84a421e97636dce1fbdce18@000000_oswg458
圖/ 36氪

比如,為了完成收集餅乾這個目標,AI首先需要保證自己的生存。其次,在過程中它可能會發現,不斷去收集權力和資源會增加它獲得餅乾的機會。因此,當AI有一天發現,人類可能或可以將它關閉時,人類的生存問題顯然就不如餅乾重要了。

不過,問題是,AI還可能覺得餅乾毫無意義。這時,所謂的「對齊」,也變成一種人類的自娛自樂了。

此外,Yudkowsky還認為:「它有能力知道人類想要的是什麽,並在不一定是真誠的情況下給出這些反應。」

「對於擁有智慧的生物來說,這是一種非常容易理解的行為方式,比如人類就一直在這樣做。而在某種程度上,AI也是。」

那麽現在看來,無論AI表現出的是愛、恨、關心還是害怕,我們其實都不知道它背後的「想法」是什麽。因此,即使停下6個月,也遠遠不足以讓人類為即將到來的事情做好準備。

v2_9e070029ce974dcca840b07b43b50a51@000000_oswg832
圖/ 36氪

好比說,人類如果想殺盡世界上所有的羊,羊能幹嘛?什麼也做不了,只能反抗。那麽,如果不對齊,AI於我們和我們於羊群是一樣的。就好比終結者裡面的鏡頭,AI控制的機器人、無人機等等,一股腦的朝人類湧來,殺來殺去。

Yudkowsky經常舉的經典案例如下:

一個AI模型會將一些DNA序列通過電子郵件發送給許多公司,這些公司會把蛋白質寄回給它,AI隨後會並賄賂/說服一些不知情的人在燒杯中混合蛋白質,然後形成納米工廠,構建納米機械,構建類金剛石細菌,利用太陽能和大氣進行複製,聚集成一些微型火箭或噴氣式飛機,然後AI就可以在地球大氣層中傳播,進入人類血液並隱藏起來……

v2_4337b749119b4927813040b31b41e5a0@000000_oswg789
圖/ 36氪

那麽Yudkowsky有什麽建議呢?
1. 新的大語言模型的訓練不僅要無限期暫停,還要在全球範圍內實施,而且不能有任何例外。

  1. 關閉所有大型GPU叢集,為所有人在訓練AI系統時使用的算力設置上限。追蹤所有售出的GPU,如果有情報顯示協議之外的國家正在建設GPU叢集,應該通過空襲摧毀這家違規的數據中心。

延伸閱讀:AI影像辨識大突破、減少醫療失誤⋯AI專家李飛飛:我們該如何理解AI?

本文授權轉載自:36氪
責任編輯:蘇祐萱

關鍵字: #人工智慧 #AI
往下滑看下一篇文章
多問一點,離健康更近一些!VITABOX® AI 健康配速員,陪你找回身體的聲音
多問一點,離健康更近一些!VITABOX® AI 健康配速員,陪你找回身體的聲音

健康知識普及,卻未讓選擇變得容易。琳瑯滿目的營養補充品與建議,加上網路上碎片化、標準不一的資訊,反而讓判斷成本提高,許多人因此在起步階段就裹足不前。

「很多人其實想掌握健康,卻在資訊洪流中忘了相信自己身體的感受。」VITABOX® 營養師溜溜觀察,當選擇焦慮與資訊混亂成為常態,人們反而忽略了最簡單的事——傾聽身體的聲音。VITABOX® 因此在 LINE 推出 「AI 健康配速員」,透過對話幫助消費者重新找回與身體的連結,從內在需求出發,打造簡單好上路的保健起點。

VITABOX® 「AI 健康配速員」,開啟健康對話第一步

「大眾常見的保健問題其實高度重複,但過去客服量能有限,我們常常得讓客戶等上兩三天才回覆。現在有了 AI,能即時解答基礎問題,營養師則可專注處理較複雜的個案。」溜溜說明,VITABOX®「AI 健康配速員」是一套全年無休的對話系統,平均每日處理超過 600 筆提問,其中約 90% 可由 AI 即時解決,僅有 10% 需轉由真人營養師接手。常見問題如「孕婦能吃哪些益生菌?」或「睡不好該補什麼?」等,AI 均能提供清楚、專業的建議。

若遇到較複雜或個人化程度高的問題,則可透過機器人自動回應+AI+營養師的分層機制,轉接給真人營養師進行後續諮詢,有效縮短等待回覆的時間,也提升整體使用體驗。「我們不是單純導入 AI,而是選擇用 AI 互動來實現我們相信的一種陪伴方式,讓對身體的好奇與理解,不必等待。」

VITABOX
VITABOX® 營養師溜溜表示,「我們希望 AI 不只是回答問題,而是陪伴每個人重新認識自己的身體需求。」
圖/ 數位時代

啟用方式也極為簡單,加入 VITABOX® 的 LINE 官方帳號即可一鍵啟動。系統會先詢問性別、年齡等基本資訊;若使用者無法清楚描述問題,AI 也能進一步拋出問題、比對歷史紀錄,或透過選擇題的方式,引導釐清隱性需求與個人目標。

「像是近期討論度較高的 NMN,不少人打成 NNN、MNM,所以我們也特別訓練 AI 的語意理解與錯字判讀能力,能親切引導確認:『請問你是想問 NMN 嗎?』即使輸入有誤,也能繼續獲得正確資訊,讓使用者感受到 AI 的理解與體貼。」溜溜指出,AI 的價值不只解答問題,還要能夠預判可能的模糊與錯誤,比使用者先想一步,做到主動理解、精準回應。

整合知識圖譜,打造 AI 與營養師的雙軌協作

這套 AI 系統由大型語言模型(LLM)驅動,結合 VITABOX® 多年累積的產品資料、CRM 數據、真實客服對話、營養學與醫學期刊,建構出可持續學習的健康知識圖譜。不同於傳統「問一答一」的機制,AI 採用語境分層邏輯,先從作息與飲食習慣切入,層層推進至保健建議,再進一步提供產品推薦,並不直接導向消費,反而強化使用者信任與參與感。

「我們不是在打造冷冰冰的機器人,而是塑造一個有溫度的健康夥伴。」溜溜強調,VITABOX® 延續 Make it Simple 的核心精神與一貫的品牌語調,講究準確,也講究陪伴與信任。

VITABOX
有了「AI 健康配速員」多問一點,營養師也能專注處理較複雜或個人化程度高的專案。
圖/ 數位時代

為強化資訊安全與建議品質,AI 系統由營養師與產品團隊共同把關,建置完整的風險識別與回應邊界。當提問涉及藥物、疾病診斷等超出 AI 處理範疇時,系統即自動提醒使用者就醫或真人諮詢,避免誤導。

為了讓整體設計貼近使用者,VITABOX® 將 AI 健康配速員直接整合在 LINE 平台上,無需額外下載 App 或開啟網站。「我們並不改變使用者的習慣,而是在他們最自在的地方,陪伴他們開始健康對話。」

「AI 健康配速員」於 2024 年九月正式上線,初期封測滿意度不到五成,經三個月優化調整後,2025 年第一季提升至 98.7%。溜溜分享:「我們收到很多令人印象深刻的用戶回饋,有顧客表示被『一秒就收到回覆』嚇到,覺得回覆既『精準』又『貼心』;也有顧客雖然猜到是機器人,卻仍感謝 AI 的『悉心回應』,甚至有人說:『你們的服務系統真的很好,跟真人營養師一樣厲害!』這些回饋顯示,AI 的回覆品質已能與真人營養師無縫銜接,讓顧客在體驗上幾乎沒有落差。」

最令人驚喜的,是品牌導入 AI 後,整體轉換率提升了 13%。「原本只是想減輕客服壓力、解決顧客的問題,沒想到竟然也助攻銷售轉換,真的是意料之外!」

愈簡單、愈不容易,VITABOX® 的選擇與堅持

AI 強大而即時,那還需要營養師嗎?溜溜給出的答案是肯定的。「AI 是輔助,不是替代。它能處理多數標準問題,但人與人之間的細膩互動與臨床判斷,是 AI 做不到的。」她舉例,曾有使用者一開始以為是退化性問題,後來經過營養師協助釐清生活與補充習慣後,才發現另有可能的影響因素。這類交叉比對與個別化觀察,仍需仰賴營養師的經驗和引導。

因此,VITABOX® 保留「一鍵切換真人諮詢」的設計,當問題超出 AI 範圍,系統會即時轉由專業營養師接手。AI 專注於初步引導與問題分流,營養師則投入更具判斷力與價值的個案管理與產品研究。

VITABOX® 也是目前業界少數以 AI 提供「專業智能健康輔助」的品牌,跳脫傳統 FAQ chatbot,真正落實「以人為本」的對話設計。「健康的選擇,就是多問一點。多問一點,就能往健康的理想更靠近一點。」溜溜笑說,有了 AI,就不用擔心麻煩別人,什麼問題都能安心提問。「當營養師不用再回答重複問題,就能更聚焦在專案開發、營養規劃、檢測優化等工作。」

這樣的設計思維,也與一直以來的品牌理念相呼應。不上通路、不靠代言的 VITABOX®,始終專注於天然成分(A.A. Clean Label 無添加)、加乘配方(VITASYNERGY®)、安全驗證(SGS、BSI)與永續包裝(FSC 紙材、環保油墨)。從產品研發到服務設計,一以貫之地實踐「Make it Simple」的初衷。如今,「AI 健康配速員」更讓「今天開始享受健康生活」成為每個人都能實踐的行動起點,把保健變簡單,也更容易開始。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
蘋果能再次偉大?
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓