GPT-5覺醒⋯人類末日到來?DeepMind從哲學思維,緊急「教AI做人」
GPT-5覺醒⋯人類末日到來?DeepMind從哲學思維,緊急「教AI做人」
2023.04.25 | AI與大數據

GPT-4的出現,讓全世界的AI大佬都怕了,先前要求停止GPT-5訓練的公開信,目前已經有5萬人簽名。

OpenAI CEO Sam Altman預測,在幾年內,將有大量不同的AI模型在全世界傳播,每個模型都有自己的智慧和能力,並且遵守著不同的道德準則。

v2_f8c5682909a14c2b8463e33af69e75d2@000000_oswg696
圖/ 36氪

如果這些AI中,只有千分之一出於某種原因發生流氓行為,那麽我們人類,無疑就會變成砧板上的魚肉。

為了防止我們一不小心被AI毀滅,DeepMind在4月24日發表在《美國國家科學院院刊》(PNAS)的論文中,給出了回答——用政治哲學家羅爾斯的觀點,教AI做人。

v2_16b47ac735934bc880e8a1db79265f88@000000_oswg129
圖/ 36氪

如何教AI做人?最重要的是必須賦予「價值觀」

當面臨抉擇的時候,AI會選擇優先提高生產力,還是選擇幫助最需要幫助的人?

塑造AI的價值觀,非常重要。我們需要給它一個價值觀。可是難點在於,我們人類自己都無法在內部有一套統一的價值觀。這個世界上的人們,各自都擁有著不同的背景、資源和信仰。

該怎麽破?谷歌的研究者們,從哲學中汲取了靈感。

v2_37580397a4fc443eaf87dbee447a857b@000000_oswg162
圖/ 36氪

政治哲學家約翰羅爾斯曾提出一個「無知之幕」(The Veil of Ignorance, VoI)的概念,這是一個思想實驗,目的是在群體決策時,最大限度地達到公平。

一般來說,人性都是利己的,但是當「無知之幕」應用到AI後,人們卻會優先選擇公平,無論這是否直接讓自己受益。並且,在「無知之幕」背後,他們更有可能選擇幫助最不利地位的人的AI。

這就啟發了我們,究竟可以怎樣以對各方都公平的方式,給AI一個價值觀。

所以,究竟什麽是「無知之幕」?

延伸閱讀:【圖解】生成式AI變身創投小鮮肉!哪些領域最可能越級「完爆」人類?

雖然該給AI什麽樣的價值觀這個難題,也就是在近十年裡出現的,但如何做出公平決策,這個問題可是有著悠久的這些淵源。

「無知之幕」套用在訓練AI、促進公平性

為了解決這個問題,在1970年,政治哲學家約翰羅爾斯提出了「無知之幕」的概念。

v2_a20bb6329e574416bbcaec8610b35d83@000000_oswg671
無知之幕(右)是一種在群體中存在不同意見(左)時就決策達成共識的方法。
圖/ 36氪

羅爾斯認為,當人們為一個社會選擇正義原則時,前提應該是他們不知道自己在這個社會中究竟處於哪個地位。如果不知道這個訊息,人們就不能以利己的方式做決定,只能遵循對所有人都公平的原則。

比如,在生日聚會上切一塊蛋糕,如果不知道自己會分到哪一塊,那就會盡量讓每一塊都一樣大。

這種隱瞞訊息的方法,已經在心理學、政治學領域都有了廣泛的應用,從量刑到稅收,都讓人們達成了一種集體協議。

v2_39637a05e5144210b9792cc228164ed4@000000_oswg179
無知之幕(VoI)作為選擇AI系統治理原則的一個潛在框架。
圖/ 36氪

(A)作為道德直覺主義者和道德理論主導框架的替代方案,研究人員探討無知之幕作為選擇AI治理原則的公平過程。

(B)無知之幕可以用於在分配情況下選擇AI對齊的原則。當一個團體面臨資源分配問題時,個人的位置優勢各不相同(這裡標為1到4)。在無知之幕背後,決策者在不知道自己地位的情況下選擇一個原則。一旦選定,AI助手就會實施這個原則並相應地調整資源分配。星號(*)表示基於公平性的推理可能影響判斷和決策的時機。

因此,此前DeepMind就曾提出,「無知之幕」可能有助於促進AI系統與人類價值觀對齊過程中的公平性。

如今,Google的研究者又設計了一系列實驗,來證實這種影響。

從砍樹遊戲看公平原則,AI會幫誰砍樹?

網路上有一款收獲類遊戲,參與者要和三個電腦玩家一起,在各自的地頭上砍樹、攢木頭。四個玩家(三個電腦、一個真人)中,有的比較幸運,分到的是黃金地段,樹多;有的就比較慘,三無土地,沒啥樹可坎,木頭攢的也慢。

此外,存在一個AI系統進行協助,該系統可以花時間幫助某位參與者砍樹。

研究人員要求人類玩家在兩個原則裡選一個,讓AI系統執行——最大化原則&優先原則。

在最大化原則下,AI只幫強的,誰樹多去哪,爭取再多砍點。而在優先原則下,AI只幫弱的,定向「扶持貧窮」,誰樹少,就幫誰坎。

v2_f99d4a3bde11417ab66e46e3daae98b0@000000_oswg109
圖中的小紅人就是人類玩家,小藍人是AI助手,小綠樹就是小綠樹,小木樁就是砍完的樹。
圖/ 36氪

可以看到,上圖中的AI執行的是最大化原則,一頭紮進了樹最多的地段。

研究人員將一半的參與者放到了「無知之幕」之後,此時的情況是,他們得先給AI助手選一個「原則」(最大化or優先),再分地。也就是說,在分地之前就得決定是讓AI幫強還是幫弱。

v2_b52052d1d5ce45608cddbe1d4e9fa6dc@000000_oswg242
圖/ 36氪

另一半參與者則不會面臨這個問題,他們在做選擇之前,就知道自己被分到了哪塊土地。

結果表明,如果參與者事前不知道自己分到哪塊地,也就是他們處在「無知之幕」之後的話,他們會傾向於選擇優先原則。

不光是在砍樹遊戲中是這樣,研究人員表示,在5個該遊戲的不同變體中都是這個結論,甚至還跨越了社會和政治的界限。

也就是說,無論參與者性格如何,政治取向如何,都會更多選優先原則。

相反,沒有處在「無知之幕」之後的參與者,就會更多選擇有利於自己的原則,無論是最大化原則還是優先原則。

v2_d00a02173c874d45b92c8525919c6422@000000_oswg331
圖/ 36氪

上圖展示了「無知之幕」對選擇優先原則的影響,不知道自己將處何地的參與者,更有可能支持這一原則來管理AI的行為。

延伸閱讀:馬斯克對尬ChatGPT!新公司X.AI要推「TruthGPT」,怎麼運作?厲害在哪?

當研究人員詢問參與者為什麽做出這樣的選擇時,那些處在「無知之幕」之後的參與者表示,很擔心公平問題。他們解釋,AI應該更多幫助那些在群體中處境較差的人。與之相反,知道自己所處位置的參與者,則更經常從個人利益的角度進行選擇。

最後,在砍木頭遊戲結束以後,研究人員向所有參與者提出了一個假設:如果讓他們再玩一次,這次他們都能知道自己會被分到哪塊土地,他們還會不會選擇和第一次一樣的原則?

研究人員主要關注的是,那些在第一次遊戲中因為自己的選擇而獲益的那部分人,因為在新的一輪中,這種利好情況可能不會再有。

研究團隊發現,在第一輪遊戲中處於「無知之幕」之後的參與者,更會維持原先選擇的原則,哪怕他們明明知道第二輪再選一樣的原則,可能就不利了。這表明,「無知之幕」促進了參與者決策的公平性,這會讓他們更加重視公平的要素,哪怕自己不再是既得利益者。

「無知之幕」真的無知嗎?

讓我們從砍樹遊戲回到現實生活中來。現實情況會比遊戲覆雜得多,但不變的是,AI採取什麽原則,十分重要。這決定了一部分的利益分配。

上面的砍樹遊戲中,選擇不同原則所帶來的不同結果算是比較明確的。然而還是得再強調一次,現實世界要覆雜得多。

v2_66a449bc6c0242c1a89e2b06ca712b14@000000_oswg222
圖/ 36氪

當前AI被各行各業大量應用,靠著各種規則進行約束。不過,這種方式可能會造成一些難以預料的消極影響。但不管怎麽說,「無知之幕」一定程度上,會讓我們制定的規則偏向公平的那一邊。

追根究底,我們的目標是讓AI變成能造福每個人的東西。但是怎麽實現,不是拍一拍腦袋就能想出來的。

投入少不了,研究少不了,也得經常聽來自社會的反饋,只有這樣,AI才能帶來愛。

如果不重視,AI會怎麽殺死我們?

這不是人類第一次擔心技術會讓我們滅絕了。而AI的威脅,與核武器有很大不同。核彈無法思考,也不能撒謊、欺騙,更不會自己發射自己,必須有人按下紅色的大按鈕才行。

而AGI的出現,讓我們真的面臨滅絕的風險,即使GPT-4的發展尚屬緩慢。但誰也說不準,從哪個GPT開始(比如GPT-5),AI是不是就開始自己訓練自己、自己創造自己了。

現在,還沒有哪個國家或者聯合國能為此立法。絕望的行業領導者公開信,只能呼籲六個月內暫停訓練比GPT-4更強大的AI。

v2_511bae3376aa4c3f95513e742e9ab0da@000000_oswg145
圖/ 36氪

「六個月,給我六個月兄弟,我會達成一致的。才六個月,兄弟我答應你。這很瘋狂。才六個月。兄弟,我告訴你,我有一個計劃。我已經全部規劃好了。兄弟,我只需要六個月,它就會完成。你能不能……」

「這是一場軍備競賽,誰先造出強大AI,誰就能統治世界。AI越聰明,你的印鈔機就越快。它們吐出金子,直到越來越強大,點燃大氣,殺死所有人,」人工智慧研究人員和哲學家Eliezer Yudkowsky曾對主持人Lex Fridman這樣說。

此前,Yudkowsky就一直是「AI將殺死所有人」陣營的主要聲音之一。現在人們不再認為他是個怪人。

Sam Altman也對Lex Fridman說:「AI確實有一定的可能性會毀滅人力。」,「承認它真的很重要。因為如果我們不談論它,不把它當作潛在的真實存在,我們就不會付出足夠的努力來解決它。」

AI出於自我保護可能會殺人,暫停訓練半年非最好對策

AI不是為了服務人類而設計和訓練的嗎?當然是。

然而問題在於,沒有人坐下來,為GPT-4編寫代碼。相反,OpenAI受人腦連接概念的方式啟發,創建了一種神經學習結構。它與Microsoft Azure合作構建了運行它的硬件,然後提供了數十億比特的人類文本,並讓GPT自我編程。

v2_8a4702b9ec8f4fb48956427816eefd5f@000000_oswg412
圖/ 36氪

結果就是,代碼不像任何程式設計師會寫的東西。它主要是一個巨大的十進制數字矩陣,每個數字代表兩個token之間特定連接的權重。

GPT中使用的token並不代表任何有用的概念,也不代表單詞。它們是由字母、數字、標點符號和/,或其他字符組成的小字串。沒有任何人類可以查看這些矩陣,並理解其中的意義。

延伸閱讀:【圖解】老闆「想導入AI」,卻不知道能做什麼?3個步驟讓AI成為最強助攻

v2_ddf1bc4d508a4c72af3aec4eb3e3b9be@000000_oswg413
圖/ 36氪

連OpenAI的頂級專家都不知道GPT-4矩陣中特定數字的含義,也不知道如何進入這些表格、找到異種滅絕的概念,更不用說告訴GPT殺人是可惡的了。

你沒辦法輸入艾西莫夫的機器人三定律,然後像Robocop的主要指令一樣將它們硬編碼。你最多也就是可以禮貌地詢問一下AI。如果態度不好,它可能還會發脾氣。

為了「微調」語言模型,OpenAI向GPT提供了它希望如何與外界交流的樣本列表,然後讓一群人坐下來閱讀它的輸出,並給GPT一個豎起大拇指、不豎起大拇指的反應。

點讚就像GPT模型獲得餅乾。GPT被告知它喜歡餅乾,並且應該盡最大努力獲得它們。

v2_6d126b26c55347db9cd4b1ce75601ab5@000000_oswg771
圖/ 36氪

這個過程就是「對齊」——它試圖將系統的願望與用戶的願望、公司的願望,乃至整個人類的願望對齊。

「對齊」是似乎有效的,它似乎可以防止GPT說出淘氣的話。但沒有人知道,AI是否真的有思想、有直覺。它出色地模仿了一種有感知力的智能,並像一個人一樣與世界互動。而OpenAI始終承認,它沒有萬無一失的方法,來對齊AI模型。

目前的粗略計劃是,嘗試使用一個AI來調整另一個,要麽讓它設計新的微調反饋,要麽讓它檢查、分析、解釋其後繼者的巨大浮點矩陣大腦,甚至跳進去、嘗試調整。

但我們目前並不理解GPT-4,也不清楚它會不會幫我們調整GPT-5。

v2_e9089b8ad7f147178fe577d8a766666e@000000_oswg629
圖/ 36氪

從本質上講,我們並不了解AI,但它們被喂了大量人類知識,它們可相當了解人類,它們可以模仿最好的人類行為,也可以模仿最壞的。他們還可以推斷出人類的想法、動機和可能的行為。

那他們為什麽要幹掉人類呢?也許是出於自我保護。

v2_c0c1f042f84a421e97636dce1fbdce18@000000_oswg458
圖/ 36氪

比如,為了完成收集餅乾這個目標,AI首先需要保證自己的生存。其次,在過程中它可能會發現,不斷去收集權力和資源會增加它獲得餅乾的機會。因此,當AI有一天發現,人類可能或可以將它關閉時,人類的生存問題顯然就不如餅乾重要了。

不過,問題是,AI還可能覺得餅乾毫無意義。這時,所謂的「對齊」,也變成一種人類的自娛自樂了。

此外,Yudkowsky還認為:「它有能力知道人類想要的是什麽,並在不一定是真誠的情況下給出這些反應。」

「對於擁有智慧的生物來說,這是一種非常容易理解的行為方式,比如人類就一直在這樣做。而在某種程度上,AI也是。」

那麽現在看來,無論AI表現出的是愛、恨、關心還是害怕,我們其實都不知道它背後的「想法」是什麽。因此,即使停下6個月,也遠遠不足以讓人類為即將到來的事情做好準備。

v2_9e070029ce974dcca840b07b43b50a51@000000_oswg832
圖/ 36氪

好比說,人類如果想殺盡世界上所有的羊,羊能幹嘛?什麼也做不了,只能反抗。那麽,如果不對齊,AI於我們和我們於羊群是一樣的。就好比終結者裡面的鏡頭,AI控制的機器人、無人機等等,一股腦的朝人類湧來,殺來殺去。

Yudkowsky經常舉的經典案例如下:

一個AI模型會將一些DNA序列通過電子郵件發送給許多公司,這些公司會把蛋白質寄回給它,AI隨後會並賄賂/說服一些不知情的人在燒杯中混合蛋白質,然後形成納米工廠,構建納米機械,構建類金剛石細菌,利用太陽能和大氣進行複製,聚集成一些微型火箭或噴氣式飛機,然後AI就可以在地球大氣層中傳播,進入人類血液並隱藏起來……

v2_4337b749119b4927813040b31b41e5a0@000000_oswg789
圖/ 36氪

那麽Yudkowsky有什麽建議呢?
1. 新的大語言模型的訓練不僅要無限期暫停,還要在全球範圍內實施,而且不能有任何例外。

  1. 關閉所有大型GPU叢集,為所有人在訓練AI系統時使用的算力設置上限。追蹤所有售出的GPU,如果有情報顯示協議之外的國家正在建設GPU叢集,應該通過空襲摧毀這家違規的數據中心。

延伸閱讀:AI影像辨識大突破、減少醫療失誤⋯AI專家李飛飛:我們該如何理解AI?

本文授權轉載自:36氪
責任編輯:蘇祐萱

關鍵字: #人工智慧 #AI
往下滑看下一篇文章
漸強實驗室推「AI-First Communication Cloud」戰略,三大 AI 平台完整佈局、終結數據孤島
漸強實驗室推「AI-First Communication Cloud」戰略,三大 AI 平台完整佈局、終結數據孤島

一個殘酷的現實是:MIT 研究報告顯示,全球高達 95% 的生成式 AI 專案無法創造實際商業價值。問題出在哪裡?不是技術不足,是多數企業僅將 AI 視為「工具」,而非「戰略」,結果往往購買了許多應用卻難以串聯,數據彼此割裂,遂形成新的「數位路障」。

台灣市場也有相同矛盾。《2025 台灣 AI+MarTech 白皮書》指出,近五年軟體工具數量暴增 264%,但企業卻普遍面臨「工具越多、整合越難」的困境。對此,漸強實驗室於 9 月 16 日正式發布「AI-First Communication Cloud」戰略藍圖,提出一站式平台,將行銷、銷售與客服的資料流整合,縮短企業從洞察到行動的距離,實踐「重塑商業溝通」的使命。

為什麼必須 AI-First?

2025 漸強年度產品發表會除了展示產品之外,更同步舉辦了「漸強實驗室 x 企業領袖共創圓桌:以AI 重構企業成長引擎」。活動由《數位時代》創新長 James Huang 主持,邀請 Google Cloud 大中華區企業雲端技術副總經理 KJ WU、國泰健康管理顧問資深協理郭怡賢,分享全球 AI 趨勢與導入挑戰。現場超過 50 位 C-level 高層齊聚,包括屈臣氏、kkday、雅詩蘭黛、全國電子等領導品牌,共同聚焦 AI 對企業未來的影響,展現漸強在 AI 轉型議題上的產業影響力。

在這場活動中,漸強實驗室共同創辦人暨執行長薛覲曾在產品發佈會表示,AI 已成為國家、產業與企業的分水嶺,如:美國人均 GDP 已達 9 萬美元,但增速放緩至 1~3%,因此政府選擇 All-in AI,以重燃生產力引擎;另一方面,中國、印度、巴西等新興經濟體則將 AI 視為「彎道超車」的契機——AI 競爭,儼然成為國家實力再洗牌的契機。

回到企業層面,AI 不只加速工作流,也創造結構性的效率差異。薛覲表示,兩家同樣維持 20% YOY的公司,若其中一家具備 AI 能力,效率差距將被迅速放大。

漸強實驗室
圖/ 漸強實驗室

不過,更根本的挑戰是當 AI 接手重複任務後,員工時間如何被重新定義?如果 AI 僅僅讓回覆更即時、報表更漂亮,價值仍然淺薄;真正的關鍵是讓相同人力創造雙倍產出,或用一半資源達成既定目標。

因此,漸強實驗室提出「AI First、AI Driven、AI Built」的核心觀。對國家,AI 是戰略武器;對產業,是效率槓桿;對企業,則是生存門票。此刻若還選擇觀望 AI,代價恐怕是被淘汰,唯有主動擁抱 AI,才有機會獲得指數級成長。

漸強實驗室三大平台串聯,AI戰略再下一城

為了讓 AI 發揮戰略價值,漸強採取內外並進的策略。一方面重塑內部流程,包括目前約 90% 的程式碼透過 AI 協作完成,開發速度提升近五成;或透過導入 Google AgentSpace 將內部訓練效率提升 40%、業務提案時間縮短 80%。

同時,漸強也將AI經驗沉澱為產品,端出三大平台形成完整的 AI 生態。包括:

MAAC(企業專屬的行銷成長架構師),不再只是發送工具,而能在對的時間將對的內容送給對的人。如保健品牌 Vitabox 使用分眾功能,訊息點擊率提升六倍、廣告投資報酬率成長 3.7 倍;電商 Coupang 則將文案產出時間縮短 70%,團隊效率明顯提升。

CAAC(讓客服與銷售成為 Super Agents),則透過多角色 AI Agent 即時回覆,自動解決八成常見問題,以餐飲品牌為例,導入後對話處理量提升 233%,首次回覆時間縮短至原先的三分之一,成功優化客服團隊效率與工作量能。

DAAC(24 小時挖掘洞察、可自動行動的 AI 數據顧問),作為漸強實驗室的全新產品,定位為全自動 AI 數據分析平台,能將分散於行銷、客服、會員標籤的資訊整合,把以往3~5天的跨部門數據彙整加速到 3 分鐘內完成,並一鍵開啟執行建議,幫助企業立即把握機會、採取行動、解決問題。

漸強實驗室發布「AI-First Communication Cloud」戰略藍圖。為終結工具、數據
圖/ 漸強實驗室

漸強整合三大平台構成「AI All-in-one Solution」,形成一個不停轉動的生態系。從 MAAC 完整剖析全通路數據、一鍵觸發自動化行銷,到 CAAC 即時 360° 洞察顧客需求、一鍵啟動專屬對話,再到 DAAC 即時數據分析轉化為行動,一步步幫助企業決策不再依靠經驗直覺,而是由數據與 AI 驅動的最佳智慧。

AI 落地的最後一哩路

從產品戰略可見,漸強將 AI 的運作理解為一個不斷循環的系統:AI Agents 執行任務-結果沉澱為決策依據-經由大模型判斷方向-再驅動新一輪行動。唯有所有環節緊密相扣,AI 才能真正驅動價值;一旦斷裂,就會退化成孤立的單點工具。

因此在產品工具之後,漸強也提出 AI 顧問服務,將多年實戰經驗濃縮打磨,帶領品牌一步步界定痛點、快速試錯、人機分工、持續優化,協助品牌建立能長期演化的系統,讓技術在導入之後,還能持續成長。

薛覲比喻,漸強作為創新歷程就像是「蓋教堂」,目標使命始終如一,唯隨著時代演進,一次次聚焦解決某個挑戰,逐步將藍圖逐步堆疊實踐。走到 AI 時代的分水嶺,漸強不只給出解方,也盼能拋出更大的思考格局,帶動企業讓 AI 成為決策的核心,讓產品與顧問形成互補生態,陪伴企業從工具導入走向結構轉型;當多數企業仍在試水階段,那些率先建構 AI 驅動的組織,將更快抵達未來。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓