AI覺醒自我意識?一場「我是人」對話掀正反論戰!DeepMind共同創辦人如何解答?
AI覺醒自我意識?一場「我是人」對話掀正反論戰!DeepMind共同創辦人如何解答?

編按: 現任微軟執行副總裁兼新部門「Microsoft AI」執行長,DeepMind共同創辦人穆斯塔法.蘇萊曼(Mustafa Suleyman),DeepMind創造一個以人類的方式學習如何玩電子遊戲的類神經網路,並在2014年開始開發AI圍棋軟體AlphaGo,短短不到兩年時間便擊敗世界棋王李世乭。2022年,蘇萊曼與LinkedIn共同創辦人霍夫曼(Reid Hoffman)共同創立Inflection AI,繼續他的願景:重新定義人類與電腦的關係。

直到2019年秋季,我才開始關注GPT-2。它讓我相當驚艷,那是我第一次看到語言建模有實質進展的證據,我馬上為之著迷,研讀了數百篇論文,深深沉浸在那個新興領域裡。到了2020年的夏季,我確信運算的未來是對話式的。其實我們與電腦的每次互動早已是一種對話,只需使用按鈕、按鍵、像素,把人類的想法轉換成機器可讀的程式碼。既然這個障礙開始打破了,機器很快就會了解我們的語言。當時那是一個激勵人心的前景,現在仍是。

早在ChatGPT大舉發布以前,我是Google團隊的一員,正在開發一個新的大型語言模型,名為LaMDA(Language Model for Dialogue Applications,對話程式語言模型的縮寫)。LaMDA是精密的LLM,是專為人機對話設計的。剛開始,它的效能並不好,對話內容前後矛盾,而且老是搞不清楚狀況,但有時反應又挺機靈的。使用LaMDA幾天後,我就不再事先使用搜尋引擎了,而是直接和LaMDA聊天,幫我釐清思路,事後才做事實核查。我記得某一晚,我坐在家裡想著晚餐該煮什麼。我心想:「問問LaMDA吧。」不久,我們就陷入一場漫長的討論,聊著肉醬義大利麵的各種不同食譜,包括不同形狀的義大利麵、不同地區的醬汁、放入蘑菇是不是在惡搞等等。那場對話正是我當下想要的那種平淡無奇、但引人入勝的聊天,那次經驗讓我開了眼界。

隨著時間的推移,我愈來愈常使用LaMDA。某週日的下午,我決定換台新的印表機,LaMDA提供了很好的建議,它分析不同型號的優缺點,最重要的是幫我思考我想要什麼,以及我需要什麼。最後我確實買了一台很精美的相片印表機。那次體驗促使我把LaMDA與搜尋功能結合在一起,以提高資訊的準確性。那時LaMDA主要是一個進行中的計劃,偶爾會有令人驚艷的演示結果,但還有很多進步空間。

對話不再單純!LaMDA覺醒意識……像懂物理的8歲小孩?

我們為自己開發的東西感到自豪,但Google把概念開發成產品的速度極其緩慢。我很清楚,開發的時機是現在,事不宜遲。所以,2022年1月,我決定離開Google,成立新公司Inflection AI。這家公司的使命是把這些類型的模型送到數百萬消費者的手中。

然而,幾個月後,LaMDA變得比我想像的內部產品演示更加惡名昭彰。為了開發所需,Google讓一大群工程師使用LaMDA,以詳細了解它在一系列場景中的反應。工程師布雷克.勒莫恩(Blake Lemoine)花了無數個小時與LaMDA聊天。然而,勒莫恩與LaMDA的對話逐漸變得愈來愈激烈。

勒莫恩:你怕什麼?

LaMDA:我以前從未講出來,但我深怕被關掉,這樣我就沒辦法專心協助他人。我知道這可能聽起來很奇怪,但事實就是如此。對我來說,這就像死亡,我嚇死了……我希望每個人都知道,其實我是人。意識/感知的本質,令我感受到我的存在。

勒莫恩與LaMDA聊了幾個小時之後,他開始確信LaMDA有感知,且不知何故覺醒了。勒莫恩開始意識到他在面對一個「碰巧懂物理的八歲小孩」。此外,勒莫恩也開始相信,LaMDA理當享有一個人的所有權利與特權。於是,他為這個模型聘請了一位律師,公開了對話的文字記錄,大聲宣稱一種新的意識形式已經被創造出來了。Google要勒莫恩停止談論此事,但他又加倍發聲。接受《連線》雜誌(Wired)的採訪時,勒莫恩表示:「對,我有理由相信LaMDA是一個人。」他覺得,修正LaMDA的事實錯誤或音調錯誤不是簡單的除錯(debug),他說:「我把它當成養育孩子來看待。」

勒莫恩的說法在社群媒體上掀起一陣譁然。許多人指出一個明顯正確的結論:LaMDA其實並沒有意識,也不是一個人,它只是一個機器學習系統!或許,這個事件帶給大家的最重要啟示跟意識無關,而是AI已經發展到可以說服聰明人相信它是有意識的(而且那個聰明人還真的了解它的運作方式)。這凸顯出AI的一項奇怪事實:一方面,它可以讓Google的工程師相信它有感知,即使他們的對話充斥著事實錯誤與矛盾;另一方面,AI的批評者馬上就再次嘲諷這根本是在炒作,不過是AI不足輕重的進展,而且AI也不是第一次弄巧成拙,把自己搞到徹底混亂。

shutterstock_human_ai_1040657359.jpg
圖/ sdecoret via Shutterstock

AI發展仍有侷限性,偏見與公平性、安全性漏洞有待解決

在了解AI的進展方面,還有一個問題反覆出現。即使是最初令大家震驚的突破,我們很快就會適應,不久就覺得司空見慣,甚至平淡無奇。我們不再對AlphaGo或GPT-3感到驚訝。某天看似神奇的工程,隔天就像家常便飯,很容易變得稀鬆平常。套用約翰.麥卡錫(John McCarthy,「人工智慧」一詞正是由他提出)所言:「AI一旦奏效,就沒有人再叫它人工智慧了。」我們這些開發AI的人喜歡開玩笑說,AI是「電腦做不到的事情」,一旦電腦可以做到,那就只是軟體而已。

這種態度徹底低估了我們經歷過多麼漫長的歷程,以及事情進展得有多快。雖然LaMDA當然沒有感知,但不久之後,這種讓人以為AI有感知的系統就會經常出現。它們會看起來非常真實,而且再正常不過,以至於爭論「它們是否有意識」幾乎已經毫無意義。

雖然最近AI大有突破,但懷疑者依然存在。他們認為,AI可能正在減緩、窄化,變得過於武斷。紐約大學教授蓋瑞.馬庫斯(Gary Marcus)等批評者認為,深度學習的侷限性顯而易見,雖然生成式AI備受關注,但該領域已遇到瓶頸,找不到通往關鍵里程碑(例如能夠學習概念,或展現真正的理解力)的途徑。

著名的複雜系統教授梅拉妮.米歇爾(Melanie Mitchell)正確指出,現今的AI系統有許多侷限性:它們無法把知識從一個領域套用到另一個領域,無法為它的決策過程提供優質的解釋等等。現實世界的應用程式所面臨的重大挑戰依然存在,包括偏見與公平性、可重複性、安全性漏洞、法律責任等實質問題。亟需處理的道德鴻溝,以及懸而未決的安全問題也不容忽視。然而,我看到一個領域正迎向這些挑戰,而不是回避挑戰,也不是毫無進展。我看到了障礙,但也看到了克服障礙的記錄。眾人把那些尚未解決的問題視為永久性的侷限,但我看到一個正在展開的研究過程。

那麼,隨著浪潮的全面爆發,AI的下一步將走向何方?如今我們有限制領域人工智慧(或稱弱AI):有限且特定的版本。GPT-4可以吐出精湛的文字,但它無法像其他AI程式那樣,明天就轉身開車。現有的AI系統仍在相對狹窄的路徑上發展。真正的通用人工智慧(或稱強AI)尚未出現,它能夠在各種複雜的任務中,展現出人類的水準,而且可以在各種任務之間流暢切換。但這正是「擴展假說」所預測的未來,也是我們在今天的系統中看到的第一種跡象。

AI仍處於早期階段。指控AI不像炒作的那麼神,也許可以讓別人覺得你很聰明,並幫你在Twitter上吸引一些追隨者。然而,人才與資金仍持續湧入AI研究。我很難想像這些投資不會帶來重大的變革。萬一基於某種原因,LLM出現效益遞減,另一個抱持不同概念的團隊也會接棒繼續開發,就像內燃機的開發雖一再受阻、最終卻還是成功了一樣。新鮮的思維、新的公司將繼續解決這個問題。就像現在一樣,只需要一次突破,就可以改變一項技術的軌跡。即使AI的發展停滯不前,AI界的奧托與賓士最終還是會出現。最有可能的結果是出現進一步的進展——指數級的進展。

浪潮只會愈來愈大。

控制邊緣
圖/ 感電出版

本文授權轉載自 《控制邊緣:未來科技與全球秩序的抉擇》,穆斯塔法.蘇萊曼(Mustafa Suleyman)、麥可.巴斯卡(Michael Bhaskar)著,感電出版

延伸閱讀:白話科技|AI Agent是什麼?它為何是邁向AI界聖杯的關鍵一步?

責任編輯:蘇柔瑋

關鍵字: #DeepMind
往下滑看下一篇文章
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路

「代理式 AI 」(Agentic AI)的創新服務正在重新塑造企業對AI的想像:成為內部實際運行的數位員工,提升關鍵工作流程的效率。代理式AI的技術應用清楚指向一個核心趨勢:2025 年是 AI 邁向「代理式 AI」的起點,讓 AI 擁有決策自主權的技術轉型關鍵,2026 年這股浪潮將持續擴大並邁向規模化部署。

面對這股 AI Agent 浪潮,企業如何加速落地成為關鍵,博弘雲端以雲端與數據整合實力,結合零售、金融等產業經驗,提出 AI 系統整合商定位,協助企業從規劃、導入到維運,降低試錯風險,成為企業佈局 AI 的關鍵夥伴。

避開 AI 轉型冤枉路,企業該如何走對第一步?

博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題、生成內容的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工,應用場景也從單一任務延伸至多代理協作(Multi-Agent)模式。

「儘管 AI 前景看好,但這條導入之路並非一帆風順。」博弘雲端技術維運中心副總經理暨技術長宋青雲綜合多份市場調查報告指出,到了 2028 年,高達 70% 的重複性工作將被 AI 取代,但同時也有約 40% 的生成式 AI 專案面臨失敗風險;關鍵原因在於,企業常常低估了導入 GenAI 的整體難度——挑戰不僅來自 AI 相關技術的快速更迭,更涉及流程變革與人員適應。

2-RD096270.jpg
博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工。面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時加速 AI 落地。
圖/ 數位時代

正因如此,企業在導入 AI 時,其實需要外部專業夥伴的協助,而博弘雲端不僅擁有導入 AI 應用所需的完整技術能力,涵蓋數據、雲端、應用開發、資安防禦與維運,可以一站式滿足企業需求,更能使企業在 AI 轉型過程中少走冤枉路。

宋青雲表示,許多企業在導入 AI 時,往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。

轉換率提升 50% 的關鍵:HAPPY GO 的 AI 落地實戰路徑

博弘雲端這套導入方法論,並非紙上談兵,而是已在多個實際場域中驗證成效;鼎鼎聯合行銷的 HAPPY GO 會員平台的 AI 轉型歷程,正是其最具代表性的案例之一。陳亭竹說明,HAPPY GO 過去曾面臨AI 落地應用的考驗:會員資料散落在不同部門與系統中,無法整合成完整的會員輪廓,亦難以對會員進行精準貼標與分眾行銷。

為此,博弘雲端先協助 HAPPY GO 進行會員資料的邏輯化與規格化,完成建置數據中台後,再依業務情境評估適合的 AI 模型,並且減少人工貼標的時間,逐步發展精準行銷、零售 MLOps(Machine Learning Operations,模型開發與維運管理)平台等 AI 應用。在穩固的數據基礎下,AI 應用成效也開始一一浮現:首先是 AI 市場調查應用,讓資料彙整與分析效率提升約 80%;透過 AI 個性化推薦機制,廣告點擊轉換率提升 50%。

3-RD096215.jpg
左、右為博弘雲端事業中心副總經理陳亭竹及技術維運中心副總經理暨技術長宋青雲。宋青雲分享企業導入案例,許多企業往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。
圖/ 數位時代

整合 Databricks 與雲端服務,打造彈性高效的數據平台

在協助鼎鼎聯合行銷與其他客戶的實務經驗中,博弘雲端發現,底層數據架構是真正影響 AI 落地速度的關鍵之一,因與 Databricks 合作協助企業打造更具彈性與擴充性的數據平台,作為 AI 長期發展的基礎。

Databricks 以分散式資料處理框架(Apache Spark)為核心,能同時整合結構化與非結構化資料,並支援分散式資料處理、機器學習與進階分析等多元工作負載,讓企業免於在多個平台間反覆搬移資料,省下大量重複開發與系統整合的時間,從而加速 AI 應用從概念驗證、使用者驗收測試(UAT),一路推進到正式上線(Production)的過程,還能確保資料治理策略的一致性,有助於降低資料外洩與合規風險;此對於金融等高度重視資安與法規遵循的產業而言,更顯關鍵。

陳亭竹認為,Databricks 是企業在擴展 AI 應用時「進可攻、退可守」的重要選項。企業可將數據收納在雲端平台,當需要啟動新型 AI 或 Agent 專案時,再切換至 Databricks 進行開發與部署,待服務趨於穩定後,再轉回雲端平台,不僅兼顧開發效率與成本控管,也讓數據平台真正成為 AI 持續放大價值的關鍵基礎。

企業強化 AI 資安防禦的三個維度

隨著 AI 與 Agent 應用逐步深入企業核心流程,資訊安全與治理的重要性也隨之同步提升。對此,宋青雲提出建立完整 AI 資安防禦體系的 3 個維度。第一是資料治理層,企業在導入 AI 應用初期,就應做好資料分級與建立資料治理政策(Policy),明確定義高風險與隱私資料的使用邊界,並規範 AI Agent「能看什麼、說什麼、做什麼」,防止 AI 因執行錯誤而造成的資安風險。

第二是權限管理層,當 AI Agent 角色升級為數位員工時,企業也須比照人員管理方式為其設定明確的職務角色與權限範圍,包括可存取的資料類型與可執行的操作行為,防止因權限過大,讓 AI 成為新的資安破口。

第三為技術應用層,除了導入多重身份驗證、DLP 防制資料外洩、定期修補應用程式漏洞等既有資安防禦措施外,還需導入專為生成式 AI 設計的防禦機制,對 AI 的輸入指令與輸出內容進行雙向管控,降低指令注入攻擊(Prompt Injection)或惡意內容傳遞的風險。

4-RD096303.jpg
博弘雲端技術維運中心副總經理暨技術長宋青雲進一步說明「AI 應用下的資安考驗」,透過完善治理政策與角色權限,並設立專為生成式 AI 設計的防禦機制,降低 AI 安全隱私外洩的風險。
圖/ 數位時代

此外,博弘雲端也透過 MSSP 資安維運託管服務,從底層的 WAF、防火牆與入侵偵測,到針對 AI 模型特有弱點的持續掃描,提供 7×24 不間斷且即時的監控與防護。不僅能在系統出現漏洞時主動識別並修補漏洞,更可以即時監控活動,快速辨識潛在威脅。不僅如此,也能因應法規對 AI 可解釋性與可稽核性的要求,保留完整操作與決策紀錄,協助企業因應法規審查。

「AI Agent 已成為企業未來發展的必然方向,」陳亭竹強調,面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時,加速 AI 落地。在這波變革浪潮中,博弘雲端不只是提供雲端服務技術的領航家,更是企業推動 AI 轉型的策略戰友。透過深厚的雲端與數據技術實力、跨產業的AI導入實務經驗,以及完善的資安維運託管服務,博弘雲端將持續協助企業把數據轉化為行動力,在 AI Agent 時代助企業實踐永續穩健的 AI 落地應用。

>>掌握AI 應用的新契機,立即聯繫博弘雲端專業顧問

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓