【專欄】Google LaMDA引發爭議,真的能判斷聊天機器人的自我意識嗎?
【專欄】Google LaMDA引發爭議,真的能判斷聊天機器人的自我意識嗎?

「聊天機器人真有可能發展出自我意識嗎?」

這個似乎早該塵埃落定的話題,卻又三不五時就會來個新聞,最近一次的案例源自於Google 工程師Lemoine宣稱他所參與研發的聊天機器人LaMDA極其可能具有「人格」,結果慘遭公司要求停職,並建議尋求諮商輔導。

這事件會引起包括美國華盛頓郵報以及數位時代等媒體的關注,很大的原因當然是因為Google是這領域的超級大咖,任何的風吹草動都會掀起波瀾,但除了將此新聞當成無傷大雅的花絮之外,這類此起彼落的訊息,是否也透露出某種弦外之音?

robot_white_arms
圖/ Franck V. on Unsplash

LaMDA真的有自我意識嗎?

Lemoine是如何判斷LaMDA具有自我意識呢?根據他長達21頁的報告以及與LaMDA多次的深度訪談,Lemoine的結論是它具有遠超過現有AI系統的語言能力,能主動提出具有創意的想法,話語中帶有感情、情緒、與主觀經驗,而且整體表現相當一致,除了具有自我人格之外,他實在無法有其他的結論。

對於一位專業工程師的研究報告,我們也不能輕易地加以否定,但王文傑在六月底數位時代的文章《Google工程師說聊天機器人LaMDA是個孩子,是中了什麼圈套?》提醒我們,一個善用語言學理論所進行設計的 AI 系統是足以順應對方的提問,並適時給出具有想像空間的回覆。這有點像是算命或是卜卦的情形,模擬兩可的敘述讓人很容易對號入座,就端看你是信或不信。總結來說,Lemoine的主張仍是基於主觀的評斷,並沒有一針見血的證據加以支持。

有哪些客觀方法能判斷?

那會有客觀的方式來判斷聊天機器人是否具有自我意識嗎?截自目前為止,最常被提到的還是「圖靈測試」(Turing test),這個由人稱「計算機之父」的圖靈於1950年所提出的著名試驗,用意是在檢視電腦能否能展現出與人無法區分的智慧。一般所採取的方式是讓參加測試的人員在不知道對方是人還是電腦的情況下,根據特定議題詢問對方一系列的問題,再藉由回答的內容推測所面對的到底是「他」還是「它」?

TutorABC
AI機器人蘇菲亞獲邀為TutorABC的首位AI人工智慧老師。
圖/ TutorABC

如果電腦能通過考驗被認定是人,這代表它在所測試的項目上展現出近似人類的智慧,反之亦然,因此問題的選擇就相當關鍵。先不直接進入到自我意識的最終測試,我們就從技術性的議題談起,比方說,若想檢視新開發的AI系統是否足以承擔任旅館線上接待員的工作,那可以根據相關入住、訂房資訊等來設計題目,一旦順利過關。 再加入現在的語音系統也能模仿真人聲音,其實客人並不容易分辨到底是電腦或真人在線上服務。

一般來說,針對特定技藝所開發的AI程式比較容易通過考驗,不過這一點在AlphaGo痛宰人類棋士之後有了變數,棋下得太好的反而可能不是人類。

該如何設計題目來考驗聊天機器人是否具有自我意識呢?既然AI的運作總要遵照數位邏輯與理性原則,是不是來問些比較天馬行空、無厘頭的問題呢?像是周杰倫的最新專輯《最偉大的作品》到底在唱些甚麼?有關藝術、創作類的問題也不錯,例如畢卡索的畫、鄭愁予的詩等等,AI應該不懂甚麼是愛情吧?那情人間的囈語亦可列入考慮,可以想像AI系統肯定過不了關,問題是包括筆者在內的許多人也考不過啊!

自我意識

即使如圖靈這般不世出的天才,想藉由圖靈測試來檢視機器人是否具有自我意識的可能性並不高,事實上絕大部分的AI專家都告訴我們,運用人工智慧所開發的系統是不可能具有自覺,因為自我意識終究是專屬於生命的範疇。

也因此,測試機器人與自我意識關聯性的目的,並不在於判斷「有或沒有」自主意識,而是它「能達到何種程度」,

因而較適合擔任哪種類型的工作,就像語言能力檢定的用意一樣。
話說回來,製造出一部能通過終極自我意識測試的聊天機器人又意味著甚麼?這也許也值得人類細細深思。

責任編輯:傅珮晴、侯品如

關鍵字: #Google #AI

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
AI全球100+台灣50
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓