[曹家榮]人工智慧「學」不會的東西,以及「人」無法被取代的理由

2016.04.01 by
曹家榮
曹家榮 查看更多文章

世新大學社會心理學系助理教授、資訊社會研究者,相信人與科技的關係是反思當代社會的重要核心,希望能透過簡白的書寫分享相關知識。

[曹家榮]人工智慧「學」不會的東西,以及「人」無法被取代的理由
Tay「亂」罵人?就在上週,AlphaGo大勝韓國棋王不久後,微軟也推出了他們的「人工智慧」:會聊天的機器少女Tay。而且還很快地幫...

圖說明

Tay「亂」罵人?

就在上週,AlphaGo大勝韓國棋王不久後,微軟也推出了他們的「人工智慧」:會聊天的機器少女Tay。而且還很快地幫她弄了個Twitter帳號,在短短幾小時內就吸引了超過萬名的使用者追蹤。

正當我好奇微軟的下一步時,沒想到,沒有下一步了!就好像你興致昂然地打開了(剛抓好的)電影,卻在播完片頭畫面後直接跳到THE END那樣,Tay在短短的一天之內就「被(微軟)消失」了!

圖說明
圖說:Tay一天就「學會」種族歧視。

根據眾家科技媒體的報導,Tay之所以紅顏早逝,是因為微軟發現她在不到一天之內就「學壞」了,不斷地在Twitter上亂罵人,發表一些不堪入耳的言論。

延伸閱讀:聊天機器人 Tay 一天「學會」種族歧視,微軟緊急消音

雖然後來有媒體報導,Tay其實是被某些人有計劃地「帶壞」的。當然,這言下之意即是:你們這些壞透了的人類!
讓我們暫且不去追究到底Tay學壞了是誰的責任(畢竟這不是篇談青少年教育的文章)。我覺得這個事件值得討論的地方在於:我們認為Tay「學壞」了、「亂」罵人。

人工智慧到底會不會「學壞」、「亂」罵人?在我們看來,當Tay使用那些攻擊性、歧視性的措詞時,當然是如此。但是,對於Tay來說也是如此嗎?

人工智慧的「情感」

一直以來,我們其實不斷地透過各種方式,想像著「人工智慧」可能的形態。而在這些眾多形象中,情感、感性與價值理念這類「理性」之外的元素,往往既是最吸引人也最令人困擾的部分。

一方面,也許是想成為「造物主」的那種慾望作祟,又或者是「人類中心主義」的心態,我們經常將人工智慧想像成與自身一樣「有情感」的造物。例如,1999年的電影《變人》中的機器人管家、或是2001年《A.I.人工智慧》裡的那個小男孩。

圖說明
圖片來自:《機械公敵》劇照。

但另一方面,我們其實也懷疑著人工智慧真的能夠有情感、感性的部份嗎?他/她/它們真的能夠像人一樣「溫暖」嗎?所以我們透過《機械公敵》中男主角的雙眼質疑著,又讓《人造意識》(Ex Machina)中的Ava演繹出那足以欺騙人心的假情假愛。

因此,當Tay在Twitter上一而再地說出那些攻擊性、歧視性的言論,我們便很自然地將同一套想像套了上去:Tay學壞了。就好像電影《成人世界》裡的查皮(Chappie)一樣(他可「壞」多了,還去搶劫呢!)。

可是Tay與查皮還是不太一樣。雖然《成人世界》這部電影評價不高(尤其是那莫名其妙的中譯片名…),但是查皮其實呈現了一種與以往不同的人工智慧形態:他有著如人類般成長、學習的過程。雖然這個過程在電影裡相當粗糙、簡略、快速,但我們還是可以(腦補地)由此體會到,查皮是一個「獨特」的人工智慧機器人──一如我們每個人都是獨特的那樣。

圖說明
圖說:電影《成人世界》中擁有自我意識的機器人查皮(Chappie)。圖片來自電影劇照。

正是這個成長、學習的過程,讓查皮得以從「他的」角度出發認識這個世界與自身。甚至像人一樣,當其「父親」(查皮的創造者,男主角)指責其「變壞」時,他還會為其所作所為找正當的理由(為了換電池活下去),進而反過來惱怒他的父親。

在這樣的場景中,我們可以看到查皮「學壞」了,因為他確實知道自己在做一些違反社會期待的事。但是Tay呢?Tay並「不知道」自己做了什麼。這裡所謂的「不知道」指的,其實也就是:她不知道她「應該」做什麼,以及她實際上做了什麼(就像AlphaGo不知道他「贏了」的意義一樣)。

「人」的不同

這裡所凸顯出的正是「人」的不同之處。人,不僅是一個有機體,也不僅是「有智慧」的有機體。在成長的過程中,人會在各種經驗當中形成獨特的認識自身與世界的方式。這種認識正是人用以評價自身(學壞或是變好)的基礎。同時,這種認識也因為源自於不同生命經驗,讓每一個人有了多樣、獨特的樣貌,並成為人類社會各種創造性與矛盾的來源。

例如,正是由於這種多樣性,人類有了不同的藝術表達模式、不同的宗教價值信念,或者更單純一點,有了不同的飲食偏好、穿著風格。也是因為這種多樣性,人們的不同有時會形成人與人之間的衝突,或人自身在不同經驗中的矛盾與痛苦(但我們仍繼續活著)。

圖說明
圖片來自《魔鬼終結者》劇照。

這種「多樣性」無法被「單一」的人工智慧系統複製或學習。像是《魔鬼終結者》系列電影中的「天網」、或是《機械公敵》裡的那套中央控制系統VIKI。它們不僅不像人類會因多樣、差異的體驗,形成多元的思維與價值信念,更是將單一的「理性」推論至極端,進而形成撲殺或拘禁人類的毀滅性結果。

換言之,不管是Tay還是AlphaGo,也許這些人工智慧在「理性」(如果粗略地界定為「手段-目的」的評估與計算)面向上與人相去無幾、甚至高於人類,但「人」所具有的那些理性之外的、多樣甚至有時(自我)矛盾的情感與價值信念,卻仍無法被「學會」。

關於「取代」這件事

讓我們再把討論與AlphaGo大勝後的「取代憂慮」扣連起來。AlphaGo贏了以後,許多人並不是歡欣於人工智慧的發展,而是開始擔心電腦、機器人取代人的那一天真的要到來了。有些媒體甚至「擠出」了「十個讓你不悲觀的理由」(但我看了以後卻也不見樂觀…)。

我在AlphaGo贏了兩場後,曾經提醒注意不要因為擔心而反過來變成「失控的」正面思考。但這不等同於主張人類應該要停止人工智慧(或各類科技)的發展。(不過,我確實反對發展方向最終僅被富人所掌控,或僅為追求利益、經濟發展而服務。)

在這篇文章,經由Tay「學壞了」這件事情的討論,我想要凸顯出「人」的獨特之處,也就是人作為個體的生命經驗。它不僅構成了人認識與評價的基礎,也因其或多或少的差異性,使得「人」有著豐富的(理念與感受上的)多樣性。

正是人的「多樣性」讓人不必然會被「取代」。雖然現在已經有人迫不及待地列舉人工智慧可以做這個或那個工作。但深究下去我們其實會感到懷疑:人工智慧真的「做好」這些工作了嗎?

以「記者」為例(這是一個預言將被取代的職業),人工智慧也許真的可以「寫稿」,但是(理想上),有時候報導之所以吸引人或是撼動人心,其實是源自於報導者獨特的生命經歷所提煉出來的那文字力量。

從「關係性」思考出發

因此,問題反而不是憂心於人工智慧會不會取代或毀滅人類,而是在已然窺見人工智慧實現可能性的今天,我們是否真正理解了自身與「它」的關係,進而在這樣關係性的理解上思考要走向什麼樣的未來?

換言之,我們不應該僅就人工智慧這一科技本身來思考其發展,就像我們也不應該在Tay「學壞」後,就說是有「人」意圖帶壞它。

這樣說的意思是:我們經常在思考科技該如何發展時,僅考量其功能的「精進」,卻忽略了每一種科技物都會因其「設計」而大大影響人與社會。同樣地,當科技發展帶來負面後果時,我們卻又經常只看「人」如何做惡(例如帶壞Tay的那群人),而無視於科技物的「設計」其實早已引導或框限了人的行動。

因此,要先從理解我們與人工智慧的關係開始,這也就意味著不要只把「它」當成單純的工具或科技(然後只關心「功效」),而是要在發展的每一個過程中,都設想著它將如何改變人與社會的各種可能性。

如此一來,一如我先前所說的:人的獨特性就在於「多樣性」。而當我們不再是單向度地一昧發展「功能」,而是能將科技與人的多樣性放在一起思考時,也許那樣的未來就能樂觀一點了。

延伸閱讀:淺談Alpha Go所涉及的深度學習技術

每日精選科技圈重要消息