[曹家榮] 自動駕駛車真的可「行」嗎?

2015.10.27 by
曹家榮
曹家榮 查看更多文章

世新大學社會心理學系助理教授、資訊社會研究者,相信人與科技的關係是反思當代社會的重要核心,希望能透過簡白的書寫分享相關知識。

[曹家榮] 自動駕駛車真的可「行」嗎?
我們都想要的「夥計」還記得(知道)霹靂遊俠李麥克嗎?雖然問這個問題會透露出我的年紀,但是每當看到自動駕駛車的新聞,我腦袋裡首先浮現的就是...

我們都想要的「夥計」

還記得(知道)霹靂遊俠李麥克嗎?雖然問這個問題會透露出我的年紀,但是每當看到自動駕駛車的新聞,我腦袋裡首先浮現的就是「夥計」,那部「尖端科技的結晶,一部人性化的萬能電腦車」。

霹靂遊俠的霹靂車 Knight 2000,K.I.T.T.1982 分享於 Wikipedia,CC by 3.0
(圖說:霹靂遊俠的霹靂車 Knight 2000,K.I.T.T.1982 分享於 Wikipedia,CC by 3.0)

當然,不管是 Google 還是 Tesla 開發的自動駕駛車,都不是像夥計那般搭載著人工智慧的「電腦車」。但是對於我這個世代的人來說,當談到「自動駕駛」的汽車,應該很少人不會想到夥計。

即便先不談有人工智慧的「萬能電腦車」是否真能實現。光是能「自動駕駛」的汽車,就足以讓許多人興奮不已了。一方面,它不僅減輕了汽車駕駛人的負擔,也提供了一種更安全、有效的交通運輸模式。另一方面,更令人嚮往的是,對於即將到來的高齡化社會來說,自動駕駛車解決了老年人口的移動照護問題。

Google自動車原型,摘自Google官方部落格
(圖說:Google自動車原型,摘自 Google 官方部落格)

多麼好的願景!而且就在 2016 年,包括了英國、日本、新加坡等國家都將陸續開放自動駕駛車上路。雖然我們還未能像《回到未來》那樣,在 2015 年 10 月 21 日的今天,擁有飛天汽車,但未來並不遙遠,我們就要有自動駕駛汽車了。

BUT!有「人」出沒請小心!

BUT!最厲害的 BUT 不意外地又登場了!作為一個(愛找?)麻煩的社會學家,我雖然也期待自動駕駛汽車的到來,但卻不那麼樂觀地認為它能如此順利進入我們生活之中。之所以如此,其實涉及了一個根本的社會學問題。

這個問題可以用以下這個事件來說明。 9 月初的時候,許多媒體都提到的一則新聞指出:國外一位單車騎士,意外地發現了自動駕駛車的 BUG。事情是這樣的,(簡單來說)有一天,一位單車騎士在一個(沒有紅綠燈的)十字路口遇到了一台測試中的自動駕駛車。騎士想要讓它先過,於是就「定杆」不斷在原地前後踩踏。但這樣的動作卻讓自動駕駛車「無法前進、也無法後退」。雙方就這樣在路口僵持了幾分鐘。

Google 自動車想像,摘自 Google 自動車官方部落格
(Google 自動車想像,摘自 Google 自動車官方部落格

這當然是一個充滿了諸多巧合的事件。我們會想,如果這個路口有紅綠燈、如果這位單車騎士不那麼「假會」,乖乖停下來等車通過,更不要說實際上在車上的駕駛人是可以取回駕駛的主控權。因此,這根本是一個特例,有什麼好提的呢?

問題在於,這並不單純是一個「特例」。或者,我們應該說,人的日常生活中其實往往充斥著「各種特例」。這裡所謂的「特例」,指的可不是黑箱、特權、關說之類的,雖然這些本身確實也是特例,也就是「在規則之外」的例外事物。

一般來說,我們普遍同意社會生活是有秩序的。而這樣的秩序之所以可能,用最簡單的方式解釋,往往就會說:因為我們有各式各樣的「規則」。規則可大可小、可明可暗,但通常你知道、我知道(獨眼龍也知道)。因為,共同生活在一個社會中的我們,接受的是相同的教育、規範與文化。當然,也因此,生活在不同社會中的人,就會因為接受不同的教育與文化,而出現一些認知與行為上的落差,進而可能產生摩擦與衝突。(至於如何定義「生活在同一個社會」中,這又是另一個複雜的問題,先不討論。)

行駛中的 Google 自動車,底層就是 Toyota 的油電混合車 Prius,摘自 Google 自動車計畫網站
(行駛中的 Google 自動車,底層就是 Toyota 的油電混合車 Prius,摘自 Google 自動車計畫網站)

所以,回過頭來,自動駕駛車的運作,最基本的要求就是要將「規則」寫進系統之中,讓它能夠知道「你知道、我知道(獨眼龍也知道)」的那些關於開車的事。聽起來其實不太難,對吧?才怪!

我剛剛說了,生活中其實充滿特例。所以對於「秩序來自於規則」的認知,多少有一點錯誤,或者是簡化。我們的生活充滿了各種規則沒錯,但同時,作為有智慧、有認知能力的人,我們並不是總是完全按照規則做事。我必須再次強調,這不是指那些蓄意打破規則的人,而是說,其實日常生活的總總規則總是帶點寬鬆與彈性的

舉例來說,考過汽車駕駛執照的人都知道,馬路上有各種不能跨越的線(雙黃線、雙白線、槽化線),路邊停車也有各種規定(紅線禁止臨停、黃線禁止停車,可臨停但需這樣那樣的…)。然而,當我們真的開上路以後,恐怕沒有半個人完完全全地照著規則走吧?

這些特例不是因著權勢而蓄意打破規則(雖然有時候確實是)的行為,而是在日常生活中,我們「就會」彈性地、偶爾地忽略規則的舉動。且我們彼此互相都知道,對方這樣的舉動並不意味他不知道規則,或就是蓄意要打破規則,而是基於什麼什麼原因而如此做的「例外狀態」。(例如,一位媽媽因為趕著接小孩而將車子停在紅線上、因為前方車禍堵住而選擇跨越雙黃線超車等等。)

對於「人」來說,我們很習慣這種彈性、寬鬆、曖昧的規則狀態,也懂得如何去應對。但是對於遵循清楚的「規則」而運作自動駕駛車來說,這種彈性與曖昧的狀態若不是致命的危險,至少也將是令其舉步維艱的困境。(除非我們真的有一台夥計)畢竟,你真的能想像,自動駕駛車進入台灣那充滿著各種「行車特色」的各大都會區中,而能生存下來的樣子嗎?也許最後下車用走的還比較快吧!

無「人」車的倫理議題

就算自動駕駛車真的上路了!(可能是在幾百幾千次的系統修正之後)BUT之後還有BUT!我們還得面對一個更難以回答的問題:萬一真的撞車了怎麼辦?(絕對不是找XX產物保險就好)
這個問題又可以細分為幾項:

第一,最直接地,撞車了誰要負責
第二,我們是否應該將「如何撞車」的決定權交給電腦

Tesla 操作介面,Erica Lu 拍攝
(圖說:Tesla 操作介面,Erica Lu 拍攝)

在由人駕駛車的今天,第一個問題往往會將比較多的責任放在駕駛人身上。駕駛人是否酒駕?是否疲勞駕駛?是否邊開車邊玩手機?是否沒有定期保養、檢查車子?雖然偶爾還是會有因為汽車系統零件故障肇事的案例,但我們多半同意,開車是一個需要承擔起道德責任的行為。(這也是酒駕如此受人譴責的原因)

那麼,當自動駕駛車撞車了,該是由「它」來負起道德及法律責任嗎?而當我們說「它」應該負起道德與法律責任時,又是指誰呢?我們恐怕無法要求這台車本身負責(要判它報廢嗎?)。那麼,是指生產這台自動駕駛車的公司嗎?還是負責維修的技師?還是設計駕駛系統的工程師?那坐在車上的人有沒有責任?畢竟他選擇購買、使用了這項科技。這樣算下來就會發現,自動駕駛車使得我們在未來必須要面對更加複雜的倫理問題。

如果第一個問題還可能可以用更詳細的事後勘驗、檢測過程來決定誰該負責(但通常對於撞爛的車來說,恐怕也非常困難),第二個問題則是更難以回答。例如,國外的研究假設了一種極端情況假設你的車要撞車了,而這一撞擊將導致大批人員傷亡,但是只要將車頭一偏撞向旁邊的牆壁就能避免,然而這可能會導致你自己的死亡。你覺得自動駕駛車該如何做

研究結果顯示了一種矛盾。一方面,人們多半都認同應該要設計選擇盡量降低傷亡的系統;但是另一方面,不令人意外地(雖然帶點諷刺),對於這種某種意義上有著「自毀設定」的自動車,人們也降低了購買意願(讓別人去買吧)。

起步中的 Tesla ,Erica Lu 拍攝
(圖說:起步中的 Tesla ,Erica Lu 拍攝)

其實不管是第一還是第二個難題,其核心問題都是一樣的:自動駕駛車上路後,誰該(能)負責?上述提到的研究,其顯示的矛盾也正反映出「人」在這項科技發展過程當中的兩難。也就是說,一方面,我們希望科技的進步能夠完善生活(因此,它應負責做好所有事情),但另一方面,卻又不願意自己失去「掌控」的權力(甚至因此被載去撞牆)。因此,當自動駕駛車搭載的不是全新的防護科技,而是可能造成自己傷亡的自毀系統時,人們就開始對於將決策的責任交付給電腦產生猶豫了。

那麼,該在關鍵時刻將車輛控制權交回給駕駛人嗎?Tesla 開發的自動駕駛車有點類似這樣的想法,也就是「有限度」的自動駕駛車。而 Google 今年初揭露的自動駕駛車專利當中,其實也有類似的技術,透過感測器決定何時交回人來駕駛

當然,很明顯地,這樣的設計是希望降低生產自駕車的公司本身可能應負的責任。但是這又會帶來更多的問題。

第一,要駕駛人能夠在關鍵時刻即時接手駕駛,他就必須要一直保持著如同自身在開車那樣的專注。但是,就像打籃球一樣,無論你在場邊如何專注於比賽,一上場總是需要適應的時間來掌握場上發生的事情。
第二,更重要的是,自動駕駛系統仍須決定什麼樣的狀況是駕駛人需要接手的。而這是否又會跟駕駛人的認知產生落差?於是導致,要不是駕駛人被突如其來的轉換嚇到,就是駕駛人不斷地想要介入駕駛(大概就像爸爸教兒子開車那樣)。再者,
第三,因為自駕系統仍須決定轉換駕駛權的時機,它就無法免除(萬一)肇事的責任。甚至,倘若系統在未預期的狀態下轉移了駕駛權,是否反而更可能是肇事之原因?

在人與機器之間

雖然說了那麼多(壞話),顯得好像我反對自動駕駛車這樣的科技。但其實不然,我超想要一台夥計的啊!

對我來說,電影《機械公敵》裡,硬是要自己開車在車陣裡鑽來鑽去,不小心擦撞到自動駕駛車,還要對別人咆哮一番的行為,其實是一種「人類中心主義」的展現。也就是將汽車視為應是由人所掌控的工具,也只有「人」才能駕馭科技(與速度),而不是反過來。

當然,科技的發展不斷地顯露出對於人的自由、隱私、甚至生存的威脅。因此,我也不認為全然地將控制與選擇權交給機器可以。但是要說將一切的控制權都牢牢地保留在人的手中就不會有問題,這則是另一種盲目與自大。

自動駕駛車的未來註定要面對幾個難題。如果發展的方向是全自動無人駕駛車,那麼關鍵的問題就是:如何讓車子學會應對有彈性的規則(這根本上仰賴人工智慧的發展)。或者,乾脆採取區域式的全面轉換(也就是設定全自駕車行駛區域)。

如果發展的方向是有限度的自動駕駛車,那麼關鍵的問題則是:如何讓駕駛人適應、學會這種會隨時轉移控制權的駕駛方式。以及如何決定轉移控制權的時機。不過,這對於習於作為控制者的我們來說,恐怕也是一個難題。

最後,不管是哪一個方向,都勢必讓我們面對更複雜的倫理問題。科技的發展讓人擁有了更強大的能力,卻也讓人必須承擔更多的風險與責任。因此,自動駕駛車的發展,絕非免除了我們作為駕駛人的道德責任。相反地,它將我們拉進了一個更龐大、更複雜的系統中,使我們每一個人都與可能的風險脫不了關係。

延伸閱讀:
1.當單車騎士遇到Google無人車,意外發現無人車的Bug
2.自動駕駛汽車的道德困境:它是否可以殺死自己的主人?

每日精選科技圈重要消息