[曹家榮] 特斯拉撞車了!「誰」的責任?

2016.07.21 by
曹家榮
曹家榮 查看更多文章

世新大學社會心理學系助理教授、資訊社會研究者,相信人與科技的關係是反思當代社會的重要核心,希望能透過簡白的書寫分享相關知識。

[曹家榮] 特斯拉撞車了!「誰」的責任?
今年五月,發生了特斯拉自動駕駛汽車上路至今首起死亡車禍。特斯拉官網部落格於七月初表示,美國高速公路安全管理局正在調查這起不幸事件。不意外地,...

今年五月,發生了特斯拉自動駕駛汽車上路至今首起死亡車禍。特斯拉官網部落格於七月初表示,美國高速公路安全管理局正在調查這起不幸事件。不意外地,這個消息也再次引發人們對於自動駕駛車的疑慮與討論。

根據特斯拉官網的資訊,這起不幸事故的肇因為:「在強烈的日照條件下,駕駛者和Autopilot都未能注意到拖車的白色車身,因此未能及時啟動剎車系統。」至於拖車為何沒有被偵測到,特斯拉的解釋是:「由於拖車正在橫穿公路,且車身較高,這一特殊情況導致Model S從拖車底部通過時,其前擋風玻璃與拖車底部發生撞擊。」

過去我曾就自動駕駛車是否可行,以及其涉及的倫理問題提出過一些看法。這篇文章則打算更深入討論倫理責任面向的問題。我認為,特別是在現今這個過渡階段,我們需要更深入理解「自動駕駛車進入人類生活」意味著什麼。我們是否對其有錯誤的想像與認識?又或者,它的出現能夠讓人看到什麼過去無法看見的?


(照片來源:Andy Rusch

幾個爭論問題

自動駕駛車上路最常引發的爭論就是:在危急時刻,我們該將操控權交給自動駕駛系統嗎?例如,在先前那一篇文章中,我們就討論過一種極端情況,也就是在危急情況下,自動駕駛車該不該為了避免大量人員傷亡,選擇傷害駕駛人的撞車方式?

這個極端問題背後其實指向一個根本問題:我們該將「決策權」委任給自動駕駛系統嗎?或者說,我們該委任「多少」決策權力給系統?進而,可以繼續追問的是:自動駕駛系統能夠為事故「負責」嗎?

如果你有注意到特斯拉官網的說明,可以發現現階段特斯拉其實以某種形式「謝絕委任」。他們是這樣說的:「我們需要指出的是,⋯⋯Autopilot是一項輔助功能,要求駕駛者雙手始終握住方向盤⋯⋯準備隨時接管。」先不論這是不是卸責的說法,但很明顯地,特斯拉(至少現階段)並不打算讓其系統扮演全權決策者。駕駛人必須隨時接管、隨時承擔起駕駛決策的責任。

回到剛剛的問題。對於某些反對者來說,我們也不該將決策權委任給駕駛系統。因為,他們認為只有「人類」才是車子真正的操控者、才真的能承擔駕駛決策責任。換言之,反對者認為,像是上述那種極端的道德困境中,只有人類才能因應不同脈絡做出判斷,因此人類才能(需)負責、才有決策權。車子,只是工具。

看起來有點矛盾卻其實很巧妙地,特斯拉「謝絕委任」的說詞裡所暗示的,與反對將決策權委任給駕駛系統的觀點,兩者有著很強烈的親近性。簡言之,不論目的為何,他們歸根究柢都是在說:「人」才是該負責、能負責的那一方。

然而,真的是如此嗎?我認為這又讓我們可以繼續拉出另一個可爭論的問題:作為駕駛的人類真的能負責嗎?或者,當我們說駕駛人該負責時,他該負責的到底是什麼?

「人」的責任?

撇開大家都知道的法律問題,當我們說「駕駛人需負責」時,其實這裡面暗示的是:因為是「人」在操控車子,所以人需要負責。換言之,我們是從歸因的角度,認為「人」是那個讓車子移動或撞車的動力因,所以應歸責於他。

但是這樣的觀點其實有一個沒有說出來的預設:只有「人」可被歸因,或者說,人有著不同於車子、機器的地方,而這個不同之處使其成為「唯一」的操控者,控制著車輛、機器。

關於這個預設,有一個經典的例子可以進一步說明。過去在槍枝管制的爭論中,人們也常這麼說:槍本身不會殺人,真正殺人的是拿槍的那個人。與歸責於汽車駕駛人的觀點類似,在這裡人們預設了只有「人」才是動力因,而槍乃是與車子一樣中性的工具。

讓我們用「人類中心式」的觀點來指稱上述這樣的歸因模式。這樣的觀點其實是我們長久以來的思考習慣。在華人傳統中,我們也有「人定勝天」這種類似的信念。許多樂觀的科技主義背後也是以這種人類中心思想為核心。

但是,如果我們嘗試用另一種角度來思考:如果「人」不是唯一可歸因的對象呢?或者說,如果需負責的那個「誰」,其實是一個由「人與機器」組成的行動系統呢?

這裡,讓我用「關係式」的觀點來指稱這種不同的歸因模式。同樣以槍枝為例,從關係式的觀點來看,當槍被人拿在手上時,不管是槍或人都改變了。人與槍此時共同構成了具暴力威脅性的行動系統。

開車也是如此。駕駛人與汽車共同構成了可高速行駛的行動系統。因此,雖然看起來是人在操控著車輛,但實際上人只是整個行動系統的一部分。不僅人的行動能力因此放大(可以移動得更快),人接收到的資訊也改變或化約了(像是視野變得侷限)。

換言之,從關係式的觀點來看,當發生撞車事故時,歸因的對象並不是「人」。因為人只是整個行動系統的一部分。或者說,例如,不是「人」看不見突然從路邊跳出來的鹿,而是在這個行動系統中,機器加速與視野侷限的化約導致「跳出來的鹿」無法被即時處理。

從「關係式」的觀點來思考,並不是要卸責。相反地,關係性的思考讓我們首先看見:「人」從未如其所想像的那樣操控著機器。自動駕駛車之所以帶來爭論、焦慮,某程度來說其實源自於「人類中心」式的觀點。如果我們能改用關係式的思考方式,問題也就不會是「是否該信任、委任機器(自動駕駛車)」,而是在承認我們無法完全操控的前提下,更深刻地思考在每一個環節,我們委任了什麼給機器,而這又會對人自身帶來什麼影響。

機器並不無辜

同時,從關係式的觀點來看,讓人撞車的自動駕駛系統的確並不無辜。它有其責任。

荷蘭科技哲學家Peter-Paul Verbeek曾經以產檢超音波為例,說明為何機器有其責任。當醫生透過超音波儀器向胎兒的父母解釋可能的問題時,實際上醫生並不是獨立地進行診斷,超音波儀器也參與整個行動:它將其探測到的狀況轉換為視覺資訊呈現。

因此,人們是透過超音波才看見了子宮裡胎兒的狀況,這個機器實際上參與了人們做決策的過程。它也必須為可能的錯誤負責。

自動駕駛車系統也是如此。當我們開啟了自動駕駛系統,等同於將某些偵測外在資訊、或甚至是操控的行動委任給它,它因此參與了關於如何開車的決策過程。進而,當事故發生時,它也就絕非僅是「被使用」的無辜機器。

當然,這樣的說法也許會引發如下的反彈:機器有責任?那又該如何究責?「懲罰」機器?抑或者歸罪設計者、工程師?前者似乎有點荒誕,而後者恐怕會被視為是阻礙科技發展的保守主義。

我認為正好相反的是,這並非保守主義,而是開始對過去樂觀到失控的科技至上主義重新進行審視。換言之,我們該問的是,何以在「(科技)發展」的大旗下,這些推動者的責任就能夠被免除?

過去人類相信「理性」可以解決一切。因此,代表著理性的科學與科技就神不知鬼不覺地有了「充足的理由」做任何事。直到晚近二、三十年,才有人開始反省並意識到:「理性」無法解決一切問題。相反地,理性所推動的科學與科技實際上產生了許多後果嚴峻的問題。

沒有人可以自外於科技文明帶來的問題,也沒有人再可以免責於其行動。自動駕駛車撞車了,位於「車輛行駛」這一行動系統中的自動駕駛裝置與駕駛人同樣都有責任。而自駕裝置本身背後所牽連的一整個由企業體、設計者與工程師、甚至政策推動者所構成的網絡都必須負責。

《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長800至1000字,兩天內會回覆是否採用,文章會經編輯潤飾,如需改標會與您討論。

每日精選科技圈重要消息