是福還是禍?當AI能夠操控你的情感,卻也能用來預防犯罪

2018.03.02 by
數位書選
是福還是禍?當AI能夠操控你的情感,卻也能用來預防犯罪
shutterstock
圖像辨識、大數據演算等AI相關技術以飛速成長,機器可能會愈來愈懂得如何辨識人類的情感,這會帶來什麼問題?我們又該有怎麼樣的防範措施?

本文摘自:《情感運算革命》,商周出版

日常環境中感應器的使用日益增加,也就是通稱的物聯網(Internet of Things,IoT),結合了大數據分析的預測能力,正在改變我們與世界的關係。只是並非都是好的方面,隱私、自主權,甚至是自我決定等問題,在討論這些侵入性科技時都會一一浮現。儘管這些聽起來就夠令人忐忑了,但是如果結合能快速讀取、理解我們的情緒反應並做出回應,就更讓人惴惴不安了。

購物者顯然常被說服,而購買超出原先計畫,甚至不符合自己最佳利益的東西,但是這種可即時與我們的基本感覺互動的能力,讓局勢朝著更受操弄的方向轉變。彼此關係從相對平衡的狀態,變成更像是掠奪者與獵物的關係。

從消費、談判到面試的應用

廣告主和行銷人員已經開始擁抱情感運算。假以時日,隨著情感運算愈來愈容易取得且方便使用,將會應用在任何電腦可以與人互動的地方。

仍在初期階段的情感運算已被當成行銷研究工具使用,時間一久,隨著處理能力、頻寬及演算法改善,將有新的情緒覺察系統提供商家愈來愈容易使用的功能。

到了最後,假設有利可圖的話,這些功能將會轉化成服務系統,目前通常稱為「軟體即服務」。公司可以合理費用使用這些整合服務執行各種任務,不必自行開發軟體和資料庫。這類服務可以擷取並自動執行許多較為複雜的臉部辨識、3D掃描、情感運算及擴增實境,讓企業能快速而即時地吸引消費者,就像你我寄發電子郵件,或是對文件進行拼字檢查那麼輕鬆簡單。

我們應該對此感到憂心,因為情緒操控的可能性將無法抵擋,而且會大幅改變零售商與消費者關係的平衡。只需要想像一下,在汽車展示間裡有一個能幹的銷售人員。你想買一輛車,但是顯然不想為這筆已經頗為重大的投資再付出更多的錢。你和銷售人員討價還價,企圖說服彼此。

如果進行這場談判的一方,是能以光速與超高準確度解讀你的非語言信號,並且加以回應的機器呢?你真的認為自己在走出展示間時,荷包能完好無損嗎?我打賭不會。

無生命的詐騙犯

至於社會中比較脆弱的成員呢?老年人通常會淪為詐騙的受害者,而那些騙局可能會讓比較年輕,也更精明的人搖頭。針對老化神經科學的研究顯示,老年人會對信任相關的跡象敏感度降低,也不能忽略他們對生存的這個新世界缺乏理解。平均而言,一般人對於成長期間使用的科技,會比父母和祖父母更加熟悉,也更遊刃有餘,他們和這些科技打交道時的常識也一樣。展望情感運算之類的科技,我們可以想像老年人在接觸那些互動或交易時會比他們的子女單純生疏。詐騙集團有辦法快速讀取並理解他們的感覺,就可以趁機大肆利用自動化。販售一些不可靠的投資給退休人士,快速榨乾他們的銀行帳戶,並且操控寂寞老人寫下遺囑,都可能還只是冰山一角。

沒有人知道究竟有多少聊天機器人滲透到約會網站與社群媒體網站,但是專家同意,數量大概在100萬以上。近幾年來,這些程式的數量和成熟程度進步十分可觀。根據2014年的一份調查估計,56%的網際網路流量是由機器人程式產生,這些程式是設計來執行高度重複性的作業。調查指出,這些流量大約有一半來自好的機器人,但是約30%則是由惡意機器人產生,如網路爬蟲(web scrapers)、駭客工具、垃圾郵件發送器,以及模擬身分程式(impersonator)。

如此看來,隨著人工智慧愈來愈成熟,也愈來愈能理解並回應情緒及非語言信號,所有人類將會變得何等脆弱?

隨著情感運算科技普及,並且在不同領域中找到應用方式,我們可能也要面臨許多發展期的困難。當成工具用於執法工作或蒐集情報可能成效卓著,因為有了解及預測罪犯與嫌疑人行為的需要。但是,這些科技會如何改變,或是加深公務員對公民自由的潛在侵害?似乎是再稀鬆平常不過的情況。

真假難辨的謊言與真實

一份針對206份文件與24,483份法官紀錄進行的大規模整合分析研究結果顯示,即便是警察和法官,所有人在評估一個人是否說謊時,成績並沒有比碰運氣高出多少。平均而言,只有54%的機會能判斷出正確的實話/謊話。有意思的是,儘管多數人的行為有事實偏誤,但是執法人員卻偏向另一個方向,帶著一點謊話偏誤。不過,哪一種方法明顯都沒有比另一種更準確。

另外一項針對509人的研究,其中包括美國特勤局、中央情報局、聯邦調查局、國家安全局,以及緝毒局執法人員在內,只有特勤局在偵測目標人物是否說謊時的表現明顯比碰運氣來得好,然而即使如此,特勤局觀察人員的成功率也只有64%。

難怪世人尋求可靠方法偵測詐騙的歷史悠久。十九世紀末,人們開始將科學方法應用在訊問時是否說謊。測謊器可同時記錄並列出受試對象的脈搏、血壓和呼吸次數的測量變化,經過多次修正改良後,二十世紀末時演算法和軟體都開發到可更進一步分析測謊儀數據。時至今日,測謊儀測試依然是我們驗證事實和偵測欺騙時,最好也是唯一的科技方法。

然而,測謊儀的功效依然頗受質疑。由於測試結果的不一致,引發相當多爭議。此外,還無法區分說實話者與真正說謊者的生理喚起反應(arousal response)。更複雜的是,有些人確實可以訓練自己在說謊時不會有身體的自發反應出賣他們,藉此欺瞞機器。基於種種原因,許多法庭和司法單位並不把測謊結果列為足以採納的證據。

從犯罪防治的觀點來看,還有另外一個問題就是,測謊儀不能用在遠距離的對象,而是必須將裝置直接連接到受試對象的身上才能運作。

隨著情感運算的出現,情況大致上很快就有了改變。支援技術如臉部辨識,已經在城市廣為使用,無論是實體商店、廣告牌、體育館及街道上都有閉路攝影機。有些城市的數位顯示器已經能夠根據觀眾的性別、族裔和年齡層,顯示客製化廣告。由浸入實驗室(Immersive Labs)之類的公司開發的數位顯示器,能在25英尺外就判定這些細節,一次可判讀多達25人。搭配微軟Kinect或網路攝影機的智慧電視與系統,可以設定為無論誰坐或站在它們前面,都能判斷人口結構和其他細節,並且得以同時客製化內容與廣告。

政府對情緒辨識科技的應用與濫用

隨著電腦處理能力日益強大且無所不在,簡單的臉部辨識將被即時情緒辨識取代,一如所有模式識別科技,也將在短時間內快速改進。

執法人員早就需要工具輔助他們準確判讀情緒,並且偵測謊言。這麼多年來,這項科技已經向前躍進一大步,切實可行。執法人員會熱情擁抱它嗎?還是會因為美國公民自由聯盟和電子前哨基金會等團體必定會提出基於隱私與公民自由疑慮而拒絕使用呢?至少在一開始時,有可能會是前者。

提到個人安全問題時,大眾屢屢證明如果確定能夠帶來更完善的保護,他們願意犧牲一點公民自由。從九一一事件之後毫無爭議地通過美國愛國者法案(USA Patriot Act),以及後來根據2006年恐怖分子監聽法(Terrorist Surveillance Act)而擴大監聽,可見一斑。但是,正如常見的情況,這類工具不免遭到濫用,而等到濫用時將會引起民眾反彈。

能夠遠端解讀情緒的工具可用來操控行為,應該引發嚴重關切。為了取得電腦系統認為有罪者的口供,訊問人員願意做到什麼程度?然後就是錯誤記憶(false memories)的問題。研究顯示,記憶形成的過程也複雜地包含情緒,尤其是負面情緒顯然更容易受到錯誤記憶形成的影響;換句話說,就是讓人相信他們記得某件其實根本不曾發生的事。為了在達成如招供等目標的過程中解讀情緒,設計的系統有可能會形成一種回饋循環,若是沒有足夠的防衛,隨著每個非語言回應而來的一連串質問,可能在無意中灌輸了錯誤記憶,最後導致坦白供認。

儘管許多民主國家都有保護公民自由的防護措施,但是濫用這類監視與訊問方法的風險仍然極大。如果發生這種狀況,最後有可能會引發強烈的反彈。輿論的轉變可能導致完全禁止這方面的用途。但屢見不鮮的是,禁用科技通常只會將科技逼入幾乎不存在管理規範,卻充斥濫用可能性的陰影之中。

延伸閱讀

每日精選科技圈重要消息