看不見最可怕!三種AI偏見,都是人臉惹的禍

shutterstock
人臉辨識隨著iPhone X推出,成為討論度極高的生物辨識,但演算法也是由人所寫出來的,當臉部辨識用於犯罪防治,引發歧視問題。過去也有許多AI演算法延伸出的偏見問題,像是Google照片搜尋、用人臉判別性取向。無形的AI偏見,更值得人類警惕。

自從蘋果在今年九月推出搭載FaceID的新一代旗艦機iPhone X,「人臉辨識」成為一般大眾熱門討論的話題,不僅在中國出現靠刷臉就能進入的無人商店、台灣Accupass活動通也開發出了可以刷臉觀展的技術,甚至俄羅斯一家人臉辨識新創「VisionLabs」喊出要在15~20年後,讓人臉辨識取代護照查驗。

臉部辨識用於犯罪防治引發歧視問題

雖然人臉技術應用的未來看似多元又方便,但若是應用在涉及人權的犯罪防治工作上,則引發了歧視問題。

2015年,美國佛羅里達州的警方在執行毒品查緝臥底時,暗中拍攝了幾張嫌犯的照片,後來透過臉部辨識軟體搜捕嫌犯,儘管當時許多科技專家認為呈現的結果存有瑕疵,但當局仍逮捕了由軟體辨識出的嫌犯人選,但人臉辨識逮捕嫌犯真得精準嗎?

根據2016年美國喬治城隱私暨技術法律中心公佈的一份調查報告,指出在美國執法機構中,可存取的美國成人人臉辨識資料超過1.17億人,這個數字幾乎是一半的美國成年人都被記錄在資料庫中;同時,美國至少有26州允許執法機構執行人臉辨識搜尋,大約有一半的美國成人因此受到影響,而現階段還沒有針對公民臉部識別數據隱私設立的法律規範,警方不需要任何的證據或理由就可以監控民眾的資料。

這份報告中還提到,臉部識別數據庫會「無意識」的偏向識別黑人,但依據現在的演算法技術,識別黑人的準確度相對較低、較容易出錯,黑人被歸類在「高風險」類別的機率是白人的兩倍,本來應該提供客觀意見的人工智慧(AI)演算法,也如同現行司法系統一樣,並不是完美的生物辨識系統,新技術潛在的偏見,也讓許多民權團體呼籲美國當局應該立法,避免技術被濫用甚至侵犯人權,這樣的狀況讓黑人、少數族群在新的科技時代面臨新的困境。

人臉辨識並不是完美的生物辨識系統,新技術潛在的偏見,也讓許多民權團體呼籲美國當局應該立法,避免技術被濫用甚至侵犯人權。
shutterstock

AI偏見案例層出不窮,全是人臉惹的禍

不只是臉部辨識系統,過去也曾發生過AI演算法延伸出的偏見問題。

2015年Google Photos 把黑人的照片標籤為「大猩猩」,利用同樣的演算法在 Google Search上搜尋照片,「醫生」通常會跟「白人男性」連結、「護士」會跟「女性」連結,將人類潛意識下對於性別、種族的觀念在搜尋結果中產生連結。

AI不經意的學習人類長期以來的偏見,要徹底解決其實並不容易,微軟紐約研究院資深研究員 Hanna Wallach 曾說:「只要機器學習的程式是透過社會已存在的資料訓練,那麼只要這個社會有偏見,機器學習就會重現這些偏見。」

今年九月,史丹佛大學教授 Michal Kosinski在《性格與社會心理學期刊》發表了一份研究,AI 可以根據臉部照片判斷是同性戀或異性戀,且男性性取向的準確率高達91%、女性準確率則是83%;這項研究在當時影發爭議,許多 LGBT團體紛紛跳出來抗議,認為這類軟體極有可能成為迫害人權的工具。

但研究團隊則認為,是政府的監管以及隱私保護規範未能跟上 AI 的發展,就如同人臉辨識也能用於司法判決參考、學校針對入學學生的智商推論、大型活動入場前暴力威脅的判定,AI、人臉辨識技術、數據含有人類的偏見成分,後果當然令人擔憂,史丹佛大學教授Michal Kosinski強調,這份研究的目的不是要判別誰是同志,而是要大家警惕AI所帶來的影響。

人類則必須時時警惕自己不要讓AI受到人性弱點的影響。
shutterstock

為什麼AI會模仿人類的偏見?

為什麼走在時代前端的科技技術也會存在著「偏見」呢?麻省理工學院媒體研究室的研究員Joy Buolamwini認為,這是因為許多人臉辨識背後的演算法,都是由白人男性工程師寫的,而演算法要做出好的決策,就必須仰賴過往的資料所累積的經驗,而工程師也許無意識的讓自身的偏見、判斷影響了演算法的運作。

本月於加州登場的「神經訊息處理系統大會」,有一個組織「Black in AI」專門推廣黑人電腦科學家在AI領域研究的成果,致力於促進研究人員之間的合作,提高黑人在AI領域的參與度。不過也引發部分學者跟研究人員的質疑是否有必要舉辦僅關注黑人科學家研究的活動,在過度追求多元化的政治正確下忽略了技術能力。

「這實際上推動AI的隔離,黑人參加為黑人舉辦的活動,女性參加女性活動。」俄羅斯軟體公司SKB Kontur資料科學家Timofey Yarimov說;另外參與活動的一派意見認為,AI領域確實存在對女性和非白人男性的歧視,但如果「Black in AI」組織只是利用特定族群的困境,來吸引群眾參加活動,那麼只會破壞反對歧視的原則,但無論如何,系統背後的科學家缺乏多元組成,某種程度上勢必也會影響演算法的運作。

不過,人類跟機器最大的不同,在於無法擺脫過往經驗在潛意識中產生對於特定事務的偏見,隨著AI、人臉識別成為未來生活的日常,要讓AI保持客觀、中立的判斷,人類則必須時時警惕自己不要讓AI受到人性弱點的影響,說起來容易,但這也成為人類與AI發展之間不能停止努力的功課。

1.17億
美國執法機構中,可存取的美國成人人臉辨識資料超過1.17億人,這個數字幾乎是一半的美國成年人都被記錄在資料庫中;同時,美國至少有26州允許執法機構執行人臉辨識搜尋,大約有一半的美國成人因此受到影響。
演算法
Algorithm
「演算法」是一個計算的具體步驟,常用於計算、資料處理及自動推理。演算法能夠從計算的具體步驟,推論出問題解決的方法。演算法應包含用於計算的函式,以及定義清晰的指令,演算法中的指令,描述的是一個計算過程,執行時從一個初始狀態和初始輸入開始,經過一系列清晰定義的計算狀態,最終產生輸出並停止。 (來源: 維基百科HowStuffWorks )
追蹤我們