黑人誤判率過高惹議,亞馬遜暫緩警方使用人臉辨識服務一年

2020.06.11 by
Dylan Yeh
黑人誤判率過高惹議,亞馬遜暫緩警方使用人臉辨識服務一年
ShutterStock
隨著近日美國的種族膚色衝突加劇,亞馬遜宣布將暫停授權美國執法部門使用臉部識別平台Rekognition一年,避免引起更多爭議。

隨著近日美國的種族膚色衝突加劇,亞馬遜宣布將暫停美國執法部門使用臉部識別平台Rekognition,以避免引起更多爭議。由於臉部辨識技術需要蒐集大量的臉部特徵、膚色等資料,有可能成為侵害人權或隱私的工具,因此IBM日前就宣布不再開發、提供授權、或研究臉部識別技術,研究表示雖然人工智慧的先進技術能為科技生活帶來許多便利,但現今臉部識別技術仍存在偏見,包括膚色、年齡、性別、種族等等。

麻省理工學院媒體實驗室的研究員喬·布蘭維尼(Joy Buolamwini)和Microsoft Research的蒂姆尼特·格布魯(Timnit Gebru)均表示目前臉部識別技術基本上仍嚴重存在種族偏見的問題。亞馬遜強調:「我們希望在暫停授權的一年間,能重新制定適當的實施規則。」

布蘭維尼與格布魯在2018年共同發表論文表示,他們發現包括IBM和微軟等大型科技公司,在識別膚色較黑的人的臉部識別系統的錯誤率比識別膚色較白的人要高出幾十個百分點;此外,根據《紐約時報》的一份報告,由於訓練系統的數據庫資料大多以男性和白人為主,才會在識別膚色較深的人種有較大的錯誤機會。

美國民權聯盟(ACLU)過去將535名國會議員的臉部資料,透過亞馬遜的辨識軟體Rekognition,與資料庫中 25,000 名嫌犯的臉部資料進行比對,誤認28位國會成員成嫌疑犯。
ACLU

在布蘭維尼與德博拉·拉吉(Deborah Raji)去年的另一項針對Rekognition的研究分析發現,亞馬遜系統存在著重大問題,包括無法識別膚色較黑人種的性別,以及
將膚色較黑的婦女誤認為男性,同時,該系統在分析膚色較白人種的圖像時,錯誤率幾乎為零。

布蘭維尼在發現亞馬遜臉部辨識系統的缺陷時,就曾寫了一封公開信疾呼「Rekognition有缺陷,不應交給執法部門處理,」並且批評亞馬遜一直否認系統缺陷的態度。如今亞馬遜自行暫停授權執法單位使用臉部識別技術Rekognition,證明布蘭維尼的分析並非空穴來風。

責任編輯:陳映璇

資料來源:亞馬遜The Verge

延伸閱讀

每日精選科技圈重要消息