《黑鏡》、《心靈判官》劇情要成真?英國司法部秘密進行「殺人預測計畫」,利用AI分析個人資料預測潛在殺人犯,引發倫理爭議。該系統共享數十萬人個資,並納入心理健康等敏感資訊,遭批評侵犯隱私、放大歧視。
在日本動畫《PSYCHO-PASS 心靈判官》中,有一個名為「希貝兒先知系統」的強大監測網路,能夠主動掃描市民的心智與精神狀態,計算出所謂的「心靈指數」與「犯罪指數」,預測一個人犯罪的可能性。
如果指標超過門檻值,即使尚未犯案,此人也會被警方追捕甚至就地處決。
像這樣反烏托邦式的科幻設定,在虛構的影視中時常被採用,例如《黑鏡》、《關鍵報告》以及上述的《心靈判官》等。但隨著科技持續進步,仰賴 AI 進行社會安全管理的未來,或許真的快要到來?
非營利研究機構 Statewatch 日前揭露的政府文件顯示,英國司法部正在秘密進行一項「殺人預測計畫」(Homicide Prediction Project),企圖通過分析大量個人資料,預測哪些人可能會在未來犯下謀殺罪行。
英國殺人預測計畫是什麼?如何靠AI判斷殺人傾向?
Statewatch 透過資訊自由法,獲取一份政府文件,得知英國正在推動「殺人預測計畫」,這是由首相辦公室委託,是英國司法部、內政部、大曼徹斯特警察局以及倫敦大都會警察局共同合作的計畫。
這個殺人預測系統使用英國司法部、警察國家電腦系統以及大曼徹斯特警察局的資料進行所謂的「殺人風險評估」,大曼徹斯特警察局已向該計畫提供了 10 萬至 50 萬人的個人資料。
大曼徹斯特警方提供的資料,包含嫌疑人、受害者、目擊者、失蹤人口,以及有安全顧慮者的資訊。
英國司法部表示,健康標記數據預期具有顯著的預測力,這些資料還涉及人們的心理健康、成癮情況、自我傷害、自殺、脆弱性和殘疾等敏感資訊。
研究文件透露,司法部數據科學團隊會「開發模型」,尋找資料中強大的殺人風險預測因子,並提及這個犯罪預測系統未來可能會開始運作。
用AI預測殺人犯,真的沒問題嗎?
用犯罪預測系統來判斷某人是否會犯罪,是非常容易引發道德批判的嘗試。
Statewatch 研究員 Sofia Lyall 也對此表示「毛骨悚然」且「反烏托邦」。但更令人擔憂的是,透過 AI 演算法打造的犯罪預測系統,會讓即使尚未犯罪的人也可能被系統評為「高風險」,並遭受不必要的監控:
司法部自己進行的研究發現,再犯罪預測工具「罪犯評估系統」(OASys)對黑人罪犯的預測準確度低於白人罪犯,但目前這項系統已被用於量刑決定、監獄分類和假釋決定。
Lyall 批判,利用英國帶有制度性種族歧視的警察及內政部數據的模型,將強化並放大刑事法律系統中的結構性歧視,而使用有關心理健康、成癮和殘疾的敏感數據,更是極度侵犯人民的隱私。
AI監視社會將至?研究員呼籲:立刻停止研究殺人預測!
目前,英國秘密研究的犯罪預測系統雖仍處於研究階段,但隨著 AI 技術的發展,政府必須思考如何在預防犯罪,與保護公民隱私和自由之間取得平衡。
從倫理道德的角度來看,將某個人打上「潛在殺人犯」的標籤,可能造成難以撫平的社會烙印,尤其目前的預測技術仍然有偏見和不準確的情形。
當犯罪難以避免,但政府在消減社會福利同時,還妄想能用科技解決一切時,可能會出現治標不治本的問題。
Statewatch 研究員就呼籲:
如果透過 AI 監視社會的未來成真,那麼《PSYCHO-PASS 心靈判官》的劇情,可能將成為一種驚悚的未來預言。
隨著《衛報》等主流媒體對這份研究進行報導,公眾討論已經展開,人們開始思考:「當科幻小說和動畫中的情節逐漸走入現實,我們的社會準備好了嗎?」而在被系統長期控制的社會中,人們的自由與選擇權又該如何被維護?
延伸閱讀:川普氣歪!亞馬遜商品「標示關稅成本」遭白宮施壓:一通電話,如何讓貝佐斯急轉彎?
澳洲電台使用AI DJ半年沒人發現!花74萬元打造「Thy」,為何卻是場注定失敗的實驗?
本文授權轉載自:加密城市