把需要道德判斷的決策外包給 AI 特別不妙,但現在卻有愈來愈多人這麼做。
在某些情況下,把事情指派給 AI 似乎很合理,譬如決策速度必須很快,人類可能跟不上的事情。在網路安全、內容推薦系統和高頻股票交易方面,確實會有這種需求。
但漸漸地,卻也有人依據相同的思路,以決策速度「必須和機器一樣快」為理由,把 AI 用到其他領域,像是武器系統和困難的醫療決策。到了第 12 章,我們會深入探討自主武器系統的風險,現在則先聚焦於讓 AI 代替人類進行道德決策,會產生什麼問題。
我們愈沒機會練習同理、做出道德判斷,這方面的能力就會愈差。目前的聊天機器人和即將問世的 AI 助理與教練,主要都是提供開發人員所說的「決策支援」(decision support),譬如AI幫忙寫出文件草稿,但最後要修改到什麼程度仍取決於使用者。
不過在認知上,人類很容易受「自動化偏誤」(automation bias)影響,也就是明明知道資訊有矛盾不合理之處,卻還是會想跟隨自動化系統。
在2016年,喬治亞理工學院(Georgia Tech)曾舉行相關實驗,模擬火災發生,機器人為受試者指引疏散通道,但方向明顯和火災出口標誌的亮燈相反,結果大家卻還是很快就跟著機器人走──而且機器人先前在實驗中就已顯露不可靠的跡象,不僅將眾人帶到錯誤的會議室,還說自己故障。
受試者根本沒什麼理由要信任機器,但在生死交關之際,卻還是選擇相信。在自動化偏誤的影響下,決策支援型 AI 和全自動系統之間,其實可能沒有那麼大的差別。
守住大腦與靈魂
AI 最嚴重也最險惡的影響,大概就是威脅到人類的智力、書寫能力、思考力、同理心和判斷力了。大眾往往忽略了這些風險,但其實我們還是可以採取行動,防範自己落入最壞的下場,其中,劃清界線是一大重點。 我們必須確立何時可用 AI 自動完成任務或徵求建議,何時又應該使用自己的大腦,並跟隨內心的道德羅盤。
社會也必須設下界線,確立如何教育孩童。在第 7 章,我們會深入探討 AI 與教育,但如果要先簡要說明的話,重點就是即使在這個充斥 AI 助理的新時代,我們仍須教導孩子批判性思考、邏輯推理、解決問題,以及倫理觀念,最重要的是一定要教寫作。
至於像我這種已經脫離學生身分的人,則應該思考如何使用 AI 技術才能變聰明,而不是導致自己智力退化。對於生活中的大小事務,你可能都會很想用 AI 處理,但如果眼前的應用方式會侵蝕智力與道德,你就應該抵抗 AI 的誘惑。
美國加州聖塔克拉拉大學(Santa Clara University)的AI倫理學家布萊恩.格林(Brian Green)表示,這基本上就是「還想不想保有人類自主性」的問題,畢竟如果每件事都自動化,人類就什麼都不用做,那這樣活著還有什麼意義呢?我們必須自行定義哪些事可以自動化,不要讓開發 AI 的公 司替所有人決定。
從許多層面來看,劃清使用 AI 的界線,其實和選擇使用社群媒體的方式很類似。在社群平台上,我們仍保有使用上的決策權,儘管科技公司可以竭盡全力把產品打造得非常令人上癮,我們還是能自主行動,可以限制螢幕時間、關閉應用程式,或是直接放下手機。
同樣地,雖然在職場上可能必須使用 AI,但回到私人生活後,你還是可以自行決定要不要用,以及該如何使用。趁人類還有智慧時,我們必須做出明智的選擇。
本文授權轉載自《AI來了,你還不開始準備嗎?》,Jeremy Kahn著,寶鼎出版
