作者:資誠創新諮詢公司副總經理 林杰綸
在當今數位化的時代,人工智慧(AI)已經成為企業營運和市場競爭的關鍵。然而,隨著 AI技術的快速發展和廣泛應用,其帶來的風險和挑戰也日益顯著。根據PwC US 《 2024 負責任AI調查》顯示,高階主管越來越意識到,負責任的人工智慧實踐對於企業的投資報酬率至關重要,46%的高階主管表示,使他們的企業、產品和服務與眾不同是他們投資負責任的AI實踐的三大目標之一。
2025 年,企業領導者將無法再以不一致的方式處理AI治理問題。隨著人工智慧成為營運和市場產品不可或缺的一部分,企業需要建立系統化、透明的方法來確認其人工智慧投資的持續價值,同時管理大規模部署AI的風險。在醫療領域,一些AI軟體被設計用於通過手機應用程式幫助醫生診斷黑色素瘤,但研究發現這些軟體經常會漏診黑色素瘤,而將圖片發送給皮膚科醫生的應用程式雖然幫助很大,但失敗率仍然不小。這說明在 AI 技術的部署過程中,風險管理和驗證至關重要。
要實施釋放價值的人工智慧監督,企業需要另一個獨立的視角。這可能來自於已提升技能的內部稽核團隊,或者根據領先實務和標準進行評估的第三方專家。無論如何實現,從2025年開始,對AI治理和控制的獨立觀點都將相當重要。正如PwC人工智慧審計主管(AI Assurance Leader)珍妮佛(Jennifer Kosar)所言:「成功的人工智慧治理將不僅僅取決於風險的緩解,還取決於戰略目標的實現和強勁的投資報酬率。」
以人才招聘為例,AI招聘軟體被用於篩選應徵人選、進行面試評估等。例如,HireVue、Hiretual 等工具透過分析應徵者的影片和行為數據來評估錄取與否。然而,這些工具在數據準確性和算法控制方面可能存在問題,導致不公平的徵才結果。因此企業在使用AI技術時,需要進行嚴格的評估和監督,以確保其符合負責任的 AI 實現。
展望未來,人工智慧監管方法將推動持續創新。雖然各國法規繼續保持靈活,從而促進人工智慧技術和部署的快速發展,但企業仍需關注政府法規的變化,這些規則發展迅速,可能會產生有時相互矛盾的規定,PwC觀察美國目前的整體監管環境,仍是全球最有利於人工智慧創新。
為了應對這些挑戰,企業需要採取以下行動:
全面評估風險:
企業需要一個標準化、以人工智慧為中心的風險分類方法,來做出一致且可重複的治理決策。PwC使用的人工智慧風險分類法涵蓋人工智慧模型、資料、系統和基礎設施、使用者、法律與合規,以及流程影響。另一重要的關注領域是供應商和服務提供者如何在所提供的產品和服務中使用人工智慧,以及他們是否可以透過 SOC-2 等審計報告提供驗證。
選擇如何控管:
從影響最廣泛或財務影響大的高風險領域著手,建立一套獨立、可持續的驗證機制,包括增加一個獨立的、持續的AI 相關驗證專責單位,這單位成員可以是來自內部經過訓練的人員或是外部專業服務人士。
重視產業差異:
雖然全面人工智慧治理和監督都是必要的,但產業特定問題將為具體方法提供參考。例如,金融服務業需要考慮如何滿足針對舊技術設計的現有合規性要求;航空航太和國防公司以及其他與公共部門密切合作的公司需要關注全球監管發展。企業可以參加相關調查以獲取分析報告,了解公司在關鍵AI治理基礎上與同產業的水平。
負責任的人工智慧實踐不僅是企業應對風險和挑戰的必要手段,更是實現高投資報酬率和戰略目標的關鍵。這需要全面的風險評估,利用標準化的AI風險分類法來涵蓋模型偏見、數據隱私、安全性等方面。此外,建立獨立且持續的監督機制是關鍵,這可透過內部專業團隊或外部專家進行驗證。不同產業需考量特定的監管和合規挑戰,並密切關注法律環境的變化,以便在全球監管框架下保持創新。透過這些措施,企業能夠有效管理AI風險,保持競爭優勢並贏得市場信任。