用AI破解AI幻覺!黃仁勳也重視的「可解釋性AI」是什麼?原理、企業應用實例一次看懂
用AI破解AI幻覺!黃仁勳也重視的「可解釋性AI」是什麼?原理、企業應用實例一次看懂

生成式AI 模型在2025拉斯維加斯消費電子展(CES)大放異彩,可見AI模型對於科技業來說日益重要。隨著各家公司不斷探索AI的潛力,AI系統的可解釋性及對AI系統的信任,將是AI採用與負責任使用的關鍵推手。AI系統雖然功能強大,但往往像是「黑盒子」一樣,披著神祕的面紗。

許多AI技術創新者早就在關注「信任」這個話題,輝達(NVIDIA)執行長黃仁勳就是例子。他在2024年3月史丹佛經濟政策研究所舉行的AI會議上指出,建立對AI系統的信任,關鍵在於透明度與明確的指標。

他也特別強調領導層決策透明度,團隊共同使命,以及透過清楚溝通增進信心的重要性。這也適用於如何負責任地開發和採用AI,確保各個AI應用都能獲得信任。

人工智慧有著大幅增加經濟生產力,並在全世界推動正面社會改革的潛力。因此2024年採用AI軟體、工具和平台(包括生成式AI)的公司數量出現大幅增加並不令人感到意外。但也伴隨著許多擔憂。根據麥肯錫研究,91%的受訪者認為他們的組織對於安全和負責任地落實與擴展AI技術尚未「充分準備好」。

可解釋性AI──破除複雜的AI算法,增進AI工具使用者的信任

這種質疑並非毫無來由。生成式AI有機會提高生產力並推動創新,也會帶來新的風險,像是幻覺、不準確或有偏見的產出,可能衝擊人們對AI技術的信任。

事實上,信任是推動AI產品服務採用的基礎,許多組織開始了解到,AI的信任是建立在對AI軟體開發方法與產出的理解。在麥肯錫2024年AI報告中,40%的受訪者認為可解釋性是影響生成式AI採用的關鍵風險。然而,只有17%的人表示他們目前正在試圖緩解這項風險。

這個難題也引發增強「可解釋性AI」(explainable AI,簡稱XAI)的需求, 一種幫助組織理解這些系統的內部運作,並監控產出客觀性與準確性的新方法。 XAI可以解釋如黑盒子一般複雜的AI算法,從而增進AI工具使用者的信任與互動 ,也是AI解決方案從早期使用案例,部署到企業級大規模採用的關鍵步驟。

在不確定性的環境中進行投資,有意強化AI可解釋性的組織也必須考慮成本與效益,才能在缺乏完整資訊的情況下決定何時採取哪些行動。例如,美國新創公司Anthropic AI實驗室便賭上一把,因為他們認為對XAI的投資將會有所回報,並能在競爭激烈的基礎模型構建領域做出差異化。同時,各家企業也在努力滿足利益相關者與監管機構的要求。

隨著全球AI法規開始成形,XAI的需求也正在增加。愈來愈多組織開始尋求相關指導架構,幫助他們決定需要提供多大程度的可解釋性與模型相關資訊。歐盟AI法案就根據風險架構,設定各AI使用案例具體的透明度要求。以高風險AI系統為例(如履歷排名軟體等招募系統),各組織需要提供系統能力、限制、數據譜系以及其決策邏輯等相關資訊。

這也延伸幾個關鍵問題:各組織是否準備好提供這種程度的透明度?是否擁有必要的能力與技術?平台與創新者是否創建了可靠的測量方法?對此,可以把XAI想像成一套幫助人類理解AI模型為何做出某個預測,或生成特定內容的工具與做法,最終目標是確保這些產出內容品質高,不帶偏見、準確且無幻覺,因此需要在工具、人員和流程方面進行投資。

5應用,幫企業偵測AI風險

XAI仍處在從學術領域與實驗室走向實際應用的早期階段,但效益比想像中還更為具體。XAI可以在5個領域帶來投資回報:

➊緩解營運風險

XAI可以揭露AI模型如何處理數據和產生結果,提早識別並緩解偏見或不準確性等潛在問題,從而減少營運失敗與聲譽損害的風險。例如,金融服務業者在詐欺偵測工作中使用AI工具,但往往難以控制或理解AI系統的運作方式。考量到詐欺誤判的損害將導致潛在風險,可解釋性能幫助組織更好理解模型為何標註某些交易,並允許他們進行系統微調或加入更多人為監督。

❷ 合規與安全

XAI能確保AI系統符合特定產業、倫理與監管架構,減少違規罰款風險,維護品牌形象。例如,招募人員使用AI工具來篩選求職者,可解釋性能讓招募決策是根據相關標準且公平公正,避免偏見和歧視。

❸ 滾動式改善

XAI可以提供系統運作方式相關見解,推動針對性的調整與迭代,促進AI系統的持續改進,幫助開發者確保AI系統符合使用者與整體業務的期望。例如線上零售商使用可解釋性來改善推薦引擎,讓推薦內容更符合客戶偏好。

❹ 利益相關者對AI的信心

為了使AI系統能被理解,XAI把重點從模型技術運作轉移到模型使用者,透過以人為中心的方法幫助理解AI如何產出結果。例如,在醫療保健領域,AI系統常用於識別潛在疾病,XAI能幫助醫生更好理解這些模型的運作方式,從而建立信心並推動採用。

❺ 符合使用者採用期望

XAI能幫助組織監控模型產出是否符合使用者的期望。愈是符合期望,系統的採用度與滿意度就會更高,也能透過創新與變革管理帶動收入成長。

綜合上述,組織在考慮投資XAI以獲得回報時,首先必須了解不同利益相關者的各種需求,透過可解釋性的相關工作對齊銜接。不同的利益相關者、情況和後果需要不同類型的解釋和格式。例如,AI驅動的貸款核准系統與自動駕駛汽車在路口停車的方式,兩者所需的可解釋性水平不同;高風險場景(如癌症診斷)可能需要迅速提供精確的解釋,而推薦某家餐廳的理由則不需要同等的緊迫。

此外,可將AI可解釋性視為跨越鴻溝的橋梁,一邊是在學界和研究室研究和設計可解釋性技術的工程師和研究人員,另一邊是可能缺乏技術能力但仍需理解AI的最終使用者。在中間連接2個極端的是精通AI的人本主義者,轉譯研究人員和工程師開發的AI解釋,以回應各種利益相關者和使用者的需求和問題。這種新興人才將是設計適用於所有人的XAI的關鍵。

利益相關者的需求可以分為多種類型,每種類型都可從不同的技術和解釋中受益,例如,高層決策者需要對模型有足夠的理解和資訊,以對客戶和員工負責,特別是確保模型的行為符合組織的策略、品牌精神和價值觀。

為了滿足多樣化需求,XAI社群持續創建新的可解釋性技術,包括能讓AI模型決策過程更透明的算法。這些技術可根據利益相關者的意圖和目標進行分類,依照解釋產生的時間,分為在模型訓練之前或之後,以及全局或局部解釋範圍2大類:

第1類為「事後方法」,指在模型訓練後進行模型分析;與之相對的是「事前方法」,指本質上可解釋的模型,如決策樹。 舉例來說,當人力資源部門請求預測哪些員工的離職可能性較高時,決策樹可以清楚顯示基於工作滿意度、年資和工作量等因素,為什麼某些員工被標示為具離職風險。在這種情況下,事前解釋是AI模型及其運作方式與生俱來的特性。

相較之下,在醫療院所使用神經網絡預測糖尿病等疾病罹患風險的AI模型,則需要在結果生成後(即事後)提供解釋。最常見的是,模型透過運用SHAP或LIME等技術識別哪些因素(如年齡、生活方式或遺傳)對風險分數的影響最大,並確定風險評分是否準確無偏見。

shutterstock_1512490073_5g_,medical
圖/ metamorworks via shutterstock

第2類可區分為「全局解釋」和「局部解釋」。前者是幫助理解AI模型在所有情況的決策方式。 想像一家銀行使用AI模型來評估貸款申請,透過使用全局解釋工具(如生成布林規則列),銀行可以看到哪些因素(如收入、債務和信用評分)通常會影響其在所有客群的貸款審核決策。全局觀揭示模型在整個客戶群體所依循的模式或規則,使銀行能夠確認模型符合公平貸款的法規,並平等對待所有客戶。

相反地,局部解釋則專注於具體決策 。假設在醫療保健環境下,醫生使用AI協助診斷病患,透過局部解釋工具(如SHAP),醫生可以準確看到模型如何對特定患者預測某種疾病,例如顯示病患的年齡、病史等,精細程度能協助理解模型在個別案例中的推理,讓醫生對其建議能有更多信任,並在資訊更充足的情況下提供病人更個人化的醫療。

7步驟,創建跨職能XAI小隊

哪些技術適合用來獲取AI模型的解釋,取決於不同情境中的各類人員,因此組織在AI開發中嵌入可解釋性方法時,需要考慮下列步驟:

➊ 建立適當的XAI團隊

組織應建立真正的跨職能團隊,而其成員應包括數據科學家、AI工程師、領域專家、合規主管、法規專家及使用者體驗設計師。小組的多樣化能確保可解釋性的相關工作能有效解決技術、法律及使用者中心等問題。數據科學家和AI工程師專注於技術層面,而領域專家和設計師則提供針對特定情境的洞見,塑造解釋的內容與格式。

❷ 建立正確心態

XAI團隊應該由建設者組成,而非裁判員。團隊重點須放在加速創新,確保以正確的洞察來包裝所構建的產品或服務。因此,團隊需要在想法被塑造成概念構件的過程中就參與進來,而不是事後加入。早期參與還有助於在AI中建立以人為中心的工程文化,避免工程師和解釋者在下游發生衝突。

❸ 設定明確目標

針對每個利益相關者的角色,設定明確的AI可解釋性目標,確定需要解釋什麼、向誰解釋以及為什麼解釋。這需要訪談關鍵利益相關者與最終使用者,並了解他們的具體需求。建立明確的目標有助於選擇合適的技術與工具,並將其整合到構建計畫中。

❹ 制定行動計畫

建立內嵌策略,將可解釋性做法融入AI解決方案的設計,以及未來向不同利益相關者傳達解釋的溝通方式。前者可確保在整個AI生命周期都能採用可解釋性工具,而後者則有助於決定解釋的形式(視覺化、文本描述、互動儀表板)及所需的技術細節(針對高階主管提供概略摘要,而針對開發人員則需要詳細的技術報告),並確保解釋清晰、簡潔,方便受眾理解。

shutterstock_378640276_business plan.jpg
圖/ Rawpixel.com via shutterstock

❺ 衡量與對標AI

可解釋性還需要大力推動行業透明度與標準化指標,不僅有助於提高使用者對AI系統的理解,也符合主管機關的期待。例如,Hugging Face對歐盟AI法案合規性的衡量與追蹤的標竿評比工作、COMPL-AI計畫致力評估及衡量模型透明度等,都是進一步促進問責的重要步驟。隨著這些框架逐漸成熟,也成為推進信任及負責任的AI作法的重要推手。

➏ 選擇或構建合適的工具

採用並整合符合組織需求和技術堆疊的可解釋性工具,目前廣泛被使用的工具包括開源算法,如LIME、SHAP、IBM的AI Explainability 360工具包、Google的What-If工具和Microsoft的InterpretM。組織必須確保XAI核心團隊隨時密切關注此領域的快速創新。

➐ 監控與迭代

持續監控可解釋性工作的有效性,並收集、運用利益相關者的回饋,來迭代和改進可解釋性流程,定期更新模型和解釋,以反映數據和業務環境的變化。

隨著企業日漸依賴AI驅動的決策,組織各階層也更需要AI的透明度與理解。無法建立對AI的信任度的企業將錯失為客戶及員工提供AI全部潛力的機會,最終將在競爭中節節敗退。

說到底,信任將是負責任採用AI的關鍵,也是連結改革性技術與人類使用者之間的橋梁,必須有強大的支柱支撐。以AI信任度而言,支柱指的是可解釋性、治理、資訊安全,並以人為中心,確保AI為人類服務,而不是人類為AI服務,也讓AI系統在尊重人類自主權和尊嚴的同時,為使用者提供真實的價值。

延伸閱讀:AI流程、AI SEO⋯新職業即將誕生?Canva創辦人揭7項預測:大夜班職缺將由AI取代
白話科技|黃仁勳也看好!主權AI是什麼,為何輝達敢喊百億美元營收?

往下滑看下一篇文章
以數位公共建設金流平台為橋樑,打造民眾、商家與銀行共贏生態圈
以數位公共建設金流平台為橋樑,打造民眾、商家與銀行共贏生態圈

在中央銀行與財金公司引領下,數位公共建設金流平台不僅整合「TWQR」,更連通銀行與民間電支機構,透過統一的QR碼「TWQR」,以「跨機構、一碼付」、「款券合用」、「跨境支付」以及即將上線的「多券合用」等功能,讓很多部會的券,甚至是金融機構發行的,都可以一起使用,逐步吸引民眾、商家與金融機構加入,民眾能即時使用、商家快速收款,銀行也能結合金融服務創新。隨著「TWQR」平台成熟,2026 年應用場景也從生活消費、公共繳費拓展至交通運輸等領域,形成涵蓋支付與生活服務的數位金融生態圈。

「數位公共建設金流平台」讓政府能運用既有的金融通路,完成艱鉅的數位政策推展,數位化取代紙本作業,不僅提升發放效率,更能大幅節省印製與回收的行政成本。對民眾而言,領取補助不再受時間與地點限制,免去紙本券排隊、保管不便的痛點,輕鬆取得「全時服務」,真正做到「數位領券免排隊、消費折抵更直覺」。為響應政府推動非現金支付的目標、打造更普惠的金融環境,玉山銀行率先將數位公共建設金流平台整合進玉山 Wallet App,於 2025 年 1 月推出「數位券」服務,同時,也領先同業推出「券+點+支付」整合付款功能,民眾可以在 App 內完成登記、領取與使用政府補助,並在 TWQR 與台灣 Pay 商店消費抵用,大幅簡化支付流程。

玉山銀行個人金融事業總處資深副總經理林榮華表示:「我們很重視客戶體驗,整合數位公共建設金流平台後,民眾不僅能透過玉山 Wallet App 領取各類政府補助券,例如客家幣,還能透過玉山電子支付與玉山 e point ,一鍵完成『券+點+支付』合併付款。」未來,玉山銀行也將與特約商店合作,透過「數位券」服務,發送更多數位優惠,讓商家能更容易推動數位行銷並提升支付體驗。

玉山銀行個人金融事業總處資深副總經理 林榮華
玉山銀行個人金融事業總處資深副總經理 林榮華
圖/ TWQR

以TWQR為核心,打造多方受益的數位金流生態圈

過去,面對不同政府機關發送的消費券或振興券,民眾常需要在不同平台登記、領取與使用,不僅流程繁瑣,商家核銷程序也相對複雜。為了解決這類問題,政府積極建構「數位公共建設金流平臺」,整合部會、地方政府與銀行,讓政策補助與振興措施更智慧,從三個面向共創生態系多贏:

提供民眾更便利的「全時服務」:民眾領取跟使用補助券不再受限於時間與地點,真正做到「想領就領、想花就花」。

玉山銀行信用卡暨支付金融處處長張正志進一步解釋,傳統的紙本券除了領取時間與地點受限,還有排隊等候、保管不易與使用不便等問題,即使金融機構推出數位券,民眾也面臨需要下載不同 App 才能使用的狀況。「整合數位公共建設金流平台後,民眾不需切換平台,即可在同一個 App 內完成電子支付、數位券與點數的整合付款。」

協助商家簡化核銷流程並增加客源。舉例來說,玉山銀行特約商家無需更改既有系統,也不用支付額外費用或重新簽約,可以原有收單系統完成收款與核銷,大幅降低導入門檻;此外,玉山銀行亦積極打造好玩、有趣、高互動性的數位券行銷活動,商戶可以透過參與這類活動提升曝光、接觸新客群,進而創造新的營收機會。

玉山分享不僅2月的「一馬當先好運金」活動帶動 10 倍流量,3月推出的「2026新年數位任務挑戰賽」等活動也吸引大量客戶參與,創造民眾、商家與玉山的共贏。對金融機構而言,則是擴大支付場景與深化客戶關係的關鍵平台。透過 TWQR 約 60 萬家商家通路,銀行等金融機構不僅能提升客戶使用頻率,也能逐步建立點數與支付整合的生態圈。

玉山銀行的作法是將數位公共建設金流平台與玉山 Wallet App 整合在一起,開通電子支付並綁定支付工具,藉此引導客戶多加使用玉山 Wallet App,以及透過 TWQR 通路優勢以及交通(乘車碼)跟生活繳費場景應用等方式提升客戶往來頻次與增加跨售機會。「根據我們的統計數據,玉山電子支付帶動玉山銀行開戶的數量,是其他錢包的 6 到 10 倍。」

民眾透過玉山Wallet掃描TWQR,即可在消費場景中使用一鍵完成「數位券+點數+支付」合併付款
民眾透過玉山Wallet掃描TWQR,即可在消費場景中使用一鍵完成「數位券+點數+支付」合併付款
圖/ TWQR

TWQR數位券再進化:從優惠工具、場景金融到實現精準行銷

對玉山銀行來說,整合數位公共建設金流平台不僅是優化民眾領取與使用消費券與振興券體驗的重要工具,更是實現多元場景金融、貫徹精準行銷的重要平台。舉例來說,相較於沒有精準分眾的活動,透過數據分析遴選出的玉山特選用戶領券繳費折抵的轉換率超過 8 成、重購率逾 7 成,成效十分亮眼。

張正志面帶微笑的說:「未來,我們將以系統平台為核心,由跨部門籌組的科技聯隊以數據分析跟 AI 持續優化行銷成效,打造差異化服務體驗。」例如,計畫推出行銷智能化服務:不用人工事先挑選名單,當客戶行為樣態觸發系統預判條件,AI Agent 便會智能發券,提供專屬禮遇。

總體來說,TWQR數位券讓支付更簡單、更智慧,也讓政策補助落地更快速,也為銀行與民間支付合作提供舞台。而玉山銀行除透過舉辦與TWQR相關活動引流、吸引客戶申請數位券服務,更透過平台將獎勵回饋發送到玉山 Wallet App,協助客戶開啟使用電子支付服務,使用後將再度獲得回饋進而養成使用習慣,爾後,以有趣且高互動的客戶經營方式,引導客戶從使用一個銀行服務擴展到使用多個服務,發揮獲客、活客、留客與悅客的正向循環,更好實現跨生態多贏。

#0 台灣Pay
玉山銀行個人金融事業總處資深副總經理 林榮華(右)、玉山銀行信用卡暨支付金融處處長 張正志(左)
圖/ TWQR
精華一次看>>數位時代 Youtube 頻道 Shorts

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
AI全球100+台灣20
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓