用AI破解AI幻覺!黃仁勳也重視的「可解釋性AI」是什麼?原理、企業應用實例一次看懂
用AI破解AI幻覺!黃仁勳也重視的「可解釋性AI」是什麼?原理、企業應用實例一次看懂

生成式AI 模型在2025拉斯維加斯消費電子展(CES)大放異彩,可見AI模型對於科技業來說日益重要。隨著各家公司不斷探索AI的潛力,AI系統的可解釋性及對AI系統的信任,將是AI採用與負責任使用的關鍵推手。AI系統雖然功能強大,但往往像是「黑盒子」一樣,披著神祕的面紗。

許多AI技術創新者早就在關注「信任」這個話題,輝達(NVIDIA)執行長黃仁勳就是例子。他在2024年3月史丹佛經濟政策研究所舉行的AI會議上指出,建立對AI系統的信任,關鍵在於透明度與明確的指標。

他也特別強調領導層決策透明度,團隊共同使命,以及透過清楚溝通增進信心的重要性。這也適用於如何負責任地開發和採用AI,確保各個AI應用都能獲得信任。

人工智慧有著大幅增加經濟生產力,並在全世界推動正面社會改革的潛力。因此2024年採用AI軟體、工具和平台(包括生成式AI)的公司數量出現大幅增加並不令人感到意外。但也伴隨著許多擔憂。根據麥肯錫研究,91%的受訪者認為他們的組織對於安全和負責任地落實與擴展AI技術尚未「充分準備好」。

可解釋性AI──破除複雜的AI算法,增進AI工具使用者的信任

這種質疑並非毫無來由。生成式AI有機會提高生產力並推動創新,也會帶來新的風險,像是幻覺、不準確或有偏見的產出,可能衝擊人們對AI技術的信任。

事實上,信任是推動AI產品服務採用的基礎,許多組織開始了解到,AI的信任是建立在對AI軟體開發方法與產出的理解。在麥肯錫2024年AI報告中,40%的受訪者認為可解釋性是影響生成式AI採用的關鍵風險。然而,只有17%的人表示他們目前正在試圖緩解這項風險。

這個難題也引發增強「可解釋性AI」(explainable AI,簡稱XAI)的需求, 一種幫助組織理解這些系統的內部運作,並監控產出客觀性與準確性的新方法。 XAI可以解釋如黑盒子一般複雜的AI算法,從而增進AI工具使用者的信任與互動 ,也是AI解決方案從早期使用案例,部署到企業級大規模採用的關鍵步驟。

在不確定性的環境中進行投資,有意強化AI可解釋性的組織也必須考慮成本與效益,才能在缺乏完整資訊的情況下決定何時採取哪些行動。例如,美國新創公司Anthropic AI實驗室便賭上一把,因為他們認為對XAI的投資將會有所回報,並能在競爭激烈的基礎模型構建領域做出差異化。同時,各家企業也在努力滿足利益相關者與監管機構的要求。

隨著全球AI法規開始成形,XAI的需求也正在增加。愈來愈多組織開始尋求相關指導架構,幫助他們決定需要提供多大程度的可解釋性與模型相關資訊。歐盟AI法案就根據風險架構,設定各AI使用案例具體的透明度要求。以高風險AI系統為例(如履歷排名軟體等招募系統),各組織需要提供系統能力、限制、數據譜系以及其決策邏輯等相關資訊。

這也延伸幾個關鍵問題:各組織是否準備好提供這種程度的透明度?是否擁有必要的能力與技術?平台與創新者是否創建了可靠的測量方法?對此,可以把XAI想像成一套幫助人類理解AI模型為何做出某個預測,或生成特定內容的工具與做法,最終目標是確保這些產出內容品質高,不帶偏見、準確且無幻覺,因此需要在工具、人員和流程方面進行投資。

5應用,幫企業偵測AI風險

XAI仍處在從學術領域與實驗室走向實際應用的早期階段,但效益比想像中還更為具體。XAI可以在5個領域帶來投資回報:

➊緩解營運風險

XAI可以揭露AI模型如何處理數據和產生結果,提早識別並緩解偏見或不準確性等潛在問題,從而減少營運失敗與聲譽損害的風險。例如,金融服務業者在詐欺偵測工作中使用AI工具,但往往難以控制或理解AI系統的運作方式。考量到詐欺誤判的損害將導致潛在風險,可解釋性能幫助組織更好理解模型為何標註某些交易,並允許他們進行系統微調或加入更多人為監督。

❷ 合規與安全

XAI能確保AI系統符合特定產業、倫理與監管架構,減少違規罰款風險,維護品牌形象。例如,招募人員使用AI工具來篩選求職者,可解釋性能讓招募決策是根據相關標準且公平公正,避免偏見和歧視。

❸ 滾動式改善

XAI可以提供系統運作方式相關見解,推動針對性的調整與迭代,促進AI系統的持續改進,幫助開發者確保AI系統符合使用者與整體業務的期望。例如線上零售商使用可解釋性來改善推薦引擎,讓推薦內容更符合客戶偏好。

❹ 利益相關者對AI的信心

為了使AI系統能被理解,XAI把重點從模型技術運作轉移到模型使用者,透過以人為中心的方法幫助理解AI如何產出結果。例如,在醫療保健領域,AI系統常用於識別潛在疾病,XAI能幫助醫生更好理解這些模型的運作方式,從而建立信心並推動採用。

❺ 符合使用者採用期望

XAI能幫助組織監控模型產出是否符合使用者的期望。愈是符合期望,系統的採用度與滿意度就會更高,也能透過創新與變革管理帶動收入成長。

綜合上述,組織在考慮投資XAI以獲得回報時,首先必須了解不同利益相關者的各種需求,透過可解釋性的相關工作對齊銜接。不同的利益相關者、情況和後果需要不同類型的解釋和格式。例如,AI驅動的貸款核准系統與自動駕駛汽車在路口停車的方式,兩者所需的可解釋性水平不同;高風險場景(如癌症診斷)可能需要迅速提供精確的解釋,而推薦某家餐廳的理由則不需要同等的緊迫。

此外,可將AI可解釋性視為跨越鴻溝的橋梁,一邊是在學界和研究室研究和設計可解釋性技術的工程師和研究人員,另一邊是可能缺乏技術能力但仍需理解AI的最終使用者。在中間連接2個極端的是精通AI的人本主義者,轉譯研究人員和工程師開發的AI解釋,以回應各種利益相關者和使用者的需求和問題。這種新興人才將是設計適用於所有人的XAI的關鍵。

利益相關者的需求可以分為多種類型,每種類型都可從不同的技術和解釋中受益,例如,高層決策者需要對模型有足夠的理解和資訊,以對客戶和員工負責,特別是確保模型的行為符合組織的策略、品牌精神和價值觀。

為了滿足多樣化需求,XAI社群持續創建新的可解釋性技術,包括能讓AI模型決策過程更透明的算法。這些技術可根據利益相關者的意圖和目標進行分類,依照解釋產生的時間,分為在模型訓練之前或之後,以及全局或局部解釋範圍2大類:

第1類為「事後方法」,指在模型訓練後進行模型分析;與之相對的是「事前方法」,指本質上可解釋的模型,如決策樹。 舉例來說,當人力資源部門請求預測哪些員工的離職可能性較高時,決策樹可以清楚顯示基於工作滿意度、年資和工作量等因素,為什麼某些員工被標示為具離職風險。在這種情況下,事前解釋是AI模型及其運作方式與生俱來的特性。

相較之下,在醫療院所使用神經網絡預測糖尿病等疾病罹患風險的AI模型,則需要在結果生成後(即事後)提供解釋。最常見的是,模型透過運用SHAP或LIME等技術識別哪些因素(如年齡、生活方式或遺傳)對風險分數的影響最大,並確定風險評分是否準確無偏見。

shutterstock_1512490073_5g_,medical
圖/ metamorworks via shutterstock

第2類可區分為「全局解釋」和「局部解釋」。前者是幫助理解AI模型在所有情況的決策方式。 想像一家銀行使用AI模型來評估貸款申請,透過使用全局解釋工具(如生成布林規則列),銀行可以看到哪些因素(如收入、債務和信用評分)通常會影響其在所有客群的貸款審核決策。全局觀揭示模型在整個客戶群體所依循的模式或規則,使銀行能夠確認模型符合公平貸款的法規,並平等對待所有客戶。

相反地,局部解釋則專注於具體決策 。假設在醫療保健環境下,醫生使用AI協助診斷病患,透過局部解釋工具(如SHAP),醫生可以準確看到模型如何對特定患者預測某種疾病,例如顯示病患的年齡、病史等,精細程度能協助理解模型在個別案例中的推理,讓醫生對其建議能有更多信任,並在資訊更充足的情況下提供病人更個人化的醫療。

7步驟,創建跨職能XAI小隊

哪些技術適合用來獲取AI模型的解釋,取決於不同情境中的各類人員,因此組織在AI開發中嵌入可解釋性方法時,需要考慮下列步驟:

➊ 建立適當的XAI團隊

組織應建立真正的跨職能團隊,而其成員應包括數據科學家、AI工程師、領域專家、合規主管、法規專家及使用者體驗設計師。小組的多樣化能確保可解釋性的相關工作能有效解決技術、法律及使用者中心等問題。數據科學家和AI工程師專注於技術層面,而領域專家和設計師則提供針對特定情境的洞見,塑造解釋的內容與格式。

❷ 建立正確心態

XAI團隊應該由建設者組成,而非裁判員。團隊重點須放在加速創新,確保以正確的洞察來包裝所構建的產品或服務。因此,團隊需要在想法被塑造成概念構件的過程中就參與進來,而不是事後加入。早期參與還有助於在AI中建立以人為中心的工程文化,避免工程師和解釋者在下游發生衝突。

❸ 設定明確目標

針對每個利益相關者的角色,設定明確的AI可解釋性目標,確定需要解釋什麼、向誰解釋以及為什麼解釋。這需要訪談關鍵利益相關者與最終使用者,並了解他們的具體需求。建立明確的目標有助於選擇合適的技術與工具,並將其整合到構建計畫中。

❹ 制定行動計畫

建立內嵌策略,將可解釋性做法融入AI解決方案的設計,以及未來向不同利益相關者傳達解釋的溝通方式。前者可確保在整個AI生命周期都能採用可解釋性工具,而後者則有助於決定解釋的形式(視覺化、文本描述、互動儀表板)及所需的技術細節(針對高階主管提供概略摘要,而針對開發人員則需要詳細的技術報告),並確保解釋清晰、簡潔,方便受眾理解。

shutterstock_378640276_business plan.jpg
圖/ Rawpixel.com via shutterstock

❺ 衡量與對標AI

可解釋性還需要大力推動行業透明度與標準化指標,不僅有助於提高使用者對AI系統的理解,也符合主管機關的期待。例如,Hugging Face對歐盟AI法案合規性的衡量與追蹤的標竿評比工作、COMPL-AI計畫致力評估及衡量模型透明度等,都是進一步促進問責的重要步驟。隨著這些框架逐漸成熟,也成為推進信任及負責任的AI作法的重要推手。

➏ 選擇或構建合適的工具

採用並整合符合組織需求和技術堆疊的可解釋性工具,目前廣泛被使用的工具包括開源算法,如LIME、SHAP、IBM的AI Explainability 360工具包、Google的What-If工具和Microsoft的InterpretM。組織必須確保XAI核心團隊隨時密切關注此領域的快速創新。

➐ 監控與迭代

持續監控可解釋性工作的有效性,並收集、運用利益相關者的回饋,來迭代和改進可解釋性流程,定期更新模型和解釋,以反映數據和業務環境的變化。

隨著企業日漸依賴AI驅動的決策,組織各階層也更需要AI的透明度與理解。無法建立對AI的信任度的企業將錯失為客戶及員工提供AI全部潛力的機會,最終將在競爭中節節敗退。

說到底,信任將是負責任採用AI的關鍵,也是連結改革性技術與人類使用者之間的橋梁,必須有強大的支柱支撐。以AI信任度而言,支柱指的是可解釋性、治理、資訊安全,並以人為中心,確保AI為人類服務,而不是人類為AI服務,也讓AI系統在尊重人類自主權和尊嚴的同時,為使用者提供真實的價值。

延伸閱讀:AI流程、AI SEO⋯新職業即將誕生?Canva創辦人揭7項預測:大夜班職缺將由AI取代
白話科技|黃仁勳也看好!主權AI是什麼,為何輝達敢喊百億美元營收?

往下滑看下一篇文章
多問一點,離健康更近一些!VITABOX® AI 健康配速員,陪你找回身體的聲音
多問一點,離健康更近一些!VITABOX® AI 健康配速員,陪你找回身體的聲音

健康知識普及,卻未讓選擇變得容易。琳瑯滿目的營養補充品與建議,加上網路上碎片化、標準不一的資訊,反而讓判斷成本提高,許多人因此在起步階段就裹足不前。

「很多人其實想掌握健康,卻在資訊洪流中忘了相信自己身體的感受。」VITABOX® 營養師溜溜觀察,當選擇焦慮與資訊混亂成為常態,人們反而忽略了最簡單的事——傾聽身體的聲音。VITABOX® 因此在 LINE 推出 「AI 健康配速員」,透過對話幫助消費者重新找回與身體的連結,從內在需求出發,打造簡單好上路的保健起點。

VITABOX® 「AI 健康配速員」,開啟健康對話第一步

「大眾常見的保健問題其實高度重複,但過去客服量能有限,我們常常得讓客戶等上兩三天才回覆。現在有了 AI,能即時解答基礎問題,營養師則可專注處理較複雜的個案。」溜溜說明,VITABOX®「AI 健康配速員」是一套全年無休的對話系統,平均每日處理超過 600 筆提問,其中約 90% 可由 AI 即時解決,僅有 10% 需轉由真人營養師接手。常見問題如「孕婦能吃哪些益生菌?」或「睡不好該補什麼?」等,AI 均能提供清楚、專業的建議。

若遇到較複雜或個人化程度高的問題,則可透過機器人自動回應+AI+營養師的分層機制,轉接給真人營養師進行後續諮詢,有效縮短等待回覆的時間,也提升整體使用體驗。「我們不是單純導入 AI,而是選擇用 AI 互動來實現我們相信的一種陪伴方式,讓對身體的好奇與理解,不必等待。」

VITABOX
VITABOX® 營養師溜溜表示,「我們希望 AI 不只是回答問題,而是陪伴每個人重新認識自己的身體需求。」
圖/ 數位時代

啟用方式也極為簡單,加入 VITABOX® 的 LINE 官方帳號即可一鍵啟動。系統會先詢問性別、年齡等基本資訊;若使用者無法清楚描述問題,AI 也能進一步拋出問題、比對歷史紀錄,或透過選擇題的方式,引導釐清隱性需求與個人目標。

「像是近期討論度較高的 NMN,不少人打成 NNN、MNM,所以我們也特別訓練 AI 的語意理解與錯字判讀能力,能親切引導確認:『請問你是想問 NMN 嗎?』即使輸入有誤,也能繼續獲得正確資訊,讓使用者感受到 AI 的理解與體貼。」溜溜指出,AI 的價值不只解答問題,還要能夠預判可能的模糊與錯誤,比使用者先想一步,做到主動理解、精準回應。

整合知識圖譜,打造 AI 與營養師的雙軌協作

這套 AI 系統由大型語言模型(LLM)驅動,結合 VITABOX® 多年累積的產品資料、CRM 數據、真實客服對話、營養學與醫學期刊,建構出可持續學習的健康知識圖譜。不同於傳統「問一答一」的機制,AI 採用語境分層邏輯,先從作息與飲食習慣切入,層層推進至保健建議,再進一步提供產品推薦,並不直接導向消費,反而強化使用者信任與參與感。

「我們不是在打造冷冰冰的機器人,而是塑造一個有溫度的健康夥伴。」溜溜強調,VITABOX® 延續 Make it Simple 的核心精神與一貫的品牌語調,講究準確,也講究陪伴與信任。

VITABOX
有了「AI 健康配速員」多問一點,營養師也能專注處理較複雜或個人化程度高的專案。
圖/ 數位時代

為強化資訊安全與建議品質,AI 系統由營養師與產品團隊共同把關,建置完整的風險識別與回應邊界。當提問涉及藥物、疾病診斷等超出 AI 處理範疇時,系統即自動提醒使用者就醫或真人諮詢,避免誤導。

為了讓整體設計貼近使用者,VITABOX® 將 AI 健康配速員直接整合在 LINE 平台上,無需額外下載 App 或開啟網站。「我們並不改變使用者的習慣,而是在他們最自在的地方,陪伴他們開始健康對話。」

「AI 健康配速員」於 2024 年九月正式上線,初期封測滿意度不到五成,經三個月優化調整後,2025 年第一季提升至 98.7%。溜溜分享:「我們收到很多令人印象深刻的用戶回饋,有顧客表示被『一秒就收到回覆』嚇到,覺得回覆既『精準』又『貼心』;也有顧客雖然猜到是機器人,卻仍感謝 AI 的『悉心回應』,甚至有人說:『你們的服務系統真的很好,跟真人營養師一樣厲害!』這些回饋顯示,AI 的回覆品質已能與真人營養師無縫銜接,讓顧客在體驗上幾乎沒有落差。」

最令人驚喜的,是品牌導入 AI 後,整體轉換率提升了 13%。「原本只是想減輕客服壓力、解決顧客的問題,沒想到竟然也助攻銷售轉換,真的是意料之外!」

愈簡單、愈不容易,VITABOX® 的選擇與堅持

AI 強大而即時,那還需要營養師嗎?溜溜給出的答案是肯定的。「AI 是輔助,不是替代。它能處理多數標準問題,但人與人之間的細膩互動與臨床判斷,是 AI 做不到的。」她舉例,曾有使用者一開始以為是退化性問題,後來經過營養師協助釐清生活與補充習慣後,才發現另有可能的影響因素。這類交叉比對與個別化觀察,仍需仰賴營養師的經驗和引導。

因此,VITABOX® 保留「一鍵切換真人諮詢」的設計,當問題超出 AI 範圍,系統會即時轉由專業營養師接手。AI 專注於初步引導與問題分流,營養師則投入更具判斷力與價值的個案管理與產品研究。

VITABOX® 也是目前業界少數以 AI 提供「專業智能健康輔助」的品牌,跳脫傳統 FAQ chatbot,真正落實「以人為本」的對話設計。「健康的選擇,就是多問一點。多問一點,就能往健康的理想更靠近一點。」溜溜笑說,有了 AI,就不用擔心麻煩別人,什麼問題都能安心提問。「當營養師不用再回答重複問題,就能更聚焦在專案開發、營養規劃、檢測優化等工作。」

這樣的設計思維,也與一直以來的品牌理念相呼應。不上通路、不靠代言的 VITABOX®,始終專注於天然成分(A.A. Clean Label 無添加)、加乘配方(VITASYNERGY®)、安全驗證(SGS、BSI)與永續包裝(FSC 紙材、環保油墨)。從產品研發到服務設計,一以貫之地實踐「Make it Simple」的初衷。如今,「AI 健康配速員」更讓「今天開始享受健康生活」成為每個人都能實踐的行動起點,把保健變簡單,也更容易開始。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
蘋果能再次偉大?
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓