用AI破解AI幻覺!黃仁勳也重視的「可解釋性AI」是什麼?原理、企業應用實例一次看懂
用AI破解AI幻覺!黃仁勳也重視的「可解釋性AI」是什麼?原理、企業應用實例一次看懂

生成式AI 模型在2025拉斯維加斯消費電子展(CES)大放異彩,可見AI模型對於科技業來說日益重要。隨著各家公司不斷探索AI的潛力,AI系統的可解釋性及對AI系統的信任,將是AI採用與負責任使用的關鍵推手。AI系統雖然功能強大,但往往像是「黑盒子」一樣,披著神祕的面紗。

許多AI技術創新者早就在關注「信任」這個話題,輝達(NVIDIA)執行長黃仁勳就是例子。他在2024年3月史丹佛經濟政策研究所舉行的AI會議上指出,建立對AI系統的信任,關鍵在於透明度與明確的指標。

他也特別強調領導層決策透明度,團隊共同使命,以及透過清楚溝通增進信心的重要性。這也適用於如何負責任地開發和採用AI,確保各個AI應用都能獲得信任。

人工智慧有著大幅增加經濟生產力,並在全世界推動正面社會改革的潛力。因此2024年採用AI軟體、工具和平台(包括生成式AI)的公司數量出現大幅增加並不令人感到意外。但也伴隨著許多擔憂。根據麥肯錫研究,91%的受訪者認為他們的組織對於安全和負責任地落實與擴展AI技術尚未「充分準備好」。

可解釋性AI──破除複雜的AI算法,增進AI工具使用者的信任

這種質疑並非毫無來由。生成式AI有機會提高生產力並推動創新,也會帶來新的風險,像是幻覺、不準確或有偏見的產出,可能衝擊人們對AI技術的信任。

事實上,信任是推動AI產品服務採用的基礎,許多組織開始了解到,AI的信任是建立在對AI軟體開發方法與產出的理解。在麥肯錫2024年AI報告中,40%的受訪者認為可解釋性是影響生成式AI採用的關鍵風險。然而,只有17%的人表示他們目前正在試圖緩解這項風險。

這個難題也引發增強「可解釋性AI」(explainable AI,簡稱XAI)的需求, 一種幫助組織理解這些系統的內部運作,並監控產出客觀性與準確性的新方法。 XAI可以解釋如黑盒子一般複雜的AI算法,從而增進AI工具使用者的信任與互動 ,也是AI解決方案從早期使用案例,部署到企業級大規模採用的關鍵步驟。

在不確定性的環境中進行投資,有意強化AI可解釋性的組織也必須考慮成本與效益,才能在缺乏完整資訊的情況下決定何時採取哪些行動。例如,美國新創公司Anthropic AI實驗室便賭上一把,因為他們認為對XAI的投資將會有所回報,並能在競爭激烈的基礎模型構建領域做出差異化。同時,各家企業也在努力滿足利益相關者與監管機構的要求。

隨著全球AI法規開始成形,XAI的需求也正在增加。愈來愈多組織開始尋求相關指導架構,幫助他們決定需要提供多大程度的可解釋性與模型相關資訊。歐盟AI法案就根據風險架構,設定各AI使用案例具體的透明度要求。以高風險AI系統為例(如履歷排名軟體等招募系統),各組織需要提供系統能力、限制、數據譜系以及其決策邏輯等相關資訊。

這也延伸幾個關鍵問題:各組織是否準備好提供這種程度的透明度?是否擁有必要的能力與技術?平台與創新者是否創建了可靠的測量方法?對此,可以把XAI想像成一套幫助人類理解AI模型為何做出某個預測,或生成特定內容的工具與做法,最終目標是確保這些產出內容品質高,不帶偏見、準確且無幻覺,因此需要在工具、人員和流程方面進行投資。

5應用,幫企業偵測AI風險

XAI仍處在從學術領域與實驗室走向實際應用的早期階段,但效益比想像中還更為具體。XAI可以在5個領域帶來投資回報:

➊緩解營運風險

XAI可以揭露AI模型如何處理數據和產生結果,提早識別並緩解偏見或不準確性等潛在問題,從而減少營運失敗與聲譽損害的風險。例如,金融服務業者在詐欺偵測工作中使用AI工具,但往往難以控制或理解AI系統的運作方式。考量到詐欺誤判的損害將導致潛在風險,可解釋性能幫助組織更好理解模型為何標註某些交易,並允許他們進行系統微調或加入更多人為監督。

❷ 合規與安全

XAI能確保AI系統符合特定產業、倫理與監管架構,減少違規罰款風險,維護品牌形象。例如,招募人員使用AI工具來篩選求職者,可解釋性能讓招募決策是根據相關標準且公平公正,避免偏見和歧視。

❸ 滾動式改善

XAI可以提供系統運作方式相關見解,推動針對性的調整與迭代,促進AI系統的持續改進,幫助開發者確保AI系統符合使用者與整體業務的期望。例如線上零售商使用可解釋性來改善推薦引擎,讓推薦內容更符合客戶偏好。

❹ 利益相關者對AI的信心

為了使AI系統能被理解,XAI把重點從模型技術運作轉移到模型使用者,透過以人為中心的方法幫助理解AI如何產出結果。例如,在醫療保健領域,AI系統常用於識別潛在疾病,XAI能幫助醫生更好理解這些模型的運作方式,從而建立信心並推動採用。

❺ 符合使用者採用期望

XAI能幫助組織監控模型產出是否符合使用者的期望。愈是符合期望,系統的採用度與滿意度就會更高,也能透過創新與變革管理帶動收入成長。

綜合上述,組織在考慮投資XAI以獲得回報時,首先必須了解不同利益相關者的各種需求,透過可解釋性的相關工作對齊銜接。不同的利益相關者、情況和後果需要不同類型的解釋和格式。例如,AI驅動的貸款核准系統與自動駕駛汽車在路口停車的方式,兩者所需的可解釋性水平不同;高風險場景(如癌症診斷)可能需要迅速提供精確的解釋,而推薦某家餐廳的理由則不需要同等的緊迫。

此外,可將AI可解釋性視為跨越鴻溝的橋梁,一邊是在學界和研究室研究和設計可解釋性技術的工程師和研究人員,另一邊是可能缺乏技術能力但仍需理解AI的最終使用者。在中間連接2個極端的是精通AI的人本主義者,轉譯研究人員和工程師開發的AI解釋,以回應各種利益相關者和使用者的需求和問題。這種新興人才將是設計適用於所有人的XAI的關鍵。

利益相關者的需求可以分為多種類型,每種類型都可從不同的技術和解釋中受益,例如,高層決策者需要對模型有足夠的理解和資訊,以對客戶和員工負責,特別是確保模型的行為符合組織的策略、品牌精神和價值觀。

為了滿足多樣化需求,XAI社群持續創建新的可解釋性技術,包括能讓AI模型決策過程更透明的算法。這些技術可根據利益相關者的意圖和目標進行分類,依照解釋產生的時間,分為在模型訓練之前或之後,以及全局或局部解釋範圍2大類:

第1類為「事後方法」,指在模型訓練後進行模型分析;與之相對的是「事前方法」,指本質上可解釋的模型,如決策樹。 舉例來說,當人力資源部門請求預測哪些員工的離職可能性較高時,決策樹可以清楚顯示基於工作滿意度、年資和工作量等因素,為什麼某些員工被標示為具離職風險。在這種情況下,事前解釋是AI模型及其運作方式與生俱來的特性。

相較之下,在醫療院所使用神經網絡預測糖尿病等疾病罹患風險的AI模型,則需要在結果生成後(即事後)提供解釋。最常見的是,模型透過運用SHAP或LIME等技術識別哪些因素(如年齡、生活方式或遺傳)對風險分數的影響最大,並確定風險評分是否準確無偏見。

shutterstock_1512490073_5g_,medical
圖/ metamorworks via shutterstock

第2類可區分為「全局解釋」和「局部解釋」。前者是幫助理解AI模型在所有情況的決策方式。 想像一家銀行使用AI模型來評估貸款申請,透過使用全局解釋工具(如生成布林規則列),銀行可以看到哪些因素(如收入、債務和信用評分)通常會影響其在所有客群的貸款審核決策。全局觀揭示模型在整個客戶群體所依循的模式或規則,使銀行能夠確認模型符合公平貸款的法規,並平等對待所有客戶。

相反地,局部解釋則專注於具體決策 。假設在醫療保健環境下,醫生使用AI協助診斷病患,透過局部解釋工具(如SHAP),醫生可以準確看到模型如何對特定患者預測某種疾病,例如顯示病患的年齡、病史等,精細程度能協助理解模型在個別案例中的推理,讓醫生對其建議能有更多信任,並在資訊更充足的情況下提供病人更個人化的醫療。

7步驟,創建跨職能XAI小隊

哪些技術適合用來獲取AI模型的解釋,取決於不同情境中的各類人員,因此組織在AI開發中嵌入可解釋性方法時,需要考慮下列步驟:

➊ 建立適當的XAI團隊

組織應建立真正的跨職能團隊,而其成員應包括數據科學家、AI工程師、領域專家、合規主管、法規專家及使用者體驗設計師。小組的多樣化能確保可解釋性的相關工作能有效解決技術、法律及使用者中心等問題。數據科學家和AI工程師專注於技術層面,而領域專家和設計師則提供針對特定情境的洞見,塑造解釋的內容與格式。

❷ 建立正確心態

XAI團隊應該由建設者組成,而非裁判員。團隊重點須放在加速創新,確保以正確的洞察來包裝所構建的產品或服務。因此,團隊需要在想法被塑造成概念構件的過程中就參與進來,而不是事後加入。早期參與還有助於在AI中建立以人為中心的工程文化,避免工程師和解釋者在下游發生衝突。

❸ 設定明確目標

針對每個利益相關者的角色,設定明確的AI可解釋性目標,確定需要解釋什麼、向誰解釋以及為什麼解釋。這需要訪談關鍵利益相關者與最終使用者,並了解他們的具體需求。建立明確的目標有助於選擇合適的技術與工具,並將其整合到構建計畫中。

❹ 制定行動計畫

建立內嵌策略,將可解釋性做法融入AI解決方案的設計,以及未來向不同利益相關者傳達解釋的溝通方式。前者可確保在整個AI生命周期都能採用可解釋性工具,而後者則有助於決定解釋的形式(視覺化、文本描述、互動儀表板)及所需的技術細節(針對高階主管提供概略摘要,而針對開發人員則需要詳細的技術報告),並確保解釋清晰、簡潔,方便受眾理解。

shutterstock_378640276_business plan.jpg
圖/ Rawpixel.com via shutterstock

❺ 衡量與對標AI

可解釋性還需要大力推動行業透明度與標準化指標,不僅有助於提高使用者對AI系統的理解,也符合主管機關的期待。例如,Hugging Face對歐盟AI法案合規性的衡量與追蹤的標竿評比工作、COMPL-AI計畫致力評估及衡量模型透明度等,都是進一步促進問責的重要步驟。隨著這些框架逐漸成熟,也成為推進信任及負責任的AI作法的重要推手。

➏ 選擇或構建合適的工具

採用並整合符合組織需求和技術堆疊的可解釋性工具,目前廣泛被使用的工具包括開源算法,如LIME、SHAP、IBM的AI Explainability 360工具包、Google的What-If工具和Microsoft的InterpretM。組織必須確保XAI核心團隊隨時密切關注此領域的快速創新。

➐ 監控與迭代

持續監控可解釋性工作的有效性,並收集、運用利益相關者的回饋,來迭代和改進可解釋性流程,定期更新模型和解釋,以反映數據和業務環境的變化。

隨著企業日漸依賴AI驅動的決策,組織各階層也更需要AI的透明度與理解。無法建立對AI的信任度的企業將錯失為客戶及員工提供AI全部潛力的機會,最終將在競爭中節節敗退。

說到底,信任將是負責任採用AI的關鍵,也是連結改革性技術與人類使用者之間的橋梁,必須有強大的支柱支撐。以AI信任度而言,支柱指的是可解釋性、治理、資訊安全,並以人為中心,確保AI為人類服務,而不是人類為AI服務,也讓AI系統在尊重人類自主權和尊嚴的同時,為使用者提供真實的價值。

延伸閱讀:AI流程、AI SEO⋯新職業即將誕生?Canva創辦人揭7項預測:大夜班職缺將由AI取代
白話科技|黃仁勳也看好!主權AI是什麼,為何輝達敢喊百億美元營收?

往下滑看下一篇文章
用數據串起亞洲市場,Vpon 為品牌開啟跨境成長新航線
用數據串起亞洲市場,Vpon 為品牌開啟跨境成長新航線
2025.10.29 |

近年來,台灣零售、金融、服務等 B2C 產業,正面臨營運成長放緩的挑戰。一來本地市場規模趨於飽和,品牌間競爭日益激烈;二來會員結構逐漸高齡化,而年輕族群的忠誠度與黏著度又難以維繫。若想突破現況,企業勢必要尋找新的成長路徑——或是積極佈局海外市場,擴大營運版圖;或是吸引外國觀光客增加消費,創造跨境商機;又或者,精準洞察會員需求與偏好,重新打造客戶關係。

無論選擇哪條路,數據整合與 AI 應用都是推動轉型的重要關鍵。威朋大數據(Vpon)執行長篠原好孝正是看見了這樣的市場契機,提出「以數據串起亞洲市場」的核心願景,善用 Vpon 在數據、AI 與數位廣告上的整合能力和經驗,協助品牌描繪顧客行為軌跡,從而制定更個人化的商品推薦與行銷策略,同時亦能協助企業掌握跨境商機,加速日本品牌深耕台灣市場,也讓更多台灣企業能以數據為翼,飛向更廣闊的亞洲舞台。

三大特色構築 Vpon 數據競爭力:多維數據 × 廣告行銷 × 隱私保護

要實現「以數據串起亞洲市場」的願景,背後靠的不只是理想,更需要完整的跨境數據與嚴謹的治理機制,而這正是 Vpon 第三方數據庫的核心競爭力所在。

篠原好孝認為, Vpon 第三方數據庫具備三大特色。第一是提供多維且全方位的消費者洞察。除了透過 App 廣告聯播網收集數據, Vpon 亦以電子發票數據為基礎,並結合政府開放數據,擴大數據收集的維度,使數據庫涵蓋線下消費傾向、地理位置、族群輪廓、興趣偏好、App 使用行為等多元面向。透過多維度數據整合分析,為企業建立涵蓋「人、事、時、地、物」的完整市場視圖。

第二是整合廣告行銷專業。提供從數據收集、受眾分析到廣告投放的一條龍式解決方案,協助企業將數據洞察轉化為具體行銷策略,並精準觸及目標客群,提高廣告行銷的成效。

第三為重視隱私保護與數據合規。 Vpon 的數據收集範圍橫跨亞洲多個國家,考量到各國政府及企業客戶對個資保護的高度要求, Vpon 從一開始就堅持不收集使用者的姓名、電話或其他可識別個人身分的數據,數據庫內僅有匿名化的裝置使用行為數據,除此之外 Vpon 更通過 ISO 27001 資訊安全管理系統認證,從數據收集原則到營運流程全面保障消費者隱私安全及數據使用的合法合規。

Vpon 威朋
威朋大數據(Vpon)執行長 篠原好孝
圖/ 數位時代

以數據助攻國家戰略:從 Cool Japan 到 Cool Taiwan

憑藉在數據整合與分析上的深厚實力, Vpon 成功引起日本政府與企業的關注和採用,包括日本政府觀光局(JNTO)、關西觀光本部、大阪觀光局、AEON MALL 等,皆導入 Vpon 數據解決方案進行精準行銷。

日本政府在 2010 年開始推動 Cool Japan 戰略,在政策推進過程中,適逢 Vpon 進軍日本市場,與日本觀光局合作進行大數據分析,藉由 Vpon 數據解決方案整合與分析海外旅客的觀光旅遊數據,不僅吸引更多海外旅客造訪日本,也帶動日本百貨業者、日本特色食品與文化商品的海外銷售業績成長。近年來,日本觀光局更依據 Vpon 的數據洞察結果精準投放廣告,推動海外遊客到東京、大阪或京都等知名景點以外的地區旅遊,促進地方觀光與產業均衡發展。

Cool Japan 的成功經驗,讓 Vpon 看見跨境數據應用的巨大潛力。因此於 2024 年啟動 Cool Taiwan 計畫,此計畫的兩個重點,一是吸引外國觀光客來台旅遊,二是支援海外企業佈局台灣市場,持續以數據為核心,打造更緊密的亞洲經濟網絡。

篠原好孝舉例指出,若日本品牌要在台灣舖設實體通路,可以透過 Vpon 數據庫了解各個商圈的人流特性、消費習慣與潛在顧客的生活圈,進而判斷哪些地點最適合開設新店。「從店舖開設前的市場評估、選址決策,到開幕後的廣告行銷與宣傳活動,都能藉由 Vpon 的數據洞察持續優化。」篠原好孝強調。

更重要的是,這套數據應用機制不僅能「順向操作」,協助日本品牌登台拓點,也能「逆向操作」,協助台灣企業前進日本市場,同時提升入境(inbound)和境外(outbound)的收入。像佳音英語在佈局日本市場時,便借助 Vpon 的廣告與數據專業,在日本主要城市的戶外看板投放廣告,成功建立品牌知名度。另外,桃園觀光局也與 Vpon 合作,於日本實體展會進行宣傳與曝光,吸引日本民眾來台旅遊。

從第三方到第一方: Vpon 以 CCDP 助企業重掌數據主導權

除了以數據串聯亞洲市場, Vpon 更進一步透過可組合式顧客數據管理平台(Composable CDP;CCDP),推動企業「回到自身」,善用自有數據資產,打造內部數據的增值循環。

篠原好孝表示, Vpon CCDP 以 Google Analytics 4(GA4)技術為核心,協助企業收集網站與 App 的使用者行為數據,並整合品牌自有的會員數據庫。如此一來,企業就能更全面掌握顧客的數位行為軌跡,據此進行更精準的分眾分群,進一步去提升會員活躍度與終身價值。

目前包括中國信託、遠東商銀、ABC Mart 等零售與金融業者,皆已導入 Vpon CCDP 解決方案,在符合法規與隱私保護要求的前提下,有效整合分散的數據資產,並透過 AI 模型進行預測與建模,找出轉換率最高的潛在客群,或是進行個人化商品推薦、優化廣告投放策略等,實現更精準且高效的行銷決策。

展望未來, Vpon 將持續「以數據串起亞洲」的願景,深化在日本、台灣、香港等東亞市場的整合布局,並計畫於東京上市,以取得更多資源推動全球化發展,例如:拓展、越南、歐洲等東亞地區以外的新市場,打造連結亞洲、放眼世界的數據生態版圖。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓