AI助理新聞摘要錯誤率達45%!BBC研究:Gemini引用品質最差、年輕世代盲信恐釀媒體信任危機
AI助理新聞摘要錯誤率達45%!BBC研究:Gemini引用品質最差、年輕世代盲信恐釀媒體信任危機
AI助理新聞摘要錯誤率達45%!

重點一: 跨國大規模研究顯示,AI助理對新聞內容的表述有高達 45% 的錯誤,此系統性問題無關語言或平台,恐危及大眾信任。
重點二: 4大主流 AI 平台中,Gemini 的表現最差,有 76% 的回覆存在重大問題,主因是其引用來源的品質不佳。
重點三: 儘管錯誤率高,但仍有許多閱聽人(尤其年輕族群)信任 AI 助理提供的新聞摘要,且AI發生錯誤時認為新聞機構責無旁貸。

歐洲廣播聯盟(EBU)、英國廣播公司(BBC)近期公布一項大型跨國研究《AI 助理在新聞中的使用與認知》,揭發AI助理在處理新聞內容時,存在嚴重的系統性錯誤。

這項橫跨 18個國家、涵蓋 14 種語言的調查顯示,無論使用哪種語言、地區或平台, ChatGPT、Copilot、Gemini 或 Perplexity等AI 助理在回覆新聞相關問題時,高達 45% 的內容至少存在一個重大錯誤,其中,31%的內容在辨識、引用或連結所使用的原始資訊來源時出現錯誤,而20%的內容含有「重大準確性問題」,包括AI幻覺或引用過時資訊

如今有愈來愈多人使用AI 助理作為獲取資訊的主要入口, 特別是 25 歲以下族群中有 15% 就使用 AI 助理看新聞 。高錯誤率不僅威脅到新聞內容的準確性,更可能動搖民眾對新聞媒體乃至民主參與的信任。

EBU 媒體總監暨副總幹事德・騰德(Jean Philip De Tender)強調,這些錯誤並非單一事件,而是「跨越國界和多語言的系統性問題」,大眾若無法信任資訊來源,最終將「什麼都不信」。

觀察一:4大平台表現評比,Gemini 來源引用最棘手

這項研究評估了 ChatGPT、Copilot、Gemini 和 Perplexity 4大主流 AI 助理平台共 3,000 多個回覆,根據準確性、來源引用、事實與觀點的區分,以及提供背景資訊等關鍵標準進行評估。

結果顯示,錯誤的分布在不同平台間存在顯著差異, 其中 Gemini 的表現最為不佳,有 76% 的回覆被判定存在重大問題,這個比率是其他 AI 助理的2倍以上 。主要症結在於 Gemini 糟糕的「來源引用」表現,整體調查中,有 31% 的回覆存在嚴重來源問題,包括引用來源遺失、具誤導性或根本錯誤。

BBC 生成式 AI 專案總監亞契(Peter Archer)表示,雖然樂見 AI 帶來的價值,但大眾必須能夠信任他們所閱讀、觀看和聽到的內容,並願意與 AI 公司合作,共同解決這些明顯存在的重大問題。

觀察二:4大AI錯誤類型,「事實錯誤」最損信任感

為了深入了解錯誤對大眾信任的實際影響,研究測試了4種常見的 AI 錯誤類型,包括事實錯誤(Factual Errors)、觀點作為事實呈現(Opinion as Fact)、來源與歸屬錯誤(Sourcing Errors)和自行加入觀點(Introduction of Opinions)。 結果表明,所有錯誤都會嚴重損害用戶的信心,其中事實錯誤最具破壞力。

高達 84% 的英國成年人表示,事實錯誤(如日期、數字不準確)將對他們對 AI 摘要的信任產生重大影響,因為準確性是用戶對新聞內容最基本的底線。

觀點作為事實呈現類型中,有 81% 的人認為這會嚴重損害信任,因其破壞了公正性讓用戶感覺 AI 系統在選邊站或有隱藏偏見。

即使是更為技術性的來源與歸屬錯誤(如錯誤引用新聞機構),也有 76% 的人表示會破壞信任,讓人質疑內容真實性。

當 AI 助理自行加入原始報導中沒有的觀點時,模糊了報導與評論的界線,有 73% 的人會因此對其信任大打折扣。

報告強調,在大家習慣快速瀏覽資訊的時代,任何一個小錯誤,都會在用戶心中留下負面印象。

觀察三:AI 錯誤回應闖禍,媒體恐背連坐黑鍋

這項研究還揭露了一個對新聞媒體來說很頭痛的問題:當AI發生錯誤時,閱聽人不僅會責怪 AI 服務提供商,也會將矛頭指向新聞提供者。

許多人錯誤地假定 AI 助理提供的新聞摘要是準確的。在英國成年人中,超過三分之一新信AI 能產生準確的摘要,而在 35 歲以下的年輕族群中,這個比例更攀升至近一半。

而當AI內容出現錯誤時,大多數英國成年人認為 AI 服務提供商 (36%) 和政府/監管機構 (31%) 應負責確保 AI 回覆的準確性。

即使錯誤是由 AI 摘要生成所致,仍有 23% 的人認為「新聞提供商」應該為與他們名稱相關聯的內容負責,有 35% 的人本能地同意新聞來源就該為 AI 摘要中的錯誤負責。 這些都表明 AI 助理的失誤,可能連帶對新聞媒體的信譽造成負面影響,即使錯誤並非新聞機構所致。

報告也指出,若想恢復民眾的信任,AI 平台必須提供清楚的來源、時間和連結,並且一旦修正錯誤,要確保在所有地方都能同步更新,避免讓新聞媒體成為 AI 錯誤的替罪羔羊。

AI新聞摘要仍是演算法,動搖新聞品牌信任度

這份報告警告 AI 摘要中立的可靠表象創造了用戶的盲點。由演算法帶來的虛假確定性,導致用戶在接收資訊時鬆懈了查證的本能。

如果這種情況持續,AI 的系統性錯誤不僅會讓用戶失去對技術本身的信任,還可能悄悄侵蝕用戶對整體新聞品牌的可信度與信任感,最終對整個新聞環境造成負面衝擊。

延伸閱讀:好險,AI文章還沒有占據你的世界!AI文章數量與人寫文章曾出現「黃金交叉」,現在呈55波
「只懂古典物理的LLM,無法提出相對論!」學者解密AI思維鏈:為何光寫提示詞,配不上「工程」兩字?

資料來源:BBC

本文初稿為AI編撰,整理.編輯/ 蘇柔瑋

往下滑看下一篇文章
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路

「代理式 AI 」(Agentic AI)的創新服務正在重新塑造企業對AI的想像:成為內部實際運行的數位員工,提升關鍵工作流程的效率。代理式AI的技術應用清楚指向一個核心趨勢:2025 年是 AI 邁向「代理式 AI」的起點,讓 AI 擁有決策自主權的技術轉型關鍵,2026 年這股浪潮將持續擴大並邁向規模化部署。

面對這股 AI Agent 浪潮,企業如何加速落地成為關鍵,博弘雲端以雲端與數據整合實力,結合零售、金融等產業經驗,提出 AI 系統整合商定位,協助企業從規劃、導入到維運,降低試錯風險,成為企業佈局 AI 的關鍵夥伴。

避開 AI 轉型冤枉路,企業該如何走對第一步?

博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題、生成內容的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工,應用場景也從單一任務延伸至多代理協作(Multi-Agent)模式。

「儘管 AI 前景看好,但這條導入之路並非一帆風順。」博弘雲端技術維運中心副總經理暨技術長宋青雲綜合多份市場調查報告指出,到了 2028 年,高達 70% 的重複性工作將被 AI 取代,但同時也有約 40% 的生成式 AI 專案面臨失敗風險;關鍵原因在於,企業常常低估了導入 GenAI 的整體難度——挑戰不僅來自 AI 相關技術的快速更迭,更涉及流程變革與人員適應。

2-RD096270.jpg
博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工。面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時加速 AI 落地。
圖/ 數位時代

正因如此,企業在導入 AI 時,其實需要外部專業夥伴的協助,而博弘雲端不僅擁有導入 AI 應用所需的完整技術能力,涵蓋數據、雲端、應用開發、資安防禦與維運,可以一站式滿足企業需求,更能使企業在 AI 轉型過程中少走冤枉路。

宋青雲表示,許多企業在導入 AI 時,往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。

轉換率提升 50% 的關鍵:HAPPY GO 的 AI 落地實戰路徑

博弘雲端這套導入方法論,並非紙上談兵,而是已在多個實際場域中驗證成效;鼎鼎聯合行銷的 HAPPY GO 會員平台的 AI 轉型歷程,正是其最具代表性的案例之一。陳亭竹說明,HAPPY GO 過去曾面臨AI 落地應用的考驗:會員資料散落在不同部門與系統中,無法整合成完整的會員輪廓,亦難以對會員進行精準貼標與分眾行銷。

為此,博弘雲端先協助 HAPPY GO 進行會員資料的邏輯化與規格化,完成建置數據中台後,再依業務情境評估適合的 AI 模型,並且減少人工貼標的時間,逐步發展精準行銷、零售 MLOps(Machine Learning Operations,模型開發與維運管理)平台等 AI 應用。在穩固的數據基礎下,AI 應用成效也開始一一浮現:首先是 AI 市場調查應用,讓資料彙整與分析效率提升約 80%;透過 AI 個性化推薦機制,廣告點擊轉換率提升 50%。

3-RD096215.jpg
左、右為博弘雲端事業中心副總經理陳亭竹及技術維運中心副總經理暨技術長宋青雲。宋青雲分享企業導入案例,許多企業往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。
圖/ 數位時代

整合 Databricks 與雲端服務,打造彈性高效的數據平台

在協助鼎鼎聯合行銷與其他客戶的實務經驗中,博弘雲端發現,底層數據架構是真正影響 AI 落地速度的關鍵之一,因與 Databricks 合作協助企業打造更具彈性與擴充性的數據平台,作為 AI 長期發展的基礎。

Databricks 以分散式資料處理框架(Apache Spark)為核心,能同時整合結構化與非結構化資料,並支援分散式資料處理、機器學習與進階分析等多元工作負載,讓企業免於在多個平台間反覆搬移資料,省下大量重複開發與系統整合的時間,從而加速 AI 應用從概念驗證、使用者驗收測試(UAT),一路推進到正式上線(Production)的過程,還能確保資料治理策略的一致性,有助於降低資料外洩與合規風險;此對於金融等高度重視資安與法規遵循的產業而言,更顯關鍵。

陳亭竹認為,Databricks 是企業在擴展 AI 應用時「進可攻、退可守」的重要選項。企業可將數據收納在雲端平台,當需要啟動新型 AI 或 Agent 專案時,再切換至 Databricks 進行開發與部署,待服務趨於穩定後,再轉回雲端平台,不僅兼顧開發效率與成本控管,也讓數據平台真正成為 AI 持續放大價值的關鍵基礎。

企業強化 AI 資安防禦的三個維度

隨著 AI 與 Agent 應用逐步深入企業核心流程,資訊安全與治理的重要性也隨之同步提升。對此,宋青雲提出建立完整 AI 資安防禦體系的 3 個維度。第一是資料治理層,企業在導入 AI 應用初期,就應做好資料分級與建立資料治理政策(Policy),明確定義高風險與隱私資料的使用邊界,並規範 AI Agent「能看什麼、說什麼、做什麼」,防止 AI 因執行錯誤而造成的資安風險。

第二是權限管理層,當 AI Agent 角色升級為數位員工時,企業也須比照人員管理方式為其設定明確的職務角色與權限範圍,包括可存取的資料類型與可執行的操作行為,防止因權限過大,讓 AI 成為新的資安破口。

第三為技術應用層,除了導入多重身份驗證、DLP 防制資料外洩、定期修補應用程式漏洞等既有資安防禦措施外,還需導入專為生成式 AI 設計的防禦機制,對 AI 的輸入指令與輸出內容進行雙向管控,降低指令注入攻擊(Prompt Injection)或惡意內容傳遞的風險。

4-RD096303.jpg
博弘雲端技術維運中心副總經理暨技術長宋青雲進一步說明「AI 應用下的資安考驗」,透過完善治理政策與角色權限,並設立專為生成式 AI 設計的防禦機制,降低 AI 安全隱私外洩的風險。
圖/ 數位時代

此外,博弘雲端也透過 MSSP 資安維運託管服務,從底層的 WAF、防火牆與入侵偵測,到針對 AI 模型特有弱點的持續掃描,提供 7×24 不間斷且即時的監控與防護。不僅能在系統出現漏洞時主動識別並修補漏洞,更可以即時監控活動,快速辨識潛在威脅。不僅如此,也能因應法規對 AI 可解釋性與可稽核性的要求,保留完整操作與決策紀錄,協助企業因應法規審查。

「AI Agent 已成為企業未來發展的必然方向,」陳亭竹強調,面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時,加速 AI 落地。在這波變革浪潮中,博弘雲端不只是提供雲端服務技術的領航家,更是企業推動 AI 轉型的策略戰友。透過深厚的雲端與數據技術實力、跨產業的AI導入實務經驗,以及完善的資安維運託管服務,博弘雲端將持續協助企業把數據轉化為行動力,在 AI Agent 時代助企業實踐永續穩健的 AI 落地應用。

>>掌握AI 應用的新契機,立即聯繫博弘雲端專業顧問

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓