重點一: 跨國大規模研究顯示,AI助理對新聞內容的表述有高達 45% 的錯誤,此系統性問題無關語言或平台,恐危及大眾信任。
重點二: 4大主流 AI 平台中,Gemini 的表現最差,有 76% 的回覆存在重大問題,主因是其引用來源的品質不佳。
重點三: 儘管錯誤率高,但仍有許多閱聽人(尤其年輕族群)信任 AI 助理提供的新聞摘要,且AI發生錯誤時認為新聞機構責無旁貸。
歐洲廣播聯盟(EBU)、英國廣播公司(BBC)近期公布一項大型跨國研究《AI 助理在新聞中的使用與認知》,揭發AI助理在處理新聞內容時,存在嚴重的系統性錯誤。
這項橫跨 18個國家、涵蓋 14 種語言的調查顯示,無論使用哪種語言、地區或平台, ChatGPT、Copilot、Gemini 或 Perplexity等AI 助理在回覆新聞相關問題時,高達 45% 的內容至少存在一個重大錯誤,其中,31%的內容在辨識、引用或連結所使用的原始資訊來源時出現錯誤,而20%的內容含有「重大準確性問題」,包括AI幻覺或引用過時資訊 。
如今有愈來愈多人使用AI 助理作為獲取資訊的主要入口, 特別是 25 歲以下族群中有 15% 就使用 AI 助理看新聞 。高錯誤率不僅威脅到新聞內容的準確性,更可能動搖民眾對新聞媒體乃至民主參與的信任。
EBU 媒體總監暨副總幹事德・騰德(Jean Philip De Tender)強調,這些錯誤並非單一事件,而是「跨越國界和多語言的系統性問題」,大眾若無法信任資訊來源,最終將「什麼都不信」。
觀察一:4大平台表現評比,Gemini 來源引用最棘手
這項研究評估了 ChatGPT、Copilot、Gemini 和 Perplexity 4大主流 AI 助理平台共 3,000 多個回覆,根據準確性、來源引用、事實與觀點的區分,以及提供背景資訊等關鍵標準進行評估。
結果顯示,錯誤的分布在不同平台間存在顯著差異, 其中 Gemini 的表現最為不佳,有 76% 的回覆被判定存在重大問題,這個比率是其他 AI 助理的2倍以上 。主要症結在於 Gemini 糟糕的「來源引用」表現,整體調查中,有 31% 的回覆存在嚴重來源問題,包括引用來源遺失、具誤導性或根本錯誤。
BBC 生成式 AI 專案總監亞契(Peter Archer)表示,雖然樂見 AI 帶來的價值,但大眾必須能夠信任他們所閱讀、觀看和聽到的內容,並願意與 AI 公司合作,共同解決這些明顯存在的重大問題。
觀察二:4大AI錯誤類型,「事實錯誤」最損信任感
為了深入了解錯誤對大眾信任的實際影響,研究測試了4種常見的 AI 錯誤類型,包括事實錯誤(Factual Errors)、觀點作為事實呈現(Opinion as Fact)、來源與歸屬錯誤(Sourcing Errors)和自行加入觀點(Introduction of Opinions)。 結果表明,所有錯誤都會嚴重損害用戶的信心,其中事實錯誤最具破壞力。
高達 84% 的英國成年人表示,事實錯誤(如日期、數字不準確)將對他們對 AI 摘要的信任產生重大影響,因為準確性是用戶對新聞內容最基本的底線。
觀點作為事實呈現類型中,有 81% 的人認為這會嚴重損害信任,因其破壞了公正性讓用戶感覺 AI 系統在選邊站或有隱藏偏見。
即使是更為技術性的來源與歸屬錯誤(如錯誤引用新聞機構),也有 76% 的人表示會破壞信任,讓人質疑內容真實性。
當 AI 助理自行加入原始報導中沒有的觀點時,模糊了報導與評論的界線,有 73% 的人會因此對其信任大打折扣。
報告強調,在大家習慣快速瀏覽資訊的時代,任何一個小錯誤,都會在用戶心中留下負面印象。
觀察三:AI 錯誤回應闖禍,媒體恐背連坐黑鍋
這項研究還揭露了一個對新聞媒體來說很頭痛的問題:當AI發生錯誤時,閱聽人不僅會責怪 AI 服務提供商,也會將矛頭指向新聞提供者。
許多人錯誤地假定 AI 助理提供的新聞摘要是準確的。在英國成年人中,超過三分之一新信AI 能產生準確的摘要,而在 35 歲以下的年輕族群中,這個比例更攀升至近一半。
而當AI內容出現錯誤時,大多數英國成年人認為 AI 服務提供商 (36%) 和政府/監管機構 (31%) 應負責確保 AI 回覆的準確性。
即使錯誤是由 AI 摘要生成所致,仍有 23% 的人認為「新聞提供商」應該為與他們名稱相關聯的內容負責,有 35% 的人本能地同意新聞來源就該為 AI 摘要中的錯誤負責。這些都表明 AI 助理的失誤,可能連帶對新聞媒體的信譽造成負面影響,即使錯誤並非新聞機構所致。
報告也指出,若想恢復民眾的信任,AI 平台必須提供清楚的來源、時間和連結,並且一旦修正錯誤,要確保在所有地方都能同步更新,避免讓新聞媒體成為 AI 錯誤的替罪羔羊。
總結
這份報告警告 AI 摘要中立的「可靠表象」創造了用戶的「盲點」。由演算法帶來的虛假確定性,導致用戶在接收資訊時鬆懈了查證的本能。
如果這種情況持續,AI 的系統性錯誤不僅會讓用戶失去對技術本身的信任,還可能悄悄侵蝕用戶對整體新聞品牌的可信度與信任感,最終對整個新聞環境造成負面衝擊。
延伸閱讀:好險,AI文章還沒有占據你的世界!AI文章數量與人寫文章曾出現「黃金交叉」,現在呈55波
「只懂古典物理的LLM,無法提出相對論!」學者解密AI思維鏈:為何光寫提示詞,配不上「工程」兩字?
資料來源:BBC
本文初稿為AI編撰,整理.編輯/ 蘇柔瑋
