AI幻覺惹禍!Deloitte澳洲分公司亂掰判決、學術研究,被迫退還875萬報告費
AI幻覺惹禍!Deloitte澳洲分公司亂掰判決、學術研究,被迫退還875萬報告費

全球專業顧問公司Deloitte近日捲入一起因AI使用不當而產生的爭議,其在澳洲為政府部門撰寫的一份報告中,被發現充斥著多處疑似由「AI 幻覺」(AI hallucination)產生錯誤連篇的資訊,包括捏造的聯邦法院判決引文,以及引用不存在的學術研究論文。

面對錯誤曝光,Deloitte Australia (Deloitte澳洲分公司) 已經同意將之前收取的440,000澳元(約為新台幣875萬元)報告費用進行部分退還,以償還合約尾款。

弔詭的是,面臨因AI產出不準確內容而導致退款的尷尬處境時,Deloitte在同一天宣布拍板與AI公司Anthropic的企業級合作協議,顯示業界在擁抱 AI 轉型的浪潮中,還得一面處理AI技術不成熟的諸多挑戰。

審查報告被抓包虛構引文,Deloitte證實用 GPT-4o 助寫

這項報告原本為澳洲就業與工作場所關係部門(DEWR),委託Deloitte製作共237頁的澳洲福利津貼支付的審查報告。

然而,報告在今年7月發布後,由雪梨大學健康與福利法研究員羅吉(Chris Rudge)發現內容存在多項「完全捏造的參考資料」,例如名為「Amato 控訴聯邦政府」的虛假案件。

Deloitte隨後證實承認「部分註腳和參考資料不正確」,並在一個月後發布了修訂版本,其中移除了10多個被錯誤引用的聯邦法官言論,以及多篇不存在的報告參考資料。

新版本更坦承確實使用了生成式AI語言模型 Azure OpenAI GPT-4o 協助撰寫,但也將焦點引向了 AI 生成內容的可靠性。Deloitte強調,在修正錯誤後,報告的實質內容與整體建議並未受到影響。

AI 幻覺頻傳,恐成企業信譽致命傷

事實上,Deloitte並非近期唯一一家因為 AI 幻覺而面臨窘境的案例。

例如,2023年,一名美國律師在一宗航空訴訟案件中,使用 ChatGPT 來協助起草法律文件,卻引用了6個憑空杜撰的法律判例,遭法院嚴厲訓斥與罰款,嚴重損害其職業道德和信譽。

就連Anthropic也曾在AI幻覺吃癟,在與音樂出版商的一場法律糾紛中,其律師使用了自家 AI 聊天機器人 Claude 生成的虛假引用資訊,後來不得不承認錯誤並公開道歉,稱這是一個「令人尷尬且非故意的錯誤」(an embarrassing and unintentional mistake)。

這些事都在在顯示:AI工具雖能提高效率,但其產出的「幻覺」內容,可能嚴重損害信譽,人工查核的必要性仍然極高。

爭議曝光也未止步,Deloitte將砸重金聯手 Anthropic

儘管前腳剛為AI的錯誤付出代價,Deloitte在同一天宣布,將與Anthropic擴大策略聯盟,全面推動其近50萬名全球員工導入Anthropic的聊天機器人 Claude。這項合作可說是Anthropic至今為止最大的企業級AI部署案。

根據Anthropic發布的合作內容,Deloitte將成立專門的「Claude卓越中心」,由受過專業訓練的專家組成,負責推動AI應用從試點走向大規模生產。此外,Deloitte和Anthropic將投入資源,共同設計一個正規的認證培訓計畫,目標是讓 15,000名 專業人士獲得 Claude 的專業認證,協助公司內外部的AI轉型工作。

延伸閱讀:OpenAI前30大客戶名單意外曝光,Duolingo、Salesforce⋯還有誰在「一兆Token俱樂部」?
台灣AI採用率26.4%排全球第22名!每4名勞工就有1人用AI,為何仍輸新加坡、阿聯酋?

資料來源:abcTech crunchBusiness InsiderAFR

本文初稿為AI編撰,整理.編輯/蘇柔瑋

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓