提高全民AI素養,刻不容緩。
我們必須盡速開始進行全社會的AI教育,將人工智慧視為一個攸關公共安全與社會健康的議題。
2025年7月,OpenAI執行長奧特曼(Sam Altman)在演講中指出,未來AI帶來的重大威脅之一,就是它會被用來進行詐騙。這包括偽裝成銀行的真實客戶和假扮真人來誘導他人落入各種金融詐騙陷阱。台灣同樣位於這波AI驅動的詐騙與金融犯罪的風口浪尖。
以數據為例,台灣平均每天超過3億元新台幣因詐騙而流失,年損失高達1,200億元。全球規模更驚人,詐騙每年造成超過1兆美元的損失,超過全球GDP的1%。這些詐騙案件不僅摧毀無數家庭,更有人因此失去生命。而高額的不法收益也驅使許多年輕人被吸入詐騙產業鏈,最終毀了自己的人生。
因此,AI詐騙的風險,已成為全民必須面對的社會性問題。如今AI可以容易地模擬一個「人」,不論是合成聲音與影像,或者在LINE群組以虛擬角色進行對話評論、在社群媒體上散布資訊,甚至是在交友App中建立「戀愛關係」,以假亂真。
目前已出現大量AI假冒真人的案例,透過LINE、Telegram、WhatsApp群組的互動,讓人誤以為自己正與金融大師學投資,進而把資金投入假平台、匯入假帳戶,直到發現無法提領為止。
這樣的受害者並不限於年輕族群,事實上,許多長輩也落入這類「假加密貨幣」、「虛擬投資顧問」的陷阱,損失慘重。
更關鍵的是,多數人在過程中完全沒意識到自己已是被詐騙的對象。因為詐騙群組中假冒的成員,可能都是看似「合理」的真實人物,甚至提供「準確」的市場分析,這些其實是由生成式AI自動產出,偽裝得極其專業與即時。
更令人難過的是,許多年長者在這些詐騙社群中獲得強烈的情感價值。他們感到被關心、被理解,有人記得他們生日、主動問候,填補了現實生活中缺乏的社交互動。然而看似溫暖的舉動,AI都可以輕易複製,使人一步步陷入情感勒索與財務損失的深淵。
除了金融詐騙,AI也被用於「感情詐騙」等經濟型犯罪。透過偽造的身份,誘使對方產生情感依附,進而借錢、支付醫藥費等,這些模式都已經能由AI高效率大量複製。
問題在於,社會中仍有太多人尚未意識到AI可以做這些事情。正因如此,我們更應該發起一場全社會的運動,不只是教育每個人了解AI的潛能與風險,更應該動員產業界、政府與非營利組織,共同投入AI風險的防治。
AI增效也藏險,老少都要學共存之道
目前多數人對AI的認知,仍停留在幫你寫作業、生成圖片、改變照片風格等應用。這些確實有趣,不過對社會影響較小。而一小部分人開始察覺AI對職場的衝擊——他們需要學會用AI,不然就可能被淘汰。
但有更多人,特別是不用AI的人,完全不了解AI的能力與威脅,因此成為AI詐騙的完美受害者。即使這些人已退休、不在意AI對工作的影響,他們也應該知道:AI能偽造真人的聲音、影像及身分,用來欺騙與操縱他人。
這些AI工具操作門檻極低,生成「假人」與「假對話」幾乎不費吹灰之力,這正是最可怕的地方。我們需要讓每個人都有機會親自操作、體驗AI,了解到「生成一個與你互動的假親人」並非天方夜譚,而是今日就能實現的技術。
對社會而言,現在是「準備與AI共存」的關鍵時刻。每個了解AI的人,至少要主動教育5個不太了解AI的人。尤其應從小學開始教導AI的基本能力,讓小朋友有能力回家教阿公、阿嬤:什麼是AI?AI可以做什麼?如何防範AI詐騙?
我們也需要更多工具、教案、平台,讓民眾能夠親身體驗AI生成的過程與真實感。你不需要是軟體工程師,只要動動手指,就能輕易地製作一個長得像你、講話像你,甚至能用你的口吻談投資的虛擬角色。
這些能力,以現今的低成本AI平台就能做到,而令人擔憂的是,多數人對此毫無概念。
因此,我們需要打造一個「AI素養」的全民防疫網。就像COVID時期全社會動員防疫一樣,今天的AI詐騙也需要相同等級的認知衛生、風險溝通與制度調整。不論你用不用AI,你都會遇到AI、被AI影響,甚至被AI操控。這不是未來,而是現在進行式。
如果我們不幫助社會適應AI、不教育大眾了解 AI的能力和風險,最終大衆將會失去對社會的信任基礎,全民都將付出極高的代價。
責任編輯:蘇柔瑋