「媽,我被綁架了!」AI只需要3秒偽造聲音,成詐騙新招!超真實哭腔你能分辨嗎?
「媽,我被綁架了!」AI只需要3秒偽造聲音,成詐騙新招!超真實哭腔你能分辨嗎?

近日,中國AI換臉新型詐騙頻傳,有人10分鐘被騙430萬元,一度沖上熱搜,引發關注。但利用AI進行詐騙並不止發生在中國。有專家統計,在美國過去一年裡AI詐騙事件,與同期相比增幅超過50%。

自2022年11月ChatGPT引爆生成式AI的熱潮以來,文字、圖像、語音和影片類的AI技術加速進化,在帶來生產力革命潛力的同時,也給了犯罪分子強大的工具。幾美元付費軟體加幾秒語音就能合成以假亂真的人聲。

除了容易上當受騙的老人族群,連商業精英也沒能躲過。面對此類新型詐騙該如何防範?《每日經濟新聞》記者連線倫敦大學學院電腦科學家、人工智慧專家Peter Bentley教授。

「AI女兒」哭著求助,AI造假對話僅需5美元就能生成

4月末的一天,美國一位叫詹妮弗·德斯特凡諾的女性接到一通陌生電話——「媽媽,我搞砸了!」電話那頭傳來正在外地備戰滑雪比賽的大女兒布里安娜的聲音,不斷向她求救。

「聽著,你女兒在我手裡,你如果打電話報警或者告訴其他任何人,我就給她下藥,把她玩夠了就扔她去墨西哥,你永遠別想再見到她了。」一個低沈的男人聲音在電話裡威脅道,並要求詹妮弗支付100萬美元的贖金。

詹妮弗當場嚇壞了,她表示自己拿不出100萬美元來,電話那頭的男子「大減價」到了5萬美元。掛斷電話後,詹妮弗旁邊的友人報了警,並且試圖說服她這是一個騙局,但愛女心切的母親根本聽不進去,因為「女兒」的哭泣聲實在是太真實。後來,詹妮弗已經開始和對方討論匯款的方式,幸虧女兒及時打電話報平安,才避免財產損失。

「當母親的能認出自己的孩子,就算孩子和我隔著一棟樓,當她哭泣時我也知道那是我的孩子。」回憶起電話裡和女兒一模一樣的聲音,詹妮弗仍然感到驚訝。

據外媒報導,隨著AI技術的發展,犯罪分子能夠僅憑一個人在社群媒體上數秒鐘的聲音素材生成遭綁架的對話片段,以此勒索錢財,成本可能僅僅需要每月5美元的AI程式使用費。

「大型語言模型可以按照任何風格編寫文本,所以如果你有一些電子郵件或社群媒體交流的樣本,現在很容易讓AI用來學習並假裝成你本人。經過訓練後,生成式AI算法還可以輕而易舉生成以假亂真的影音。隨著越來越多的應用程式具備這些功能,它變得越來越容易獲得。」倫敦大學學院電腦科學家、人工智慧專家Peter Bentley教授對《每日經濟新聞》表示,「除非我們能提醒每個人更多地意識到危險,否則代價可能是巨大的。」

AI詐騙件數在美國暴漲,連商業菁英也逃不過騙局

美國聯邦貿易委員會(FTC)5月發布警告,稱不法分子正在利用AI語音技術偽造緊急情況騙取錢財或訊息,在新冠疫情期間,此類騙局暴漲了70%。美國紐約州國際詐騙問題專家Michael Skiba5月對媒體表示,過去一年裡,美國AI詐騙的案件數量和同期相比已經上漲了50%到75%之間。

雖然利用AI技術詐騙造成的損失沒有單獨統計,但美國聯邦調查局3月公布的年度報告顯示,2022年美國網路詐騙造成的損失達103億美元,創下五年來新高,並指出面向老年人的AI語音騙局是重災區。

AI合成技術的成熟,在中國爆火的AI孫燕姿翻唱影片得到淋漓盡致的展示。無限逼近真實的AI人聲,意味著不只是家庭主婦或者爺爺奶奶輩才會被騙,就連商業精英也難以分辨。

延伸閱讀:AI孫燕姿爆紅,孫燕姿大氣回「做自己已足夠」!AI歌手怎麼翻轉華語樂壇?

據Gizmodo報導,英國一名能源公司的CEO的聲音被詐欺犯用AI技術合成,隨後詐欺犯利用合成聲音指導電話轉帳,騙取了22萬英鎊到自己的匈牙利帳戶。該CEO表示,他後來自己聽到這段AI合成語音時都震驚了,因為這段語音不僅能模仿他平時的語調,甚至連他「微妙的德國口音」特徵也模仿到了。

AI詐騙激增,該如何防範?

自ChatGPT引爆生成式AI的熱潮,科技巨頭和創業公司爭先恐後地推出和升級AI產品。技術加速叠代,應用越來越便宜,而監管手段和力度一時難以應付,AI詐騙構成了迫切的挑戰。

2023年初,微軟推出的新模型VALL·E只需要3秒素材,就可以複製任何人的聲音,甚至連環境背景音都能模仿。ElevenLabs、Murf、Resemble 和Speechify等公司早已提供生成AI語音的服務,包月費用最低從幾美元到100美元的高級套餐不等。

美國加州大學柏克萊分校的數位鑑識學教授法里德(Hany Farid)表示,一兩年前克隆一個人的聲音還需要大量的音頻數據,現在僅需要短影片裡的人聲,AI軟體就可以分析年齡、性別、口音等特質,然後搜索龐大的聲音數據庫,找到類似的聲音並預測模式,從而重建個人的整體類似聲音。「這很可怕,具備釀成大禍的所有條件。」他表示。

據外媒報導,詹妮弗也懷疑詐騙者是透過她女兒的社群媒體帳號獲取的聲音,她表示,布里安娜有一個私人TikTok帳號和一個公開的Instagram帳號,裡片包含她滑雪比賽的照片和影片。

如果AI語音加上同樣成熟的「換臉」技術,「眼見為實」也很容易成為過去式。「目前的AI聲音、影片詐騙,如果你非常仔細地看和聽,就可能會在發現一些奇怪的錯誤或聲調。」Peter Bentley教授表示,「但不幸的是,許多人在使用手機通話時使用了噪音過濾器來減少噪音,這讓真實的人可能聽起來像假的,而假的人可能聽起來卻像真的,所以我們目前已經不能再假設我們在螢幕上看到或聽到的任何東西都是真實的了。」

普通人如何防範被騙?Peter Bentley教授表示,目前還沒有百分百能夠識別AI生成和真實之間區別的方法。

「所以最好的建議是:保持懷疑,仔細檢查任何向你要錢或個人訊息的人,即使他看起來是一個值得信賴的朋友或家人。一定要給他們回電話,最好是視訊,或者最好是親自見他們,看看請求是否真實。如果你需要朋友幫忙,那就親自去找他們談談。不管怎樣,這才是恰當的做法!」Peter Bentley教授表示。

延伸閱讀:奧特曼:OpenAI可能退出歐洲!歐盟AI法案怎麼規定?為何業界大佬喊出走?

本文授權轉載自:網易科技

責任編輯:蘇祐萱

關鍵字: #AI
本網站內容未經允許,不得轉載。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
台日半導體新局 全解讀
© 2024 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓