無人機變殺人武器,專家示警:AI濫用5年內看得到
無人機變殺人武器,專家示警:AI濫用5年內看得到

這個月20日,春節假期的最後一天,一份名為「人工智慧的惡意使用:預測、預防和減輕」(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)報告,在國外媒體傳布開來。

包括牛津、劍橋、史丹佛、耶魯等英美頂尖學府的學者們,以及來自特斯拉(Tesla)執行長Elon Musk創辦的OpenAI、電子前線基金(Electronic Frontier Foundation)、資安公司Endgame和美國安全智庫的政策制定者,一共26位AI領域專家,聯合發布這份報告。洋洋灑灑近百頁的內容,當中明白闡述,隨著人工智慧的快速發展和使用門檻降低,各種技術可能被有心人士惡意使用,在未來5年內,即會對數位世界、人身安全和政治等領域構成威脅。

無人機變殺人工具,濫用AI後果不堪設想

報告中指出,包括無人機、虛假影音和駭客攻擊,將是有心人士惡意使用人工智慧最普遍的三大途徑。

舉例來說,孤狼式攻擊者只要一台無人機,運用臉部辨識軟體強加訓練後,就可以鎖定特定人物攻擊,把無人機變成殺人工具。而透過機器學習,自動放送的虛假或不雅影音內容,人們很難分辨其真實性,可能被用於政治抹黑,操控公眾輿論。

drone_shutterstock_422471677.jpg
無人機被AI訓練後,也可能成為孤狼式攻擊者的殺人工具。
圖/ ShutterStock

惡意駭客也可能利用AlphaGo、各類開源平台上的技術,找出海量數據組成的規則或漏洞,藉此破解密碼,竊取個人機密資料;或是使用AI語音合成來模擬目標,移花接木影音和圖片內容等,如日前在網路論壇Reddit發生的「換臉」製作假影片事件。

劍橋大學「存在風險研究中心」(Centre for the Study of Existential Risk)專家Shahar Avin表示,這些預測並非存在遙遠的未來,而是在未來5年內隨時都有可能發生,該報告進一步示警,隨著AI發展成熟,可能被流氓國家、罪犯和恐怖分子利用。

「存在風險研究中心」執行主任Seán Ó hÉigeartaigh是這份報告的共同撰寫人之一,他強調,人工智慧將改寫眾多領域的遊戲規則,「我們正身處在一個恐因濫用AI而淪陷的世界,這些風險都是真實的,我們必須面對這些問題,盡快做出選擇。」而這份報告就是呼籲全球各政府、機構和相關人士採取行動。

事先設想新技術負面影響,降低AI使用風險

對此,該報告提出四點建議。首先,政策制定者和AI專家應共同合作,徹底掌握可能的惡意利用。第二,雖然AI帶來很多正面的應用,但它就像一把雙面刃,人工智慧研究員和軟體工程師應預先推敲其被誤用的可能性,在開發階段就設下保護機制。

第三,從歷史經驗中汲取教訓,像是資安、電腦科學等,歸納出新技術帶來的負面影響。第四,積極擴大並拉攏相關產業利益者,以預防和減輕惡意使用AI的風險。

報告也提到,AI正帶來全新的安全漏洞,虛擬與實體皆然,各國政府應盡速制訂相關法律,跟上時代需求。而個別使用者方面,除非已徹底了解AI新技術、新產品的風險性,否則不要貿然的傳播或分享。

牛津大學未來人類研究所(Oxford University's Future of Humanity Institute)研究員Miles Brundage表示,人工智慧將徹底改寫公民、企業組織和國家所面臨的風險,像是成為駭客犯罪時的訓練工具、介入隱私的管道等,對人類安全帶來顛覆性的影響。但他強調,雖然AI潛藏不少負面效應,但考量其帶來的正面助益,發展AI仍有其必要性。

本網站內容未經允許,不得轉載。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
台日半導體新局 全解讀
© 2024 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓