經歷美國總統大選、國會山莊暴動後,社群媒體能否有效管控平台言論,日益受到外界重視。Facebook近幾年來就投注大量心血開發監管平台內容的AI(人工智慧)技術,以防範假新聞、仇恨言論的危害。
歸功機器學習進步,Facebook利用AI管理不當內容的能力已大大增強,聲稱可圍堵99.8%恐怖主義言論、99.5%暴力圖文內容,及99.7%仇恨言論散播。但這項技術仍存在瑕疵,好比Facebook利用AI在社群平台上全面封鎖了裸體圖片,結果導致乳癌防治宣導的圖片被封禁。
另一方面,Facebook將從美國用戶開始,測試3種不同貼文標籤,包括官方人員(public offical)、粉絲專頁(fan page)及諷刺性頁面(satire page)。然而研究指出,人類只有在6成情況下能辨識隱含在言語中的諷刺,若要求AI有超越人類的脈絡解讀能力,恐怕不容易。
AI可以快速封鎖流竄的不實資訊,但要核實內容正確性,目前仍須仰仗人力,也難以即時應對網路變化多端的虛假消息。也有人指責Facebook的商業模式才是核心問題:留住用戶創造廣告收益,但爭議內容多擁有較高討論度,一旦出現漏網之魚便會快速傳播。
現在Facebook降低了假新聞的曝光能力,在用戶分享時警示;且當一則消息被認定為不實資訊時,也會通知所有分享過這則資訊的用戶,頻繁分享假新聞的用戶文章曝光率將被調降,一定時間內無法投放廣告。
責任編輯:郭昱彣、張庭銉
