太依賴演算法,Facebook麻煩事不斷

2017.09.20 by
科技新報 Technews
科技新報 Technews 查看更多文章

報導有價值、有意義的資訊,同時也會有具備全局觀點、個人觀點的意見或評論刊載,為市場和業內人士關心的趨勢、內幕與新聞。

截圖自Y Combinator影片
從去年美國總統大選開始,Facebook道德監管備受質疑,而近期非盈利新聞媒體ProPublica,測試在Facebook上購買廣告,透過仇恨猶太人的相關關鍵字,成功對多達19萬目標用戶下廣告。

美國獨立非盈利新聞媒體ProPublica揭穿Facebook令人詬病的廣告機制,他們花了30美元在Facebook廣告購買軟體上透過幾個仇恨猶太人相關的關鍵字,成功對多達19萬目標用戶下廣告,此舉逼得Facebook不得不移除幾個欄位,包括研究領域與大學等個人資訊,但此事件已經造成輿論對Facebook假道德的質疑。

去年的美國總統大選,已經讓Facebook蒙上散播假新聞共犯的陰影,且實際上俄國的確透過Facebook假帳戶,花了10萬美元散播干預選舉的假訊息,Facebook宣稱完全不知情,還得因此上國會作證。現在又被外界揭穿人人都可以輕易地透過Facebook鎖定特定族群散播消息,譬如反猶太團體透過Facebook發起反猶活動,散播不實言論等等。

延伸閱讀:誰送川普上台?Facebook廣告投放紀錄顯示:俄國干擾美國大選

中間的運作機制是用戶在個人資訊中添加的所有資訊,都會成為標籤,譬如在研究領域欄位增加反猶太相關字眼,就會納入Facebook的搜尋資料庫當中,提供廣告主搜尋目標受眾時使用。ProPublica就是鍵入如何燒猶太人、猶太人毀滅世界的歷史、猶太人仇恨者、納粹黨、德國民族民主黨、德國的親衛隊等等關鍵字,就成功得到19.4萬目標受眾。

廣告是Facebook主要的收入來源,作為一個網路媒體,已經沒有傳統媒體的人為監管過程,包括批准與啟動交易等工作都交給演算法。

雖然Facebook口口聲聲表示反對假新聞和族群仇恨等言論,但卻沒有實際作為,再三發生的事件證實,演算法已經遭到濫用。Recode 共同創辦人Walt Mossberg抨擊表示,這件事情凸顯人的標準與責任交給粗糙的演算法之後,責任與標準就蕩然無存。

演算法可以決定用戶看到什麼,看不到什麼,又缺乏人為管理與監督,容易成為犯罪與仇恨的溫床。ProPublica透過幾個仇視猶太人的關鍵字成功發佈廣告之後,向Facebook反應,Facebook官方說法表示,「我們不允許在Facebook散播仇恨言論,我們的社群標準嚴格禁止宗教與各個人身攻擊,也禁止廣告主散播歧視訊息,但基於違反標準的內容發生太多次,決定移除相關有問題的欄位。」

Facebook強調會加強產品護欄機制與管理審查流程,避免類似事件再度發生,但顯然對此還沒有明確的解決方案,他們也不承認自己的始作俑者,但是網路特質本來就是這樣,使用門檻低,缺乏人為監管,因此容易遭到濫用。Recode認為,全然仰賴演算法來賺錢,失去自己的道德責任與標準,遲早有一天會被用戶與廣告主唾棄。

本文授權轉載自:科技新報

每日精選科技圈重要消息