一直以來聚焦在「讓人們更好地連結」此目標,Facebook的版圖擴張速度之快,相形之下,針對資訊安全,暴力、仇恨言論,甚至是恐怖主義等的防範布局,則顯得有點應接不暇。
不過昨(13)日,亞洲第一場社群守則回饋論壇在Facebook新加坡辦公室舉行,Facebook全球內容政策團隊負責人莫妮卡·比克特(Monika Bickert),公開了Facebook在社群安全上的布局與未來計畫,展現了加強守備與因應新挑戰的積極態度。
由比克特領軍的內容政策團隊,主要工作為訂定社群守則,簡而言之,就是判斷何種內容可以出現在Facebook上、何種則不。
聽來不難,但比克特坦言:「就算我們的正確率有99%,我們每天還是會犯很多很多錯誤,」儘管接下該職務即將滿六年,對她來說卻沒有更得心應手,反而愈加複雜,因為面對20億用戶的規模,標準永遠無法達到「完美」。那麼在如此艱難、複雜的情況下,比克特的團隊又是如何守護平台上的言論安全呢?
多元組成,看重成員的人脈
Facebook內容政策團隊在全球有11個辦公室,團隊成員包含擅長性犯罪議題的顧問、研究仇恨組織的學者、人權律師和教師,包括比克特本人,在加入Facebook以前,也曾擔任美國刑事檢察官,並從事兒童安全及反恐工作。
她表示,除了看重成員的多元專業外,更重要的是這些人背後的人脈,因為維護社群安全的工作亟需來自各地、不同領域團體的協助。
比克特在會上舉例,Facebook反對鼓吹自殺、自殘的內容,而當一則貼文寫著「你不值得獲得幸福。#自殘 #很有用」,並配上一張各種針筒、美工刀的照片,她問與會者:「這則貼文是否該下架?」結果正反支持者都有,而Facebook的作法則是不下架。因為根據醫師的說法,這類的貼文,可能是當事者向親友求援的一種表達,所以Facebook選擇留下這樣的貼文。不過如果有人問美工刀好不好用,結果原po回覆:「一開始有點難割,但後來就越來越順了⋯⋯」則該貼文就違反了社群守則,會被比克特的團隊下架。
與上述類似的例子,在會上來回舉了五、六個,每一個案例正反支持者都有,在不過一百多人的場子裡就如此分歧,更何況要每天面對全球20億不同種族、宗教、文化的用戶,其中難處可見一斑,而這也說明她們為什麼必須連結各地公民團體與專家。
AI審查的侷限
當然,人工智慧、機器學習等技術也被應用到了守護平台安全的工作上,尤其在恐怖言論與兒童性侵等領域上表現得特別好,因為這兩類通常不因語境不同而變化,最沒有疑義。但在其他領域,像是霸凌、暴力等,則特別會依據不同語境而有不同的意義。例如:一句「你是白痴」,在不同前後文中,有可能是玩笑,也可能是嚴重的侮辱跟霸凌。
「機器很難了解字面底下的動機、意圖,所以我們需要人工審查。」Facebook全球社群營運主管戴夫·葛瑞吉提(Dave Geraghty)說,而他指的就是內容審查員。
社群平台的清道夫
「內容審查並不像大多數人想像的,是一群人關在地下室、盯著螢幕的孤島式作業,而是跟內容政策團隊、工程團隊、社群營運團隊都要維持很密切的合作。」葛瑞吉提說,並提到隨著社群守則不斷更新,這群清道夫一般的審查員,也要不斷地再訓練。
目前全球約有7,500位內容審查員,其中包含Facebook的全職員工,也有契約工作者、合作夥伴等,這些人員並非具體隸屬一個部門或是有一定的據點,而是散落在全球各處,替總部審查各地的Facebook言論,工作方式偏向共同協作。
一般系統無法自動判斷的案例,就會送到內容審查員手上,由人工審查來判斷;但如果連審查員也無法下定論時,就會再依據內容涉及爭議的領域,細分給相應的團隊。不管是走哪個流程,Facebook承諾用戶的是24小時內完成審查。比克特也宣布,今年底前全球安全相關人員(包含內容審查員),總數目標20,000名。
非全球性違反,則區域下架
此外,作為一款跨國服務,Facebook也時常面臨平台言論與政府規範相違背的情況。比克特舉例,假設德國政府要求Facebook下架某則言論,Facebook會先自行走過審查程序,確認是否有違社群守則,有則下架即可,若無、政府又強烈主張它違法,Facebook則會「在德國地區」下架該言論,而其他國家還是可以看到那一則的內容。
此次社群守則回饋論壇,Facebook談了很多進度與計畫,雖然與平台擴張的速度相比,一切動作似乎都有些慢了,但就如同前文所說的,這是一項非常艱鉅、難辦的任務,而為了更完善平台的機制,緩慢但紮實的部署應會比貿然躁進更好些,至於紮實與否,則有待時間的驗證。