Facebook員工只有40秒判斷要不要「Ban」貼文!揭開背後的審核秘訣
Facebook員工只有40秒判斷要不要「Ban」貼文!揭開背後的審核秘訣

我與一些自願跟我談談的審核員見面。大約一半的人讀過大學,他們都考量過,認為這份工作勝過當時的其他選項。我們聊他們的工作細節。臉書期待審核員一天大約要做到四百次「下一則」(jump),意思是他們約有40秒的「平均處理時間」來判斷一則可疑的影片或文章,該留著或下架,或是碰到罕見的情形是上報給經理。經理會把最難判斷的決定報告給門洛帕克總部的政策高層。

臉書表示,他們並未限制每個決定必須在多少時間內完成,然而記者的報導及深入研究過審核流程的幾位學者都指出,如果每一則內容都仔細考慮去留,你大概保不住這份低薪工作。我訪談的一位審核員似乎正在挑戰這個非明文規定的審核則數:他的個人目標是一天跳兩百次。「速度太快,你會錯過小細節。」他表示。如果被質疑工作產出時,他希望自己的高準確率可以彌補他平均較長的處理時間。

出錯數量有多少?很難說,但可參考的指標是用戶申訴成功的次數增加。2019年的前三個月,臉書移除1,940萬則內容,其中用戶上訴210萬次,近四分之一申訴成功,也就是說最初的判斷有錯。另外有66.8萬則被移除的內容未經申訴就被恢復。換句話說,雖然多數時候判斷正確,仍有數百萬用戶因為審核員分秒必爭的壓力而受到影響。

Facebook2
圖/ Facebook提供

審核員面臨的挑戰是確認有問題的內容違反了規範中的哪一條。規範來自在臉書早期負責管理顧客支援的詹澤參考的一頁文件,日後威爾納繼續擴充,最後變成臉書的「社群守則」。審核員先於在職訓練中學習如何解釋那份指南,接著跟著前輩工作一陣子,才會獲准獨立作業。那份指南的部分內容被外流很多次,後來臉書乾脆在2018 年完整公開。

臉書社群守則證明了這份工作有多困難。一套原則就要適用於全球各地,無法顧及文化差異。相關規定適用於臉書所有的應用,包括動態消息、Instagram、個人檔案頁面時間軸、WhatsApp 與 Messenger 私訊。

相關規定可能模稜兩可,讓審核員無所適從。有的則直接了當。規定試圖定義出某些主題不同程度的嚴重性,例如看得見人類內臟的畫面。某些類型的身體暴露沒關係,其他則需要「插入式警語」(interstitial),也就是電視節目開始前螢幕上會出現的提醒畫面,以下畫面可能出現臀部。血腥畫面不行。大屠殺則需要靠主觀判斷才有辦法正確歸類。

「如果你倒帶回臉書很早期的時候,我想很多人不知道我們是整個團隊在辯論該如何定義裸露,或什麼是圖像化的暴力呈現,有非常多超級細節的東西。」誠信團隊的羅森表示,「這是肉眼可見的內臟嗎?還是燒焦的屍體?」

可以確定的是,27頁的文件不可能納入每一種例子。因此臉書建立了不對外公開的大量補充文件,來探討特定例子。這些補充之於臉書官方社群守則,就像是用來解釋猶太經書《妥拉》(Torah)的《塔木德》(Talmud)注釋。《紐約時報》記者表示他搜集了一千四百頁的此類詮釋。

科技網站《主機板》取得臉書外流的內部訓練文件上,有各種難堪的畫面,例如肛門被合成到泰勒絲(Taylor Swift)雙眼的位置。訓練投影片上寫著,這種惡作劇可被允許,因為泰勒絲是名人,但對同學這麼做就算是霸凌,不被允許。儘管如此,有一張照片是金正恩的嘴巴被換成肛門,上面還塞著性愛玩具,那張照片就被移除了。

仇恨言論最難判斷。臉書不容許仇恨言論,但低估了精確定義仇恨言論的難度。畢克特表示:「仇恨言論是我們最難執行的政策,因為缺乏上下文脈絡。」同樣的幾個字,如果是用來和好友開玩笑,跟用在無辜陌生人或認識的人身上,就非常不同。媒體報導的例子中,某位喜劇演員說:「男人都很渣」,這句話就讓她被停權,因為臉書規定不可以對受保護的族群做整體適用的侮辱,而性別算是受保護的群體。

畢克特和團隊了解,「男人都該死」跟「猶太人都該死」完全不同,但他們認為如果要區分誰是弱勢團體,誰是特權團體,又會過於複雜。因此依據臉書的說法,審核員很難區辨什麼算是仇恨言論。

舉例來說,要是臉書上有人提到,某位名人說了種族歧視的話。如果用戶寫的是:「某名人說了這句話,太離譜了吧?」畢克特表示,這樣的文章,臉書會放行。這可以算是協助人們評估該人性格的資訊。然而,如果用戶引用同一句話, 但說的是「這就是為什麼我喜歡這傢伙!」臉書將移除那則訊息,理由是用戶表示認同種族歧視。

「然而,如果我只是引用那句種族歧視的話,接著說那是『某名人說的』呢?」畢克特表示,「我是認同那位名人講的那句話,還是在譴責他?意思並不清楚。」

仇恨言論太複雜,臉書不得不分級。第一級包含說男人是人渣,以及比喻某個族群是細菌、性侵犯,或是「在文化中被視為智力或體能較為低等的動物」。第二級是具備次等意涵的侮辱,例如說某人/某群體精神有問題或沒用。第三級是政治或文化侮辱,例如呼籲種族隔離、表達種族歧視,或是直接辱罵。處罰依據情節輕重而定。

我在2018年參加臉書的「內容標準論壇」(Content Standards Forum)會議,仇恨言論是其中一個討論主題。畢克特每兩週都會在那棟蓋瑞設計的建築附近的大樓開這場會,討論規則變動。會議室裡大約有二十人,還跟都柏林、華府,及全球臉書各分部視訊連線。

大家討論「要小心」(heads-up)的議題,找出潛在問題, 判斷是否該調查。另一種則是「推薦」(recommendation), 團隊會針對調查作出決策。此類調查通常會徵詢特定領域(人權、心理學、恐怖主義、家庭暴力等)的專家意見。這次的會議談到與「男人都很渣」類似的仇恨言論議題。現場討論的問題是痛恨「優勢族群」(例如:男性、億萬富翁)的意見,是否該嚴格處置,視為和誹謗「受保護的族群」(性別、種族)一樣嚴重。結論很有趣:報告指出最理想的結果,是採取「另當別論」的做法,允許人們發洩對優勢族群的怨氣。但這樣的做法被否決了,因為要下這樣的判斷對審核員來說太過複雜。

審核員準備好承擔重大責任了。約聘員工們當然希望能升格成正式員工。我拜訪鳳凰城的審核員前,和一位幸運轉正的臉書人聊過(我被允許稱他為「賈斯汀」)。賈斯汀證實,要成為正式員工不容易,因為審核員具備的技能與負責製作或行銷臉書產品的人員並不一樣。

賈斯汀提到一點,有點出乎意料,他說在審查有問題的內容時,比較麻煩的不是不良行為,而是用戶過世。臉書的演算法經常會讓過世用戶的帳號再度出現在親友的動態消息上,有時帶來的震撼如同溺水的屍體浮上水面。臉書今日為已過世的用戶制定了詳細的「紀念」(memorialization)規範。「懷念帳號真的令人壓力很大。」賈斯汀表示。

Facebook為什麼會看到貼文
圖/ Facebook提供

不過,懷念帳號不是壓力最大的內容。「我審查過最糟的內容,是一個男子拿鋸齒刀割下自己的老二,」賈斯汀說,「那可不好笑。」賈斯汀在 2016 年左右看到那段看過就忘不了的影片,當時臉書已經開始提供諮商服務(他 2015 年入職時公司尚未提供輔導)。賈斯汀現在一週看一次諮商師。

鳳凰城的審核員似乎認為,檢視令人不舒服的影像的確不好受,但還算工作可以忍耐的環節。偶爾看見承受不了的事,就去找諮商師。一位審核員告訴我,某次讓他「衝擊很大」的動畫影片,是動物與人性交,接著被屠宰,糞便跑出來等畫面。那位審核員表示:「那個影片大概讓我過了兩星期都還有心理陰影。」不過他表示接受輔導後,就走出來了。

臉書定期檢視審核員下的判斷,錯誤數量過高時會做事後檢討。但公司提供給審核員的時間與薪水都不足,經常出錯是必然的。被稱為「賈斯汀」的前審核員曾告訴我:「如果每個人一天只需要檢視一件事,我們應該不會漏掉東西。」

臉書陷入關鍵的兩難:臉書不斷雇用審核員,但審核員必須看的內容數量依舊驚人,不得不以超快速度不斷看下一則,出錯難免,而用戶會注意到出錯。用戶的照片被錯誤移除時,會上社群媒體抱怨。用戶要是檢舉別人的內容,但該內容沒被下架,也會抱怨。媒體也虎視眈眈,隨便就能找到類似證據, 指出臉書誤判了現在看來很糟糕的事,但實情大概只是內容審核員過勞,可能還有心理創傷。祖克柏也知道這件事,他表示:「我們見報的事,十次有九次不是因為我們定下大家不同意的政策,而是處理時不小心搞砸。」

儘管有時間壓力,儘管每天要看人性最糟的一面,我訪談的人表示幫臉書做審查工作並不糟。他們把自己視為無名英雄,他們是第一線的應變人員,保護數十億的臉書用戶不受傷害。詹德拉(Arun Chandra)表示:「我碰過曾經拯救人命的審查員,有用戶試圖自殺,他們向執法單位通報。」臉書在2019 年雇用詹德拉,負責管理審核工作。「這份工作帶來的滿意度與成就感算是意外的驚喜。」

本文授權轉載自《後臉書時代》,天下雜誌出版

責任編輯:傅珮晴

關鍵字: #Facebook

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
電商終局戰
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓