自從Facebook全面開放直播以來,陸續引發許多內容審查爭議,《衛報》最近拿到一份長達數千頁的內部文件,當中清楚載明Facebook如何管理平台上內容的去留。
內容去留,標準是什麼?
擁有19億用戶的Facebook,近來面臨外界很大的抨擊,包括沒有即時移除美國一名男子隨機殺人的直播影片,及一名泰國父親直播殺害自己的親生女兒。
根據《衛報》消息,Facebook流出內部超過100多份手冊、表格、流程圖等,清楚載明如何處理平台上暴力、仇恨言論、恐怖主義、色情、種族歧視、自殘、虐童、虐待動物甚至是吃人等內容審查的問題。據統計,每名審查人員只有10秒鐘的時間可以決定一份內容的去留,許多審查人員也擔心判斷這些內容時,會因為內容的特殊性而存在標準不一致問題,「性方面的內容尤其複雜。」一名審查人員表示。
依照Facebook規範內容,只要提到「殺害川普」的字眼、涉及「死亡暴力」都必須被移除,另外只要不涉及裸露,墮胎的影片是允許發佈的;規範當中還提到「暴力、威脅內容往往過於籠統,除非有明確的證據認定其內容不只是情緒宣洩」,因此像是「我希望有人可以殺死你」、「滾開去死」等不夠確切、充滿情緒宣洩的文字將不會被移除。
至於圖片、影片規範,審查團隊可以選擇將內容標註為「存在干擾」或直接刪除,以動物虐待為例,Facebook表示「我們同意讓大家分享動物虐待內容,來提升大家的意識及譴責,但會移除那些只是刻意殘忍虐待的影片。」
因此標準就內容能否「幫助公眾了解事實的真相」,如果符合這項標準,那麼涉及暴力、死亡成分的內容,Facebook就會保留並標註為「存在干擾」,但內容若是「虐待狂傾向或慶祝暴力活動」,那麼就會直接被刪除處理。
詳細的內容包括:
- 除非帶有「虐待狂傾向」或「慶祝」含意,其他與性無關的虐童影像,會加上「令人不安」提示但不會刪除。
- 暴力影片會標註「令人不安」但不會刪除,因為能「有助於提高大眾警覺」。
- 虐待動物內容可以發佈,極端影像會標註上「令人不安」。
- 自殘直播不會刪除,因為「我們不想審查或懲罰已陷困擾而嘗試自殺的人」「用戶藉自殘內容求助,刪除自殘的內容,可能有礙用戶獲得協助 」。
- 墮胎影片只要不含裸體鏡頭不必被刪除。
- 任何只要追蹤者超過10萬的用戶,就屬於「公眾人物」,不享一般私人所受保護。
- 可以允許非「實體影像」的裸體藝術創作,真人裸露的影片、照片仍會被禁止。
標準存在灰色地帶,Facebook修改裸露照片規範
過去Facebook審查的標準時常引起爭議,曾有一名12歲的女孩直播自殺,YouTube幾乎是同一時間就撤下影片,而Facebook則是足足花了兩周的時間才撤下;另一例子則是反映過快,2016年達拉斯警察槍擊案,當時Facebook幾乎是立刻撤下直播影片,並聲稱是「技術故障」所致。
去年Facebook因為移除一張越戰時小女孩裸身的新聞照片,而引起爭議,如今也修改了關於裸體照片的規範,讓有新聞價值的影像內容成為例外。
Nick Ut's photo of the horrors of the Vietnam war. We can't let Mark Zuckerberg/ @facebook censor it now. #dearmark pic.twitter.com/wtswyCYhFc
— Keith J Fernandez (@withazed) 2016年9月9日
Facebook全球政策管理負責人Monika Bickert表示,審查團隊成員組成非常多元的,但在決定內容去留時,還是會面臨灰色地帶,例如許多情況中「諷刺幽默」跟「不恰當」往往是一線之隔,「我們對維持平台安全跟信賴感絕對有責任,我們會盡量為大家把關,但也希望大家一但發現不適當的內容可以舉報」 Bickert說。
內容把關?言論自由?尺度開如何拿捏
Facebook稱會用軟體,在不適當的圖片發出前就攔截下來,有許多美國及歐洲的輿論都要求Facebook採用跟主流媒體、出版商相同的審查標準。Facebook強調,他們是新形態的公司,並不是傳統科技公司,「我們創造科技,我們對於如何使用這些東西有責任。」
五月初,外媒British MPs批評「最有錢、最大的社群媒體公司,對不適當的內容沒有採取行動相當可恥」,內容審查專家Sarah T Roberts表示,「當你是一間小型公司只有一小群人在平台分享內容的時候是一回事,但當用戶佔世界很大比例時,你會變得很混亂。」
目前存在兩種不同的意見,一派意見認為,Facebook如今也身為大型出版者,應該竭盡所能攔截仇恨、暴力內容;但另一派意見責認為,Facebook極有可能會傷害言論自由,成為世界上最大型的審查機器,如何在把關內容及確保言論公開透明?會是未來值得持續觀察的重點。