活跃用户突破 18 亿,Facebook 该如何审核争议性贴文?

653 980
活跃用户突破 18 亿,Facebook 该如何审核争议性贴文?

英国卫报于 5 月 21 日发表了一系列有关 Facebook 贴文审核机制的文件:Facebook Files,这些文件显示 Facebook 内部针对暴力、儿童虐待、动物虐待以及不宜观赏的照片所需遵照的流程规範。

Facebook 近年来不断为平台上讯息真伪以及内容适当性所苦,在维护言论自由的同时,他们也希望确保用户不被平台上的内容误导或受伤。为此,Facebook 一方面採用自动系统以消除不适当的内容,一方面则仰赖人力审核。例如在「暴力内容侦测手册」中提到,人们常用开玩笑或不正经的方式威胁他人来表达不满的情绪,而 Facebook 认为诸如「John,我要杀了你!」的言论是可接受的,但像「John,我要杀了你!我手上有把不错的刀子。」就会被审核人员移除。

我们可从上述範例看出 Facebook 想要这些审查人员辨别哪些言论是纯粹发洩情绪,哪些会对他人造成实际的威胁:当贴文中有较具体指出威胁的类型、时间地点或方法时,就有较大的可能性被移除。此外 Facebook 也会特别关注那些提到特定族群或弱势群体的贴文,例如犹太复国主义人士或无家可归的人。

但可想而知的是,这类的审核机制都存在备受争议的灰色地带。比如说 Facebook 内部认为「与动物虐待有关的照片或影片,应该继续保留在平台上以提升人们在动物权利方面的意识」,不过儿童虐待相关的内容就多半会被移除。另外和「自我伤害」相关的内容也是允许的,因为他们不想惩罚或限制那些极度痛苦的人。

英国卫报指出,这些审查人员需要对数以百万计的可疑贴文进行审核。Facebook 全球政策管理负责人 Monika Bickert 表示,「审查人员往往无法负荷这幺大量的贴文,因此他们常常在决定贴文的适当性时犯错。」「Facebook 庞大而多样化的使用者让我们很难界定什幺样的内容对一群人是可接受的,但对另一群人又是不合适的内容。」Bickert 曾向科技媒体《The Verge》表示,Facebook 将用户的安全视为首要任务:

近几个月的内容审查争议,包含越战图片移除、直播杀人影片等皆促使 Facebook 重新审视内容审核机制,并雇用更多审查人员以进行移除不适当内容的工作。上述事件显示这些具争议性的内容有多幺容易在这个平台上发布和分享,可是 Facebook 对这些争议向来未能提供足够的回应,以及良好的解决方案。

今年 5 月初,Facebook 宣布用户人数正式突破 20 亿人,活跃用户则达 18 亿人。随着用户人数的增长,如何建立一套有效且迅速的内容审核机制,对 Facebook 而言,绝对是一项刻不容缓的重要任务。