「删除,删除,保留,保留,这条删除比较保险……」2018 年上映的纪录片《网络审查员》(The Cleaners)影像化了内容审核工厂的日常作业:在菲律宾马尼拉一间逼仄的办公室里,一群人坐在各自的电脑屏幕前,用审判的眼光看着或许发生在马尼拉千万公里开外的,来自世界各地的帖子。

赤裸的色情、嘶鸣的枪响、血腥的暴力都直白地铺在他们的屏幕上,这些图片、视频是被互联网平台用户举报后聚集到审核队列里的。审查员们面无表情,稍作判断,按下鼠标。

▲纪录片截图

「(能拍摄到他们)绝非易事,Facebook、Twitter 和其他公司在马尼拉雇用外包公司,使用业界暗语,还会用报复和恐吓等手段,阻止数千名员工披露他们的雇主身份。」导演透露。因此,有些出镜的受访者使用了化名,也只露了背影。

网络审查员的工作内容不能对外宣讲,甚至,这个人群曾经都是被藏起来的。他们有些每天要审核 2.5 万条内容,有的因承受不了暴力内容和雇主压力而选择自杀。

他们在和互联网的黑暗面贴身肉搏,做着算法还不能完全做到的事,就像社交网络中的「人肉盾牌」,网络审查员受到的伤害却很少有人关注。

底层的「审判者」

在人们眼中,网络审查员似乎把握着对平台内容的「生杀大权」,是审查员决定了用户最终能看到什么。互联网上也不乏「质问」审查员的声音。

「有的时候你会有那种感觉,对内容的生杀大权掌握在我们手里,我让它放就放,不让它放就不放。但其实我们只是根据规则去执行。审核人员制定规则是很少的。我提出这条规则,会有多方评估,包括风险评控的、运营人员、产品经理的评估…… 不可能只有一个人。审核人员是属于这条链条的最底端。」一位在中国工作的网络审查员向媒体透露称。

不光没有决策权,网络审核员的工作环境同样令人堪忧,他们就像富士康工厂流水线上的工人,只不过手里重复的只是「删除」和「保留」的动作。

The Verge 记者 Casey Newton 去年对同一公司的十几位网络审查员进行了深入调查,他了解到,Cognizant 这家受雇于 Facebook 的外包公司提供的工作环境极其恶劣。

比如,由于内容审查工作需要全天候有人在岗,所以公司分为 4 班轮职,轮值员工共享办公桌等设施。这里的主管连员工上厕所的时间都严格控管,员工每天上班固定两次 15 分钟休息和 30 分钟的午餐时间,另外还有 9 分钟所谓的「健康时间」(wellness time)。有媒体称,这种公司就像是信息行业的富士康。

这些审查员不仅要承受恶劣工作环境的摧残,还需要适应审核细则的朝令夕改。他们每天几乎要面对一版更新的审核标准,而突发性事件也会导致规范发生变更。但在审查员审核帖子时,有时候会使用最新的标准审核稍早的帖子,导致标准不一,增加了申诉案件的数量。

尽管审核内容的标准拿捏不一,但 Facebook 对于外包商的「准确率」却有极高的要求。他们设定的准确率必须达到 95%,但 Cognizant 每个月内容审核的平均准确率大约落在 85% 到 95% 之间。

▲你每天看到的信息已经过了一轮人工过滤|Pixabay

这群互联网最底层的「审判者」好比是人肉机器,他们遵照雇主制定的规则对内容进行审核,完成 KPI 的同时还要努力保证准确率,这种双重压力的交织显然会让他们在判断上陷入模棱两可的境地。

只不过「保留」或「删除」似乎又成了社交媒体与用户之间形成的内容价值判断的鸿沟,这种冲突式的对立似乎还没有标准的解决方案。

在《网络审查员》中,导演展示了审查员的「误判」过程。他有意让审查员判断伊战美军虐囚事件中的图片,结果并不知晓相关历史的审查员直接将其判定为 ISIS 士兵虐囚,并表示图片应该被删除。

值得一提的是,Facebook 曾在平台上「误删」了那张拍摄于 1972 年的著名反越战照片。照片中,被南越空军投掷汽油弹烧伤的小女孩,万分惊恐地奔逃着、哭喊着。她赤身裸体。这让 Facebook 遭到多方声讨。后来,平台修改了审核细则,允许「反战」原则之下、「具有新闻价值」的裸露,但是还是禁止发布「大屠杀背景下的儿童裸体照片」。

网络审查员的入行门槛并不高,能吃苦耐劳是基本,遵照审查表删帖并保证准确度就算进阶。这些也在他们的收入上有所体现。

做个对比,Facebook 正式员工的平均年薪是 24 万美元,但据 The Verge 去年的调查,替 Facebook 做平台审查的外包劳工薪水却只有前者收入的零头——工作时薪仅 15 美元(年薪 2.8 万美元)。

内容审核要求高标准,巨大的工作量和时刻变更的细则,逼仄的工作环境和微薄的收入,这些都让审查员变得不堪重负,更别提他们所要浏览的内容几乎都是互联网上最偏激的东西了。

「战场」上归来的士兵

「每天必须浏览 25000 条,我觉得这可以申请世界纪录了。」一位互联网内容审查员在纪录片中说道。按照这个指标,以 1 秒 1 条的速度计算,做完也需要整整七个小时。

而被安排去审核色情内容的一名女性审查员,原本对她要审核的内容毫无概念。而现在,这位「鉴黄师」学习了英语里各种有关下半身的脏话、俗语,然后还对男女的人体构造研究透彻,还得知晓不少让人难以接受的性癖。下班后,她还得去成人用品店了解新品。唯有这样,她才能在审核色情内容的时候不出错。按纪录片《网络审查员》所述,他们每个月只有三次出错的机会,否则将被辞退。

审核恐怖主义内容的员工平静地说,「我看过上百场斩首的场面。对于一些人而言,他们很幸运,因为砍在他们脖子上的刀很锋利」,她还在屏幕比划着,「如果用的是钝一点的刀,切口就不会这么利落了。」

在某家大型内容平台信任团队工作的 Remy,告诉 Medium 旗下出版物 OneZero:「举个例子,举重运动员为了承受巨大的压力,身体也适应成了一种奇怪的形状。而审核团队心理上的自适应,就是不断被磨炼的判断力和意志力,永远保持在正确的时间、正确的地点,做正确的决定。」

面对互联网上那些难以名状的负面内容,许多网络审查员都撑不住了。

其中部分人出现了 PTSD(创伤后应激障碍)。这种疾病指的是人在经历过情感、战争、交通事故等创伤事件后,所导致的个体延迟出现和持续存在的精神障碍。审查员和从战场上返家的士兵们症状相同,两者的区别在于前者必须隐姓埋名。

▲他们是一群必须使用化名的人|纪录片截图

天天都是接触偏激内容,有些员工也开始被这些边缘观点「洗脑」了。有一个员工在办公室里成天宣扬「地平论」,另一个前员工则表示「再也不相信 911 是恐怖攻击事件」,他的工作已渐渐改变了他的世界观。

据 Facebook 公开透露,2017 年 5 月 3 日,扎克伯格宣布扩大 Facebook 的「社区经营」团队。到 2018 年底,从原有的 4500 位审查员扩展至 30000 位,其中大约有一半负责内容审核。这些人中,有的已经不堪重负,对社交媒体发起了起诉。

2018 年 9 月,一位名叫 Selena Scola 的审查员向 Facebook 提起诉讼。Scola 在连续 9 个月观看谋杀、自杀等图像后,被诊断为 PTSD。今年 2 月 7 日,双方达成了初步和解。在这个案子中,Facebook 承认内容审核会给员工带来巨大的伤害,并同意向在职及离职的审查员支付总额为 5200 万美元的赔款,用以补偿他们因工作产生心理健康问题。如果被诊断出患有 PTSD 或其他相关疾病,每名审查员将获得至少 1000 美元的赔偿。

但外包公司的审查员似乎就没有这种待遇了。在 The Verge 的报道中,Cognizant 提供了员工一些消除工作压力的方式,他们提供现场的心理咨询师,以及员工协助课程等。不过,受访的员工多半认为这些资源并不足够。他们空闲时靠抽食大麻疏解压力。

拥有较好工作环境的 Facebook 正式员工尚且如此,外包公司审查员的遭遇可想而知|视觉中国

在《网络审查员》中,一位出身贫苦的审查员对着镜头讲述,父母靠捡垃圾维生,她被教导要认真学习,才能躲避他们的命运。然而坐在电脑前点击「删除」或「保留」,就像是在翻找网络世界的垃圾。最后,她选择辞职,沿着堆满垃圾的沙路走回了家。

偏激内容的「替罪羊」

社交媒体一贯以超高的自由度和灵活的内容呈现方式,让用户深陷其中。但「自由」是相对的,只有遵守平台规则和法律规定的内容才能得以留存,而社交媒体在审核上投入巨资的同时,也让自己站在了所谓的用户「对立面」上,时不时就会承受用户怒火的平台也变得如履薄冰。

然而,社交媒体设置的「转发」和「点赞」,都催生了人们对内容热度的渴求。那些迎合大众、骇人听闻的言论往往能获得更多人的目光。而过滤掉那些越来越偏激内容的工作,被平台外包给第三方公司,「人肉防护」的担子就这样放到了底层的网络审查员肩上。

而平台和网络暴民的矛盾也在不断激化。以「美国贴吧」Reddit 为例,在这个月活达 3.3 亿社区里,也不乏宣扬暴力和有色情暗示的主题。比如,曾有一个名为「r/FatPeopleHate」的讨论组,关注者超过 15 万。这个活跃社区,以寻找超重人士的滑稽照片为乐,帖子主要针对女性,并且会为照片加上刻薄的题注。图片贴出后,Reddit 用户还会把它们转贴到受害者的 Facebook 页面上。

2015 年,官方封禁了「r/FatPeopleHate」等几大活跃的恶意讨论组。Reddit 前产品高级副总裁 Dan McComas 和家人后续就被网络暴民人肉和袭击。因为这次封禁,Reddit 当时的 CEO Ellen Pao 之后每天都被骂「暴君」。一个月后,她辞了职。

「互联网最初是一个可以表达自由的堡垒。」她在《华盛顿邮报》上写道,「但现在,我们想要达成平衡越来越难了。网络暴民赢了。」

互联网的日渐繁荣,人们的部分表达空间从现实转移到了网络,而社交媒体似乎更崇尚「流量」,于是,不适宜的偏误内容越来越多,也直接催生了「网络审查员」这个新的工种。

他们被定义为「一群夹在社交媒体平台和用户的中间人」,是这两者矛盾的缓冲角色。平台求得增长,就一定会堆积不够温和的内容。而平台和用户的矛盾,目前也只能主要靠人来解决。

更人道的做法

相比 Reddit 这样的平台,Twitter 和 Facebook 是受众量更大的社区,要做好平衡显然会更难。它们选择把部分压力转嫁到网络审查员身上。但面对这些互联网底层民工受到的精神伤害,以技术傍身的大公司却似乎没有找到更好的解决方法。

Google 负责信任和安全业务的副总裁 Kristie Canegallo 也曾表示,公司的确正致力于开发机器学习系统来抓取包含不良内容的视频,但在技术应用的初期,审查员依然是不可或缺的,他们需要帮助训练系统。     

眼下除了恰当地过滤掉一些偏激的声音外,对网络审查员施以更人道的关怀也是要事。比如,Google 就正在测试将待审查内容中的血液换成绿色,或许这将有助于减少审查员们的压力。