在本周一发布的报告中,Facebook 详细介绍了如何使用人类事实检查员(human fact-checkers)、版主和人工智能结合的方式来更高效执行社区标准。 这份报告称之为“社区标准执行报告”(Community Standards Enforcement Report),包含了前三个月到六个月的数据和调查结果,不过本次报告主要关注的是人工智能。
在 COVID-19 疫情期间,Facebook 更多的依靠技术来帮助版主进行管理。据 The Verge 周二报道,Facebook 已经与现任和前任版主达成了 5200 万美元的集体诉讼和解,以补偿他们在工作期间产生的精神健康问题,尤其是创伤后应激障碍。The Verge 曾广泛报道过 Facebook 雇佣的公司在其平台上做版主的工作条件。
该公司的诚信副总裁 Guy Rosen 表示:“这份报告只包括截至 2020 年 3 月的数据,所以它并没有反映出我们在大流行期间所做的改变的全部影响。我们预计,我们将在下一份报告中看到这些变化的影响,我们将对这些变化保持透明。”
鉴于目前的情况,Facebook 的报告中确实包含了新的信息,即该公司如何利用其 AI 工具专门打击与冠状病毒相关的错误信息和其他形式的平台滥用行为,比如在 Facebook Marketplace 上的价格垄断行为。
在博文中写道:“自 3 月 1 日以来,我们已经删除了超过 250 万条用于销售口罩、洗手液、表面消毒湿巾和 COVID-19 检测试剂盒的内容。但这些都是困难的挑战,我们的工具也远非完美无缺。此外,这些挑战的对抗性意味着工作永远无法完成。”
Facebook 表示,其标签正在发挥作用:95% 的情况下,被警告的人在被警告某篇内容含有错误信息的情况下,都会决定不看。但事实证明,在其庞大的平台上制作这些标签是一个挑战。首先,Facebook 正在发现,大量的错误信息以及仇恨言论现在显示在图片和视频中,而不仅仅是文字或文章链接。
在另外一篇博文中写道:“我们发现,在全球范围内,Facebook 上的仇恨言论有相当大的比例出现在照片或视频中。与其他内容一样,仇恨言论也可以是多模式的:比如说,一个 meme 可能会将文字和图片一起使用,攻击特定人群。”
该公司承认,这对 AI 来说是一个比较棘手的挑战。由于措辞和语言差异等复杂因素,经过 AI 训练的模型不仅难以解析一张 Meme 图片或视频,而且当内容在 Facebook 上传播时,该软件还必须经过训练,以找到重复或仅有少量修改的内容。
最新评论