TECH2IPO/创见

「 新生活 新科技 新零售」

京ICP备14046667号

Facebook今年1季度关了5.8亿个假账户 但依然不能解决有害内容的传播

要建立一个能够识别出仇恨言论的人工智能系统要比能识别出一个乳头的系统要难得多。

随着 Facebook 继续与垃圾邮件、仇恨言论以及其他不受欢迎的内容进行斗争,该公司正在每天把大量的工作用在删除或者屏蔽这些消息上。

Facebook 今天发布了它的第一个「社区标准执行报告 (Community Standards Enforcement Report)」,详细描述了它在整治暴力、成人裸体和性活动、恐怖主义宣传、仇恨言论和垃圾邮件的内容上采取了何种行动。其中最引人注目的数字是在 2018 年一季度的三个月内,其虚假账户减少了 5.83 亿,低于 2017 年第四季度的 6.94 亿。这并不包括 Facebook 所说的「数百万」的虚假账户,而这些虚假账户是公司在完成注册之前就已经被发现的。

该报告发布前几周,Facebook 首次发布了详细的内部指导,主要内容是如何消除不当内容。

这些巨大的数字让用户更好地了解 Facebook 正在处理的虚假账户数量。最近几个月,该公司已经承诺使用面部识别技术——它也用来建议 Facebook 上的好友在照片上加标签——以捕捉可能用另一个人的照片作为头像的虚假账户。但从《华盛顿邮报》最近的一份报告发现,Facebook 的面部识别技术在检测假账户时作用可能有限。

Facebook 还透露了它在 2018 年一季度删除了多少其他不受欢迎的内容,以及它的系统或用户报告了多少该类内容:

  • 有 2100 万张展示成人裸体和性行为的内容被删除,其中 96% 的内容首先被 Facebook 的工具所标记。
  • 有 350 万份暴力内容被删除或被贴上了警告标签,其中 86% 的内容被 Facebook 的工具标记了。
  • 有 250 万份仇恨言论被删除,其中 38% 被 Facebook 的工具所标记。

数据显示,Facebook 仍主要依靠 Facebook 用户举报来判断仇恨言论——CEO 马克·扎克伯格之前讲过,要建立一个能够识别出仇恨言论的人工智能系统要比能识别出一个乳头的系统要难得多。Facebook 将仇恨言论定义为「对基于受保护特征的人群的直接攻击,这些特征包括种族、民族、民族起源、宗教信仰、性取向、性、性别、性别认同、严重残疾或疾病。(“direct attack on people based on protected characteristics — race, ethnicity, national origin, religious affiliation, sexual orientation, sex, gender, gender identity, and serious disability or disease.”)」

问题在于,正如 Facebook 的产品管理副总裁 Guy Rosen 在博客上发布的今天的报告中所写的那样,人工智能系统如果要检测到糟糕的内容,还需要几年时间才能变得足够有效。

但是,对于 Facebook 来说,仇恨言论是一个问题,尽管该公司努力阻止虚假新闻和内容的传播,却可能会让用户在开发出人工智能解决方案之前离开平台。

Facebook 表示,它将继续每 6 个月提供更新的数据。该报告的发布时间为 2017 年 10 月至 2018 年 3 月,分析了该公司在 2017 年第四季度和 2018 年一季度在不同领域采取的行动。

标签: Facebook

评论于站点 回复 评论 删除 隐藏

评论于站点 回复 删除 隐藏