尽管 Facebook 追踪和删除恐怖内容的能力是他最喜欢的一个 谈话要点 上个月, 当 CEO 马克·扎克伯格在国会作证时, 来自社会媒体网络的一份新报告显示, 还有很多工作要做。本公司的 第一个内容审核报告, 星期二发布, 发现它正在删除大量的仇恨言论, 宣传, 图形暴力和性内容。

扎克伯格面临着对内容适度的更多的审查, 像是可怕的悲剧。 种族清洗 在缅甸, Facebook 的组织潜力使其受到了刺激。该报告将2017年最后一个季度与2018年第一季度进行了比较, 并显示, 适度的制度正在捕捉到更令人反感的内容。对于它所监视的大多数类别, Facebook 无法说出问题有多大, 这使得很难确定它的算法系统是否正在变得更好, 或者是否有更多的内容需要删除。

"今天, 当我们坐在这里, 99% 的伊希斯和基地组织的内容, 我们在 Facebook 上, 我们的 AI 系统标志之前, 任何人看到它," 扎克伯格 吹嘘 在4月的参议院听证会上。根据今天的报告, 这个数字实际上是 99.5%, 高于上一季度的96.9%。但是, 在短短几个月里, 被击落的恐怖份子宣传的数量激增了73%。虽然它无法准确估计网络上恐怖主义行为的普遍存在, 但它得出的结论是 "与伊希斯、基地组织及其附属机构有关的恐怖主义宣传内容的数量极低", 相比之下违反的其他内容 其政策.

它能估计假帐户代表它的月度活跃用户基础的大约 3-4%。公司最近声称有 22亿用户.但是, 这个数字的真实性始终受到威胁, 在网站上随时打开虚假账户的泛滥。今年第一季度, 它删除了令人震惊的5亿8300万个假账户。这实际上比上一季度减少了1亿1100万的帐户清除量。同样, 很难说这是否意味着 Facebook 在其检测系统中变得越来越好或更坏。在用户报告它们之前删除的假帐户的百分比下降了少于1%。

裸体和色情内容被删除是平坦的, 2100万件违规内容被取下在两个季度和轻微增加的百分比的侵犯内容, 被用户看到之前, 它被删除。

广告

在最新报告的分析中, Facebook 高管解释说, 仇恨言论是在自动化适度时面临的最困难的挑战。"在某些情况下, 我们的软件没有经过足够的培训来自动检测规模上的违规行为," 该公司写道。但它说, 诸如 "仇恨言论或图形暴力" 等违规行为要求我们在审查报告时理解上下文, 因此需要我们训练有素的团队进行审查。在图形暴力的情况下, 它可能有一个有新闻价值的目的, 而仇恨言论可能是微妙的, 取决于谁在感知它。

只有38% 的仇恨言论被 Facebook 删除之前被用户报告。高管们强调, "人们必须继续举报违规行为, 以帮助我们的执法工作"。Facebook 的规模比任何一家公司都要大得多, AI 不会在短期内解决这个问题。它以前曾说过, 它将 加倍其团队 到2018年底, 将有2万名员工和承包商的人力版主。在最近的国会听证会上, 扎克伯格经常指出, 训练算法和团队成员以不同语言在不同文化中发现仇恨言论是多么困难。

因为这是第一份温和的报告, 而且只涵盖了14年前公司历史上的两个季度, 我们在相当长的一段时间内不会真正了解其发现的重要性。它承诺将继续每六月发布一次报告。

广告

[facebook]