图片: 盖蒂

伦敦的大都会警察相信, 它的人工智能软件将在接下来的 "两年到三岁" 中检测到虐待儿童的图像。但是, 在其当前状态下, 系统无法分辨出沙漠照片和裸体照片的区别。

警方已经依靠 AI 来帮助在被扣押的电子设备上标记有罪的内容, 使用自定义图像识别软件扫描毒品、枪支和金钱的图片。但是当涉及到裸体, 它是不可靠的。

"有时它会出现一个沙漠, 它认为它是一个不雅的形象或色情," 马克斯托克斯, 该部门的数字和电子鉴证科主任, 最近 告诉 电报."出于某种原因, 很多人都有沙漠的屏幕保护者, 并且它认为它是肤色。

这是很有道理的, 为什么新闻部会想通过手机和电脑搜索潜在儿童色情图片和视频的负担。经常接触到这种类型的内容是 精神上的征税, 把劳动卸到绝情机器听起来是合理的。但不仅是软件在其当前的迭代不可靠, 依赖机器标记和存储这种类型的敏感内容的后果是深刻的令人不安。

斯托克斯告诉 电报 , 该部门正在与 "硅谷提供商" 合作, 帮助培训 AI 成功地扫描虐待儿童的图像。但正如我们所看到的, 即使是最强大的技术公司也无法部署那些不会在一段时间内搞砸的算法。他们有 促进危险的错误信息, 教唆种族主义, 并 无意中删去双性恋内容.当 Gizmodo 最近 测试应用程序 旨在自动识别在您的相机卷的显着的图像, 它标记了一张狗的照片, 一个甜甜圈, 和一个完全穿着宽限期凯利。

广告

即使人类监督自动化系统, 结果也不完善。去年, 一位 Facebook 主持人删除了 普利策获奖照片 一个裸体的年轻女孩逃离现场的凝固汽油弹攻击期间, 据报道, 越南战争 由算法标记.该公司后来 已恢复映像 并承认这不是儿童色情。

机器缺乏理解人类细微差别的能力, 该部门的软件还没有证明它能够成功地将人体与干旱的景观区分开来。正如我们看到的普利策获奖照片的争议, 机器也不是伟大的理解的严重性或背景下的儿童裸体图像。

可能更令人不安的是, 计划将这些映像迁移到主要的云服务提供商。据斯托克斯, 该部门正在考虑移动数据标记的机器, 以提供商, 如亚马逊, 谷歌, 或微软, 而不是其目前的本地数据中心。这些公司已经证明, 他们不能幸免于安全违规, 使数以千计的有罪的图像容易受到泄漏。

[电报]