源之原味

Knightscope 犯罪机器人的狡猾伦理

 

这篇文章来自 wired.com。原始 url 是: https://www.wired.com/story/the-tricky-ethics-of-knightscopes-crime-fighting-robots/

以下内容由机器翻译生成。如果您觉得可读性不好, 请阅读原文或 点击这里.

Knightscope 犯罪机器人的狡猾伦理

在 11月, 旧金山协会部署了一个5英尺高, 400 磅重的机器人在校园里巡逻。不是为了肌肉, 而是为了监视协会, 一个大的复杂坐落在东北角的城市的任务邻里, 一直处理破坏, break-ins, 和废弃的针头在其周围的停车场。由于担心员工的安全, 协会认为机器人可以起到威慑作用, 成为人类安全团队的副手。

这个机器人来自一个名叫 Knightscope 的硅谷初创公司, 他的安全机器越来越多地成为自动驾驶汽车的更慢、更有规律的版本。协会使用他们的 K5 机器人, 这是很好的户外使用。它的缩小表兄弟 K3 是指在室内, 而 K1 是一个固定的支柱, 将很快监测的东西, 如建筑入口。而 K7, 一个四轮式的机器人, 用来巡逻机场的周边, 明年将测试。公司的任务是采取 咬出犯罪 通过用机器扩充人类安全卫士然而, 那里的道路充满了道德陷阱。

K5, 连同大约50其他 Knightscope 机器人横跨13个状态, 看见它的世界通过涂它与激光器, 自治巡逻它的领域, 当采取360度录影。在一个 on-site 的控制室里, 一个人的安全卫士监视着这个饲料的异常情况。Knightscope 说, K5 可以阅读1200牌照一分钟, 比方说, 挑选出汽车已经停了太多的时间。如果你进入机器人的方式, 它说 对不起.在发生紧急情况时, 安全警卫可以通过机器人说话, 向附近的人类发出警报。协会的机器人在校园和周围的人行道上巡逻, 同时 发出未来的哀鸣, 在理论上阻止犯罪。

这些机器都没有配备泰瑟或火焰喷射器或类似的东西。"这不是为了执行," Knightscope 的董事长兼首席执行官威廉?桑塔纳说。"这是为了监测和了解的情况, 使这些人更有效地做他们的工作。同样, 协会的机器人并不意味着取代人类, 而是补充它们。

"很简单," 李补充道, "如果我在你家或你的办公室前放一辆有标记的执法车辆, 犯罪行为就会改变。

事实证明, 其他的行为也是如此。在协会的 Knightscope 被设置了在它的路线之后, 无家可归的居民采取了它到任务。一群人建立营地据称投掷了一个篷布在机器人和撞倒它, 并 在它的传感器上涂抹烧烤酱.

现在, 在这一点上, 你可能不会退缩, 当你看到一个安全摄像头, 扔在它的岩石-无论是好还是坏, 我们都在公众的监视下。但 K5 只是感觉不同-它引起不同的反应。在一个购物中心里, 机器人显得很谦逊, 甚至有点可爱。孩子们跑起来拥抱它。但在户外, 它是一个漫游 体现 监视, 记录周围的一切视频。这是特别令人不安的人谁使户外他们的家。

"请记住, 在公共场所的这个隐私概念是有点奇怪的," 李说. "在所有这些机器都在运行的公共场所, 你没有任何隐私的期望."

不过, 墙上的摄像头是一回事。在旧金山街头漫游的巨型摄影机是另一回事。"当你在户外生活, 缺乏隐私是真正的不人道的一段时间后, 公众的眼睛总是盯着你, 说:" 詹妮弗 Friedenbach, 执行主任旧金山的无家可归问题联盟。"当夜幕降临时, 当你周围没有很多人的时候, 这真的是一种解脱。然后有这个机器人巡航周围录音你。

之后, 旧金山商业时报 发表 一块 在协会进军安全机器人的问题上, 公众的呼声越来越强烈, 该组织正利用机器人在其设施周围的人行道上漫游, 以劝阻无家可归的人们定居。SF 协会否认它的意图是 anti-homeless。"SF 协会正在探索使用一个机器人, 以防止在我们的设施额外的入室盗窃和阻止其他犯罪, 经常发生在我们的校园-像汽车 break-ins, 骚扰, 破坏和涂鸦-而不是扰乱无家可归的人, 说:" 该集团的总统詹妮弗. 斯佳丽在一份声明中说。

不过, 小组 停止其试验计划 上周 Knightscope在商场里部署机器人是相当无害的, 但是显然在一个更敏感的用例中, 人-机器人交互的伦理难题很快就失去了作用。

如果你认为安全机器人的伦理学现在是阴暗的, 你就等着吧。Knightscope 想让人类与机器人保持循环, 但这并不难想象, 当其他人得到一个聪明的想法, 给其他的安全机器更多的自主权的时候。意思是, 有 AI 驱动的机器人识别面孔和寻找犯罪模式。例如, 在这一天的这个时候优先巡逻这个地区, 因为这个可疑的人群往往会出现在这里。

算法已经形成了偏差。在 2016年, ProPublica 的调查 表明, 用于确定犯罪风险的软件对黑人被告有偏见。现在想象一个安全机器人加载的算法, 分析人。这是特别令人不安的, 考虑到工程师开发人工智能不一定知道 如何 算法是学习."应该不仅是一个人在循环结束, 但在人类 开始, 当你在学习数据, 说: "计算机科学家迈克尔. 安德森 机器伦理计划.

真的, 机器人制造商需要的是在开发这些系统时与工程师并肩工作的伦理学家。"工程师们不一定能看到他们正在做的事情的后果," 伦理学说, 也有机器伦理。"他们是如此专注于它如何能做到这一点, 它可以做到这一点。

机器人能在某种程度上帮助像协会这样的组织吗?是的, 也许吧毕竟, 这些都是人类与机器人相互作用的早期, 人类也有同样多的东西要从机器人身上学习, 因为机器人必须向我们学习。也许还有办法不让别人的脚趾滚过去

Leave A Reply

Your email address will not be published.