源之原味

专家警告 ai 可能会将性别歧视硬创我们的未来

 

本文来自thenextweb.com。源URL是: https://thenextweb.com/tech/2018/12/05/ai-could-hardwire-sexism-into-the-future/

以下内容由机器翻译生成。如果您觉得可读性不好, 请阅读原文或 点击这里.

我的 iphone 语音助理是个女人每当我骑自行车到一个新的地方时, 一个女性的声音告诉我什么时候右转, 当我回家的时候, 另一个女性的声音会在今天的新闻中更新我。

由于我们的智能设备中存在如此多的女役 , 以及 ai 的快速部署 , 技术正在使性别偏见更加严重 , 这应该不会让人感到意外。

语音助理通常是女性默认情况下, 无论是伪装成机场客户服务代表的真人大小的模型, 还是在线客户服务聊天机器人--我们希望他们乐于助人、友好、耐心。

宜家的在线客户服务聊天机器人, 安娜

根据几项研究, 无论听众的性别如何, 人们通常更喜欢在权威问题上听到男性的声音, 但在需要帮助时更喜欢女性的声音。

此外, 尽管妇女参与人工智能的发展, 语音助理几乎总是被赋予女性名字, 比如亚马逊的亚历克莎、微软的柯塔娜和苹果的西里。

欧洲妇女参与技术会议 在阿姆斯特丹, telefonica digal 的产品经理劳拉?安迪纳 (laura andina) 解释了为什么将 ai 助手描述为女性是一个社会问题, 这些问题源于设计中长期存在的偏见--以及为什么应该而且可以改变。

设计在性别偏见中的作用

在她的演讲中, 被称为 "艺妓回忆录: 建立没有性别偏见的 ai", 安迪纳 解释 ai 的性别偏见, 看看苹果的先驱 偏斜设计 -一种设计方法, 它复制产品在现实生活中的外观, 并考虑物理产品的使用方式。

苹果的偏斜设计上它早期的 iphones 包括一个指南针设计, 类似于现实生活中的指南针。这个想法是, 用户会立即知道如何用最少的努力使用这个应用。金属看起来像金属, 木头看起来像木头, 玻璃看起来像玻璃。简单。

苹果首次采用偏斜设计设计指南针应用

同样的 ' 不要让我认为 ' 的设计已经在今天的女性语音助理中实施。接待员、客户服务代表和助理历来是以女性为主的职业。女人必须乐于助人、友好、耐心, 因为这是她们的工作。因此, 人工智能助手的偏斜设计将是女性。

对于安迪纳来说, 必须在设计上打破这些性别偏见, 以便能够在现实世界中做出改变。如果新技术停止兜售旧的陈规定型观念, 妇女将更容易在专业上晋升, 而不会被塑造成助手或任何其他 "有益" 的陈规定型观念。

挑战人工智能的性别角色

那么我们如何解决这个问题呢?

安迪纳解释了如何挑战我们私人助理中的性别角色, 就像现实生活中的性别角色应该受到挑战一样。重要的是要记住, 当我们与 ai 的日常互动创建训练其行为的算法时, 我们也被我们与这些语音助手的经历所塑造。

西里推出后, 没过多久, 用户就开始对这项技术进行性骚扰。在 youtube 中 2011年发布的题为 "询问西里肮脏的东西-有趣和必须看" 的视频, 一名男子要求西里跟他说脏话, 质疑她最喜欢的性爱姿势, 并问她什么样子裸体。

像语音助手这样的颠覆性技术会影响我们现实生活中的人类行为。如果人们冲动地与女性 ai 技术进行粗鲁的互动, 这将如何影响他们在现实世界中对待女性的方式?

由于 ai 不能像人类那样有意识地抵消学到的偏见, 我们现在需要解决 ai 在处理性别规范方面的作用, 以免为时已晚。

解决方法是什么?

安迪纳认为, 为了避免将性别歧视和性别偏见硬连接到我们的未来, 一个可能的解决方案是为 ai 技术提供一个没有性别的声音。

但这并不容易--大多数没有性别的声音听起来太机器人化了。听起来更人权的声音更值得信赖, 这样就可以阻止用户。

虽然没有性别的声音可以有所帮助, 但如果没有创造性和领导作用的多样性, 技术就无法进步和摆脱性别偏见。ai 强化了根深蒂固的性别偏见, 因为机器学习培训中使用的数据是基于人类行为的。基本上, 机器人是性别歧视, 因为他们从人类那里学到的是。

如果有更多的女性硅谷的公司董事会和他们的开发团队, 我们想象和发展技术的方式无疑会改变我们对性别角色的看法。

人们不禁想到, 如果有更多的女性参与创造其技术, 亚历克莎的声音会是什么样子, 或者会被命名什么。

下一篇:

tron 回答了我们关于 atlas 项目的问题

Leave A Reply

Your email address will not be published.