源之原味

AI 是未来, 女人在哪里?

 

这篇文章来自 wired.com。原始 url 是: https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance/

以下内容由机器翻译生成。如果您觉得可读性不好, 请阅读原文或 点击这里.

AI 是未来, 女人在哪里?

凯西下巴

为其所有 差异, 大科技公司同意我们的方向: 进入未来由智能机器主导。谷歌、亚马逊、Facebook 和苹果都说, 我们生活的方方面面将很快被转变为 人工智能与机器学习, 通过创新如 自动驾驶车面部识别.然而, 那些工作支撑着这一愿景的人们并不像他们的发明所要改变的社会那样。有线工作与蒙特利尔启动元素 AI 估计领先机器学习研究员的多样性, 并发现只有12% 的妇女。

这一估计来自于2017年在三个顶尖机器学习会议上贡献工作的男性和女性人数。这表明, 预计社会未来发展的组织比更广泛的科技产业更不包容, 因为它有自己的 知名的多样性问题.

在谷歌, 21% 的技术角色被女性所填满, 根据6月发布的公司数据.在本月早些时候有线评论谷歌 AI 研究页面时, 他们列出了641名从事 "机器智能" 工作的人, 其中只有10% 是女性。Facebook 上个月说 22% 的技术工人是妇女。该公司 AI 研究小组的网页在本月早些时候列出了115人, 其中15% 是女性。

一位谷歌发言人告诉有线公司的研究页面只列出了那些撰写研究论文的人, 而不是所有实施或研究 AI 技术的人员, 但拒绝提供更多的信息。Facebook 也拒绝提供有关其 AI 团队多样性的详细信息。facebook 的 ai 实验室的蒙特利尔分部的乔艾 Pineau 说, 统计研究团队的公开上市的员工是 "合理的", 但该集团相对于 Facebook 上的所有人来说都是很小的, 通过招聘来增长和改变。

2017年为三个领先的机器学习会议贡献工作的男女百分比。来源: 元素 AI

Hotlittlepotato

Pineau 是 ai 研究中的一个派别, 试图提高该领域的多样性, 部分原因是由于担心不这样做会增加 ai 系统的几率。 危害 在世界上。"我们有更多的科学责任比其他领域, 因为我们正在开发的技术, 影响了大部分的人口," Pineau 说。

公司和政府正押注 AI, 因为它有可能让计算机在世界上做出决定并采取行动, 例如在 保健警 务.Facebook 是 机器学习计数 帮助它打击虚假新闻的地方与非常不同的人口统计学的 AI 研究实验室, 如缅甸, 在公司的平台上的谣言 导致暴力.美国加利福尼亚理工学院的教授 Anandkumar 曾在亚马逊研究 ai, 他说, 当研究团队是同构的时候, ai 系统对某些群体造成的危害会更高。她表示: "不同的团队更有可能在产品推出之前, 对可能产生负面社会后果的问题进行标记."研究还显示, 不同的团队是 更有生产力.

公司和学术 AI 小组已经-无意间发布的数据和系统偏向于那些在 AI 的高级教士中表现不佳的人。去年, 弗吉尼亚和华盛顿大学的研究人员发现, 在机器学习研究中使用的两个大型图像集, 包括一个由微软和 Facebook 支持的图片, 教算法 扭曲的性别观点.例如, 人们购物和洗涤的图像大多与女性有关。

Anandkumar 和其他人也说, AI 社区需要更好地代表少数民族。 于2月, 来自麻省理工学院和微软的研究人员发现, IBM 和微软为企业提供的面部分析服务对于肤色较暗的色调来说是不太准确的。这些公司的算法在识别肤色较轻的男性的性别方面近乎完美, 但在呈现深色皮肤的女性照片时往往会犯错误。IBM 和微软都表示, 他们已经改善了他们的服务。原始的, 瑕疵的, 版本在市场上一年多。

在机器学习的研究人员中, 女性的匮乏是不足为奇的。更广泛的计算机科学领域被证明是由男性主宰的。政府数据显示, 在过去的三十年里, 在美国计算学士学位的女性比例大幅下滑, 这与物理和生物科学的趋势相反。

美国女性获得学士学位的比例。来源: NCES

Hotlittlepotato

人们对先进机器学习的人口统计数据很少。有线接近的元素, 这样做后, 公司 公布的数字 全球人工智能人才库。该公司编制了一份名单, 列出了在 2017年 NIPS、ICLR 和 ICML 等三个顶尖学术机器学习会议上接受过论文或其他工作的每个人的姓名和隶属关系。曾经晦涩的事件现在有公司的党派和企业招聘人员和研究员的军队。元素的清单包括3825名, 其中17% 个隶属于工业。本公司 计数的男性和女性 通过要求工人们进行包包服务, 在网上研究名单上的人。每个名字分别被送到三名工作者, 为了一贯性。有线检查了数据的样本, 并排除了返回不完整的六项。

出现的图片只是一个估计。美国旧金山大学的教授雷切尔?托马斯和 AI 教育提供者 Fast.ai 的创始人, 说它仍然有用。她说, 人工智能的多样性问题的数据可能有助于激发人们尝试解决这一难题。托马斯表示: "我认为这是一个相当准确的图片, 说明那些从事人工智能工作的大公司认为是合适的员工."

近年来, AI 缺乏多样性和努力解决这一问题, 赢得了更多的关注。托马斯, Anandkumar 和 Pineau 都参与了 妇女在 ML, 或 WiML, 一个与 NIPS 一起运行的车间, 目前是 AI 最热门的会议。这场侧面活动为女性提供了展示他们工作的场所, 并于2017年在谷歌、Facebook、亚马逊和苹果公司赞助。同样, 黑体技术品牌赞助了一个新的车间, 去年 NIPS 一起运行, 称为 黑色在 AI, 主办了技术研究讲座, 并就如何提高该领域的多样性进行了讨论。ai 的课程旨在提供一个替代传统的研究生院轨道进入 ai, 公司提供多元化奖学金。

尽管这类计划有所增长, 但 AI 中很少有人期望妇女或少数民族在其领域的比例迅速增长。

谷歌等公司的多元化运动 未能显著改变 白人和亚裔男子在技术劳动力中的优势。Negar Rostamzadeh, 研究科学家在元素, 说 AI 有它自己的版本的问题 记录良好 在科技公司, 女性比男性更有可能离开这个领域, 而且不太可能获得晋升。Rostamzadeh 说: "努力让妇女和少数群体有良好的代表性是积极的, 但我们也希望他们能够进步。

AI 研究中的妇女还说, 这一领域可以冷漠, 甚至对妇女怀有敌意。

Anandkumar 和托马斯说, 他们在完成博士学位之前就学会了, 在计算机科学或数学研究中, 男性对女性不恰当的言论或骚扰是不寻常的。卡耐基梅隆大学的两位长期的计算机科学教授本周辞职了, 引用 "性别歧视管理"。 在 2月, Anandkumar 用 #metoo 标签做了网上帖子, 描述了 AI 中一位无名同事的口头骚扰。

最近几年 NIPS 的事件说明了让这一领域更受女性欢迎的挑战, 以及流入 AI 的新资金有时会使情况变得更糟。

在 2015年, 加拿大初创公司的创始人叫 Deeplearni. 吴把 t恤衫带到会议上, 口号是 "我的 NIPS 是 NP 难的", 解剖 数学笑话 一些男人和女人 发现 不当.(会议的全名是神经信息处理系统)。创始人斯蒂芬 Piron, 现在称为 Dessa, 说, 使衬衫 "是一个肉为首的举动", 他感到遗憾, 他的公司重视包容。

在去年的活动中, Anandkumar 和其他一些与会者抱怨说, 由 Intel 主办的一个党, 它也赞助了妇女在 ML 事件-在那里女杂技演员从天花板上下降创造了一个冷漠的气氛, 妇女。英特尔发言人表示, 该公司欢迎有关如何更好地创造每个人都认为包括在内的环境的反馈意见。这次会议的官方闭幕式引起了类似的抱怨, 引发了对两位著名研究人员行为的调查。

一个是明尼苏达大学的教授布拉德. 卡林, 他在 NIPS 的一个乐队的闭幕式上表演, 名叫 Imposteriors 由统计学教授组成。玩钥匙的卡林在节目中拿性骚扰开玩笑。推特抱怨他的话刺激数据科学家克里斯蒂·朗姆 写博客文章 声称一个人参与了这一事件--后来证实是卡林--和另一个不愿透露姓名的研究人员在不同的场合不适当地碰了她一下。卡林后来在明尼苏达大学调查后退休 发现 他多次违反性骚扰政策。彭博 报告 第二个人是谷歌统计研究总监史蒂文·斯科特。公司发言人证实, 斯科特在对其行为进行内部调查后离开了公司。

NIPS 的组织者目前正在为今年12月在蒙特利尔举行的这次活动制定更详细的行为守则。上周, 他们发出了一项调查, 征求对目前名字替代方案的意见, 这些替代品不会有同样的 "令人厌恶的含义"。候选人包括 clips、nals 和 icols。

脸谱的皮诺没有偏好, 但赞成改名。她说: "我一直在寻找会议, 最后来到了一些非常不愉快的网站上。她还警告说, 重命名 NIPS 不应该分散人们对 ai 更大、更不容易修复的问题的注意力。她说: "我有点担心, 人们会认为我们做了一个盛大的姿态, 其他事情的势头会放缓。

Leave A Reply

Your email address will not be published.