源之原味

下一篇: 一个更好的推荐系统

 

这篇文章来自 wired.com。原始 url 是: https://www.wired.com/story/creating-ethical-recommendation-engines/

以下内容由机器翻译生成。如果您觉得可读性不好, 请阅读原文或 点击这里.

下一篇: 一个更好的推荐系统

Facebook、YouTube 和其他平台使用的算法让我们点击。但这些系统往往会助长误传、滥用和两极分化。有可能用一种体面的感觉来磨练他们吗?
有线/格蒂图像

我是个 Pinterest 用户很长一段时间。我有董事会追溯多年, 跨越过去的兴趣 (装饰艺术的婚礼) 和最近的一些 (橡胶鸭主题的第一个生日聚会)。当我登录到网站时, 我得到了一份有关建议的石板--别针上放着五颜六色的婴儿服装图片, 旁边放着丰盛的即食壶食谱。每次点击, 这些建议就会变得更加具体。点击一个鸡汤食谱, 和其他品种出现。点击一针橡胶鸭蛋糕持久性有机污染物, 鸭蛋糕和鸭形奶酪板迅速填充下面的标题 "更像这样。

这些都是受欢迎的, 无害的建议。他们让我点击。

但是, 当最近一个虚假的研究项目引导我到一个反伊斯兰的 Pinterest 委员会, 一个晚上点击通过这些别针-由假冒的角色, 由隶属于互联网研究机构-把我的饲料颠倒。我的婴儿和食谱的经验演变成一个奇怪的大杂烩视频狄奈许 D ' 索萨, 一个有争议的右翼评论员, 和俄语工艺项目。

蕾 DiResta (@noUpside) 是有线、文字和互联网的思想贡献者。她研究叙事操纵作为新知识的研究主任, 是一个媒体, 错误信息和信任的 Mozilla 研究员, 并隶属于哈佛大学的伯克曼-克莱因中心, 以及哥伦比亚学院的数据科学研究所。在过去的生活中, 她一直是供应链物流创业天堂的创始团队, 是 OATV 的风险投资家, 也是简街的交易员。

推荐引擎无处不在, 而我的 Pinterest 饲料的转变是快速和明显的, 它几乎不是一个反常现象。BuzzFeed 最近报告说, Facebook 组织将人们推向阴谋的内容, 为垃圾邮件发送者和宣传员创建一个内置的访问群体。跟随一个在 Twitter 上的伊希斯同情者, 和其他几个将出现在 "谁跟随" 横幅。和社会学教授泽伊内普 Tufekci 被称为 YouTube "伟大的 Radicalizer她写道: "在最近的《纽约时报》中," 似乎你对 YouTube 的推荐算法来说从来都不是 "硬核"。它促进, 建议和传播的方式, 似乎不断上升的赌注的视频。

今天, 推荐引擎 可能是互联网上社会凝聚力的最大威胁, 因此, 也是离线世界中社会凝聚力的最大威胁之一。我们所从事的推荐引擎的破坏方式有严重的后果: 扩增阴谋论, gamified 新闻, 废话渗透主流话语, 误导选民。推荐引擎已成为伟大的偏光片。

具有讽刺意味的是, 关于推荐引擎的谈话, 以及社会巨头的策展力, 也是高度对立的。上周, 一个创造者在 YouTube 的办公室拿着一把枪, 激怒了这个平台在她的频道上 demonetized 和 downranked 了一些视频。她认为, 这是审查。这不是, 但是围绕枪击事件的 Twitter 对话清楚地说明了平台如何导航内容的紧张气氛: 有些人对言论自由持绝对主义的观点, 认为任何节制都是审查制度, 有些人相信适度是必要的, 以促进尊重社会经验的准则。

随着策展决策的后果变得更加严峻, 我们需要问: 我们能否使互联网的推荐引擎 更具道德?如果有, 怎么办?

找到解决方案首先要了解这些系统是如何工作的, 因为他们正在做的正是他们设计要做的事情。推荐引擎通常有两种功能。第一个是基于内容的系统。引擎问道: 此内容与此用户以前喜欢的其他内容类似吗??如果你狂欢看了两个季节, 比如说, 法律和秩序, Netflix 的回收引擎可能会决定你会喜欢其他十七, 程序性犯罪剧一般是一个很好的配合。第二种过滤是所谓的协同过滤系统。引擎问, 我可以确定这个用户, 以及类似的人喜欢什么?这些系统可以是有效的, 甚至在你给引擎任何反馈通过你的行动。如果你注册 Twitter, 而你的手机表明你在芝加哥, 那么最初的 "跟随者" 建议将会成为芝加哥运动队和你所在地理区域的人的其他帐户的特色。推荐系统学习;当你通过点击和喜好加强, 他们会为你服务的东西, 根据你的点击, 喜欢, 和搜索-和那些人类似于他们更复杂的个人资料。这就是为什么我进军一个由俄罗斯巨魔制造的反伊斯兰 Pinterest 委员会, 导致几个星期被提供了极右的视频和俄罗斯语言的工艺别针;正是那些花了时间与那些别针的人一起享受的内容。

现在想象一下, 用户对内容的兴趣比 法律和秩序 和芝加哥运动。那又怎样?Pinterest 算法不登记建议达达气球和服务极端主义宣传之间的区别;Twitter 系统不认识到它鼓励人们追随额外的极端主义账户, Facebook 的小组引擎不明白为什么将阴谋理论家引向新的阴谋社区可能是个坏主意。系统实际上并没有理解内容, 他们只是返回他们预测的东西会让我们点击。这是因为它们的主要功能是帮助实现公司选择的一个或两个特定的关键绩效指标 (kpi)。我们管理我们能测量的东西。在站点或每月平均用户统计量上测量时间比量化服务用户的阴谋或欺诈内容的结果更容易。而当这种复杂性与管理愤怒的人的开销相结合时, 他们认为, 缓和的内容违反了言论自由, 那么就很容易理解为什么公司会违约。

但它实际上不是实际操作--没有第一个修正权放大--而且算法已经决定了你所看到的。基于内容的推荐系统和协作过滤从来都不是中性的;他们是 总是 当他们决定要给你看什么时, 将一个视频、pin 或组排列在一起。他们是固执己见的, 有影响力的, 但不是以简单或党派的方式, 一些评论家争辩。当极端、两极分化和耸人听闻的内容继续上升到顶峰时, 越来越明显的是, 策展算法需要通过额外的监督来锻炼, reweighted 考虑他们在服务什么。

有些工作已经开始了。 项目重定向, an effort by Google Jigsaw, redirects certain types of users who are searching YouTube for terrorist videos—people who appear to be motivated by more than mere curiosity. Rather than offer up more violent content, the approach of that recommendation system is to do the opposite—it points users to content intended to de-radicalize them. This project has been underway around violent extremism for a few years, which means that YouTube has been aware of the conceptual problem, and the amount of power their recommender systems wield, for some time now. It makes their decision to address the problem in other areas by redirecting users to Wikipedia for fact-checking even more baffling.

Chaslot, 前 youtube 推荐引擎建筑师和现在独立研究员, 已经写了广泛的问题, youtube 服务阴谋和激进内容-小说优于现实, 作为 他把它卫报 . “People have been talking about these problems for years,” he said. “The surveys, Wikipedia, and additional raters are just going to make certain problems less visible. But it won’t impact the main problem—that YouTube’s algorithm is pushing users in a direction they might not want.” Giving people more control over what their algorithmic feed serves up is one potential solution. Twitter, for example, created a filter that enables users to avoid content from low-quality accounts. Not everyone uses it, but the option exists.

In the past, companies have spontaneously cracked down on content related to suicide, pro-anorexia, payday lending, and bitcoin scams. Sensitive topics are often dealt with via ad-hoc moderation decisions in response to a public outcry. Simple keyword bans are often overbroad, and lack the nuance to understand if an account, Group, or Pin is discussing a volatile topic, or promoting it. Reactive moderation often leads to outcries about censorship.

Platforms need to transparently, thoughtfully, and deliberately take ownership of this issue. Perhaps that involves creating a visible list of “Do Not Amplify” topics in line with the platform’s values. Perhaps it’s a more nuanced approach: inclusion in recommendation systems is based on a quality indicator derived from a combination of signals about the content, the way it’s disseminated (are bots involved?), and the authenticity of the channel, group, or voice behind it. Platforms can decide to allow Pizzagate content to exist on their site while simultaneously deciding not to algorithmically amplify or proactively proffer it to users.

Ultimately, we’re talking about choice architecture, a term for the way that information or products are presented to people in a manner that takes into account individual or societal welfare while preserving consumer choice. The presentation of choices has an impact on what people choose, and social networks’ recommender systems are a key component of that presentation; they are already curating the set of options. This is the idea behind the “nudge”—do you put the apples or the potato chips front and center on the school lunch line?

The need to rethink the ethics of recommendation engines is only growing more urgent as curatorial systems and AI crop up in increasingly more sensitive places: local and national governments are using similar algorithms to determine who makes bail, who receives subsidies, and which neighborhoods need policing. As algorithms amass more power and responsibility in our everyday lives, we need to create the frameworks to rigorously hold them accountable—that means prioritizing ethics over profit.

Leave A Reply

Your email address will not be published.