源之原味

你什么都不知道 AI, 这就是为什么你在谈话中不好

 

本文来自thenextweb.com。源URL是: https://thenextweb.com/syndication/2018/09/27/you-know-nothing-ai-thats-why-youre-bad-at-conversation/

以下内容由机器翻译生成。如果您觉得可读性不好, 请阅读原文或 点击这里.

"对不起, 我不太明白。任何曾经试图与像 Siri 这样的虚拟助理进行更深的对话的人都知道它有多令人沮丧。

尽管人工智能系统正越来越多地进入我们的生活, 但几乎每天都有新的成功案例。AIs 现在不仅帮助放射科医生 检测肿瘤, 他们可以 充当猫的驱蚊剂, 甚至 探测潜在外星技术的信号 从太空。

但是当谈到基本的人类能力时, 比如好好聊天, AI 就不那么简单了。它根本不能提供幽默, 温暖和能力, 建立连贯和个人的融洽关系, 这是至关重要的人类对话。但是, 为什么它会一直到那里?

Chatbots 从早期开始就有了很长的路要走, 麻省理工学院的伊丽莎在二十世纪六十年代。伊丽莎是根据一套精心制定的规则, 将给人的印象是一个积极的倾听者和模拟一个疗程与心理治疗师。

像伊丽莎这样的系统善于给人一种复杂的第一印象, 但在几次交谈之后很容易就能发现。这些系统建立在尽可能多地收集世界知识的努力上, 然后将其形式化为概念, 以及这些机制如何相互关联。

概念和关系进一步建立在语法和词汇, 有助于分析和生成自然语言的中间逻辑表示。例如, 世界知识可能包含一些事实, 如 "巧克力是可食用的" 和 "岩石是不可食的"。

从数据中学习

今天的对话 AI 系统是不同的, 因为他们的目标是开放的域对话-没有限制的主题, 问题, 或指令的人可以问。

这主要是通过完全避免任何类型的中间表示或显式知识工程来实现的。换言之, 当前会话 AI 的成功是基于它对世界一无所知的前提。

在自然语言处理过程中, 最基本的深层学习模式被称为 递归神经网络, 模型通过一个可以从数据中推断出的概率函数来预测基于输入序列的单词的输出序列。

考虑到用户输入 "你好吗?" 模型可以确定统计上的频繁响应是 "我很好"。

这些模型的威力部分在于它的简单性-通过避免中间表示, 更多的数据通常会导致更好的模型和更好的输出。

学习 AI 非常类似于我们的学习方式: 消化一个非常大的训练数据集, 并与已知但看不见的数据 (测试集) 进行比较。根据 ai 对测试集的表现, 在测试重复之前, ai 的预测模型被调整以获得更好的结果。

但你如何确定它有多好?你可以看句子的语法, 如何 "人喜欢" 他们的声音, 或连贯的贡献在一连串的会话轮流。

产出的质量也可以确定为对其满足期望的程度进行主观评估。麻省理工学院的 DeepDrumpf 是一个很好的例子--使用来自唐纳德·特朗普 Twitter 的数据训练的 AI 系统 帐户, 这不可思议的声音就像他一样, 评论一些主题, 如 医疗, 妇女, 或 移民.

然而, 当模型收到 "错误" 输入时, 问题就开始了。 微软的泰 是试图建立一个对话 AI, 将逐步 "改善", 并变得更人性化, 在 Twitter 上进行交谈。

在24小时的部署中, 泰臭名昭著从一个慈善家变成了一个政治欺负者, 有一个不连贯的极端主义世界观。很快就被离线了。

当机器向我们学习时, 他们也会接受我们的缺陷--我们的意识形态、情绪和政治观点。但不像我们, 他们不学习控制或评估他们-他们只映射一个输入序列到输出序列, 没有任何过滤器或道德指南针。

然而, 这也被描绘成一种优势。一些人认为, 最近的成功 IBM 的项目辩手, 一个 AI 可以建立 "有力的基于证据的论据", 关于任何特定的话题, 都归结于它缺乏偏见和情感影响。为了做到这一点, 它在大量的文档中查找数据, 并抽出信息, 向与之辩论的人表达相反的观点。

下一步步骤

但是, 即使更多的数据可以帮助 AI 学会说更多相关的事情, 它是否真的听起来像人?情感在人类谈话中是必不可少的。在调整我们自己的反应或对某一情况作出判断时, 承认他人的声音甚至短信中的悲伤或快乐是非常重要的。我们通常必须在字里行间进行阅读。

会话 AIs 本质上是精神病患者, 没有感情和同情心。当我们第七次在电话中大声呼喊我们的客户号码时, 这就变得非常清楚了, 希望系统能够识别我们的痛苦, 并将我们带到一个人类客户服务代表那里。

同样, 会话 AIs 通常不理解幽默或讽刺, 我们大多数人认为这是一个很好的聊天的关键。虽然个别程序设计教 AI 在一系列的句子中发现讽刺的评论 取得了一些成功, 没有人能把这项技能融入到一个实际的对话 AI 中。

显然, 会话 AIs 的下一步是整合这类和其他的 "人" 功能。不幸的是, 我们还没有现成的技术来成功做到这一点。即使我们这样做了, 问题仍然是我们越是试图建立一个系统, 它所需要的处理能力就越多。因此, 我们可能需要一段时间才能获得可用的计算机类型, 这将使这成为可能。

AI 系统显然仍然缺乏对词的意思、他们所代表的政治观点、表达的情感和文字的潜在影响的更深的理解。

这让他们很长一段时间远离真正冠冕堂皇的人类。在他们成为真正理解我们的社交伙伴之前, 甚至可以在人类的意义上进行对话, 这可能更长。

本文是从 的谈话尼娜 Dethlefs, 计算科学讲师, 赫尔大学; 安妮卡 Schoene, 博士候选人, 计算机科学, 赫尔大学, 并 大卫 Benoit, 分子物理和天体化学资深讲师, 赫尔大学.读了 原创文章.

下一篇:

当前为深化学习革命加油的算法

Leave A Reply

Your email address will not be published.