源之原味

专家警告 DeepFakes 可能影响2020美国大选

 

本文来自thenextweb.com。源URL是: https://thenextweb.com/artificial-intelligence/2018/07/13/experts-warn-deepfakes-could-influence-2020-us-election/

以下内容由机器翻译生成。如果您觉得可读性不好, 请阅读原文或 点击这里.

假的人工智能生成的视频, 具有政治人物可能是所有的愤怒在下一个选举周期, 这是一个坏消息, 民主。

最近发布的 研究 表明, DeepFakes, 一个神经网络, 创建假视频的真实人, 代表了一个最大的威胁, 人工智能构成。

该研究的作者指出:

AI 系统能够生成具有足够大声音训练数据集的任何个人的逼真的合成语音记录。视频也越来越真实。在这篇文章中, "深假" 伪造的音频和视频看起来和声音明显错误, 甚至对未经训练的个人。然而, 随着这些技术的进步, 他们可能不到五年就能愚弄未经训练的耳朵和眼睛。

万一你错过了, DeepFakes 被推到聚光灯下 去年 当它创建的视频开始显示在社交媒体和色情网站。

对视频、图像和声音的操控并不完全是新的--近十年前, 我们看着杰夫桥装点着 "创历史遗产"出现完全一样, 他做了35年前, 当他主演的原始。

什么改变了?使用 DeepFakes 很容易, 因为从根本上说, 所有的辛勤工作都是由 AI 完成的。它不需要视频编辑技巧和人工智能使用的最小知识-大多数 DeepFakes 应用程序是建立与谷歌的开源 AI 平台 TensorFlow。任何人都可以建立和训练一个 DeepFakes 神经网络, 以产生一个半令人信服的假视频。

这也是原因之一, 当 DeepFakes 去年袭击了公众外围, 它被满足了兴奋和恐惧的混合物-和厌恶一旦人们开始 剥削女性名人

如果你还没有看过奥巴马总统侮辱总统王牌的视频 (当然, 他没有, 这是假的), 那么你真的应该花点时间看一下, 如果只是为了获得一些观点。

大多数观看上述的人会认为这是假的;不仅内容不相信, 而且图片上散落着文物。DeepFakes 不是完美的, 但它不一定是。如果一个人的团队试图创建这些假视频, 他们很可能要花几个小时的时间, 精心编辑他们的框架帧。但是, 即使是一个温和的硬件设置, 一个坏演员可以在几分钟内吐出 DeepFakes 视频。当谈到成功传播宣传, 数量赢得了超过质量。

达特茅斯学院法医技术专家唐·哈尼告诉 美联社新闻:

我希望, 在美国, 我们将在两年后即将举行的中期选举和全国大选中看到这一内容。当然, 这项技术不知道国界, 所以我预计全球范围内的影响会波及到世界各地。

即使视频没有那么好-相信我们, 他们会好起来的 -他们仍然可以欺骗足够的人相信任何事情。不难想象坏演员使用 AI 来伪造政客的视频, 或者更可能的是, 他们的支持者从事支持分裂叙事的行为。

美国政府正在 工作 在一个假的视频探测器, 私营部门 研究者 全球各地。但是, 永远不会有一个无处不在的系统来保护整个人口看假视频。这意味着每个人都需要保持警惕, 因为宣传不需要说服任何人, 它只会让一些人怀疑真相。

有关神经网络的详细信息, 请查阅我们的指南 这里.别忘了去拜访 人工智能科 让我们的未来机器人霸主保持最新。

下一篇:

苹果最新的 MacBook 专业人士是一个期待已久的步骤, 在正确的方向

Leave A Reply

Your email address will not be published.