源之原味

 

这篇文章来自 nvidia.com。原始 url 是: https://blogs.nvidia.com/blog/2018/08/02/supervised-unsupervised-learning/

以下内容由机器翻译生成。如果您觉得可读性不好, 请阅读原文或 点击这里.

建造宜家家具有几种不同的方法。理想情况下, 每个人都会得到一个完整的沙发或椅子。但根据细节, 一种方法会比其他方法更有意义。

有说明书和所有正确的作品吗?只要按照指示。掌握窍门了吗?把手册扔到一边, 单独去。但把说明放错地方, 就得靠你来理解那堆木钉和木板。

深度学习也是如此。根据现有数据的种类和手头的研究问题, 科学家将选择使用特定的学习模型来训练算法。

在监督学习模型中, 该算法在标记的数据集上进行学习, 提供了一个应答键, 该算法可以使用该键来评估其在训练数据上的准确性。相反, 一个无监督的模型提供了未标记的数据, 算法试图通过自己提取特征和模式来理解这些数据。

半监督学习是中间立场。它使用少量标记的数据来支持一组较大的未标记数据。而强化学习训练具有奖励系统的算法, 在人工智能特工在特定情况下发挥最佳作用时提供反馈。

让我们来看看适合于各种学习的数据集和问题的种类。

什么是监督学习?

如果你正在学习一项受监督的任务, 就会有人在场判断你是否得到了正确的答案。同样, 在监督学习中, 这意味着在训练算法时拥有完整的标记数据集。

完全标记意味着训练数据集中的每个示例都用算法应该单独给出的答案进行标记。因此, 一个标记的花图像数据集将告诉模型哪些照片是玫瑰, 雏菊和水仙花。当显示新图像时, 模型将其与训练示例进行比较, 以预测正确的标签。

通过有监督的机器学习, 该算法从标记数据中学习。
通过有监督的机器学习, 该算法从标记数据中学习。

监督学习有两个主要领域是有用的: 分类问题和回归问题。

猫 , 考拉还是?分类算法可以分辨出区别。
猫 , 考拉还是?分类算法可以分辨出区别。

分类问题要求算法预测离散值, 将输入数据标识为特定类或组的成员。在动物图像的训练数据集中 , 这意味着每张照片都预先标记为猫、考拉或。然后, 根据如何准确地正确地对其他考拉和海龟的新图像进行分类来评估该算法。

另一方面, 回归问题看的是连续数据。一个用例, 线性回归, 应该听起来熟悉从代数类: 给定一个特定的 x 值, y 变量的预期值是什么?

一个更现实的机器学习例子是一个涉及大量变量的例子, 比如一个根据广场面积、位置和靠近公共交通的地方预测旧金山公寓价格的算法。

因此, 监督学习最适合有一组可用的参考点或地面真相来训练算法的问题。但这些并不总是可以买到的。

什么是无监督学习?

干净、标记完善的数据集并不容易获得。有时, 研究人员会问算法问题, 他们不知道答案。这就是无人监督的学习的来龙去脉。

In unsupervised learning, a deep learning model is handed a dataset without explicit instructions on what to do with it. The training dataset is a collection of examples without a specific desired outcome or correct answer. The neural network then attempts to automatically find structure in the data by extracting useful features and analyzing its structure.

Unsupervised learning models automatically extract features and find patterns in the data.
Unsupervised learning models automatically extract features and find patterns in the data.

Depending on the problem at hand, the unsupervised learning model can organize the data in different ways.

  • Clustering当前位置如果不是一个专业的鸟类学家, 就可以根据羽毛颜色、大小或喙形状等线索, 查看鸟类照片的集合, 并按物种将其大致分开。这就是无监督学习 (集群) 最常见的应用程序的工作原理: 深度学习模型查找彼此相似的培训数据, 并将它们组合在一起。
  • 异常检测: 银行通过寻找客户购买行为中的不寻常模式来发现欺诈交易。例如, 如果在同一天内在加州和丹麦使用同一张信用卡, 这就值得怀疑了。同样, 无监督学习也可用于标记数据集中的异常值。
  • 协会: 在网上购物车上加装尿布、苹果酱和吸盘, 网站可能会建议您在订单中添加一个围裙和一个婴儿监视器。这是关联的一个示例, 其中数据示例的某些功能与其他功能相关联。通过查看数据点的几个关键属性, 无监督的学习模型可以预测它们通常与之关联的其他属性。
  • 自动编码器: 自动编码器获取输入数据, 将其压缩为代码, 然后尝试重新创建该汇总代码中的输入数据。这就像开始与 , creating a SparkNotes version and then trying to rewrite the original story using only SparkNotes for reference. While a neat deep learning trick, there are fewer real-world cases where a simple autocoder is useful. But add a layer of complexity and the possibilities multiply: by using both noisy and clean versions of an image during training, autoencoders can remove noise from visual data like images, video or medical scans to improve picture quality.

由于数据中没有 "地面真相" 元素, 因此很难测量非监督学习训练的算法的准确性。但有很多研究领域, 贴标的数据难以捉摸, 或者成本太高, 无法获得。在这些情况下, 让深度学习模式自由地找到自己的模式, 可以产生高质量的结果。

什么是半监督学习?

把它看作是一个快乐的媒介。

半监督学习在很大程度上正是听起来的样子: 一个同时包含标记和未标记数据的训练数据集。当从数据中提取相关特征很困难时, 此方法特别有用, 而标记示例对于专家来说是一项耗时的任务。

半监督学习对于医学图像尤其有用, 在医学图像中, 少量的标记数据可以显著提高准确性。
半监督学习对于医学图像尤其有用, 在医学图像中, 少量的标记数据可以显著提高准确性。

这种学习的常见情况是医学图像, 如 ct 扫描或核磁共振成像。受过训练的放射科医生可以通过和标记肿瘤或疾病的一小部分扫描。手动标记所有扫描将花费太多时间, 成本也太高了--但与完全无监督的模型相比, 深度学习网络仍然可以从标记数据的一小部分中受益, 并提高其准确性。

一种流行的培训方法, 它从一组相当小的标记数据开始, 正在使用 一般敌对网络, 或 gans.

想象一下, 竞争中的两个深度学习网络, 每个网络都试图超越另一个。那是个甘。其中一个名为生成器的网络试图创建模拟训练数据的新数据点。另一个网络, 鉴别器, 拉入这些新生成的数据, 并评估它们是训练数据的一部分还是假的。网络在一个正反馈循环中得到改善--随着鉴别器更好地将假货与原件分开, 生成器提高了其创建令人信服的假货的能力。

This is how a GAN works: The discriminator, labeled "D," is shown images from both the generator, "G," and from the training dataset. The discriminator is tasked with determining which images are real, and which are fakes from the generator.
This is how a GAN works: The discriminator, labeled “D,” is shown images from both the generator, “G,” and from the training dataset. The discriminator is tasked with determining which images are real, and which are fakes from the generator.

What Is Reinforcement Learning?

Video games are full of reinforcement cues. Complete a level and earn a badge. Defeat the bad guy in a certain number of moves and earn a bonus. Step into a trap — game over.

These cues help players learn how to improve their performance for the next game. Without this feedback, they would just take random actions around a game environment in the hopes of advancing to the next level.

Reinforcement learning operates on the same principle — and actually, video games are a common test environment for this kind of research.

In this kind of machine learning, AI agents are attempting to find the optimal way to accomplish a particular goal, or improve performance on a specific task. As the agent takes action that goes toward the goal, it receives a reward. The overall aim: predict the best next step to take to earn the biggest final reward.

To make its choices, the agent relies both on learnings from past feedback and exploration of new tactics that may present a larger payoff. This involves a long-term strategy — just as the best immediate move in a chess game may not help you win in the long run, the agent tries to maximize the cumulative reward.

It’s an iterative process: the more rounds of feedback, the better the agent’s strategy becomes. This technique is especially useful for training robots, which make a series of decisions in tasks like steering an autonomous vehicle or managing inventory in a warehouse.

Just as students in a school, every algorithm learns differently. But with the diversity of approaches available, it’s only a matter of picking the best way to help your neural network learn the ropes.

Leave A Reply

Your email address will not be published.