深度学习之无监督训练

最近看了一下深度学习表征学习,总结并记录与一下学习笔记。

1.在标签数据集中做的监督学习容易导致过拟合,半监督学习由于可以从无标签数据集中学习,可以有一定概率化解这种情况。

2.深度学习所使用的算法不能太复杂,否则会加大计算复杂度和工作量。

3.逐层贪婪的无监督预训练有这几个特点:

(1)贪婪:基于贪婪算法,独立优化问题解的各方面,但是每次只优化一个方面,而不是同时同步全局优化。

(2)逐层:各个独立方面可以看做网络的每一层,每次训练的第i层,都会固定前面的所有层。

(3)无监督:每次训练都是无监督表征学习算法。

(4)预训练:训练前的一步操作。

4.在分类任务中减少测试误差,初始化的参数选择对模型产生显著正则化影响,通俗点就是优化效果更明显。

5.无监督预训练还是有一些缺点的,比如需要两个或更多的训练阶段,则需要更多的参数来支持,同时使用有监督和无监督时,通常只需要一个超参。额外项系数减少,优化效果会相应减少

6.无监督学习的四种实现模型

(1)自动编码器,优点是技术简单重建输入,可堆栈多层,直觉型基于神经科学研究

缺点是贪婪训练每一层,没有全局优化,比不上监督学习表现,层一多会失效

(2)聚类学习优点聚类相似输出可被多层堆栈,直觉型且基于神经科学研究。

缺点是贪婪训练每一层没有全局优化,在一些情况下比不上监督学习的表现,层数增加会失效,收益递减。特别的,受限RBMs,DBMs,DBNs难以训练,而配分函数的数值难题,还未普遍用来解决问题。

(3)生成模型,尝试在同一个时间创建一个分类网络和一个生成图像模型。

优点是整个全局训练

缺点难以训练和转化,在某些情况下和监督学习表现相似,需要论证展示方法的可用性

时间: 2024-10-29 09:00:14

深度学习之无监督训练的相关文章

转:Deep learning系列(十五)有监督和无监督训练

http://m.blog.csdn.net/article/details?id=49591213 1. 前言 在学习深度学习的过程中,主要参考了四份资料: 台湾大学的机器学习技法公开课: Andrew NG的深度学习教程: Li feifei的CNN教程: caffe官网的教程: 对比过这几份资料,突然间产生一个困惑:台大和Andrew的教程中用了很大的篇幅介绍了无监督的自编码神经网络,但在Li feifei的教程和caffe的实现中几乎没有涉及.当时一直搞不清这种现象的原因,直到翻阅了深度

【转】有监督训练 & 无监督训练

原文链接:http://m.blog.csdn.net/article/details?id=49591213 1. 前言 在学习深度学习的过程中,主要参考了四份资料: 台湾大学的机器学习技法公开课: Andrew NG的深度学习教程: Li feifei的CNN教程: caffe官网的教程: 对比过这几份资料,突然间产生一个困惑:台大和Andrew的教程中用了很大的篇幅介绍了无监督的自编码神经网络,但在Li feifei的教程和caffe的实现中几乎没有涉及.当时一直搞不清这种现象的原因,直到

深度学习从被监督走向互动

来源:http://tech.163.com/16/0427/07/BLL3TM9M00094P0U.html 编者按:2016年是人工智能诞辰60周年.4月22日,2016全球人工智能技术大会(GAITC) 暨人工智能60年纪念活动启动仪式在北京国家会议中心举行,约1600余专家.学者及产业界人士出席大会. 大会专题报告由中国人工智能学会副秘书长.地平线机器人技术创始人兼CEO余凯博士主持.嘉宾包括中国人工智能学会理事长.中国工程院院士李德毅,IBM中国研究院大数据及认知计算研究总监苏中,百度

用CNTK搞深度学习 (二) 训练基于RNN的自然语言模型 ( language model )

前一篇文章  用 CNTK 搞深度学习 (一) 入门    介绍了用CNTK构建简单前向神经网络的例子.现在假设读者已经懂得了使用CNTK的基本方法.现在我们做一个稍微复杂一点,也是自然语言挖掘中很火的一个模型: 用递归神经网络构建一个语言模型. 递归神经网络 (RNN),用图形化的表示则是隐层连接到自己的神经网络(当然只是RNN中的一种): 不同于普通的神经网络,RNN假设样例之间并不是独立的.例如要预测“上”这个字的下一个字是什么,那么在“上”之前出现过的字就很重要,如果之前出现过“工作”,

[吃药深度学习随笔] 练习:训练二次方程的参数

import tensorflow as tf import numpy as np #训练二次函数的参数 #二次函数: y = ax^2 + bx +c SEED = 12345 #ABC参数 pA = 2 pB = 5 pC = 100 rng = np.random.RandomState(SEED) X = rng.rand(320, 1) #定义一个a=2 b=5 c=10的二次方程 Y = [[float(pA * pow(i, 2) + pB * i + pC)] for i in

机器学习和深度学习资料合集

机器学习和深度学习资料合集 注:机器学习资料篇目一共500条,篇目二开始更新 希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新.希望看到文章的朋友能够学到更多.此外:某些资料在中国访问需要梯子. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <Deep Learning in

[转]机器学习和深度学习资料汇总【01】

本文转自:http://blog.csdn.net/sinat_34707539/article/details/52105681 <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <Deep Learning in Neural Networks: An Overview> 介绍:这是瑞士人工智能实验室Jurgen

深度学习之自编码器

1.自编码的定义 自编码器是一种数据的压缩算法,属于无监督学习,以自身X作为输出值,但输出值X' 和自身X之间还是有一些差异的.自编码器也是一种有损压缩,可以通过使得损失函数最小,来实现X' 近似于X的值.简单的自编码器是一种三层的神经网络模型,包含数据输入层.隐藏层.输出重构层,同时也是一种无监督学习模型.从输入层到隐层称为编码过程,从隐层到输出层称为解码过程.自编码其就相当于自己生成标签,而且标签就是样本数据本身.三层自编码神经网络的模型如下: 自编码的两个过程 1)输入层--隐层的编码过程

用深度学习做命名实体识别(四)——模型训练

通过本文你将了解如何训练一个人名.地址.组织.公司.产品.时间,共6个实体的命名实体识别模型. 准备训练样本 下面的链接中提供了已经用brat标注好的数据文件以及brat的配置文件,因为标注内容较多放到brat里加载会比较慢,所以拆分成了10份,每份包括3000多条样本数据,将这10份文件和相应的配置文件放到brat目录/data/project路径下,然后就可以从浏览器访问文件内容以及相应的标注情况了. 链接:https://pan.baidu.com/s/1-wjQnvCSrbhor9x3G