深度学习(八):生成模型

一、引入

最开始知道生成模型和判别模型,是在李航的统计学习方法里,当时的理解是:生成模型,就是同时考虑了X和Y的随机性,也就是说二者都是随机变量;判别模型,就是只考虑了Y的随机性,而X并不是个随机变量,即使X存在于条件中,但是并没有p(x)这种说法。当时同时也知道了,朴素贝叶斯和隐马尔可夫都是生成模型,最主要的原因就是在这两个模型中涉及到的变量都是随机变量。生成模型可以转变成判别模型,也就是生成模型由于考虑的都是随机变量,可以通过条件概率公式计算出条件概率;反之不行,因为判别模型无法描述联合概率分布。

后来又在学深度学习的时候看到了生成模型,好像对生成模型的理解又加深了一些。

二、概念

生成模型是根据一些已经观测到的样本点,学习一个参数化模型,来近似这些样本所符合的真实分布。可以用这个学习到的模型来生成一些新样本,使得这些样本是符合真实分布的。所以生成模型有两个基本用处:一个是概率密度估计,一个是采样。

原文地址:https://www.cnblogs.com/liuxiangyan/p/12578579.html

时间: 2024-07-30 03:14:08

深度学习(八):生成模型的相关文章

深度学习 vs. 概率图模型 vs. 逻辑学

深度学习 vs. 概率图模型 vs. 逻辑学 摘要:本文回顾过去50年人工智能(AI)领域形成的三大范式:逻辑学.概率方法和深度学习.文章按时间顺序展开,先回顾逻辑学和概率图方法,然后就人工智能和机器学习的未来走向做些预测. [编者按]在上个月发表博客文章<深度学习 vs. 机器学习 vs. 模式识别>之后,CMU博士.MIT博士后及vision.ai联合创始人Tomasz Malisiewicz这一次带领我们回顾50年来人工智能领域三大范式(逻辑学.概率方法和深度学习)的演变历程.通过本文我

[caffe]深度学习之图像分类模型VGG解读

一.简介 vgg和googlenet是2014年imagenet竞赛的双雄,这两类模型结构有一个共同特点是go deeper.跟googlenet不同的是,vgg继承了lenet以及alexnet的一些框架,尤其是跟alexnet框架非常像,vgg也是5个group的卷积.2层fc图像特征.一层fc分类特征,可以看做和alexnet一样总共8个part.根据前5个卷积group,每个group中的不同配置,vgg论文中给出了A~E这五种配置,卷积层数从8到16递增.从论文中可以看到从8到16随着

【转】[caffe]深度学习之图像分类模型AlexNet解读

[caffe]深度学习之图像分类模型AlexNet解读 原文地址:http://blog.csdn.net/sunbaigui/article/details/39938097 本文章已收录于:  深度学习知识库  分类: deep learning(28)  版权声明:本文为博主原创文章,未经博主允许不得转载. 在imagenet上的图像分类challenge上Alex提出的alexnet网络结构模型赢得了2012届的冠军.要研究CNN类型DL网络模型在图像分类上的应用,就逃不开研究alexn

机器学习之深度学习常用的模型和方法

Deep Learning的常用模型或者方法 AutoEncoder自动编码器 Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重.自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征.自动编码器就是一种尽可能复现输入信号的神经网络.为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA

深度学习八

转载:http://blog.csdn.net/zouxy09/article/details/8782018 接上 十.总结与展望 1)Deep learning总结 深度学习是关于自动学习要建模的数据的潜在(隐含)分布的多层(复杂)表达的算法.换句话来说,深度学习算法自动的提取分类需要的低层次或者高层次特征.高层次特征,一是指该特征可以分级(层次)地依赖其他特征,例如:对于机器视觉,深度学习算法从原始图像去学习得到它的一个低层次表达,例如边缘检测器,小波滤波器等,然后在这些低层次表达的基础上

快速上手深度学习 掌握TensorFlow模型构建与开发

第1章 课程介绍介绍机器学习的背景,介绍tensorflow的背景,介绍课程python,numpy,virtualenv等前置学习内容,安装tensorflow1-1 导学1-2 课程安排1-3 深度学习背景1-4 tensorflow优势1-5 开发环境1-6 virtualenv简介1-7 python常用操作1-8 numpy常用操作011-9 numpy常用操作021-10 Mac下TensorFlow安装1-11 Windows下TensorFlow安装1-12 ubuntu下Ten

深度学习文本分类模型

参考: Convolutional Neural Networks for Sentence Classification 文本的表示通过词向量的表示方式,把文本数据从高纬度高稀疏的神经网络难处理的方式,变成了类似图像.语音的的连续稠密数据.深度学习算法本身有很强的数据迁移性,很多之前在图像领域很适用的深度学习算法比如CNN等也可以很好的迁移到文本领域了. CNN原理就不讲了,核心点在于可以捕捉局部相关性,具体到文本分类任务中可以利用CNN来提取句子中类似 n-gram 的关键信息. CNN本质

[caffe]深度学习之图像分类模型AlexNet解读

在imagenet上的图像分类challenge上Alex提出的alexnet网络结构模型赢得了2012届的冠军.要研究CNN类型DL网络模型在图像分类上的应用,就逃不开研究alexnet,这是CNN在图像分类上的经典模型(DL火起来之后). 在DL开源实现caffe的model例子中,它也给出了alexnet的复现,详细网络配置文件例如以下https://github.com/BVLC/caffe/blob/master/models/bvlc_reference_caffenet/train

【深度学习】CNN模型可视化

神经网络本身包含了一系列特征提取器,理想的feature map应该是稀疏的以及包含典型的局部信息.通过模型可视化能有一些直观的认识并帮助我们调试模型,比如:feature map与原图很接近,说明它没有学到什么特征:或者它几乎是一个纯色的图,说明它太过稀疏,可能是我们feature map数太多了(feature_map数太多也反映了卷积核太小).可视化有很多种,比如:feature map可视化.权重可视化等等,我以feature map可视化为例. 模型可视化 用了keras做实验,以下图

《深度学习》圣经&quot;花书&quot;经验法则中文版!

作者:Jeff Macaluso https://jeffmacaluso.github.io/post/DeepLearningRulesOfThumb/ 转自CVer,仅用作个人学习 当我在研究生期间,第一次学习神经网络时,我问我的教授是否有任何关于选择架构和超参数的经验法则.他的回答是:“嗯,有点,但不...” - 毕竟神经网络的选择远远多于其他机器学习算法!在阅读 Ian Goodfellow,Yoshua Bengio和Aaaron Courville的深度学习书时,我一直在思考这个问