正在涌现的新型神经网络模型:优于生成对抗网络

http://www.17bianji.com/lsqh/35130.html

是以,它会让人想起残差前馈收集(residual feed-forward network),但在实际中,强迫这些收集向前传播误差并不克不及让它们在更高财揭捉习到有效的层次表征。是以,它们不克不及基于更上层的表征来竽暌剐效地履行其它义务,例如分类、瓜分、动作辨认。要明白这些限制,还须要更多的实验。

新一代深度神经收集正在出现。它们演变自前馈模型,之前我们曾作过具体分析,参阅机械之心文┞仿 《重磅 | 神经收集架构演进史:周全回想大年夜LeNet5到ENet十余种架构(附论文)》 或更新版本:https://medium.com/towards-data-science/neural-network-architectures-156e5bad51ba

跟着深度神经收集技巧的成长,新型的收集架构也在赓续出现。普渡大年夜学 e-Lab 的三位研究者 Alfredo Canziani、Abishek Chaurasia 和 Eugenio Culurciello 近日在 Medium 上发文阐述了一类新型的深度神经收集,其在视频分析上具有无监督进修 、瓜分、场景解析、定位、时空表征、视频袈浃测、表征猜测、在线进修等才能,并且还在很多方面优于当前大年夜热的生查对抗收集(GAN)。

这种新型的神经收集大年夜 LeNet5 / AlexNet 及其变体的初始前馈模型进化而来,并且包含有比 ResNet / Inception 更复杂的旁路筹划。因为这些前馈神经收集把图像紧缩并编码为更小的表征向量,其也被称为编码器。

新一代神经收集有两个重要的新特点:

  • 生成性分支(generative branches):也被称为解码器,因为它们把表征向量投射回输入空间
  • 轮回层(recurrent layers):其把前一时光步的表征和当前时光步的输入和表征结合在了一路

太棒了!然则这一额外的复杂机能给我们带来什么?

它证清楚明了传统的前馈神经收集有很多局限性:

  1. 不克不及准肯定位:因为较高层的下采样和空间分辨率的损掉,特点/目标/类其余定位受到限制。
  2. 不克不及进行场景推理:因为把图像紧缩为短表征代码,它们掉去了关于图像构成以及图像或者场景各个部分的空间分列的信息。
  3. 具有时光的不稳定性:因为它们应用静止图像进行练习,所以不克不及进修目标在空间中活动时腻滑的时空转化。它们可以辨认一些图像中(但不是全部)目标所属的类型,并且对于对抗性的噪音和扰动异常敏感。
  4. 不克不及猜测:因为它们应用时光信息,前馈神经统每一帧供给一个新的表征代码,这只基于当前输入,然则并不猜测下几帧中将会产生什么(留意:有一些例外,它们不在视频长进行练习)

为了克服这些局限,我们须要新一代神经收集,以将已进修的表征投射回输入图像空间,并且可在图像的时光连贯的序列上练习:我们须要在视频长进行练习。

以下是新一代神经收集所具有的高等特点:

无监督进修 - 它们可在视频长进行预练习,以猜测将来的帧或者表征,是以须要更少的标注数据来练习并履行某些义务。

  • 瓜分 - 瓜分一张图像中的不合目标
  • 场景解析 - 其在瓜分之后,如不雅数据集有每一像素的目标标签,用于主动驾驶和加强实际
  • 定位 - 在瓜分和完美的目标界线之后,所有的场景解析和瓜分收集都可以做到此
  • 时空表征 - 应用视频进行练习,而不仅仅是静态图像,懂得时光概念和时光关系
  • 视频袈浃测 - 一些收集被设计用来猜测视频中的将来帧
  • 表征猜测 - 一些收集可以猜测视频中将来帧的表征
  • 在线进修才能 - 经由过程监测猜测与真实将来帧或表征之间的缺点旌旗灯号

生成性梯收集(Generative ladder networks)

这些模型应用一个编码器和一个解码器对以把图像瓜分为不合的部分与目标。实例有: ENet、SegNet、Unet、DenseNet、梯收集以及更多:

  • ENet:https://arxiv.org/abs/1606.02147
  • SegNet:https://arxiv.org/abs/1511.00561
  • Unet:https://arxiv.org/abs/1505.04597
  • DenseNet:https://arxiv.org/abs/1611.09326
  • 梯收集:https://arxiv.org/abs/1507.02672

下面是一个典范的 3 层模型:

D 模块是标准的前馈层。G 模块是生成性模块,它和标准的前馈层类似,但具有去卷积和上采样。它们同样应用残差类型的连接 「res」 以把每一编码层的表征与解码层的表征相连。这迫使生成层的表征被前馈表征模块化,大年夜而具有更强的才能去定位,把场景解析为目标和部分。「x」是输入图像,「y」是同一时光步的输出瓜分。

这些收集可以履行瓜分、场景解析、准肯定位,然则不克不及在时域中进行操作,且没有以前帧的记忆。

比来每一层的编码器到解赂旁路赞助这些收集获得了当缁ゎ佳的机能。

递归和生成性梯收集(Recursive and generative ladder networks)

它是最新的深度神经收集之一,把递归添加进了生成性梯收集,大年夜而形成了递归性和生成性梯收集(REGEL)。REGEL 是迄今为止最为复杂的深度神经收集之一,至少在图像分析范畴是如许。

下面是一个我们正应用的 REGEL 的 3 层模型:

我们认为这是机械进修的一个异常重要的特点,这是猜测神经收集的一种禀赋。没有这种特点,收集就不克不及供给真实的猜测置信度旌旗灯号,并且不克不及履行有效的增量进修。

D 和 G 模块实际上与上述的生成性梯收集中的模块雷同。该收集把来自每一个 G 模块的轮回路径「t-1」添加到了同一层的每一个 D 模块之中。

1/2   1 2 下一页 尾页

  推荐阅读

  静态代码分析工具Klocwork发新版本

为了闪开辟团队在其代码中晋升安然问题和马脚的发明,Rogue Wave宣布了新的安然申报功能,新的Java检查器,CERT分类法的更新等静态代码分析对象。Klocwork 2017.1是Rogue Wave宣布的最新>>>详细阅读

本文标题:正在涌现的新型神经网络模型:优于生成对抗网络

地址:http://www.17bianji.com/lsqh/35130.html

时间: 2024-11-07 22:58:09

正在涌现的新型神经网络模型:优于生成对抗网络的相关文章

生成对抗网络 Generative Adversarial Networks

转自:https://zhuanlan.zhihu.com/p/26499443 生成对抗网络GAN是由蒙特利尔大学Ian Goodfellow教授和他的学生在2014年提出的机器学习架构. 要全面理解生成对抗网络,首先要理解的概念是监督式学习和非监督式学习.监督式学习是指基于大量带有标签的训练集与测试集的机器学习过程,比如监督式图片分类器需要一系列图片和对应的标签("猫","狗"-),而非监督式学习则不需要这么多额外的工作,它们可以自己从错误中进行学习,并降低未来

《生成对抗网络GAN的原理与应用专题》笔记

视频教程的链接:http://campus.swarma.org/gpac=8 一.什么是GAN 框架简述 GAN全称是Generative Adversarial Nets,中文叫做"生成对抗网络". 在GAN中有2个网络,一个网络用于生成数据,叫做"生成器".另一个网络用于判别生成数据是否接近于真实,叫做"判别器". 下图展示了最简单的GAN的结构以及工作原理. 模型中最左侧的随机向量是为了让生成器产生不同的输出,而增加的扰动项.这些扰动决定

知物由学 | AI网络安全实战:生成对抗网络

"知物由学"是网易云易盾打造的一个品牌栏目,词语出自汉·王充<论衡·实知>.人,能力有高下之分,学习才知道事物的道理,而后才有智慧,不去求问就不会知道."知物由学"希望通过一篇篇技术干货.趋势解读.人物思考和沉淀给你带来收获的同时,也希望打开你的眼界,成就不一样的你. 以下是正文: 作者:Brad Harris,安全研究员,Brad曾在公共和私营部门的网络和计算机安全领域工作过.他已经完成了从渗透测试到逆向工程到应用研究的所有工作,目前他是IBMX-Fo

生成对抗网络GAN

详解一:GAN完整理论推导和实现 详解二:详解生成对抗网络(GAN)原理 原文地址:https://www.cnblogs.com/yunkaiL/p/10952881.html

生成对抗网络浅析(GAN)

生成对抗网络 ? 顾名思义,生成对抗网络由两个部分构成, 生成器(Generator)和判别器(Discriminator), 两个部件相互博弈,最终达到平衡状态. 基本原理 下面以生成图片为例. G: 生成器 接受一个随机的噪声 z,通过噪声产生目标G(z) D:判别器 判别目标是否是"真实的".输入参数是 x,输出为D(x), 表示是否为真实的概率. ? 训练的过程中, G的目的就是尽量生成真实的图片欺骗 D.而 D的目标就是尽量将 G 生成的图片和真实的图片分离开.这样就是一个博

使用生成对抗网络(GAN)生成手写字

先放结果 这是通过GAN迭代训练30W次,耗时3小时生成的手写字图片效果,大部分的还是能看出来是数字的. 实现原理 简单说下原理,生成对抗网络需要训练两个任务,一个叫生成器,一个叫判别器,如字面意思,一个负责生成图片,一个负责判别图片,生成器不断生成新的图片,然后判别器去判断哪儿哪儿不行,生成器再不断去改进,不断的像真实的图片靠近. 这就如同一个造假团伙一样,A负责生产,B负责就鉴定,刚开始的时候,两个人都是菜鸟,A随便画了一幅画拿给B看,B说你这不行,然后A再改进,当然需要改进的不止A,随着A

PyTorch实现简单的生成对抗网络GAN

生成对抗网络(Generative Adversarial Network, GAN)包括生成网络和对抗网络两部分.生成网络像自动编码器的解码器,能够生成数据,比如生成一张图片.对抗网络用来判断数据的真假,比如是真图片还是假图片,真图片是拍摄得到的,假图片是生成网络生成的. 生成对抗网络就是让生成网络和对抗网络相互竞争,通过生成网络来生成假的数据,对抗网络判别该数据是真是假,最后希望生成网络生成的数据以假乱真骗过判别器. 以下程序主要来自廖星宇的<深度学习之PyTorch>的第六章,本文对原代

利用tensorflow训练简单的生成对抗网络GAN

对抗网络是14年Goodfellow Ian在论文Generative Adversarial Nets中提出来的. 原理方面,对抗网络可以简单归纳为一个生成器(generator)和一个判断器(discriminator)之间博弈的过程.整个网络训练的过程中, 两个模块的分工 判断器,直观来看就是一个简单的神经网络结构,输入就是一副图像,输出就是一个概率值,用于判断真假使用(概率值大于0.5那就是真,小于0.5那就是假) 生成器,同样也可以看成是一个神经网络模型,输入是一组随机数Z,输出是一个

在浏览器中进行深度学习:TensorFlow.js (八)生成对抗网络 (GAN

Generative Adversarial Network 是深度学习中非常有趣的一种方法.GAN最早源自Ian Goodfellow的这篇论文.LeCun对GAN给出了极高的评价: "There are many interesting recent development in deep learning-The most important one, in my opinion, is adversarial training (also called GAN for Generativ