卷积神经网络在图像、语言、时间序列的的应用——笔记

本文内容来自名为convolutional networks for images, speech, and time-series的论文

作者:Yann LeCun, Yoshua Bengio

由于BP网络在复杂、高维、非线性上强大的学习分类能力,被广泛应用于图像识别、语言识别等领域。在、在传统有模式识别的模型中,通常是先用一个人工设计的特征提取器从输入中提取相关的特征,消除掉不相关的特征,然后再把提取到的特征送给传统的分类器。而现在我们可以用一个多层的全连接的网络来代代替这两者。具体做法是我们把原始的数据(不经过特征提取器处理)直接送给网络,然后用BP算法把网络的前几层转变为一个特征提取器,后面的几层作为分类器(通过BP算法来调整参数)。

这样存在着问题:1,当输入数据过大时,权值过多,当训练数据不足够多时很容易出现过拟合的问题。2,过多的参数也同样对硬件有太高的要求。3,have no built-in invariance with respect to translations or local distortions of the inputs. 4,全连接的网络结构完全忽略了输入数据的拓扑特性,结果,the input variables can be presented in any(fixed) order without affecting the outcome of the training.因为图像有很强的空间2维结构、时间串列有强的1维特性。

在理论上讲,一个有足够大的全连接网络可以学习到对于某些输入变化部分的输出不变性。但是样 是有代价的:1,这样产生的一个结果就是很多神经元有学习到相同的权值 2,需要大量的训练数据 .

下面就是卷神经网络的介绍。。略。

说重点:

1, 部分连接的这种想法最早可以追溯到60年代的感知器,与之同时出现的还有Hubel 与 Wiesel 在猫大脑发现的局部感受器。

2,来自Rumelhart、Hinton、and Williams 在1986年写的文章里说到:in addition, elementary feature detectors that are useful on one part of the image are likely to be useful across the entire image.This knowledge can be applied by forcing a set of units, whose receptive fields are located at different place on the image, to have identical weight vector.

3, The convolution/subsampling combination, inspired by Hubel and Wiesel`s notion of ‘simple’and ‘complex’cell, was implemented in the Neocognitron model(神经感知机模型).

variable-size convolutional networks

对于以下部分,我也没有完全明白.

对于变化的大小的卷积神经网络怎么办?意思就是当我们输入的不是一个字,而是连续的一行怎么办呢??

文中的做法,引用文中的一句话: a brute force sloution is to scan (or replicate) a recognizer at all possible location across the input.

有一句话我认为很重要: an output whose receptive field is centered on an elementary object will produce the class of the object,while an in_bettween output may be empty or contain garbage. The outputs can be interpreted as evidence for the categories of object centered at different positions oft the input field. A post-processor is therefore required to pull out consistent interpretations of the output.

应用:

时间: 2024-10-08 06:01:30

卷积神经网络在图像、语言、时间序列的的应用——笔记的相关文章

机器学习:利用卷积神经网络实现图像风格迁移 (一)

相信很多人都对之前大名鼎鼎的 Prisma 早有耳闻,Prisma 能够将一张普通的图像转换成各种艺术风格的图像,今天,我们将要介绍一下Prisma 这款软件背后的算法原理.就是发表于 2016 CVPR 一篇文章, " Image Style Transfer Using Convolutional Neural Networks" 算法的流程图主要如下: 总得来说,就是利用一个训练好的卷积神经网络 VGG-19,这个网络在ImageNet 上已经训练过了. 给定一张风格图像 a 和

深度卷积神经网络在目标检测中的进展

作者:travelsea链接:https://zhuanlan.zhihu.com/p/22045213来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 近些年来,深度卷积神经网络(DCNN)在图像分类和识别上取得了很显著的提高.回顾从2014到2016这两年多的时间,先后涌现出了R-CNN,Fast R-CNN, Faster R-CNN, ION, HyperNet, SDP-CRC, YOLO,G-CNN, SSD等越来越快速和准确的目标检测方法. 基于Reg

卷积神经网络学习笔记与心得(3)卷积

数字图像是一个二维的离散信号,对数字图像做卷积操作其实就是利用卷积核(卷积模板)在图像上滑动,将图像点上的像素灰度值与对应的卷积核上的数值相乘,然后将所有相乘后的值相加作为卷积核中间像素对应的图像上像素的灰度值. 从卷积的效果来看,在二维图像上进行卷积时,卷积核对所在区域上符合某种条件的像素赋予较多的权重,其他的像素赋予的权重较少,这可以看作是一种滤波行为,因此卷积神经网络的卷积核有时也被称为滤波器,卷积核所在区域被称为局部感知域.若局部感知域中存在像素符合加较大权重的条件,称这些像素具有某种特

卷积神经网络-解释1

[翻译] 神经网络的直观解释 2017/07/27 17:36 这篇文章原地址为An Intuitive Explanation of Convolutional Neural Networks,卷积神经网络的讲解非常通俗易懂. 什么是卷积神经网络?为什么它们很重要? 卷积神经网络(ConvNets 或者 CNNs)属于神经网络的范畴,已经在诸如图像识别和分类的领域证明了其高效的能力.卷积神经网络可以成功识别人脸.物体和交通信号,从而为机器人和自动驾驶汽车提供视力. 在上图中,卷积神经网络可以识

编写C语言版本的卷积神经网络CNN之三:CNN的误差反向传播过程

原创文章 转载请注册来源http://blog.csdn.net/tostq 上一节我们介绍了卷积神经网络的前向传播过程,这一节我们重点介绍反向传播过程,反向传播过程反映神经网络的学习训练过程. 误差反向传播方法是神经网络学习的基础,网络上已经有许多相关的内容了,不过关于卷积网络的误差反向传递的公式推导却比较少,而且也不是很清晰,本文将会详细推导这个过程,虽然内容很复杂,但却值得学习. 首先我们需要知道的是误差反向传播的学习方法,实际是梯度下降法求最小误差的权重过程.当然我们的目的是求误差能量关

卷积神经网络之原理详解

本文来源1:http://blog.csdn.net/zouxy09/article/details/9993371 本文来源2:http://blog.csdn.net/qiaofangjie/article/details/16826849 卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点.它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量.该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识

Convolutional Neural Networks卷积神经网络

转自:http://blog.csdn.net/zouxy09/article/details/8781543 9.5.Convolutional Neural Networks卷积神经网络 卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点.它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量.该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程.卷积网络是为识别

AI相关 TensorFlow -卷积神经网络 踩坑日记之一

上次写完粗浅的BP算法 介绍 本来应该继续把 卷积神经网络算法写一下的 但是最近一直在踩 TensorFlow的坑.所以就先跳过算法介绍直接来应用场景,原谅我吧. TensorFlow 介绍 TF是google开源出来的人工智能库,由python语言写的 官网地址:http://www.tensorflow.org/   请用科学上网访问 中文地址:http://www.tensorfly.cn/ 当然还有其他AI库,不过大多数都是由python 写的 .net 的AI库叫 Accord.net

数据挖掘(10):卷积神经网络算法的一个实现

前言 从理解卷积神经到实现它,前后花了一个月时间,现在也还有一些地方没有理解透彻,CNN还是有一定难度的,不是看哪个的博客和一两篇论文就明白了,主要还是靠自己去专研,阅读推荐列表在末尾的参考文献.目前实现的CNN在MINIT数据集上效果还不错,但是还有一些bug,因为最近比较忙,先把之前做的总结一下,以后再继续优化. 卷积神经网络CNN是Deep Learning的一个重要算法,在很多应用上表现出卓越的效果,[1]中对比多重算法在文档字符识别的效果,结论是CNN优于其他所有的算法.CNN在手写体