深度学习系列之CNN核心内容

这里为什么CNN核心内容?原因很简答,CNN说白了就是一个更多层、更多节点的ANN,不同之处就是处理网络每一层的权值的方法不一样(CNN,当然是卷积使得权值共享,降低连接数量,同时兼顾二维特征)。从算法层面上讲,CNN的核心还是同BP网络一样,计算整个CNN网络中的误差反向传播,来更新每一层的权值,只不过这个误差反向传播更复杂。理解了CNN误差反向传播的过程,就基本上了解CNN。

DNN的背景

DNN,deep neural network,近几年机器学习算法中崛起的旗舰方法,作为分类精度最高、处理高维大数据的算法,挽救了机器学习在半个世纪里发展缓慢的颓势,也为人工智能新领域的拓展起着重要作用,来看看最近一些IT巨头在深度学习领域中的开展的工作。
2012年,《纽约时报》报道的google Brian项目,引起广泛关注,这个项目由机器学习领域大师级人物吴恩达和大规模计算机系统方面的世界顶级专家JeffDean主导,使用万为数量级的CPU数量搭建并行计算平台,模拟出10亿数量级的神经节点,让这个巨大的系统收看YouTube视频能够自学习和识别具有一个小孩的智力水平。微软在天津举办一次公开的活动展示了全自动的同声传译系统,演讲者用英语说话,后台计算机一气呵成地完成语音识别、英中文翻译、语音合成,效果非常流畅。这个系统背后的关键技术就是DNN,或者说DL(Deep Learning)。2013年,李彦宏在百度年会上高调宣布成立“深度学习研究院”。

Why DNN

深度学习,体现出仿生生物学和人工智能等领域的光辉思想,借用获得诺贝尔生理学奖的“视觉分层”理论,深度学习采用多层的分层形式来模拟视觉系统的原理,从底层的像素获取形状方向,到大脑皮层不同区域抽象迭代获得局部特征,再到提取高层特征直到能够简单识别出模式。正因为深度学习神经网络中的深层次结构,能够无遗漏地提取样本特征,具有强大的分类能力,所以深度学习相比于其他机器学习的算法,能够降低误差率,成为近年来非常热门的算法。
深度学习有着多层深层的层次结构,将底层的特征不断抽象和迭代出可标示的特征,能够发现大数据中的复杂结构,具有强大的分类能力,因而在视频图像识别、语音识别、海量文本分类等方面具有重要应用。
深度学习的思想是通过深层网络的结构自动学习和提取海量数据的特征。如果将深度学习网络看成一个信号处理系统,输入是一堆数据(一批图片或一叠文本),通过多层网络  (i=1,2..)的处理后无损地得到输出,形象表示为: I=>S1=>S2=>…=>Sn => O,如果I和O相等,说明该系统能够无损处理输入信号,这样可以不断迭代训练网络得到一个多层网络  每层网络从低到高来表述特征。所以深度学习的目的就是训练这个多层网络,得到正确的分类参数。深度学习网络的目前主流的模型主要有三种,深度信念网络,受限玻尔兹曼机和卷积神经网络。这里主要讲解机器学习课程上的卷积神经网络模型。

How CNN work

要了解CNN模型的原理,即需要理解从了解CNN网络的每一层结构、参数训练、测试分析误差等一个连续、整体的工作。
遇到的问题是一个多分类问题,假设含有c个分类结果,一共有N个样本点。
x_i^2
$$\sum_1^n\sum_1^c(y_i-O_i)^2$$
## ANN与CNN前向过程对比 ##
**ANN的误差函数与前向过程**

Typical Example

这里就机器学习方面的大师级人物LecunYann设计训练的CNN网络模型来说明问题,。
![CNN每一步的流程](http://img.blog.csdn.net/20150628142924742)
时间: 2024-08-10 16:56:08

深度学习系列之CNN核心内容的相关文章

【深度学习系列3】 Mariana CNN并行框架与图像识别

[深度学习系列3] Mariana CNN并行框架与图像识别 本文是腾讯深度学习系列文章的第三篇,聚焦于腾讯深度学习平台Mariana中深度卷积神经网络Deep CNNs的多GPU模型并行和数据并行框架. 将深度卷积神经网络(Convolutional Neural Networks, 简称CNNs)用于图像识别在研究领域吸引着越来越多目光.由于卷积神经网络结构非常适合模型并行的训练,因此以模型并行+数据并行的方式来加速Deep CNNs训练,可预期取得较大收获.Deep CNNs的单机多GPU

【深度学习系列4】深度学习及并行化实现概述

[深度学习系列4]深度学习及并行化实现概述 摘要: 深度学习可以完成需要高度抽象特征的人工智能任务,如语音识别.图像识别和检索.自然语言理解等.深层模型是包含多个隐藏层的人工神经网络,多层非线性结构使其具备强大的特征表达能力和对复杂任务建模能力.训练深层模型是长期以来的难题,近年来以层次化.逐层初始化为代表的一系列方法的提出给训练深层模型带来了希望,并在多个应用领域获得了成功.深层模型的并行化框架和训练加速方法是深度学习走向实用的重要基石,已有多个针对不同深度模型的开源实现,Google.Fac

使用腾讯云 GPU 学习深度学习系列之二:Tensorflow 简明原理【转】

转自:https://www.qcloud.com/community/article/598765?fromSource=gwzcw.117333.117333.117333 这是<使用腾讯云 GPU 学习深度学习>系列文章的第二篇,主要介绍了 Tensorflow 的原理,以及如何用最简单的Python代码进行功能实现.本系列文章主要介绍如何使用 腾讯云GPU服务器 进行深度学习运算,前面主要介绍原理部分,后期则以实践为主. 往期内容: 使用腾讯云 GPU 学习深度学习系列之一:传统机器学

【深度学习系列1】 深度学习在腾讯的平台化和应用实践(转载)

转载:原文链接 [深度学习系列1] 深度学习在腾讯的平台化和应用实践 引言:深度学习是近年机器学习领域的重大突破,有着广泛的应用前景.随着Google公开 Google Brain计划,业界对深度学习的热情高涨.腾讯在深度学习领域持续投入,获得了实际落地的产出.我们准备了四篇文章,阐述深度学习的原理和在腾讯的实 践,介绍腾讯深度学习平台Mariana,本文为第一篇. 深度学习(Deep Learning)是近年来机器学习领域的热点,在语音识别.图像识别等领域均取得了突破性进展.腾讯提供广泛的互联

【深度学习系列2】Mariana DNN多GPU数据并行框架

[深度学习系列2]Mariana DNN多GPU数据并行框架 本文是腾讯深度学习系列文章的第二篇,聚焦于腾讯深度学习平台Mariana中深度神经网络DNN的多GPU数据并行框架. 深度神经网络(Deep Neural Networks, 简称DNN)是近年来机器学习领域中的研究热点[1][2],产生了广泛的应用.DNN具有深层结构.数千万参数需要学习,导致训练非常耗时.GPU有强大的计算能力,适合于加速深度神经网络训练.DNN的单机多GPU数据并行框架是Mariana的一部分,Mariana技术

基于TensorFlow的深度学习系列教程 2——常量Constant

前面介绍过了Tensorflow的基本概念,比如如何使用tensorboard查看计算图.本篇则着重介绍和整理下Constant相关的内容. 基于TensorFlow的深度学习系列教程 1--Hello World! 常量的概念 在tensorflow中,数据分为几种类型: 常量Constant.变量Variable.占位符Placeholder.其中: 常量:用于存储一些不变的数值,在计算图创建的时候,调用初始化方法时,直接保存在计算图中 变量:模型训练的参数,比如全连接里面的W和bias 占

深度学习系列(2) | Global Average Pooling是否可以替代全连接层?

深度学习系列 | Global Average Pooling是否可以替代全连接层? Global Average Pooling(简称GAP,全局池化层)技术最早提出是在这篇论文(第3.2节)中,被认为是可以替代全连接层的一种新技术.在keras发布的经典模型中,可以看到不少模型甚至抛弃了全连接层,转而使用GAP,而在支持迁移学习方面,各个模型几乎都支持使用Global Average Pooling和Global Max Pooling(GMP). 然而,GAP是否真的可以取代全连接层?其背

【深度学习系列】关于PaddlePaddle的一些避“坑”技巧

最近除了工作以外,业余在参加Paddle的AI比赛,在用Paddle训练的过程中遇到了一些问题,并找到了解决方法,跟大家分享一下: PaddlePaddle的Anaconda的兼容问题 之前我是在服务器上安装的PaddlePaddle的gpu版本,我想把BROAD数据拷贝到服务器上面,结果发现我们服务器的22端口没开,不能用scp传上去,非常郁闷,只能在本地训练.本机mac的显卡是A卡,所以只能装cpu版本的,安装完以后,我发现运行一下程序的时候报错了: 1 import paddle.v2 a

【深度学习篇】---CNN和RNN结合与对比,实例讲解

一.前述 CNN和RNN几乎占据着深度学习的半壁江山,所以本文将着重讲解CNN+RNN的各种组合方式,以及CNN和RNN的对比. 二.CNN与RNN对比 1.CNN卷积神经网络与RNN递归神经网络直观图 2.相同点:    2.1. 传统神经网络的扩展.    2.2. 前向计算产生结果,反向计算模型更新.    2.3. 每层神经网络横向可以多个神经元共存,纵向可以有多层神经网络连接. 3.不同点    3.1. CNN空间扩展,神经元与特征卷积:RNN时间扩展,神经元与多个时间输出计算