【人工神经网络基础】为什么神经网络选择了“深度”?

  现在提到“神经网络”和“深度神经网络”,会觉得两者没有什么区别,神经网络还能不是“深度”(deep)的吗?我们常用的 Logistic regression 就可以认为是一个不含隐含层的输出层激活函数用 sigmoid(logistic) 的神经网络,显然 Logistic regression 就不是 deep 的。不过,现在神经网络基本都是 deep 的,即包含多个隐含层。Why?

1. universality approximation theorem(通用近似定理)

  任何连续的函数 $f: R^N \to R^M$ 都可以用只有一个隐含层的神经网络表示。(隐含层神经元足够多)

图 1:仅含一个隐含层的神经网络示意图

  一个神经网络可以看成是一个从输入到输出的映射,那么既然仅含一个隐含层的神经网络可以表示任何连续的函数,为什么还要多个隐含层的神经网络?

2. why deep?

  "Yes, shallow network can represent any function. 

  However, using deep structure is more effective."

  我们可以把仅含一个隐含层的神经网络结构叫做 shallow 的,把包含多个隐藏层的神经网络结构叫做 deep 的。

  李宏毅教授在他的机器学习视频中,提出一种叫做 Modularization(模块化)的解释。

图 2:Modularization

  在多层神经网络中,第一个隐含层学习到的特征是最简单的,之后每个隐含层使用前一层得到的特征进行学习,所学到的特征变得越来越复杂。 如图 3 和 4 所示。

图 3:不同level的特征-1

  low level 中每一个特征在 high level 或多或少被使用,这样对于每一个 high level 特征,只需要训练一套 low level 特征。是的,low level 特征被共用了,相当于将提取 low level 特征单独成立了一个模块,供高层调用。对于每一个 high level 特征,不需要每次都将 low level 特征训练一遍。这就是 deep 的好处。

图 4:不同level特征-2

  在比较深度神经网络和仅含一个隐含层神经网络的效果时,需要控制两个网络的 trainable 参数数量相同,不然没有可比性。李宏毅教授在他的机器学习视频中举例,相同参数数量下,deep 表现更好;这也就意味着,达到相同的效果,deep 的参数会更少。

  不否认,理论上仅含一个隐含层的神经网络完全可以实现深度神经网络的效果,但是训练难度要大于深度神经网络。

  实际上,在深度神经网络中,一个隐含层包含的神经元也不少了,比如 AlexNet 和 VGG-16 最后全连接层的 4096 个神经元。在 deep 的同时,fat 也不是说不需要,只是没有像只用一层隐含层那么极端,每个隐含层神经元的个数也是我们需要调节的超参数之一。

References

李宏毅机器学习 

Universal approximation theorem - Wikipedia

原文地址:https://www.cnblogs.com/wuliytTaotao/p/9590633.html

时间: 2024-08-24 23:45:30

【人工神经网络基础】为什么神经网络选择了“深度”?的相关文章

人工神经网络基础概念、原理知识(补)

一提到人工神经网络应当想到三个基础的知识点:一是神经元模型:二是神经网络结构:三是学习算法.神经网络的种类多种多样,但其分类依据逃不出上面上个基础知识点.所以在学习中如果能够仅仅把握住以上三个线索,就能触类旁通,拥有一个非常好的视角看待神经网络.今天就对这三个基础知识点进行总结,达到指导神经网络学习以及深化对神经网络的理解的目的. 一.神经元模型 人工神经网络是在现代神经生物学研究基础上提出的模拟生物过程 ,反映人脑某些特性的一种计算结构.它不是人脑神经系统的真实描写,而只是它的某种抽象.简化和

2. 深度学习与神经网络基础

1. 人工智能.机器学习和深度学习的概念及关系 人工智能(Artificial Intelligence, AI)--为机器赋予人的智能,即计算机能够像人类一样完成更智能的工作. 机器学习是实现人工智能的一种手段.何为"学习"?"如果一个程序可以在任务T上,随着经验E的增加,效果P也可以随之增加,则称这个程序可以从经验中学习." 对传统机器学习而言,通常需要进行特征提取,而这并不简单.深度学习解决的核心问题之一就是自动地将简单的特征组合成更复杂的特征,并使用这些组合

DataWhale 动手学深度学习PyTorch版-task3+4+5:文本预处理;语言模型;循环神经网络基础

课程引用自伯禹平台:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV <动手学深度学习>官方网址:http://zh.gluon.ai/ ——面向中文读者的能运行.可讨论的深度学习教科书. 第二次打卡: Task03: 过拟合.欠拟合及其解决方案:梯度消失.梯度爆炸:循环神经网络进阶 Task04:机器翻译及相关技术:注意力机制与Seq2seq模型:Transformer Task05:卷积神经网络基础:leNet:卷积神经网络进阶 有

第10章神经网络基础

第10章神经网络基础 在本章中,我们将深入研究神经网络(neural networks)的基础.我们将首先讨论人工神经网络,以及它们是如何从我们自己身体中的真实生物神经网络中得到启发的.之后,我们将回顾经典的感知器算法(Perceptron algorithm)以及它在神经网络历史中的作用. 构建了感知器,我们将学习BP算法(backpropagation algorithm),这是现代神经网络的基石.我们将使用python从头实现BP算法,确保我们理解了这个重要的算法. 当然,现代神经网络库如

数据挖掘R 神经网络基础

数据挖掘 第二章 神经网络基础 §2.1 生物神经元模型 §2.2 人工神经元模型 §2.3 网络拓扑结构类型 §2.4 人工神经网络模型 §2.5  神经网络的学习 §2.1 生物神经元模型 神经元是脑组织的基本单元,是神经系统结构与功能的单元.据统计大脑大约包含1.4*1011个神经元,每个神经元于大约103*~105个其他的神经元相连接,构成一个极为庞大而复杂的网络,即生物神经元网络.生物神经元网络中各神经元之间连接的强弱,按照外部的刺激信号做自适应变化,而每个神经元又随着所接受的的多个激

神经网络1: 人工神经网络 VS 生物神经网络

https://www.youtube.com/watch?v=lAaCeiqE6CE&list=PLXO45tsB95cJ0U2DKySDmhRqQI9IaGxck 人工神经网络 VS 生物神经网络  两者是不一样的 生物神经网络是大自然经过千亿年进化而成,目前最先进人工智能神经网络无法达到 人工神经网络 :通过正反馈和负反馈创建或删除神经元 生物神经网络  :通过刺激产生新的链接,信号通过新的链接传递产生反馈, 目前最先进人工智能神经网络无法模拟生物神经网络 卷积神经网络 CNN (深度学习

动手学pytorch-卷积神经网络基础

卷积神经网络基础 1.二维卷积层 2.填充和步幅 3.多输入通道和多输出通道 4.卷积层与全连接层的对比 5.池化 1.二维卷积层 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter).卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素.图1展示了一个互相关运算的例子,阴影部分分

计算机视觉概要和卷积神经网络基础概念

本文主要介绍了CV概要和CNN基础概念. 1 计算机视觉(computer vision)简介 计算机视觉旨在识别和理解图像/视频中的内容.其诞生于1966年MIT AI Group的"the summer vision project".当时,人工智能其他分支的研究已经有一些初步成果.由于人类可以很轻易地进行视觉认知,MIT的教授们希望通过一个暑期项目解决计算机视觉问题.当然,计算机视觉没有被一个暑期内解决,但计算机视觉经过50余年发展已成为一个十分活跃的研究领域.如今,互联网上超过

RBF神经网络和BP神经网络的关系

作者:李瞬生链接:https://www.zhihu.com/question/44328472/answer/128973724来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. BP Neural Network - 使用 Automatic Differentiation (Backpropagation) 进行导数计算的层级图模型 (layer-by-layer graphical model) 只要模型是一层一层的,并使用AD/BP算法,就能称作 BP Ne

神经网络学习之----神经网络概述

人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型.这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的. 兴起的事件:AlphaGo大战李世石 (AlphaGo胜) 神经网络基础:单层感知器,线性神经网络, BP神经网络, Hopfield神经网络等神经网络进阶:玻尔兹曼机,受