感知神经网络模型与学习算法

本文转载自CSDN,原文链接

单层感知器

该概念的是在1957年美国学者Rosenblatt提出的。

感知器是监督学习的神经网络模型。单层感知器是包含一个突触权值可调的神经元的感知器模型。是神经网络用来进行模式识别的一种最简单的模型,属于前向神经网络类型,但是仅由一个神经元组成的单层感知器只能区分线性可分的模式。

一个感知器模型,包括一个线性的累加器和一个二值阈值元件,同时还有一个外部偏差 \(b\) ,也称作阈值,其值可以为正,也可以为负。线性累加器的输出与偏差 \(b\) 的和作为二值阈值元件的输入,这样当二值阈值原件的输入是正数时,神经元就产生输出+1,反之,若输入是负数,则产生输出-1

在 \(m\) 维空间,单层感知器进行模式识别的判决超平面由下面的式子决定:
\[
\sum_{i=1}^{m} \omega_{i} x_{i}+b=0
\]
决定判别边界超平面的形状的主要参数是权值向量 \(\vec{\omega}\) 其训练过程就是找到适合的学习算法可以训练出满意的权值向量。

在20世纪60年代初期,Rosenblatt等就给出了严格的数学证明对线性可分的样本,算法一定是收敛的,就是说 \(\vec{\omega}\) 一定存在,否则,判别边界会产生振荡,导致 \(\vec{\omega}\) 不能收敛。

单层感知器的学习算法

该学习算法是基于迭代思想,通常是采用误差校正学习规则的学习算法。将偏差b作为神经元突触全职向量的第一个分量加到权值向量中去,那么对应的输入向量也应增加一项,可设输入向量的第一个分量固定为+1,这样输入向量和权值向量可分别写成如下的形式:
\[
X(n)=\left(+1, x_{1}(n), x_{2}(n), \cdots, x_{m}(n)\right)^{T}
\]

\[
W(n)=\left(b(n), \omega_{1}(n), \omega_{2}(n), \cdots, \omega_{m}(n)\right)
\]
其中 \(n\) 为迭代次数。\(b(n)\) 可用 \(\omega_{0}(n)\) 来表示,于是,二值阈值元件的输入可重新写为:
\[
v=\sum_{i=0}^{m} \omega_{i}(n) x_{i}(n)=W^{T}(n) X(n)
\]

具体学习算法如下:

  1. 设置变量和参量
    \(X(n)=\left(1, x_{1}(n), x_{2}(n), \cdots, x_{m}(n)\right)\) 即训练样本。
    \(W(n)=\left(b(n), \omega_{1}(n), \omega_{2}(n), \cdots, \omega_{m}(n)\right)\) 为权值向量。
    \(b(n)\) 为偏差 \(f(? )\) 为激活函数, \(y(n)\) 为网络实际输出,\(d(n)\) 为期望输出,\(\eta\) 为学习速率,\(n\) 为迭代次数,\(e\) 为实际输出与期望输出的误差。
  2. 初始化,给权值向量 \(\omega_{0}(n)\) 的各个分量赋一个较小的随机非零值, 设置 \(n=0\)
  3. 输入一组样本 \(X(n)=\left(1, x_{1}(n), x_{2}(n), \cdots, x_{m}(n)\right)\) 并给出它的期望输出 \(d(n)\)
  4. 计算实际输出 \(y(n)=f\left(\sum_{i=0}^{m} \omega_{i}(n) x_{i}(n)\right)\)
  5. 求出期望输出和实际输出的误差,\(e=d(n)-y(n)\),根据误差判断目前输出是是否满足条件,若满足条件则算法结束,否则将n值加1,并用下式调整权值
    \[
    \omega(n+1)=\omega(n)+\eta[d(n)-y(n)] X(n)
    \]

在单层感知器学习算法中,最关键的因素是引入了一个量化的期望输出,这样就可以采用误差校正学习规则对权值向量逐步进行修正,最终达到问题所需的精度。

对于线性可分的两类模式,可以证明单层感知器的学习算法是收敛的,即通过调整神经网络各个链接权值可以得到合适的判别边界,正确区分两类模式;而对于线性不可分的两类模式,无法用一条直线区分两类模式,此时,单层感知器的学习算法不是收敛的,即单层感知器无法正确区分线性不可分的两类模式。

原文地址:https://www.cnblogs.com/gshang/p/10960959.html

时间: 2024-11-06 07:25:46

感知神经网络模型与学习算法的相关文章

BP神经网络模型与学习算法

一,什么是BP "BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一.BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程.它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小.BP神经网络模型拓扑结构包括输入层(input).隐层(hide layer)和输出层(output

常用神经网络模型及其应用评述(转载)

神经网络是由大量处理单元(神经元)互相连接而成的网络,实际上ANN并不完全模拟了生物的神经系统,而是一种抽象.简化和模拟.神经网络的信息处理通过神经元的相互作用来实现,知识与信息的存贮表现在网络元件互连的分布式结构与联系,神经网络的学习和识别各神经元连接权系数的动态演化过程.实践中常用的基本神经网络模型有:感知器神经网络.线性神经网络.BP神经网络.径向基神经网络.自组织神经网络.反馈网络等.1.感知器神经网络: 是一个具有单层计算神经元的神经网络,网络的传递函数是线性阈值单元.原始的感知器神经

RBF神经网络学习算法及与多层感知器的比较

对于RBF神经网络的原理已经在我的博文<机器学习之径向基神经网络(RBF NN)>中介绍过,这里不再重复.今天要介绍的是常用的RBF神经网络学习算法及RBF神经网络与多层感知器网络的对比. 一.RBF神经网络学习算法 广义的RBF神经网络结构如下图所示: N-M-L结构对应着N维输入,M个数据中心点centers,L个输出. RBF 网络常用学习算法 RBF 网络的设计包括结构设计和参数设计.结构设计主要解决如何确定网络隐节点数的问题.参数设计一般需考虑包括3种参数:各基函数的数据中心和扩展常

Caffe学习系列——工具篇:神经网络模型结构可视化

Caffe学习系列--工具篇:神经网络模型结构可视化 在Caffe中,目前有两种可视化prototxt格式网络结构的方法: 使用Netscope在线可视化 使用Caffe提供的draw_net.py 本文将就这两种方法加以介绍 1. Netscope:支持Caffe的神经网络结构在线可视化工具 Netscope是个支持prototxt格式描述的神经网络结构的在线可视工具,网址:  http://ethereon.github.io/netscope/quickstart.html  它可以用来可

建模算法(六)&mdash;&mdash;神经网络模型

(一)神经网络简介 主要是利用计算机的计算能力,对大量的样本进行拟合,最终得到一个我们想要的结果,结果通过0-1编码,这样就OK啦 (二)人工神经网络模型 一.基本单元的三个基本要素 1.一组连接(输入),上面含有连接强度(权值). 2.一个求和单元 3.一个非线性激活函数,起到将非线性映射作用,并将神经元输出幅度限制在一定范围内(在(0,1)或者(-1,1)) 4.还有一个阀值(偏置) 归结如下: PS:也可以选择将偏置(阀值)加入到线性求和里面 5.激活函数的选择 二.网络结构及工作方式 1

基于tensorflow的MNIST手写字识别(一)--白话卷积神经网络模型

一.卷积神经网络模型知识要点卷积卷积 1.卷积 2.池化 3.全连接 4.梯度下降法 5.softmax 本次就是用最简单的方法给大家讲解这些概念,因为具体的各种论文网上都有,连推导都有,所以本文主要就是给大家做个铺垫,如有错误请指正,相互学习共同进步. 二.卷积神经网络讲解 2.1卷积神经网络作用 大家应该知道大名鼎鼎的傅里叶变换,即一个波形,可以有不同的正弦函数和余弦函数进行叠加完成,卷积神经网络也是一样,可以认为一张图片是由各种不同特征的图片叠加而成的,所以它的作用是用来提取特定的特征,举

自然语言处理的神经网络模型初探

欢迎大家前往云+社区,获取更多腾讯海量技术实践干货哦~ 深度学习(Deep Learning)技术对自然语言处理(NLP,Natural Language Processing)领域有着巨大的影响. 但作为初学者,您要从何处开始学习呢? 深度学习和自然语言处理都是较为广阔的领域,但每个领域重点研究些什么?在自然语言处理领域中,又是哪一方面最受深度学习的影响呢? 通过阅读本文,您会对自然语言处理中的深度学习有一个初步的认识. 阅读这篇文章后,您可以知道: 对自然语言处理领域影响最为深远的神经网络结

从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一)

本文属于图神经网络的系列文章,文章目录如下: 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一) 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (二) 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (三) 笔者最近看了一些图与图卷积神经网络的论文,深感其强大,但一些Survey或教程默认了读者对图神经网络背景知识的了解,对未学过信号处理的读者不太友好.同时,很多教程只讲是什么

【数据挖掘技术】神经网络模型

神经网络模型 一.神经网络模型 对网络模型的研究始于20世纪40年代,作为一门交叉学科,它是人类基于对其大脑神经认识的基础上,人工构造实现某种功能的网络模型.经过将近70年的发展,神经网络模型已成为机器学习的典型代表,它不依照任何概率分布,而是模仿人脑功能进行抽象运算.神经网络(Neutral Network)是通过数学算法来模仿人脑思维的,它是数据挖掘中机器学习的典型代表.神经网络是人脑的抽象计算模型,我们知道人脑中有数以百亿个神经元(人脑处理信息的微单元),这些神经元之间相互连接,是的人的大