单层感知器

单层感知器是最基本的神经网络,采用hardlim或hardlim作为激活函数,下面是其拓扑结构:

该感知器有s个神经元,m个输入,n个输出,先给出一些定义:

为了方便表示,将样本向量的第一个分量设为1,p(n)=[1,p1(n),p2(n),...,pm(n)),与之对应地权值矩阵的第一列设为每个神经元对应的阈值W(n)=[b1(n),w11(n),w12(n),...w1m(n);b2(n),w21(n),w22(n),...w2m(n);...;bs(n),ws1(n),ws2(n),...wsm(n)],di(n)表示第i个神经元的期望输出,yi(n)表示第i个神经元的实际输出 ,其中i= 1 to s;n表示迭代次数,η表述学习率

开始讲解感知器的学习算法:

1 n=0,初始化权值矩阵W

2 输入样本p,计算实际输出yi(n)=sgn(p(n)W(n)T)

3 更新权值矩阵:

W(n+1)=W(n)+η[d(n)-y(n)]p(n) d(n),y(n)为向量

4 判定是否满足条件,满足条件,迭代结束,若不满足,n+1后继续迭代2,3步

判断条件一般有三个:

(1) 误差小于一个较小的值ζ

|di(n)-yi(n)|<ζ

(2) 权值变化较小

|W(n+1)-W(n)|<ζ

(3) 达到最大迭代步数

感知器的局限性:

1 由于激活函数是hardlim或hardlims,其输出只能是1,0,-1

2 感知器算法只对线性可分的样本数据收敛,只适用于线性可分的数据

3 当数据中出现奇异样本的时候,网络训练时间长

时间: 2024-10-31 04:19:39

单层感知器的相关文章

单层感知器--matlab神经网络

单层感知器属于单层前向网络,即除输入层和输出层之外,只拥有一层神经元节点. 特点:输入数据从输入层经过隐藏层向输出层逐层传播,相邻两层的神经元之间相互连接,同一层的神经元之间没有连接. 感知器(perception)是由美国学者F.Rosenblatt提出的.与最早提出的MP模型不同,神经元突触权值可变,因此可以通过一定规则进行学习.可以快速.可靠地解决线性可分的问题. 单层感知器由一个线性组合器和一个二值阈值元件组成. 输入是一个N维向量 x=[x1,x2,...,xn],其中每一个分量对应一

机器学习 —— 基础整理(六):线性判别函数——感知器、松弛算法、Ho-Kashyap算法

本文简单整理了以下内容: (一)线性判别函数与广义线性判别函数 (二)感知器 (三)松弛算法 (四)Ho-Kashyap算法 (一)线性判别函数与广义线性判别函数 一.线性判别函数 这篇总结继续关注分类问题.假设判别函数(Discriminant function)的参数形式已知,用训练的方法直接根据样本估计判别函数的参数.线性判别函数的形式为: $$g(\textbf x)=\textbf w^{\top}\textbf x+w_0$$ $\textbf x\in \mathbb R^d$ 是

基于感知器模型的线性神经网络

摘要:随着计算智的提出,人工神经网络也随之发展.目前业界考虑到把神经网络(NN)归类于人工智能(AI)可能不大合适,而归类于计算智能(CI)更能说明问题实质.进化计算.人工生命和模糊逻辑系统的某些课题,也都归类于计算智能.尽管计算智能与人工智能的界限并非十分明显,然而讨论它们的区别和关系是有益的,逻辑性的思维是指根据逻辑规则进行推理的过程:它先将信息化成概念,并用符号表示,然后,根据符号运算按串行模式进行逻辑推理:这一过程可以写成串行的指令,让计算机执行.然而,直观性的思维是将分布式存储的信息综

计算机潜意识- 单层神经网络(感知器)

1.引子 1958年,计算科学家Rosenblatt提出了由两层神经元组成的神经网络.他给它起了一个名字--"感知器"(Perceptron)(有的文献翻译成"感知机",下文统一用"感知器"来指代). 感知器是当时首个可以学习的人工神经网络.Rosenblatt现场演示了其学习识别简单图像的过程,在当时的社会引起了轰动. 人们认为已经发现了智能的奥秘,许多学者和科研机构纷纷投入到神经网络的研究中.美国军方大力资助了神经网络的研究,并认为神经网络比

多层感知器学习

1.多层感知器简介 多层感知器(MLP)可以看做一个逻辑回归,不过它的输入要先进行一个非线性变换,这样数据就被映射到线性可分的空间了,这个空间我们称为隐藏层.通常单层隐藏层就可以作为一个感知器了,其结构如下图所示: 这里输入层首先通过权重矩阵和偏置得到总输出值并且通过tanh函数作一个非线性变换就可以得到hidden layer,然后从hidden layer到output layer可以使用之前的逻辑回归进行操作. 这里我们同样使用SGD算法来对参数进行更新,参数共有四个,分别是input-h

Stanford大学机器学习公开课(三):局部加权回归、最小二乘的概率解释、逻辑回归、感知器算法

(一)局部加权回归 通常情况下的线性拟合不能很好地预测所有的值,因为它容易导致欠拟合(under fitting).如下图的左图.而多项式拟合能拟合所有数据,但是在预测新样本的时候又会变得很糟糕,因为它导致数据的 过拟合(overfitting),不符合数据真实的模型.如下图的右图. 下面来讲一种非参数学习方法——局部加权回归(LWR).为什么局部加权回归叫做非参数学习方法呢?首先,参数学习方法是这样一种方法:在训练完成所有数据后得到一系列训练参数,然后根据训练参数来预测新样本的值,这时不再依赖

Rosenblatt感知器详解

在学习了机器学习十大算法之后,我决定将目光投向神经网络,从而攀登深度学习的高峰.这条险路的第一个拦路虎就是Rosenblatt感知器.为什么这么说呢?不仅是因为它开拓性的贡献——感知器是第一个从算法上完整描述的神经网络,而Rosenblatt感知器是感知器作为监督学习的第一个模型.还因为学习Rosenblatt感知器能够帮助了解神经元的结构.信息流的传递以及知识的学习和存储,从而打开看待问题的全新视角——模拟人脑解决问题.当然,仅仅如此的话,它只能说是可口的羔羊,谈不上拦路的猛虎.自然是在理解这

神经网络与人工智能No1-Rosenblatt感知器

     直入正题,首先要确定的是Rosenblatt感知器的应用范围是线性可分模型(通俗的讲就是在N维空间中存在一个超平面可以将整个模型一分为二)其作用就是分类,由一个具有可调突触权值和偏置的神经元组成. 模式:事务的标准样式. 感知器:感知器模型(神经元)+感知器算法(收敛). 建立在一个神经元上的感知器只能完成两类的模式分类,扩展多个神经元可完成多类的模式分类.

感知器与梯度下降

声明:本文由Ronny发表在http://www.cnblogs.com/ronny/p/ann_01.html ,如需转载请注明出处 一.前言 1,什么是神经网络? 人工神经网络(ANN)又称神经网络(NN),它是一种受生物学启发而产生的一种模拟人脑的学习系统.它通过相互连结的结点构成一个复杂的网络结构,每一个结点都具有多个输入和一个输出,并且该结点与其他结点以一个权重因子相连在一起.通俗来说,神经网络是一种学习器,给它一组输入,它会得到一组输出,神经网络里的结点相互连结决定了输入的数据在里面