感知器实例

net1=newp([-1 1;-1 1],1);
net11=newp([-1 1;-1 1],1);
p1=[1 -1 1 -1;1 -1 -1 1];
p2=[-1 1 1 -1;-1 1 -1 1];
net1.inputweights{1}.initFcn=‘rands‘;
net11.inputweights{1}.initFcn=‘rands‘;
net1.biases{1}.initFcn=‘rands‘;
net11.biases{1}.initFcn=‘rands‘;
index=0;
while index==0
    net1=init(net1);
    iw11=net1.IW{1}
    b11=net1.b{1}
    [t11,pr1]=sim(net1,p1);

    net11=init(net11);
    iw12=net11.IW{1}
    b12=net11.b{1}
    [t12,pr2]=sim(net11,p2);

    net2=newp([0 1;0 1],1);
    net2.trainParam.epochs=10;
    net2.trainParam.show=1;
    p21=ones(size(t11));
    p21=p21.*t11;
    p22=ones(size(t12));
    p22=p22.*t12;
    p3=[p21;p22];
    t2=[1 1 0 0];
    [net2,tr2]=train(net2,p3,t2);
    epoch2=tr2.epoch;
    perf2=tr2.perf;
    iw2=net2.IW{1};
    b2=net2.b{1};
    t3=sim(net2,p3);
    save Percept02 net1 net2
    if t3==t2
        index=1;
    end
end
时间: 2024-08-04 02:54:07

感知器实例的相关文章

多层感知器学习

1.多层感知器简介 多层感知器(MLP)可以看做一个逻辑回归,不过它的输入要先进行一个非线性变换,这样数据就被映射到线性可分的空间了,这个空间我们称为隐藏层.通常单层隐藏层就可以作为一个感知器了,其结构如下图所示: 这里输入层首先通过权重矩阵和偏置得到总输出值并且通过tanh函数作一个非线性变换就可以得到hidden layer,然后从hidden layer到output layer可以使用之前的逻辑回归进行操作. 这里我们同样使用SGD算法来对参数进行更新,参数共有四个,分别是input-h

感知器与梯度下降

声明:本文由Ronny发表在http://www.cnblogs.com/ronny/p/ann_01.html ,如需转载请注明出处 一.前言 1,什么是神经网络? 人工神经网络(ANN)又称神经网络(NN),它是一种受生物学启发而产生的一种模拟人脑的学习系统.它通过相互连结的结点构成一个复杂的网络结构,每一个结点都具有多个输入和一个输出,并且该结点与其他结点以一个权重因子相连在一起.通俗来说,神经网络是一种学习器,给它一组输入,它会得到一组输出,神经网络里的结点相互连结决定了输入的数据在里面

统计学习方法(感知器)

感知机 假设:输入空间是 x?Rn 输出空间是 y={+1,-1} 由如下2.1函数进行分类称之为感知器 其中,w为权值向量,b为偏置 sign(.)是符号函数,记为如下所示: 感知机是一种线性分类模型,属于判别模型. 感知机模型的假设空间是定义在特征空间中的 所有线性分类模型(linear classification model)或 线性分类器(linear classifier) 即函数集合{f|f(x) = wx +b} 求感知机模型2.1,即求得模型参数w,b. 感知机预测,通过学习得

[转]感知器算法

原文地址:http://blog.csdn.net/u014403897/article/details/45024609 感知器算法 2015-04-13 13:26 521人阅读 评论(0) 收藏 举报  分类: 机器学习(10)  版权声明:本文为博主原创文章,未经博主允许不得转载. 引例:判断一个人是否长得帅??? 有如下feature: 身高,体重,三围,颜值,学习成绩(帅的人学习成绩好的少...为何要这么一个扯淡的特征下面会讲解)等等. 假设有一个标准:每一个评分项给予多少分的权重,

感知器PLA算法

看了台湾大学林轩田的机器学习第二章感知器算法,做一些笔记备忘.理论部分以后再补,直接上代码: %感知器算法实例 % creat the value of w x0 = ones(20, 1); %creat datasets,(x_1,x_2) x1 = rand(20, 2)*10; x = [x0, x1]; test = rand(20, 1); y = ones(20, 1); for i=1:20 if x1(i, 1)>6 y(i) = -1; end end j=1; for i=

ML(2)——感知器

感知器(PLA--Perceptron Learning Algorithm),也叫感知机,处理的是机器学习中的分类问题,通过学习得到感知器模型来对新实例进行预测,因此属于判别模型.感知器于1957年提出,是神经网络的基础. 感知器模型 以最简单的二分类为例,假设医院需要根据肿瘤患者的病患特x1肿瘤大小,x2肿瘤颜色,判断肿瘤是良性(+1)还是恶性(-1),那么所有数据集都可以在一个二维空间表示:如果能找到一条直线将所有1和-1分开,这个数据集就是线性可分的,否则就是线性不可分.将两个特征向量分

神经网络入门回顾(感知器、多层感知器)

神经网络属于“连接主义”,和统计机器学习的理论基础区别还是很不一样. 以我自己的理解,统计机器学习的理论基于统计学,理论厚度足够强,让人有足够的安全感:而神经网络的理论更侧重于代数,表征能力特别强,不过可解释性欠佳. 这两个属于机器学习的两个不同的流派,偶尔也有相互等价的算法. 本文回顾神经网络最简单的构件:感知器.多层感知器. 感知器 感知器是二类分类的线性分类模型,将实例划分为正负两类的分离超平面(separating hyperplane),属于判别模型. 感知器基于线性阈值单元(Line

python机器学习——感知器

最近在看机器学习相关的书籍,顺便把每天阅读的部分写出来和大家分享,共同学习探讨一起进步!作为机器学习的第一篇博客,我准备从感知器开始,之后会慢慢更新其他内容. 在实现感知器算法前,我们需要先了解一下神经元(neuron)的工作原理,神经元有很多树突和一个轴突,树突(Dendrites)可以从其他神经元接收信息并将其带到细胞体(Cell nucleus),轴突(Axon)可以从细胞体发送信息到其他神经元.树突传递过来的信息在细胞体中进行计算处理后,如果结果超过某个阈值,轴突会传递信号到其他的神经元

机器学习 —— 基础整理(六):线性判别函数——感知器、松弛算法、Ho-Kashyap算法

本文简单整理了以下内容: (一)线性判别函数与广义线性判别函数 (二)感知器 (三)松弛算法 (四)Ho-Kashyap算法 (一)线性判别函数与广义线性判别函数 一.线性判别函数 这篇总结继续关注分类问题.假设判别函数(Discriminant function)的参数形式已知,用训练的方法直接根据样本估计判别函数的参数.线性判别函数的形式为: $$g(\textbf x)=\textbf w^{\top}\textbf x+w_0$$ $\textbf x\in \mathbb R^d$ 是