[matlab]bp神经网络工具箱学习笔记

基本就三个函数:

newff():创建一个bp神经网络

train():训练函数

sim():仿真函数

同时具有可视化界面,但目前不知道可视化界面如何进行仿真,且设置不太全

工具箱:Neural net fitting

textread使用方法:http://blog.sina.com.cn/s/blog_9e67285801010bju.html

ex1.

clear;
clc;
%注意P矩阵,matlab默认将一列作为一个输入
P=[0.5152	0.8173	1.0000 ;
     0.8173	1.0000	0.7308;
     1.0000	0.7308	0.1390;
     0.7308	0.1390	0.1087;
     0.1390	0.1087	0.3520;
     0.1087	0.3520	0.0000;]‘;
%以第四个月的销售量归一化处理后作为目标向量
T=[0.7308 0.1390 0.1087 0.3520 0.0000 0.3761];
%创建一个BP神经网络,每一个输入向量的取值范围为[0 ,1],隐含层有5个神经元,输出层有一个神经元,隐含层的激活函数为tansig,输出层的激活函数为%logsig,训练函数为梯度下降函数,即标准学习算法
net=newff([0 1;0 1;0 1],[5,1],{‘tansig‘,‘logsig‘},‘traingd‘);%minmax(P)
net.trainParam.epochs=1500;%最大迭代次数.
net.trainParam.goal=0.01; %训练的误差精度
%设置学习速率为0.1
LP.lr=0.1;
net=train(net,P,T);
a=[0.1;0.2;0.3];
a=premnmx(a);
b=sim(net,a);
b=postmnmx(b,0,1);
b

ex2.

P=[3.2 3.2 3 3.2 3.2 3.4 3.2 3 3.2 3.2 3.2 3.9 3.1 3.2;
9.6 10.3 9 10.3 10.1 10 9.6 9 9.6 9.2 9.5 9 9.5 9.7;
3.45 3.75 3.5 3.65 3.5 3.4 3.55 3.5 3.55 3.5 3.4 3.1 3.6 3.45;
2.15 2.2 2.2 2.2 2 2.15 2.14 2.1 2.1 2.1 2.15 2 2.1 2.15;
140 120 140 150 80 130 130 100 130 140 115 80 90 130;
2.8 3.4 3.5 2.8 1.5 3.2 3.5 1.8 3.5 2.5 2.8 2.2 2.7 4.6;
11 10.9 11.4 10.8 11.3 11.5 11.8 11.3 11.8 11 11.9 13 11.1 10.85;
50 70 50 80 50 60 65 40 65 50 50 50 70 70];
T=[2.24 2.33 2.24 2.32 2.2 2.27 2.2 2.26 2.2 2.24 2.24 2.2 2.2 2.35];
[p1,minp,maxp,t1,mint,maxt]=premnmx(P,T);

%创建网络
net=newff(minmax(P),[8,6,1],{‘tansig‘,‘tansig‘,‘purelin‘},‘trainlm‘);%此时的minmax函数是正确的,minmax是在每一行取最大最小值,而这也是有意义的
%设置训练次数
net.trainParam.epochs = 5000;
%设置收敛误差
net.trainParam.goal=0.0000001;
%训练网络
[net,tr]=train(net,p1,t1);
%TRAINLM, Epoch 0/5000, MSE 0.533351/1e-007, Gradient 18.9079/1e-010
%TRAINLM, Epoch 24/5000, MSE 8.81926e-008/1e-007, Gradient 0.0022922/1e-010
%TRAINLM, Performance goal met.

%输入数据
a=[3.0;9.3;3.3;2.05;100;2.8;11.2;50];
%将输入数据归一化
a=premnmx(a);
%放入到网络输出数据
b=sim(net,a);
%将得到的数据反归一化得到预测数据
c=postmnmx(b,mint,maxt);
c

  

ex3.

close all;
clear;
clc;
%读取训练数据
[f1,f2,f3,f4,class] = textread(‘Train.txt‘,‘%f%f%f%f%d‘,75,‘delimiter‘,‘,‘);
%特征值归一化
[input,minI,maxI] = premnmx( [f1,f2,f3,f4 ]‘)  ;
%构造输出矩阵
s=length(class) ;
output=zeros(s,3) ;
for i=1:s
   output(i,class(i)) = 1 ;
end
%output=class‘;
%创建神经网络
net = newff( minmax(input),[10 3],{ ‘logsig‘,‘purelin‘ },‘traingdx‘ );
%设置训练参数
net.trainparam.show=50 ;
net.trainparam.epochs=500 ;
net.trainparam.goal=0.01 ;
net.trainParam.lr=0.01 ;
%开始训练
net=train(net,input,output‘) ;

%读取测试数据
[t1 t2 t3 t4 c]=textread(‘Test.txt‘,‘%f%f%f%f%d‘,75,‘delimiter‘,‘,‘);
%测试数据归一化
testInput=tramnmx([t1,t2,t3,t4]‘,minI,maxI);
%仿真
Y = sim(net,testInput)
%统计识别正确率
[s1,s2]=size( Y ) ;
hitNum=0 ;
for i=1:s2
    [m,Index]=max( Y(:,i));
    if(Index==c(i))
        hitNum=hitNum+1;
    end
end
sprintf(‘识别率是 %3.3f%%‘,100*hitNum/s2)

  

拟合曲线:

  

时间: 2024-08-07 04:32:05

[matlab]bp神经网络工具箱学习笔记的相关文章

Matlab的BP神经网络工具箱及其在函数逼近中的应用

1.神经网络工具箱概述 Matlab神经网络工具箱几乎包含了现有神经网络的最新成果,神经网络工具箱模型包括感知器.线性网络.BP网络.径向基函数网络.竞争型神经网络.自组织网络和学习向量量化网络.反馈网络.本文只介绍BP神经网络工具箱. 2.BP神经网络工具箱介绍 BP神经网络学习规则是不断地调整神经网络的权值和偏值,使得网络输出的均方误差和最小.下面是关于一些BP神经网络的创建和训练的名称: (1)newff:创建一前馈BP网络(隐含层只有一层) (2)newcf:创建一多层前馈BP网络(隐含

卷积神经网络(CNN)学习笔记1:基础入门

卷积神经网络(CNN)学习笔记1:基础入门 Posted on 2016-03-01   |   In Machine Learning  |   9 Comments  |   14935  Views 概述 卷积神经网络(Convolutional Neural Network, CNN)是深度学习技术中极具代表的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于CNN的.CNN相较于传统的图像处理算法的优点之一在于,避免了对图像复杂的

paper 75:使用MATLAB的神经网络工具箱创建神经网络

% 生成训练样本集 clear all; clc; P=[110 0.807 240 0.2 15 1 18 2 1.5; 110 2.865 240 0.1 15 2 12 1 2; 110 2.59 240 0.1 12 4 24 1 1.5; 220 0.6 240 0.3 12 3 18 2 1; 220 3 240 0.3 25 3 21 1 1.5; 110 1.562 240 0.3 15 3 18 1 1.5; 110 0.547 240 0.3 15 1 9 2 1.5]; 0

BP神经网络算法学习

BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是眼下应用最广泛的神经网络模型之中的一个.BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描写叙述这样的映射关系的数学方程. 一个神经网络的结构示意图例如以下所看到的. BP神经网络模型拓扑结构包括输入层(input).隐层(hide layer)和输出层(output layer).输入层神经元的个数由样本属性的维度决定

深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-01-CNN基础知识点

第一天<CNN基础知识点>From:Convolutional Neural Networks (LeNet) 神经认知机. CNN的灵感来源在诸多论文中已经讲得很全面了,就是伟大的生物发现Receptive Field(感受野细胞).根据这个概念提出了神经认知机.它的主要作用就是Recept部分图像信息(或特征),然后通过分层递交相连,将各个局部特征组合成整个图像特征. 需要仔细阅读的论文包括: (1) 第一篇关于感受野功能的论文Receptive fields and functional

[matlab]机器学习及SVM工具箱学习笔记

机器学习与神经网络的关系: 机器学习是目的,神经网络是算法.神经网络是实现机器学习的一种方法,平行于SVM. 常用的两种工具:svm tool.libsvm clear; N = 50; n=2*N; randn('state',6); x1 = randn(2,N) y1 = ones(1,N); x2 = 5+randn(2,N); y2 = -ones(1,N); figure; plot(x1(1,:),x1(2,:),'bx',x2(1,:),x2(2,:),'k.'); axis([

神经网络的学习笔记

我们先玩玩单层的神经网络,我们把图像切割成8*8的区域,灰度化,成为64维的输入数据,$x=(x_{1},\cdots,x_{64})^T$,我们的单层神经网络有8个节点,即权重矩阵为一个$64\times 8$的矩阵$W$,而输出$a=f(W^Tx+b)$. 以上是编码过程,下面讨论解码过程,上面所述之W,b,a改记为$W^{(1)},b^{(1)},a^{(1)}$有:$a^{(1)}=f(W^{(1)T}x+b^{(1)})$ .解码过程的输入是$a^{(1)}$,权重矩阵为$8 \tim

Matlab自带教程学习笔记1

变量赋值,类似 a=1 b=2 数组赋值,类似: t=[1 2 3 4 5] t=1:5 t=0:0.1:2 使用whos命令会输出当前已经定义的变量的: help原文: WHOS is a long form of WHO. It lists all the variables in the current workspace, together with information about their size, bytes, class, etc. 绘制曲线: plot函数: plot(X

Matlab自带教程学习笔记2

定义复数,类似: x=3+4i 定义矩阵,类似: a=[1 2 3;4 5 6;7 8 9] 使用Shift+F1查看可用函数,或是直接单击fx按钮,类似: 使用rand获取随机数(0-1内) 例如,使用 rand(3,3) 生成一个3行3列的随机数矩阵: 若要生成一个行列相等的随机数方阵,可以使用rand(n)函数,类似: rand(5): 将生成5x5的随机数方阵: 使用size获取变量的大小,类似: t=[1 2 3 4 5]: size(t): 得到的是1 5,就是1行5列: 若 t=[