神经网络学习(一)

这个系列的文章主要记录学习《神经网络设计》这本书的收获与总结。

第一部分主要介绍三种网络:

  • 感知机
  • Hamming
  • Hopfield

感知机

采用对称硬极限传输函数hardlims的单层感知机

两输入感知机,w11 = -1, w22 = 1如下

a = hardlims(n) = hardlims([-1 1]p + b)

Hamming

Hamming网络的目标时判定哪个标准向量最接近输入向量。

判定结果由递归层的输出表示。

  1. R为样本空间维数
  2. S为神经元个数

  • 前馈层

前馈层用于实现每个标准模式和输入模式之间的相关检测或求内积。

为了使得前馈层能够完成其功能,可以用标准模式设置其权值矩阵的行,该权值矩阵用连接矩阵W1表示。

之所以称该网络为Hmming网,是因为在前馈层中具有最大输出的神经元正好对应于输入模式Hamming距离最近的标准模式。

  • 递归层

该层的神经元用前馈层的输出进行初始化,此输出指出标准模式和输入向量之间的关系。

描述竞争的等式为

  a2(0) = a1                    (初始条件)
a2(t+1) = poslin(W2a2(t))       (迭代)

Hopfield网络

这个网络利用输入向量对网络中的神经元进行初始化,然后网络不断迭代直至收敛。

如果网络运行正确,那么最终的输出结果将是一个标准的向量。

描述等式为

    a(0) = p
a(t + 1) = satlins(Wa(t) + b)

结束语

个人对三种网络的理解如下

  • 感知机是bp前馈网络的一个单元,并不涉及到反馈。通过反馈机制可以从数据中学习得到相关的参数。适合处理那些线性可分的问题。
  • Hamming计算出已存储的标准模式和输入模式之间的测度距离,通过竞争决定哪一个神经元表示的标准模式最接近于输入模式。
  • Hopfield主要用于联想存储中,其存储的数据能由相关的输入数据回忆出来,而无需用一个地址对其访问。即让数据收敛到我希望的值(联想存储),而无需实际的分配地址空间去存储该值。
时间: 2024-10-23 02:17:19

神经网络学习(一)的相关文章

CNN卷积神经网络学习笔记2:网络结构

在上篇笔记<CNN卷积神经网络学习笔记1:背景介绍>中已经介绍过CNN的结构,这篇笔记中,通过一个简单的CNN的例子,梳理一下CNN的网络结构的细节. 以下是一个6层的CNN网络,这个简单的CNN网络是DeepLearning Toolbox里面CNN的一个例子,后面要通过DeepLearning Toolbox中CNN的代码来进一步理解CNN的整个过程.我们输入的是1张大小为28*28的图片. 需要注意的有: 1,这里输入的是一张图片,如果我们输入了50张图片,那么下图中的每一个方框(代表一

Duanxx的神经网络学习: 自己动手写神经网络(二) 前馈网络的实现

本文是继续Duanxx的神经网络学习: 自己动手写神经网络(一) 搭建一个简单的网络框架 写的第二篇文章,将神经网络的前馈网络实现并测试. 本文的代码下载地址 1 为神经元Neuron添加权Weight 在上一篇文章中,我已经搭起了一个神经网络的框架. 但是那只是一个框架而已,什么都没有是实现,而这个框架的最基本的东西就是神经元Nenron,这里就考虑将Neuron实现一下. 对于一个神经元而言,它的输入是上一层神经元的输出,可以不用太关心,它也有自己的输出outputvalue,同时,它还要控

CNN卷积神经网络学习笔记3:权值更新公式推导

在上篇<CNN卷积神经网络学习笔记2:网络结构>中,已经介绍了CNN的网络结构的详细构成,我们已经可以初始化一个自己的CNN网络了,接下来就是要用训练得到一个确定的CNN的模型,也就是确定CNN的参数. CNN本质上就是人工神经网络的一种,只是在前几层的处理上有所不同,我们可以把卷积核看成是人工神经网络里的权值W,而采样层实质上也是一种卷积运算.所以可以基于人工神经网络的权值更新的方法来推导CNN里的权值更新公式.人工神经网络里是用反向传播算法将误差层层回传,利用梯度下降法更新每一层的权值,C

RBF神经网络学习算法及与多层感知器的比较

对于RBF神经网络的原理已经在我的博文<机器学习之径向基神经网络(RBF NN)>中介绍过,这里不再重复.今天要介绍的是常用的RBF神经网络学习算法及RBF神经网络与多层感知器网络的对比. 一.RBF神经网络学习算法 广义的RBF神经网络结构如下图所示: N-M-L结构对应着N维输入,M个数据中心点centers,L个输出. RBF 网络常用学习算法 RBF 网络的设计包括结构设计和参数设计.结构设计主要解决如何确定网络隐节点数的问题.参数设计一般需考虑包括3种参数:各基函数的数据中心和扩展常

【神经网络学习笔记】LIBSVM参数讲解

支持向量机SVM(Support Vector Machine)作为一种可训练的机器学习方法可以实现模式分类和非线性回归,本文就matlab中的LIBSVM工具箱展开说明. 在matlab中调用LIBSVM工具箱可以方便的使用LIBSVM网络,台湾大学的林智仁教授已经封装好各方法,大家可以在此下载. LIBSVM工具箱的主要函数为svmtrain和svmpredict,调用格式为 model = svmtrain(train_lable,train_data,options); [predict

RNN循环神经网络学习——概述

循环神经网络(Recurrent Neural NetWork,RNN)是一种将节点定向连接成环的人工神经网络,其内部状态可以展示动态时序行为. 循环神经网络的主要用途是处理和预测序列数据.循环神经网络最初就是为了刻画一个序列当前的输出与之前信息的关系.从网络结构上来看,循环神经网络会记忆之前的信息,并利用之前的信息影响后面节点的输出.也就是说,循环神经网络的隐藏层之间的节点是有连接的,隐藏层的输入不仅包含输入层的输出,还包括上一时刻隐藏层的输出. 如图为典型的RNN结构示意图.RNN主体结构的

【神经网络和深度学习】笔记 - 第三章 如何提高神经网络学习算法的效果

文章导读: 1.交叉熵损失函数 1.1 交叉熵损失函数介绍 1.2 在MNIST数字分类上使用交叉熵损失函数 1.3 交叉熵的意义以及来历 1.4 Softmax 2. 过拟合和正则化 2.1 过拟合 2.2 正则化 2.3 为什么正则化可以减轻过拟合问题 2.4 正则化的其它方法 3. 参数初始化 4. 其它方法 4.1 随机梯度下降算法的改进 4.2 其它神经元模型 我们前面已经学习了反向传播算法,它是我们学习神经网络的基础.这一章将会介绍一系列的方法技巧来改善反向传播算法的效果,进而改善学

神经网络学习入门(一)

生物神经网络的启发与人工神经网络的发展历史 导论-历史背景和生物学知识 生物神经网络(生物学的观点) 1.生物神经功能,包括记忆,都储存在神经元和神经元之间的连接之中. 2.学习被视为建立起这些神经元之间的连接,或者改变更新已存在的连接. 由此提出一个问题: 我们能否构建一系列小的简单的人工神经元并且能训练他们为一些服务功能. 这个答案必须是可以的. 我们并不是用生物神经网络去实现,而是用程序或者芯片去实现. 尽管不能和大脑一样强大,但是可以用来实现一些非常有用的功能. 人工神经网络就是研究这些

神经网络学习科普延伸阅读

一 2016 年一月底,人工智能的研究领域,发生了两件大事. 先是一月二十四号,MIT 的教授,人工智能研究的先驱者,Marvin Minsky 去世,享年89 岁. 三天之后,谷歌在自然杂志上正式公开发表论文,宣布其以深度学习技术为基础的电脑程序 AlphaGo, 在 2015年 十月,连续五局击败欧洲冠军.职业二段樊辉. 这是第一次机器击败职业围棋选手.距离 97年IBM 电脑击败国际象棋世界冠军,一晃近二十年了. 极具讽刺意义的是,Minsky 教授,一直不看好深度学习的概念.他曾在 19