自适应共振理论网络 ART

引言

  • 自适应共振理论的发源与现状 
    1976年, 美国 Boston 大学学者 G. A.Carpenter 提出自适应共振理论(Adaptive Res-onance Theory , ART ), 他多年来一直试图为人类的心理和认知活动建立统一的数学理论, ART 就是这一理论的核心部分。随后 G. A.Carpenter 又与 S.Grossberg 提出了ATR 网络。 经过了多年的研究和不断发展,ART 网已有 3 种形式:ARTⅠ 型处理双极型或二进制信号; ART Ⅱ 型是 ART Ⅰ的扩展形式, 用于处理连续型模拟信号;ART Ⅲ 型是分级搜索模型,兼容前两种结构的功能并将两层神经元网络扩大为任意多层神经元网络 。由于 ART Ⅲ 型在神经元的运行模型中纳入了生物神经元的生物电化学反应机制, 因而具备了很强的功能和可扩展能力。
  • 遗忘旧样本、旧知识的问题 
    对于有导师信号的学习网络,通过反复输入样本模式达到稳定记忆,如果再加入新的样本继续训练,前面的训练结果就会逐渐受到影响,表现为对旧数据、旧知识的遗忘。无导师学习网络的权值调整式中都包含了对数据的学习项和对旧数据的忘却项,通过控制其中学习系数和忘却系数的大小达到某种折中。但这个系数的确定却没有一般的方法进行指导。所以,这两类神经网络的学习都会出现忘却旧样本的情况,导致网络分类性能受到影响。通过无限扩大网络规模解决样本遗忘是不现实的。 
    保证在适当增加网络规模的同时,在过去记忆的模式和新输入的训练模式之间作出某种折中,最大限度地接收新知识(灵活性)的同时保证较少的影响过去的模式样本(稳定性),ART网络较好地解决了这一问题。
  • ART网络的办法 
    ART网络及算法在适应新输入模式方面具有较大的灵活性,同时能够避免对先前所学模式的修改。 
    ART网络的思路是当网络接收新的输入时,按照预设定的参考门限检查该输入模式与所有存储模式类典型向量之间的匹配程度以确定相似度,对相似度超过门限的所有模式类,选择最相似的作为该模式的代表类,并调整与该类别相关的权值,以使后续与该模式相似的输入再与该模式匹配时能够得到更大的相似度。若相似度都不超过门限,就在网络中新建一个模式类,同时建立与该模式类相连的权值,用于代表和存储该模式以及后来输入的所有同类模式。

ART I型网络

按照神经网络的三元素:神经元模型、网络结构以及学习算法,进行介绍。 
1. 网络系统结构 
如下图所示: 
 
ART I网络结构由两层神经元构成两个子系统,分别为比较层C和识别层R,包含3种控制信号:复位信号R、逻辑控制信号G1和G2。 
2. C层结构 
如下图所示: 
 
该层有n个神经元,每个接收来自3个方面的信号:外界输入信号,R层获胜神经元的外星权向量的返回信号和控制信号G1。C层神经元的输出是根据2/3的多数表决原则产生,输出值与三个信号中的多数信号值相同。 
网络开始运行时,G1 = 1,识别层尚未产生竞争获胜神经元,因此反馈信号为0。由2/3规则,C层输出应取决于输入信号,有C=X。当网络识别层出现反馈回送信号时,G1=0,由2/3规则,C层输出取决于输入信号与反馈信号的比较结果,如果xi = tij,则,ci = xi,否则ci=0。可以看出控制信号G1的作用是使得比较层能够区分网络运行的不同阶段,网络开始运行阶段G1的作用是使得C层对输入信号直接输出,之后G1的作用是使C层行使比较功能,此时ci为xi和tij的比较信号,两者同时为1,则ci为1,否则为0。可以看出R层反馈信号对C层输出有调节作用。 
3. R层结构 
如下图所示: 
 
功能相当于前馈竞争网,R层有m个神经元,代表m个输入模式类,m可以动态增长,以设立新的模式类。C层的输出向量C沿着R层神经元的内星权向量到达R层神经元,经过竞争在产生获胜神经元处指示本次输入模式的所属类别。获胜神经元输出为1,其余为0。R层每个神经元都对应着两个权向量,一个是将C层前馈信号汇聚到R层的内星权向量,另一个是将R层反馈信号散发到C层的外星权向量。 
4. 控制信号 
信号G2检测输入模式X是否为0,它等于X各分量的逻辑或,如果xi全为0,则G2=0,否则G2=1。R层输出向量各分量的逻辑或为R0,则信号G1=G2与(R0的非)。当R层输出向量的各分量全为0而输入向量X不是0向量时,G1为1,否则G1为0。G1的作用就是使得比较层能够区分网络运行的不同阶段,网络开始运行阶段G1的作用是使得C层对输入信号直接输出,之后G1的作用是使C层行使比较功能,此时ci为xi和tij的比较信号,两者同时为1,则ci为1,否则为0。Reset信号的作用是使得R层竞争获胜神经元无效,如果根据某种事先设定的测量标准,Tj与X未达到设定的相似度,表明两者未充分接近,于是系统发出Reset信号,使得竞争获胜神经元无效。 
5. 网络运行原理 
网络运行时接受来自环境的输入模式,检查输入模式与R层所有已存储模式类之间的匹配程度。R层所存储的模式类是通过对应R层神经元的外星权向量体现出来的,对于匹配程度最高的获胜神经元,网络要继续考察其存储模式类与当前输入模式的相似程度。相似程度按照预先设计的参考门限来考察,可能出现如下的情况: 
A. 如果相似度超过参考门限,将当前输入模式归为该类,全职调整规则是相似度超过参考门限的神经元调整其相应的内外星权向量,以使得以后遇到与当前输入模式接近的样本时能够得到更大的相似度;其他权向量则不做改动。 
B. 如果相似度不超过门限值,则对R层匹配程度次高的神经元代表的模式类进行相似度的考察,若超过门限,网络的运行回到情况A,否则仍然回到情况B。如果最终存储的所有模式类与当前输入模式的相似度都没有超过门限,此时需在网络输出端设立一个代表新模式类的神经元,用以代表及存储该模式,以便参加以后的匹配过程。网络对所接受的每个新输入样本,都进行上面的运行过程。对于每个输入模式,网络运行过程可归纳为4个阶段: 
(1) 匹配阶段 
网络在没有输入模式之前处于等待状态,此时输入端X=0。当输入不全为0的模式X时,G1=1允许输入模式直接从C层通过,并前向传至R层,与R层神经元对应的所用内星权向量Bj进行匹配计算:

netj=BTjX=∑i=1nbijxi

选择具有最大匹配度(具有最大点积)的竞争获胜神经元:

net?j=maxj{netj}

使获胜神经元输出r?j=1,其他神经元输出为0。 
(2) 比较阶段 
使得R层获胜神经元所连接的外星权向量T?j激活,从神经元j发出的n个权值信号返回到C层的n个神经元。此时,R层输出不全为零,则C层最新的输出状态取决于R层返回的外星权向量与网络输入模式X的比较结果。由于外星权向量是R层模式类的典型向量,该比较结果反映了在匹配阶段R层竞争排名第一的模式类的典型向量与当前输入模式X的相似度。相似度的大小可用相似度N0反应,定义为: 
 
因为输入xi为二进制数,N0实际上表示获胜神经元的类别模式典型向量与输入模式样本相同分量同时为1的次数。输入模式样本中的非零分量数位N1

N1=∑1nxi

用于比较警戒门限为ρ,在0~1之间取值,检查输入模式与模式类典型向量之间的相似度是否低于警戒门限,如果有:

N0/N1<ρ

则X与T?j的相似程度不满足要求,网络发出Reset信号,使得第一阶段的匹配失败,竞争获胜神经元无效,网络进入搜索阶段。如果有

N0/N1>ρ

表明X与获胜神经元对应的类别模式非常接近,称X与T?j 发生共振,第一阶段匹配结果有效,网络进入学习阶段。 
(3) 搜索阶段 
网络发出Reset重置信号后即进入搜索阶段,重置信号的作用是使前面通过竞争获胜的神经元受到抑制,并且在后续过程中受到持续的抑制,直到输入一个新的模式为止。由于R层中竞争获胜的神经元被抑制,从而再度出现R0=0,G1=1,因此网络又重新回到起始的匹配状态。由于上次获胜的神经元持续受到抑制,此次获胜的必然是上次匹配程度排第二的神经元。然后进入比较阶段,将该神经元对应的外星权向量t?j 与输入模式进行相似度计算。如果所有R层的模式类,在比较阶段相似度检查中相似度都不能满足要求,说明当前输入模式无类可归,需要在网络输出层增加一个神经元来代表并存储该模式类,为此将其内星权向量B?j 设计为当前输入模式向量,外星权向量T?j 各分量全设置为1。 
(4) 学习阶段 
在学习阶段要对发生共振的获胜神经元对应的模式类加强学习,使以后出现与该模式相似的输入样本时能获得更大的共振。 
外星权向量T?j 和内星权向量B?j 在运行阶段进行调整以进一步强化记忆。经过学习后,对样本的记忆将留在两组权向量中,即使输入样本改变,权值依然存在,因此称为长期记忆。当以后输入的样本类似已经记忆的样本时,这两组长期记忆将R层输出回忆至记忆样本的状态。



1. 网络学习算法 
ART I网络可以用学习算法实现,也可以使用硬件实现。训练可以按照以下步骤进行: 
(1) 网络初始化 
从C层上行到R层,内星权向量Bj 赋予相同的较小数值,如

bij(0)=11+n

从R层到C层的外星权向量Tj 各分量均赋值为1 
初始权值对整个算法影响重大,内星权向量按照上式进行设置,可保证输入向量能够收敛到其应属类别而不会轻易动用未使用的神经元。外星权向量各分量设置为1可保证对模式进行相似性测量时能正确计算其相似性。 
相似性测量的警戒门限ρ 设置为0~1之间的数,表示两个模式相近多少才被认为是相似的,因此其大小直接影响分类精度。 
(2) 网络接受输入 
给定一个输入模式,X=(x1,x2,...,xn),xi∈(0,1)n 
(3) 匹配度计算 
对R层所有内星权向量Bj 计算输入模式X的匹配度:

BTjX=∑i=1nbijxi

(4) 选择最佳匹配神经元 
在R层有效输出神经元集合J?内选择竞争获胜的最佳匹配神经元j?,使得

r?j=1,else,rj=0

(5) 相似度计算 
R层获胜神经元j? 通过外星送回存储模式类的典型向量T?j ,C层输出信号给出对向量T?j 和X的比较结果ci=t?ij ,由此结果可计算出两向量的相似度为:

N1=∑1nxi,N0=∑1nci

(6) 警戒门限检验 
按照设定的门限ρ 进行相似度检验。 
(7) 搜索匹配模式类 
按照上面介绍的方法进行模式类搜索。 
(8) 调整网络权值 
修改R层神经元j?对应的权向量,网络学习采用两种规则,外星权向量调整按照以下规则:

t?ij(t+1)=t?ij(t)xi

外星权向量为对应模式类的典型向量或称聚类中心,内星权向量的调整按照以下规则:

b?ij(t+1)=t?ij(t)xi0.5+∑i=1nt?ij(t)xi=t?ij(t+1)0.5+∑i=1nt?ij(t+1)

可以看出,如果不计分母中的常数0.5,上式相当于对外星权向量归一化。



总结 
ART网络的特点是非离线学习,即不是对输入样本反复训练后才开始运行,而是边学习边运行的实时方式,每个输出神经元可以看做一类相近样本的代表,每次最多只有一个输出神经元1。当输入样本距离某一个内星权向量较近时,代表它输出神经元才响应,通过调整警戒门限的大小,可调整模式的类数,ρ小,模式的类别少,ρ大,则模式的类别多。 
用硬件实现ART I模型时,C层和R层的神经元都用电路实现,作为长期记忆的权值用CMOS电路完成。

转载出处http://blog.csdn.net/lg1259156776/。

时间: 2024-07-31 09:49:27

自适应共振理论网络 ART的相关文章

神经网络浅讲:从神经元到深度学习

神经网络是一门重要的机器学习技术.它是目前最为火热的研究方向--深度学习的基础.学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术. 本文以一种简单的,循序的方式讲解神经网络.适合对神经网络了解不多的同学.本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文. 神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术.人脑中的神经网络是一个非常复杂的组织.成人的大脑中估计有1000亿个神经元之多. 图1 人脑神经网络 那么机

人工神经网络--ANN

神经网络是一门重要的机器学习技术.它是目前最为火热的研究方向--深度学习的基础.学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术. 本文以一种简单的,循序的方式讲解神经网络.适合对神经网络了解不多的同学.本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文. 神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术.人脑中的神经网络是一个非常复杂的组织.成人的大脑中估计有1000亿个神经元之多. 图1 人脑神经网络 那么机

转载:竞争型神经网络

竞争型神经网络是基于无监督学习方法(unsupervised learning)的神经网络的一种重要类型,它经常作为基本的网络形式,构成其他一些具有组织能力的网络,如自组织映射网络.自适应共振理论网络.学习向量量化网络等. 生物神经网络存在一种侧抑制现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制,这种抑制使神经细胞之间出现竞争:在开始阶段,各神经元对系统的输入具有相同的响应机会,但产生的兴奋程度不同,其中兴奋最强的一个神经细胞对周围神经细胞的抑制作用最强,从而使其他神经元的

人工神经网络

人工神经网络初窥 人工神经网络(Artificial Neural Network,简称ANN ),以数学模型模拟神经元活动,是基于模仿大脑神经网络结构和功能而建立的一种信息处理系统.人工神经网络具有自学习.自组织.自适应以及很强的非线性函数逼近能力,拥有强大的容错性.它可以实现仿真.预测以及模糊控制等功能.是处理非线性系统的有力工具.(摘自百度百科)           关于神经网络的定义尚不统一,按美国神经网络学家 Hecht Nielsen 的观点,神经网络的定义是:“神经网络是由多个非常

人工神经网络简介

本文主要对人工神经网络基础进行了描述,主要包括人工神经网络的概念.发展.特点.结构.模型. 本文是个科普文,来自网络资料的整理. 一.             人工神经网络的概念 人工神经网络(Artificial Neural Network,ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型.该模型以并行分布的处理能力.高容错性.智能化和自学习等能力为特征,

[Mechine Learning &amp; Algorithm] 神经网络基础

目前,深度学习(Deep Learning,简称DL)在算法领域可谓是大红大紫,现在不只是互联网.人工智能,生活中的各大领域都能反映出深度学习引领的巨大变革.要学习深度学习,那么首先要熟悉神经网络(Neural Networks,简称NN)的一些基本概念.当然,这里所说的神经网络不是生物学的神经网络,我们将其称之为人工神经网络(Artificial Neural Networks,简称ANN)貌似更为合理.神经网络最早是人工智能领域的一种算法或者说是模型,目前神经网络已经发展成为一类多学科交叉的

周志华 机器学习 笔记

首先的阶段由卷积层和池化层组成,卷积的节点组织在特征映射块(feature maps)中,每个节点与上一层的feature maps中的局部块通过一系列的权重即过滤器连接.加权和的结果被送到非线性函数中如ReLU.一个feature maps中所有的节点分享相同的过滤器,即共享权重.这种结构的原因是双重的,第一,图像中一个值附近的值是高度相关的,第二,不同区域的值是不相干的.换句话说,一个图像某部分出现的特征会在其他部分出现,因此可以实现权值共享并且检测到相同模式在矩阵的不同部分,这种操作在数学

机器学习笔记partI

机器学习课程 要求:掌握基本线性代数(矩阵.矢量.矩阵向量乘法),和基本概率(随机变量.基本属性的概率)以及微积分 机器学习:引言课程1   机器学习:引言课程2 机器学习算法分为: 1.监督式学习算法 2.非监督式学习算法 3.强化学习算法 4.推荐系统     机器学习:引言课程3—监督式学习 监督式学习:用正确答案去进行训练 监督学习是训练神经网络和决策树的最常见技术.这两种技术(神经网络和决策树)高度依赖于事先确定的分类系统给出的信息.对于神经网络来说,分类系统用于判断网络的错误,然后调

LMS自适应维纳滤波器

一.研究背景 维纳滤波器参数是固定的,适合于平稳随机信号.卡尔曼滤波器参数是时变的,适合于非平稳随机信号.然而,只有在信号和噪声的统计特性先验已知的情况下,这两种滤波术才能获得最优滤波.在实际应用中,常常无法得到信号和噪声统计特性的先验知识.在这种情况下,自适应滤波技术能够获得极佳的滤波性能,因而具有很好的应用价值.常用的自适应滤波技术有:最小均方(LMS)自适应滤波器.递推最小二乘(RLS)滤波器.格型滤波器和无限冲激响应(IIR)滤波器等.这些自适应滤波技术的应用又包括:自适应噪声抵消.自适