SOM, 即Self- Organizing Mapping( 自组织映射网络) , 或称为Self- Organizing Feature Mapping( 自组织特征映射网络) , 它是一种无指导训练的神经网络, 自组织的过程实际上就是一种无指导的学习。它通过自身训练, 自动对输入模式进行聚类。它的拓扑结构图。最早是由芬兰赫尔辛基理工大学Kohen于1981年提出的。
它模拟人脑中处于不同区域的神经细胞分工不同的特点,即不同区域具有不同的响应特征,而且这一过程是自动完成的。自组织映射网络通过寻找最优参考矢量集合来对输入模式集合进行分类。每个参考矢量为一输出单元对应的连接权向量。与传统的模式聚类方法相比,它所形成的聚类中心能映射到一个曲面或平面上,而保持拓扑结构不变。对于未知聚类中心的判别问题可以用自组织映射来实现。
SOM原理
自组织映射的主要目的就是将任意维数的输入信号模式转变为一维或二维的离散映射, 并且以拓扑有序的方式自适应实现这个变换。
SOM网络中, 某个输出结点能对某一类模式作出特别的反应以代表该模式类, 输出层上相邻的结点能对实际模式分布中相近的模式类作出特别的反映,当某类数据模式输入时, 对某一输出结点产生最大刺激( 获胜结点) , 同时对获胜结点周围的一些结点产生较大刺激。在训练的过程中, 不断对获胜结点的连接权值作调整, 同时对获胜结点的邻域结点的连接权值作调整; 随着训练的进行, 这个邻域范围不断缩小, 直到最后, 只对获胜结点进行细微的连接权值调整。
具体实现步骤如下:
①连接权值初始化: 给从输入结点到输出结点的所有权值赋予较小的随机数。时间计数t=0;
②对网络输入模式: xk=(xk1,xk2,?,xkn);
③计算输入xk与全部输出结点所连的权向量的欧氏距离;
④具有最小欧氏距离的输出结点获胜;
⑤调整输出结点所连接的权值以及其邻域内的输出结点所连权值:
△Wij=η(t)(xk?Wij), Nj∈NEj?(t)i∈{1,2,?,n}
⑥若还有输入样本数据, 则t=t+1, 转第②步。
算法中, η(t)是可变学习速度, 随时间的增加而减小。也就是说, 随着训练过程的进行, 权值的调整幅度越来越小; NEj?(t) 也随着时间而收缩, 最后t 足够大时, NEj?(t)={Nj?}, 即只训练获胜结点本身; η(t) 和NEj?(t) 有多种不同的形式, 在具体训练过程中可以根据不同的要求不同的数据分布进行设计。
注:
[1] 余健, 郭平. 自组织映射(SOM)聚类算法的研究[J]. 现代计算机:专业版, 2007, (3):7-8. DOI:10.3969/j.issn.1007-1423-B.2007.03.002.
版权声明:本文为博主原创文章,未经博主允许不得转载。