SOM自组织映射

SOM, 即Self- Organizing Mapping( 自组织映射网络) , 或称为Self- Organizing Feature Mapping( 自组织特征映射网络) , 它是一种无指导训练的神经网络, 自组织的过程实际上就是一种无指导的学习。它通过自身训练, 自动对输入模式进行聚类。它的拓扑结构图。最早是由芬兰赫尔辛基理工大学Kohen于1981年提出的。

它模拟人脑中处于不同区域的神经细胞分工不同的特点,即不同区域具有不同的响应特征,而且这一过程是自动完成的。自组织映射网络通过寻找最优参考矢量集合来对输入模式集合进行分类。每个参考矢量为一输出单元对应的连接权向量。与传统的模式聚类方法相比,它所形成的聚类中心能映射到一个曲面或平面上,而保持拓扑结构不变。对于未知聚类中心的判别问题可以用自组织映射来实现。

SOM原理

自组织映射的主要目的就是将任意维数的输入信号模式转变为一维或二维的离散映射, 并且以拓扑有序的方式自适应实现这个变换。

SOM网络中, 某个输出结点能对某一类模式作出特别的反应以代表该模式类, 输出层上相邻的结点能对实际模式分布中相近的模式类作出特别的反映,当某类数据模式输入时, 对某一输出结点产生最大刺激( 获胜结点) , 同时对获胜结点周围的一些结点产生较大刺激。在训练的过程中, 不断对获胜结点的连接权值作调整, 同时对获胜结点的邻域结点的连接权值作调整; 随着训练的进行, 这个邻域范围不断缩小, 直到最后, 只对获胜结点进行细微的连接权值调整。

具体实现步骤如下:

①连接权值初始化: 给从输入结点到输出结点的所有权值赋予较小的随机数。时间计数t=0;

②对网络输入模式: xk=(xk1,xk2,?,xkn);

③计算输入xk与全部输出结点所连的权向量的欧氏距离;

④具有最小欧氏距离的输出结点获胜;

⑤调整输出结点所连接的权值以及其邻域内的输出结点所连权值:

△Wij=η(t)(xk?Wij), Nj∈NEj?(t)i∈{1,2,?,n}

⑥若还有输入样本数据, 则t=t+1, 转第②步。

算法中, η(t)是可变学习速度, 随时间的增加而减小。也就是说, 随着训练过程的进行, 权值的调整幅度越来越小; NEj?(t) 也随着时间而收缩, 最后t 足够大时, NEj?(t)={Nj?}, 即只训练获胜结点本身; η(t) 和NEj?(t) 有多种不同的形式, 在具体训练过程中可以根据不同的要求不同的数据分布进行设计。

:

[1] 余健, 郭平. 自组织映射(SOM)聚类算法的研究[J]. 现代计算机:专业版, 2007, (3):7-8. DOI:10.3969/j.issn.1007-1423-B.2007.03.002.

[2] 百度百科 http://baike.baidu.com/link?url=e4fa4RJ4iQCBIyAJYQcuhfyQFruslSC30sJE604YF_R8LO59F-Wt3sZ7jFBasZS0uC2rwta6rNhKJogUwHClcq

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-09 19:29:23

SOM自组织映射的相关文章

SOM自组织映射网络 教程

概述 SOM是芬兰教授Teuvo Kohonen提出的一种神经网络算法,它提供一种将高维数据在低维空间进行表示的方法(通常是一维或二维).缩减向量维度的过程,叫做向量量化(vector quantisation).此外,SOM网络能保留原有数据的拓扑关系. 一个用来直观感受SOM网络规则的例子,是将3维颜色映射到二维空间,如图所示. 图1 左图的颜色是按(r,g,b)组合形式表示的,SOM网络经过学习后能他这些颜色在二维空间进行表示.如右图所示:为了让颜色聚类,相似的属性通常被发现是相邻的.这种

机器学习流行算法一览

原文:http://www.jdon.com/bigdata/a-tour-of-machine-learning-algorithms.html 这篇文章介绍几个最流行的机器学习算法.现在有很多机器学习算法,困难的是进行方法归类,这里我们介绍两种方法进行思考和分类这些算法.第一组算法是学习风格,第二组是在形式和功能上类似. 学习风格 一个算法基于问题建模有不同的方法,无论这个问题是基于经验或环境的交互,或者是基于我们需要输入的数据,学习风格是机器学习首先必须考虑的问题. 下面我们看看一些算法的

自组织特征映射SOM(Self-organizing feature Map)

自组织神经网络介绍:自组织特征映射SOM(Self-organizing feature Map),第一部分 http://blog.csdn.net/xbinworld/article/details/50818803 自组织神经网络介绍:自组织特征映射SOM(Self-organizing feature Map),第二部分 http://blog.csdn.net/xbinworld/article/details/50826892 自组织神经网络介绍:自组织特征映射SOM(Self-or

Self-Organizing Feature Map Neural Networks (SOM)

SOM是一种无监督学习的神经网络,先贴上最近写的一个利用SOM对图片进行压缩并恢复的简单应用,留个大坑:1.有空再来总结SOM的概念,学习过程,优化算法.2.把代码再用python和C++重新实现一遍作为编程练习... 训练过程大致如下: 将图片分解并形成输入向量X = {Xi}, 竞争层只设了一层,即竞争层即是输出层. 对每个Xi,计算其与所有竞争结点的距离,并找到最小距离,最小距离对应的结点竞争获胜,获得修改权值的权利,(这里还定义的获胜结点的邻居,及获胜结点及其邻居获得修改权值的权利).

SOM网络聚类完整示例(利用python和java)

下面是几个城市的GDP等信息,根据这些信息,写一个SOM网络,使之对下面城市进行聚类.并且,将结果画在一个二维平面上. //表1中,X.为人均GDP(元):X2为工业总产值(亿元):X.为社会消费品零售总额(亿元):x.为批发零售贸易总额(亿元):x.为地区货运总量(万吨),表1中数据来自2002年城市统计年鉴. //城市 X1 X2 X3 Xa X5 北京 27527 2738.30 1494.83 3055.63 30500 青岛 29682 1212.02 182.80 598.06 29

机器学习及其matlab实现竞争神经网络与SOM神经网络进阶与提高视频教程

38套大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程 视频课程包含: 38套大数据和人工智能精品高级课包含:大数据,云计算,架构,数据挖掘实战,实时推荐系统实战,电视收视率项目实战,实时流统计项目实战,离线电商分析项目实战,Spark大型项目实战用户分析,智能客户系统项目实战,Linux基础,Hadoop,Spark,Storm,Docker,Mapreduce,Kafka,Flume,OpenStack,Hiv

自组织竞争神经网络(SOM)之向量归一化

http://wenku.baidu.com/link?url=DWqrVJ4Ph6NjU3fukUdZl-uE0zlME8V6cprB4SuzcL2q5kOUh-3wQ_Qd1FuEV18Ww1HZQ_VwgzSyOaprPCX_AQwxkC3p8I0t0CL7QUuMaW 基础部分直接上链接,过程很详细.依照步骤详解敲代码的时候对“向量归一化”该出现的位置有了疑惑. 首先可以肯定的是,输入向量全部需要归一化,可以在输入前整体归一化处理,也可以在与网络权值比较的前一刻进行归一化处理.那么神经网

第五章 神经网络

读书笔记 周志华老师的<机器学习> 因为边看边记,所以写在随笔里,如果涉及版权问题,请您联系我立马删除,[email protected] 5.1 神经元模型 “神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应.” 神经元模型:生物神经网络中,每个神经元与其他神经元相连,当它“兴奋”时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位:如果某神经元的电位超过了一个“阈值”,那么它就会被激活,即“兴奋”起来,向其他神经

机器学习算法分类

转自@王萌,有少许修改. 机器学习起源于人工智能,可以赋予计算机以传统编程所无法实现的能力,比如飞行器的自动驾驶.人脸识别.计算机视觉和数据挖掘等. 机器学习的算法很多.很多时候困惑人们的是,很多算法是一类算法,而有些算法又是从其他算法中延伸出来的.这里,我们从两个方面来给大家介绍,第一个方面是学习的方式,第二个方面是算法的类似性. 学习方式 将算法按照学习方式分类可以让人们在建模和算法选择的时候考虑能根据输入数据来选择最合适的算法来获得最好的结果. 监督学习  在监督学习中,输入数据被称为"训