分层数据表示模型--多层非负矩阵分解

1 简介

为了理解复杂的数据,人们提出了分层特征提取概念。著名的算法之一是2006年Hinton提出的Deep Belief Network(DBN)。随着训练深层结构的成功,人们又提出了许多深度学习的变体。尽管这些多层算法产生了多层方法在特征提取和提供对复杂问题的有效方法,但并没有告诉我们通过多层结构学到的特征之间的关系。

本文我们提出了一个分层数据表示模型,分多层的非负矩阵分解。我们提供了NMF算法的一个变体,nsNMF来进行分层学习。这里,我们通过在数据集上学习层之间的关系直观的展示特征分层表示。我们也证明了不同于一步学习,分层结构学到了更加多有意义和有帮助的特征,这些特征有更好的分布表示,在分类和小数量的特征重建中有更好的结果,并且减少性能的损失,甚至在表示低纬度的数据时。

2 非平滑非负矩阵分解(nsNMF)

网络结构由堆叠nsNMF组成。nsNMF是NMF的变体,它限制了稀疏性。NMF分解非负矩阵X为非负矩阵W和H,其中W是特征,H是对应的系数或数据代表;它旨在减少原数据X和它的重建WH之间的误差:C=1/2 ||X-WH||^2。为了限制标准NMF的稀疏性,我们引入了一个稀疏矩阵:S=(1-θ)I(k)+θ/k ones(k),其中k是特征的数量,θ是平滑系数,变化区间在0到1之间;I(k)是大小为k*k的单位矩阵,ones(k)是大小为k*k的矩阵。我们用S迭代来平滑矩阵,θ越接近1,就越平滑。在迭代更新上,我们用迭代S来平滑H矩阵,因此H如此反复迭代:H=SH。为了补偿稀疏性的损失,W变得稀疏。

3 多层结构

提出的分多层的NMF结构由许多单独算法的多层组成。我们首先单独训练各个层。我们

时间: 2024-10-06 16:41:10

分层数据表示模型--多层非负矩阵分解的相关文章

NMF.非负矩阵分解.--.原理与应用

1.原理 发现写关于非负矩阵的博文还是蛮多的,还是以自己的角度总结一下自己的最近看的若干东西以及对非负矩阵分解有用的一些资料链接.NMF,全称为non-negative matrix factorization,中文呢为"非负矩阵分解". NMF的思想:V=WH(W权重矩阵.H特征矩阵.V原矩阵),通过计算从原矩阵提取权重和特征两个不同的矩阵出来.属于一个无监督学习的算法,其中限制条件就是W和H中的所有元素都要大于0. 写得有点匮竭难懂,看不懂建议去看看原论文,在<NMF引用&g

非负矩阵分解(3):拉格朗日乘子法求解

作者:桂. 时间:2017-04-07  07:11:54 链接:http://www.cnblogs.com/xingshansi/p/6679325.html 声明:欢迎被转载,不过记得注明出处哦~ 前言 最近发这类文章,动不动就被管理员从首页摘除,如果你觉得这个文章还说得过去,麻烦帮忙点个赞吧,这样移除的概率小一些.... 本文为非负矩阵分解系列第三篇,在第二篇中介绍了不同准则下乘法算法的推导及代码实现,这里不免有一个疑问:明明是一个约束的优化问题,虽然乘法算法巧妙地将其变为一个无约束优化

融合非负矩阵分解和图全变分的歌曲推荐算法

摘要: Kirell Benzi, Vassilis Kalofolias, Xavier Bresson and Pierre Vandergheynst Signal Processing Laboratory 2 (LTS2), Swiss Federal Institute of Technology (EPFL) Kirell Benzi, Vassilis Kalofolias, Xavier Bresson and Pierre Vandergheynst Signal Proce

NMF.非负矩阵分解(Non-negative.Matrix.Factorization)实践

1. NMF-based 推荐算法 在例如Netflix或MovieLens这样的推荐系统中,有用户和电影两个集合.给出每个用户对部分电影的打分,希望预测该用户对其他没看过电影的打分值,这样可以根据打分值为其做出推荐.用户和电影的关系,可以用一个矩阵来表示,每一列表示用户,每一行表示电影,每个元素的值表示用户对已经看过的电影的打分.下面来简单介绍一下基于NMF的推荐算法. 在python当中有一个包叫做sklearn,专门用来做机器学习,各种大神的实现算法都在里面.本文使用 from sklea

推荐算法——非负矩阵分解(NMF)

一.矩阵分解回想 在博文推荐算法--基于矩阵分解的推荐算法中,提到了将用户-商品矩阵进行分解.从而实现对未打分项进行打分. 矩阵分解是指将一个矩阵分解成两个或者多个矩阵的乘积.对于上述的用户-商品矩阵(评分矩阵),记为Vm×n.能够将其分解成两个或者多个矩阵的乘积,如果分解成两个矩阵Wm×k和Hk×n.我们要使得矩阵Wm×k和Hk×n的乘积能够还原原始的矩阵Vm×n: Vm×n≈Wm×k×Hk×n=V^m×n 当中,矩阵Wm×k表示的是m个用户与k个主题之间的关系,而矩阵Hk×n表示的是k个主题

非负矩阵分解(1):准则函数及KL散度

作者:桂. 时间:2017-04-06  12:29:26 链接:http://www.cnblogs.com/xingshansi/p/6672908.html 声明:欢迎被转载,不过记得注明出处哦~ 前言 之前在梳理最小二乘的时候,矩阵方程有一类可以利用非负矩阵分解(Non-negative matrix factorization, NMF)的方法求解,经常见到别人提起这个算法,打算对此梳理一下.优化问题求解,最基本的是问题描述与准则函数的定义,紧接着才涉及准则函数的求解问题,本文为NMF

非负矩阵分解(4):NMF算法和聚类算法的联系与区别

作者:桂. 时间:2017-04-14   06:22:26 链接:http://www.cnblogs.com/xingshansi/p/6685811.html 声明:欢迎被转载,不过记得注明出处哦~ 前言 之前梳理了一下非负矩阵分解(Nonnegative matrix factorization, NMF),主要有: 1)准则函数及KL散度 2)NMF算法推导与实现 3)拉格朗日乘子法求解NMF(将含限定NMF的求解 一般化) 谱聚类可以参考之前的文章: 1)拉普拉斯矩阵(Laplace

NMF非负矩阵分解初探

NMF非负矩阵分解初探 简介 数据可以表示为一个矩阵 $V$,列 $v_n$ 是采样点而行代表特征features.我们想把这个矩阵$V$因式分解为两个未知的矩阵 $W$ 和 $H$ $$ V \approx \hat{V} \equiv WH$$ 这里面 $W$ 是一个经常性出现的patterns的字典(比如音乐中的鼓点),而 $H$ 中的每一列 $h_n$ 表示每一个采样点 $v_n$ 中估测存在的patterns.我们可以把 $W$ 称为字典(dictionary)而 $H$ 成为激活矩阵

非负矩阵分解的两种方法简析

一.使用非负最小二乘法 Non-negative matrix factorisation using non-negative least squares 问题 给定一个矩阵\(A\),将其分解成两个非负的因子: \[ A_{M \times N} \approx W_{M \times K} \times H_{K \times N}, such that \space W_{M \times K} \geq 0 \space and \space H_{K \times N} \geq 0