什么是稀疏表示

参考文献:百度文库

历史:

1993年,Mallat基于小波分析提出了信号可以用一个超完备字典进行表示,从而开启了稀疏表示的先河

背景:

在20年中,信息稀疏表示,信息处理领域广受关注

目的:

  在一个超完备字典中,用尽可能少的原子来表示,从而获得更简单的表达方式,这对信息的处理,压缩,编码及其有用。我的理解是,在一堆要表达的信息中,我们希望用最少的原料来表示这一堆中任何一个信息样例,这有点像坐标的基,只不过这里稀疏表达可能允许工程近似。譬如,一个平面上的点信息,有无数个点,而我建立坐标系之后(甚至不是正交的,只要不平行),我可以轻而易举地用两个坐标变量或者一个二维向量表示这堆点中的任何一个。

研究的重点:

稀疏分解算法、超完备原子字典、和稀疏表示的应用等方面

时间: 2024-12-31 03:57:17

什么是稀疏表示的相关文章

Dictionary Learning(字典学习、稀疏表示以及其他)

第一部分 字典学习以及稀疏表示的概要 字典学习(Dictionary Learning)和稀疏表示(Sparse Representation)在学术界的正式称谓应该是稀疏字典学习(Sparse Dictionary Learning).该算法理论包含两个阶段:字典构建阶段(Dictionary Generate)和利用字典(稀疏的)表示样本阶段(Sparse coding with a precomputed dictionary).这两个阶段(如下图)的每个阶段都有许多不同算法可供选择,每种

算法导论——所有点对最短路径:稀疏图Johnson算法

package org.loda.graph; import org.loda.structure.Stack; import org.loda.util.In; /** * * @ClassName: Johnson 时间复杂度:EVlgV * @Description: 稀疏图上的johnson算法,由于稀疏图的数据结构推荐使用邻接链表,所以这里也采用邻接链表,该算法也是给稀疏图使用的,如果是密集图,推荐使用实现较为简单的FloydWashall算法,可以保证V^3的时间复杂度 * * Jo

深度学习UFLDL老教程笔记1 稀疏自编码器Ⅱ

稀疏自编码器的学习结构: 稀疏自编码器Ⅰ: 神经网络 反向传导算法 梯度检验与高级优化 稀疏自编码器Ⅱ: 自编码算法与稀疏性 可视化自编码器训练结果 Exercise: Sparse Autoencoder 自编码算法与稀疏性 已经讨论了神经网络在有监督学习中的应用,其中训练样本是有类别标签的(x_i,y_i). 自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值x_i = y_i . 下图是一个自编码神经网络的示例. 一次autoencoder学习,结构三层:输入层

稀疏表示

稀疏表示是近期几年信号处理领域的热点之中的一个,简单来说,它事实上是一种对原始信号的分解过程,该分解过程借助一个事先得到的字典(也有人称之为过完备基,overcomplete basis,后面会介绍到),将输入信号表示为字典的线性近似的过程.即: 稀疏表示,布布扣,bubuko.com

稀疏表示 过完备 字典

2基于局部时窄特征的动作识别模哩2.1 动作识别的基本思想实现了基于时空兴趣点和时空单词的动作表示和识别方法,该方法首先通过训练从样本中提取出准确的时空兴趣点,建立基于兴趣点特征的时空码本,并构造出动作分类器.在动作识别过程中,计算待分类视频中的兴趣点特征和时空码本的距离对兴趣点进行分类,生成对视频动作进行表征的时空单词,最后通过动作分类器进行分类识别. 目前已有很多方法和技术用于构造分类模型,如决策树.神经网络.贝叶斯方法.Fisher线性分析(Fld)以及支持向量机(Support Vect

利用ReLU输出稀疏性加速卷积

一篇讲利用ReLU输出的稀疏性来加速卷积计算的论文,其目的和另一篇文章<More is less> 有点类似. 实验效果似乎还不错,但似乎并没有很大的创新. 文章链接: <Speeding up Convolutional Neural Networks By Exploiting the Sparsity of Rectifier Units> Motivation 下图的结论是:使用ReLU作为激活函数的网络,其网络输出通常都非常稀疏. 另一方面,目前的稀疏矩阵运算效率并不高.

7. 稀疏表示之OMP,SOMP算法及openCV实现

一.前言 稀疏表示是自上世纪90年代开始,从人眼的视觉感受野获得启示,逐渐被人们所研究.现在已经发展为一种重要的信息表示方法.所谓稀疏表示是指,一个信号在过完备字典中,可以由少数个原子线性表达, 其数学模型可以表达如下: 这个数学模型解算是一个NP-hard问题,也就是说只能通过穷举去获得最优解,其时间复杂度很大,几乎无法获得其精确的解算.在这种情况下,我们常用贪婪算法去获得该模型的次最优解.本文介绍一种主流的贪婪算法—— 正交匹配追踪(OMP). 二.OMP算法 贪婪算法的核心是每次从字典的原

深度学习入门教程UFLDL学习实验笔记一:稀疏自编码器

UFLDL即(unsupervised feature learning & deep learning).这是斯坦福网站上的一篇经典教程.顾名思义,你将在这篇这篇文章中学习到无监督特征学习和深度学习的主要观点. UFLDL全文出处在这:http://ufldl.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B,本文为本人原创,参考了UFLDL的教程,是我自己个人对于这一系列教程的理解以及自己的实验结果.非盈利性质网站转载请在文章开头处著名本

机器学习:概念与理解(二):回归、稀疏与正则约束 ridge regression,Lasso

"机器学习:概念与理解"系列,我本着开放与共享(open and share)的精神撰写,目的是让更多的人了解机器学习的概念,理解其原理,学会应用.现在网上各种技术类文章很多,不乏大牛的精辟见解,但也有很多滥竽充数.误导读者的.这个系列对教课书籍和网络资源进行汇总.理解与整理,力求一击中的,通俗易懂.机器学习很难,是因为她有很扎实的理论基础,复杂的公式推导:机器学习也很简单,是因为对她不甚了解的人也可以轻易使用.我希望好好地梳理一些基础方法模型,输出一些真正有长期参考价值的内容,让更多

Android 性能优化之稀疏数组SparseArray&lt;E&gt;

SparseArray<E> 就是对数组的压缩,用一种压缩方式来表示数组. 在我们定义数组的时候 ,数组中 有时候会有大部分内容 未被使用(或为0),造成内存控件的浪费.为了节省内存控件,且不影响数组中原有的数据,我们就采用了一种压缩方式来表示数组.   图中黄色显示的是我们使用了的元素,这里其他 元素都被浪费了 .来看看 用 稀疏 数组 表示的 方法 稀疏数组的 第一部分 表示了 数组的行数 .列数.以及元素使用的个数.第二部分 记录了 使用了的 元素在 原数组中的 位置 及 内容 . Sp