Graph-based Semi-Supervised Classification简单总结回顾

复习一下基本的基于图的半监督分类。主要给出LLGC,GFHF的构图及原理,以及LNP,RMGT的构图方式。

1. LLGC:Learning with Local and Global Consistency

首先构造一个相似度矩阵,采用的构图方式为全连接图(full connected graph):

然后构造一个传播矩阵:

其中,D为对角矩阵:

然后基于这个传播矩阵S,进行标签传播:

其中,平衡原有的标记信息和从邻近样本传来的信息。t代表的是迭代次数。当迭代终止,式子收敛时F(t+1)=F(t),则可得到:

最后所预测的标记为:

2. GFHF:Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions

首先构造一个相似度矩阵,采用的是kNN图:

GFHF的目标是:

其中,第一项的权重为无限大是为了使已标记的样本不变,第二项为smoothness constraint,使相近的两个样本具有更小的误差。

其中,为拉普拉斯矩阵。

3. LNP:Linear Neighborhood Propagation and Its Applications

LNP的构图主要是利用了非负线性最小二乘去重构样本,具体公式如下:

4. RMGT: Robust Multi-Class Transductive Learning with Graphs

首先采用的是普通的kNN图:

然后得到最后的图为:

Tips:如果得到的图是一个非对称的矩阵,我们只需要将(w+w‘)/2即可得到对称的矩阵。

时间: 2025-01-17 16:01:55

Graph-based Semi-Supervised Classification简单总结回顾的相关文章

简单的回顾

一:回顾之前内容 1.顶部(py2.7和py3.5顶部解释器,还有一个编码) 解释器 编码(py 2.7 anscii py 3.5 unicode) 2.print("hello ") print "world" 3.编码 anscii 代表英文字符的 unicode 最少使用俩个字节··· utf-8,gbk, ascii->unicode->gbk,utf-8,.... ascii- 一个字节的,8位 unicode 最少2个字节 utf-8 3个

Feature Learning based Deep Supervised Hashing with Pairwise Labels

资源链接:http://download.csdn.net/detail/lilai619/9489498

Java回顾:用一个Demo来说明继承抽象类和实现接口的简单框架模型

大家都知道,在java应用开发中,要"面向接口编程". 那么什么是接口?接口有什么作用?接口如何使用?我们一起来回顾一下. [声明]欢迎转载,但请保留文章原始出处:http://blog.csdn.net/yelangjueqi/article/details/44701369 1,接口回顾: 1.1,Java中接口的概念 在Java中接口是一种特殊的抽象类,跟一般的抽象类相比,接口里面的所有方法都是抽象方法,接口里面的所有属性都是常量.也就是说,接口里面只有方法定义而没有任何方法实现

五.Classification (I) – Tree, Lazy, and Probabilisti

五.Classification (I) – Tree, Lazy, and Probabilistic 五.分类(I)-树,延迟,和概率 In this chapter, we will cover the following recipes: 在本章中,我们将介绍下列菜谱:准备培训和测试数据集 1.Preparing the training and testing datasets Introduction 介绍 Classification is used to identify a c

《Segment-Tree based Cost Aggregation for Stereo Matching》读后感~

前段时间整理博客发现,自己关于立体匹配部分的介绍太少了,这可是自己花了一个季度研究的东西啊!读了自认为大量的文章,基本上有源码的都自己跑了一遍,还改进了多个算法.不写写会留下遗憾的,所以打算在立体匹配这一块多谢谢博客,一来用于分享,二来用于请教,三来用于备忘.本文介绍的文章就是CVPR2013的<Segment-Tree based Cost Aggregation for Stereo Matching>一文,介绍它原因有以下几点: 1.它是NLCA的变种. 2.它是CVPR的文章. 本文还

Character-level Convolutional Networks for Text Classification

Abstract Semantic word spaces have been very useful but cannot express the meaning of longer phrases in a principled way. 语义词空间是非常有用的,但它不能有原则地表达较长短语的意义. Further progress towards understanding compositionality in tasks such as sentiment detection requ

百度技术沙龙第48期回顾:大规模机器学习(含资料下载)

原文:http://www.infoq.com/cn/news/2014/03/baidu-salon48-summary 2014年3月15日,在由@百度主办.@InfoQ负责策划组织和实施的第48期百度技术沙龙活动上,来自百度联盟大数据机器学习技术负责人夏粉,和搜狗精准广告研发部技术经理王晓博,各自分享了其在机器学习方面的实战经验.他们的话题涉及“广告数据上的大规模机器学习”和“大数据场景下主题检索应用”这两个方面,本文将对讲师各自的分享做简单的回顾,同时提供相关资料的下载. 主题一:广告数

简单谈谈为什么国内不能登录Facebook/youtube等国外网站以及解决方法

简单谈谈为什么国内不能登录Facebook/youtube等国外网站以及解决方法让我们来简单地回顾一下近几年的互联网,自从Google对微软步步紧逼之后,国外互联网风起云涌,先后出现了Twitter.Facebook.Youtube等超级巨无霸,这些巨大无朋的互联网公司几乎是一夜之间出现在我们眼前.基本上这几家公司都是在2004年左右创办的, 2004年2月,Facebook由哈佛大学的学生Mark Zuckerberg创办,时隔一年,Youtube于2005年2年由Paypal的三个前员工Ch

编码原理(七) --回顾

上一篇我们讲解了熵编码的另一种方式CABAC,熵编码结束之后,那么整个编码过程的核心过程也就结束了,后续的工作就是为了适配网络发送等做一些封装的工作.本篇对整体的编码过程作一个简单的回顾,整体上感知一下一个像素的矩阵快,是如何一步一步被减肥的,哈哈: 1 DCT变换 经过DCT变换,实现了频率的集中. 2量化 经过量化,我们对DCT变换后的系数进行以QP=28的量化,此时得到了一些左上角集中了非零值的系数矩阵. 3 ZigZag扫描 ZigZag扫描,将二维的系数矩阵转换成一维的序列. 4 熵编