Hierarchical Attention Based Semi-supervised Network Representation Learning

Hierarchical Attention Based Semi-supervised Network Representation Learning

1. 任务

给定:节点信息网络

目标:为每个节点生成一个低维向量

基于半监督的分层关注网络嵌入方法

2. 创新点:

以半监督的方式结合外部信息

1. 提出SHANE 模型,集成节点结构,文本和标签信息,并以半监督的方式学习网络嵌入

2. 使用分层注意网络学习节点的文本特征, 两层双向GRU 提取单词和句子的潜在特征

3. 背景

1. 现有方法通常基于单词获取节点的文本特征矩阵,忽略分层结构(单词、句子)

2. 不同单词和句子包含不同数量信息,如何评估节点内容的差异性

3. 标签,也是重要的监督信息

4. 网络中存在大量未标记节点,如何合理利用

4. 模型

整合节点的结构,文本和标签信息

基于文本的表示学习

使用分层注意机制

4.1. 问题定义

G = (V, E, T, L)

( V: 节点集

E: 边集合

T: 节点的文本信息

L: 标签节点信息 )

节点u 的文本信息Du = (Su1, Su2,...,Suq)

句子信息 Sui = (Wui..)

给定信息网络,目标:为每个节点u 整合其结构和文本信息 学习一个低维向量 u,

4.2. 基于文本的表示

分层学习可获取不同粒度的文本信息

  • 词嵌入:捕获词汇特征
  • 句子嵌入: 捕获文本特征

4.2.1. word 编码器

  • 使用双向 GRU 编码单词序列
  • 使用注意力机制识别重要单词
  • 类似:使用双向GRU 编码句子

假设节点 u 包含 q 个句子, 每个句子包含 m 个单词,通过查询获取句子 Sui 的词语序列

使用双向 GRU 编码单词序列

( 通过连接以上两个方向的 h 可包含两个方向的信息,使用注意机制识别词语的重要性,如下)

( Sui 是节点 u 第 i 个句子的嵌入, Cw 是全局的词语向量,a 是用于句子表示,融合单词嵌入的权重)

4.2.2. 句子编码器

类似单词编码器,类似的双向GRU ,得到分层编码的文本嵌入 ut

为了避免新的表示与原始文本的偏差,获取分层关注网络的嵌入后,添加该节点词嵌入的平均值向量 Uta,得到节点 u 的文本表示 ut

4.3. 基于结构的表示

含有边的两个节点结构相似

CANE 中将每个部分的对数似然表示为

( u 与 v 相连接, Wu,v为权重,Us 是基于结构的嵌入)

u 生成 v 的条件概率为

节点 u 的基于结构的嵌入区别于所连接的节点,结构的最终嵌入为与不同节点连接所得的平均值

( E 为 u 的边)

4.4. 半监督的分层网络嵌入

未标记的节点:只考虑结构和文本特征

为了匹配标签丢失的节点,我们通过全连接层将节点的嵌入映射到标签空间,可预测节点的标签分布

( Ll 表示有标签的节点子集,有标签的节点的目标函数为:)

( lamda 是标签损失权重)

SHANE 的全局目标函数:

5. 实验

原文地址:https://www.cnblogs.com/chaoran/p/9720763.html

时间: 2024-07-30 21:38:35

Hierarchical Attention Based Semi-supervised Network Representation Learning的相关文章

Network Representation Learning/Embedding

转载自: http://blog.csdn.net/u013527419/article/details/74853633  http://blog.csdn.net/u013527419/article/details/76017528 网络表示学习(network representation learning,NRL),也被称为图嵌入方法(graph embedding method,GEM)是这两年兴起的工作,目前很热,许多直接研究网络表示学习的工作和同时优化网络表示+下游任务的工作正在

(转)Predictive learning vs. representation learning 预测学习 与 表示学习

Predictive learning vs. representation learning  预测学习 与 表示学习 When you take a machine learning class, there's a good chance it's divided into a unit on supervised learning and a unit on unsupervised learning. We certainly care about this distinction f

论文笔记之:UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS

UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS  ICLR 2016  摘要:近年来 CNN 在监督学习领域的巨大成功 和 无监督学习领域的无人问津形成了鲜明的对比,本文旨在链接上这两者之间的缺口.提出了一种 deep convolutional generative adversarial networks (DCGANs),that have certai

5、AFM(Attention+FM)-----Attentional Factorization Machines:Learning the Weight of Feature Interactions via Attention Network

1.摘要: 提出一个Attentional FM,Attention模型+因子分解机,其通过Attention学习到特征交叉的权重.因为很显然不是所有的二阶特征交互的重要性都是一样的,如何通过机器自动的从中学习到这些重要性是这篇论文解决的最重要的问题, 比如:作者举了一个例子,在句子"US continues taking a leading role on foreign payment transparency"中,除了"foreign payment transpare

Feature Learning based Deep Supervised Hashing with Pairwise Labels

资源链接:http://download.csdn.net/detail/lilai619/9489498

Attention Please!TWO HUNDREDS OF machine learning turorial summary

Machine Learning The First Column The Second Column Machine Learning 1 从机器学习入手 Machine Learning 2 机器学习很有趣! Machine Learning 3 机器学习规则:ML工程的最佳实践 Machine Learning 4 机器学习速成课程:第一部分 Machine Learning 5 第二部分;伯克利机器学习 Machine Learning 6 第三部分;伯克利机器学习 Machine Le

Graph Representation Learning 图表示学习

参考: http://i.stanford.edu/~jure/pub/talks2/graphsage-ieee_bigdata-dec17a.pdf

Network Embedding 论文小览

Network Embedding 论文小览 转自:http://blog.csdn.net/Dark_Scope/article/details/74279582,感谢分享! 自从word2vec横空出世,似乎一切东西都在被embedding,今天我们要关注的这个领域是Network Embedding,也就是基于一个Graph,将节点或者边投影到低维向量空间中,再用于后续的机器学习或者数据挖掘任务,对于复杂网络来说这是比较新的尝试,而且取得了一些效果. 本文大概梳理了最近几年流行的一些方法和

network embedding 需读论文

Must-read papers on NRL/NE. github: https://github.com/nate-russell/Network-Embedding-Resources NRL: network representation learning. NE: network embedding. Contributed by Cunchao Tu and Yuan Yao. DeepWalk: Online Learning of Social Representations.