DNN论文分享 - Item2vec: Neural Item Embedding for Collaborative Filtering

前置点评: 这篇文章比较朴素,创新性不高,基本是参照了google的word2vec方法,应用到推荐场景的i2i相似度计算中,但实际效果看还有有提升的。主要做法是把item视为word,用户的行为序列视为一个集合,item间的共现为正样本,并按照item的频率分布进行负样本采样,缺点是相似度的计算还只是利用到了item共现信息,1).忽略了user行为序列信息; 2).没有建模用户对不同item的喜欢程度高低。

-------------------------------------------------

0 背景:

推荐系统中,传统的CF算法都是利用 item2item 关系计算商品间相似性。i2i数据在业界的推荐系统中起着非常重要的作用。传统的i2i的主要计算方法分两类,memory-based和model-based。

作者受nlp中运用embedding算法学习word的latent representation的启发,特别是参考了google发布的的word2vec(Skip-gram with Negative Sampling,SGNS),利用item-based CF 学习item在低维 latent space的 embedding representation,优化i2i的计算。

-------------------------------------------------

1 回顾下google的word2vec:

自然语言处理中的neural embedding尝试把 words and phrases 映射到一个低维语义和句法的向量空间中。

Skip-gram的模型架构:

Skip-gram是利用当前词预测其上下文词。给定一个训练序列,,...,,模型的目标函数是最大化平均的log概率:

目标函数中c中context的大小。c越大,训练样本也就越大,准确率也越高,同时训练时间也会变长。

在skip-gram中, 利用softmax函数定义如下:

W是整个语料库的大小。上式的梯度的计算量正比如W,W通常非常大,直接计算上式是不现实的。为了解决这个问题,google提出了两个方法,一个是hierarchical softmax,另一个方法是negative sample。negative sample的思想本身源自于对Noise Contrastive Estimation的一个简化,具体的,把目标函数修正为:

是噪声分布 ( noise distribution )。即训练目标是使用Logistic regression区分出目标词和噪音词。具体的Pn(w)方面有些trick,google使用的是unigram的3/4方,即,好于unigram,uniform distribution。

另外,由于自然语言中很多高频词出现频率极高,但包含的信息量非常小(如‘is‘ ‘a‘ ‘the‘)。为了balance低频词和高频词,利用简单的概率丢弃词

其中的词频,t的确定比较trick,启发式获得。实际中t大约在附近。

-------------------------------------------------

2 Item2vec算法原理:

Item2vec中把用户浏览的商品集合等价于word2vec中的word的序列,即句子(忽略了商品序列空间信息spatial information) 。出现在同一个集合的商品对视为 positive。对于集合目标函数:

同word2vec,利用负采样,将定义为:

subsample的方式也是同word2vec:

最终,利用SGD方法学习的目标函数max,得到每个商品的embedding representation,商品之间两两计算cosine相似度即为商品的相似度。

-------------------------------------------------

3 Item2vec效果:

对比的baseline方法是基于SVD方法的用户embedding得到的相似度,SVD分解的维度和item2vec的向量维度都取40,详细见paper。数据是应用在music领域的,作者利用web上音乐人的类别进行聚类,同一个颜色的节点表示相同类型的音乐人,结果对比如下:

图a是item2vec的聚合效果,图b是SVD分解的聚合效果,看起来item2vec的聚合效果更好些。

原文https://arxiv.org/pdf/1603.04259v2.pdf

参考文献:

[1] Mikolov T, Sutskever I, Chen K, Corrado GS, Dean J. Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems 2013 (pp. 3111-3119).

原文地址:https://www.cnblogs.com/bentuwuying/p/8271262.html

时间: 2024-11-05 07:33:19

DNN论文分享 - Item2vec: Neural Item Embedding for Collaborative Filtering的相关文章

论文笔记-Item2Vec- Neural Item Embedding for Collaborative Filtering

将word2vec思想拓展到序列item的2vec方法并运用到推荐系统中,实质上可以认为是一种cf 在word2vec中,doc中的word是具有序列关系的,优化目标类似在max对数似然函数 应用在item2vec上,可以有两种看待方式: (1)如果item是强时序关系的,那么对某一次序列中的item,可以看成doc中的word,对其进行word2vec (2)如果item是set-based,不用考虑时序,那么可能需要对word2vec进行变形 论文中对第二种情况进行了描述,有两种变形方式 (

[论文阅读&翻译]Item-to-Item Collaborative Filtering

Amazon.com Recommendations Item-to-Item Collaborative Filtering 个人感受: 这篇论文首先介绍了历史上的三种算法:传统协同过滤.聚类.基于搜索的算法.第一种方法在计算效率.少量数据上表现欠佳:第二种方法准确率欠佳:第三种方法比较"简单",因此提出了大量计算在线下的物品-物品的相似记录进行推荐. 揣测一下作者的思路,计算量大是因为数据量大,但是其中有价值的就是其中购买的物品,而且对于购买的物品来说,我们推荐的也是根据购买的物品

论文笔记-Deep Neural Networks for YouTube Recommendations

从各方资料总结了一下大体思路,论文中很多细节还有待细读. 1.引言 youtube视频推荐的三大挑战: (1)规模大:数以亿计 (2)新鲜度:每秒就有很多新视频上传,要考虑用户的实时行为和新视频的推荐,平衡好新视频和好视频.(exploration and exploitation) (3)噪音:用户历史行为很稀疏并且有各种难以观测的隐性因子.而视频本身数据也是非结构化的.推荐算法需要有很好的鲁棒性. 2.系统概览 和我们熟知的召回.排序流程是一样的.这里候选集的生成除了使用dnn生成的之外,还

论文分享 摘要生成 Paper Abstract Writing through Editing Mechanism

论文标题:Paper Abstract Writing through Editing Mechanism 作者:Qingyun Wang, Zhihao Zhou, Lifu Huang, Spencer Whitehead, Boliang Zhang, Heng Ji , Kevin Knight 原文地址:https://www.cnblogs.com/lexinAILab/p/9806386.html

AAAI 2020论文分享:通过识别和翻译交互打造更优的语音翻译模型

2月初,AAAI 2020在美国纽约拉开了帷幕.本届大会百度共有28篇论文被收录.本文将对其中的机器翻译领域入选论文<Synchronous Speech Recognition and Speech-to-Text Translation with Interactive Decoding>进行解读. 一.研究背景 语音翻译技术是指利用计算机实现从一种语言的语音到另外一种语言的语音或文本的自动翻译过程.该技术可以广泛应用于会议演讲.商业会谈.跨境客服.出国旅游等各个领域和场景,具有重要的研究

Deep Learning 论文笔记 (2): Neural network regularization via robust weight factorization

under review as a conference paper at ICLR 2015. Motivation: 本文提出来一种regularization的方法,叫做FaMe (Factored Mean training). The proposed FaMe model aims to apply a similar strategy, yet learns a factorization of each weight matrix such that the factors ar

论文阅读 | Probing Neural Network Understanding of Natural Language Arguments

[code&data] [pdf] 摘要 我们惊讶地发现,伯特在论证推理理解任务中77%的峰值表现仅比未经训练的人类平均基线低3个点.然而,我们表明,这个结果完全是利用数据集中虚假的统计线索得出的.我们分析了这些线索的性质,并证明了一系列的模型都利用了它们.该分析提供了一个对抗数据集的构造,所有模型都在该数据集上实现随机精度.我们的对抗性数据集提供了一个更强的参数理解评估,应该作为未来工作的标准. 1 介绍 论证挖掘是在自然语言文本中确定论证结构的任务.文本段代表主张,包括支持或攻击这些主张的原

论文阅读 | Robust Neural Machine Translation with Doubly Adversarial Inputs

(1)用对抗性的源实例攻击翻译模型; (2)使用对抗性目标输入来保护翻译模型,提高其对对抗性源输入的鲁棒性. 生成对抗输入:基于梯度 (平均损失)  ->  AdvGen 我们的工作处理由白盒NMT模型联合生成的扰动样本  ->  知道受攻击模型的参数 ADVGEN包括encoding, decoding: (1)通过生成对训练损失敏感的对抗性源输入来攻击NMT模型; (2)用对抗性目标输入对NMT模型进行了防御,目的是降低相应对抗性源输入的预测误差. 贡献: 1. 研究了一种用于生成反例的白

论文分享(一)

Functional connectome fingerprinting: identifying individuals using patterns of brain connectivity 1. Research objective 通过Fmri图像识别每个被试 使用连接矩阵预测认知行为 2. Background 来自HCP的126个被试,每个被试扫描2天,6种条件(静息态1和2,工作记忆.情绪.运动.语言) 基于一个含268个节点的图谱,每个被试得到6×(268×268)的功能连接矩