【论文阅读-CTR】<<Deep Learning over Multi-filed Categorical Data -A Case Study On User Response Prediction>>阅读

摘要:

用户反馈预估是搜素、推荐、广告的核心问题;其特征都是多域的分类和数值特征,难以利用;

常用的方法是线性模型+人工特征组合来预估;

本文通过FNN(基于FM)和SNN(基于RBM和DAE)来预估。

1、介绍

常用的ctr预估模型:

1)线性模型:LR->NB->FTRLLR->Bayesian probit regression

优点:容易实现;高效学习

缺点:不能学习特征组合,效果较差

2)非线性模型:FM,GBM

优点:自动学习组合特征

缺点:不能充分利用各种特征组合

很多模型需要人工特征,浅层模型,表达能力不强;对大量复杂数据的建模和泛化能力有限。

DNN在计算机视觉,语音识别,自然语言处理上有优势;

比如通过非监督的预训练,可以获取原始特征的高维表示,这种思路可以用在ctr上:

通过FM、RBM、DAE把分类特征表示成连续特征。

2、相关工作

部分DNN的策略,预训练+fine tune。

3、DNN for CTR

1)FM+FCNN,3hidden layers,第一二层使用tanh激活,第三层使用sigmoid激活

第一层使用FM预训练,预训练的结构和fine tune使用的结构不同,也不会出问题,原因:有识别能力信息的高度模糊,后验权重和先验差别会太大。

2)SNN:

RBM base使用DC训练,DAE使用sgd训练

3)正则化:

L2正则

4、实验

1)策略对比:FNN整体优于SNN,RBMbase SNN和DAE base SNN接近;

2)increase,decrease 差于constant; diamond架构优于所有架构

3)正则:dropout正则相当于bagging,优于L2;

FNN dropout obust;SNN dropout敏感;预计是FNN第一层部分连接,丢弃部分影响不大

时间: 2024-10-14 05:52:19

【论文阅读-CTR】<<Deep Learning over Multi-filed Categorical Data -A Case Study On User Response Prediction>>阅读的相关文章

【论文阅读-CTR】&lt;&lt;Collaborative Filtering for Implicit Feedback Datasets&gt;&gt;阅读

摘要: 以前的推荐使用用户的明确反馈,我们使用隐反馈: 文中方法优化过程和数据量呈线性关系:可以很好地和已有系统融合: 我们讲给出一个方法的解释. 1.介绍 1)电子商务对推荐要求很大 2)传统的推荐方法: 一.基于内容,缺点:数据不好搜集 二.协同过滤:优点:领域无关,可以捕获基于内容难以获得的信息,精度高 缺点:冷启动,基于内容的无此问题 3)推荐系统的数据类型: 一.显性数据:评分,赞同/反对(thumbs-up/down),可用数据少 二.隐性数据:购买.浏览.搜索等,数据多 4)隐性反

Alternating Least Squares(ASL) for Implicit Feedback Datasets的数学推导以及用Python实现

近期在看CF的相关论文,<Collaborative Filtering for Implicit Feedback Datasets>思想非常好,非常easy理解.可是从目标函数 是怎样推导出Xu和Yi的更新公式的推导过程却没有非常好的描写叙述.所以以下写一下 推导: 首先对Xu求导: 当中Y是item矩阵,n*f维,每一行是一个item_vec,C^u是n*n维的对角矩阵. 对角线上的每个元素是c_ui,P(u)是n*1的列向量,它的第i个元素为p_ui. 然后令导数=0,可得: 因为x_

[论文阅读&amp;翻译]Item-to-Item Collaborative Filtering

Amazon.com Recommendations Item-to-Item Collaborative Filtering 个人感受: 这篇论文首先介绍了历史上的三种算法:传统协同过滤.聚类.基于搜索的算法.第一种方法在计算效率.少量数据上表现欠佳:第二种方法准确率欠佳:第三种方法比较"简单",因此提出了大量计算在线下的物品-物品的相似记录进行推荐. 揣测一下作者的思路,计算量大是因为数据量大,但是其中有价值的就是其中购买的物品,而且对于购买的物品来说,我们推荐的也是根据购买的物品

Item-to-Item Collaborative Filtering

Amazon.com Recommendations Item-to-Item Collaborative Filtering 个人感受: 这篇论文首先介绍了历史上的三种算法:传统协同过滤.聚类.基于搜索的算法.第一种方法在计算效率.少量数据上表现欠佳:第二种方法准确率欠佳:第三种方法比较"简单",因此提出了大量计算在线下的物品-物品的相似记录进行推荐. 揣测一下作者的思路,计算量大是因为数据量大,但是其中有价值的就是其中购买的物品,而且对于购买的物品来说,我们推荐的也是根据购买的物品

【RS】Factorization Meets the Neighborhood: a Multifaceted Collaborative Filtering Model - 当因式分解遇上邻域:多层面协同过滤模型

[论文标题]Factorization Meets the Neighborhood: a Multifaceted Collaborative Filtering Model   (35th-ICML,PMLR) [论文作者]Yehuda Koren [论文链接]Paper (9-pages // Double column) [摘要] 推荐系统为用户提供个性化的产品或服务建议.这些系统通常依赖于协同过滤(CF),通过分析过去的事务来建立用户和产品之间的关联.比较成功的CF方法有两种,一种是直

推荐系统(recommender systems):预测电影评分--构造推荐系统的一种方法:协同过滤(collaborative filtering )

协同过滤(collaborative filtering )能自行学习所要使用的特征 如我们有某一个数据集,我们并不知道特征的值是多少,我们有一些用户对电影的评分,但是我们并不知道每部电影的特征(即每部电影到底有多少浪漫成份,有多少动作成份) 假设我们通过采访用户得到每个用户的喜好,如上图中的Alice喜欢爱情电影,不喜欢动作电影,则我们将θ(1)设为[0,5,0],如此设置θ(2),θ(3),θ(4)的值,这样我们有了每个用户的θ的值以及他们对电影的打分,就可以推断出每部电影的x(特征)的值.

collaborative filtering协同过滤

每次我想看电影的时候,都会去问我的朋友,小健.一般他推荐的电影,我都比较喜欢.显然不是所有人都有小健这样的能力.因为我碰巧和小健有类似的品味. 这个生活中的经验,实际上有着广泛的用途. 当系统需要为某个人做出推荐时,一种机器学习的算法是这样工作的:就是在一大群人中找出一部分与他品味类似的人,把这些人的喜欢的东西排序,然后推荐给他. 自然引出两个问题: 谁是与他相近品味的人: 怎么对这些人喜欢的东西排序: 对于上述两个问题有多种不同的答案,不同的答案意味着不同的算法. --- 问题1的答案有两种:

亚马逊 协同过滤算法 Collaborative filtering

这节课时郭强的三维课.他讲的是MAYA和max .自己对这个也不怎么的感兴趣.而且这个课感觉属于数字媒体.自己对游戏,动画,这些东西一点都不兴趣,比如大一的时候刚开学的时候,张瑞的数字媒体的导论课.还有就是秀霞的动画课,自己记录一下自己的思想我在网上看见了这样一个说法,说的是跟着本科生导师做项目.就比如一个人说的,先找一个APP运行一遍,然后再这个基础上修改,各种的粘贴代码.是继续的做这个项目,还是学一点计算机的基础知识了.开始写算法,亚马逊的协同过滤算法 第一:初次印象,进入一个网站的时候,可

【转载】协同过滤(Collaborative Filtering)

Collaborative Filtering 协同过滤的主要目标:由于网络信息量的增多,用户往往被淹没在信息的海洋里,很难很轻易的找到自己感兴趣的topic.协同过滤就是为了把用户最可能感兴趣的信息推送给用户(Recommer system). 协同过滤的方法: model-base,user-base,item-base,content-base. user-based:搜集用户profile.对于一个active user,找到跟其比较接近(或者相似)的几个neighbour.使用这些ne

协同过滤 Collaborative Filtering

协同过滤 collaborative filtering 人以类聚,物以群分 相似度 1. Jaccard 相似度 定义为两个集合的交并比: Jaccard 距离,定义为 1 - J(A, B),衡量两个集合的区分度: 为什么 Jaccard 不适合协同过滤?—— 只考虑用户有没有看过,没考虑评分大小 2. 余弦相似度 根据两个向量夹角的余弦值来衡量相似度: 为什么余弦相似度不适合协同过滤?—— 不同用户各自评分总和不一样,导致评分占总比不一样,可能计算出和事实相反的结果. 3. Pearson