深度学习在 CTR 中应用

欢迎大家前往腾讯云技术社区,获取更多腾讯海量技术实践干货哦~

作者:高航

一. Wide&&Deep 模型

首先给出Wide && Deep [1] 网络结构:

本质上是线性模型(左边部分, Wide model)和DNN的融合(右边部分,Deep Model)。

推荐系统需要解决两个问题:

记忆性: 比如通过历史数据知道”麻雀会飞”,”鸽子会飞”

泛化性: 推断在历史数据中从未见过的情形,”带翅膀的动物会飞”

WideDeep是怎么解决这两个问题呢?

Wide模型:

比如现在有一个点餐推荐APP,我输入炸鸡(query),那么会给我进行推荐其他相关的食物(item),那么模型目地就是为了希望知道给定了query, 消费item的概率, 即: P(消费| query, item). 那我们就可以通过构建出一系列(query, item)的cross 特征, 通过LR去学习到这些不同的cross特征与target = 消费 的相关性。比如(query = “炸鸡”, item = “啤酒”) 与target = 消费 ,通过历史数据学习到有很强的相关性,那么就推荐给炸鸡。

Deep模型:

现在我厌倦了推荐的结果,希望推一些让我惊喜的食物,上面的wide模型,我们构建的cross特征也是有限的,不能面面俱到,cross特征或许可以是三个类别,四个类别。所以,需要deep模型自动帮我们做一些特征。每个特征可以映射到一个低维空间去,学习到一个低维dense的表达(embedding vector)。 那么给定一个query, 我们可以在embedding space中找距离相近的item, 认为是潜在喜欢的item

Wide模型与Deep模型的结合,目的是为了平衡记忆性和泛化性的结果.

二. FNN,SNN 模型

和wide deep出发点一样, 一些线性模型LR很难学到非线性表达, 非线性模型比如FM, GBDT又很难学到所有的特征组合方式。那么,如何利用DNN去自动学习到特征表达,自动去学习到特征之间的交叉呢?

FNN模型结构[2]:

首先需要对category特征进行一个one-hot编码。

l1, l2层都是隐藏层,那么, dense real layer 就可以看作一个embedding层, 每个field 分别 对应一个embedding的过程。通常,使用FM去初始化这些参数往往能够更快地收敛,最大限制避免训练过程中陷入局部最小,以及得到更好的结果。可以看到,FNN其实就是widedeep模型的deep部分,但是FNN有用FM进行一个参数初始化的过程。

SNN模型结构:

SNN和FNN模型区别于最底层的训练方法, FNN最底层先用FM初始化,可以看到,SNN最底层是全连接的,不区分不同的field。 初始化采用RBM(限制玻尔兹曼机) 和 DAE(自动编码机)。

训练过程中,没有每轮迭代都会用到所有的特征,对为0的单元进行一个下采样操作,图中黑色的单元即是没有被选取到,不参与参数迭代。计算复杂度得到大量的减少。

文章在iPinYou数据集上进行评测,可以看到FNN效果优于FM,LR。

文章对调参也给出了一些经验

  1. 网络结构,通常,钻石型的网络结构往往优于其他结构

    1. 隐藏层单元数不是越高越好,中间有一个临界值达到最优.
  2. Dropout在数据量本来就很稀疏的情况下尽量不用,不同的数据集dropout表现差距比较大。

三. PNN 模型

PNN[3]的网络结构:

PNN的结构的思想相比于WideDeep模型核心改动地方在对于embedding后的dense feature,增加了两两交叉的功能,widedeep是embedding feature全部输入到隐藏层了。不同field经过Embedding后的特征做点击运算其实就相当于FM,那么PNN认为首先需要确保学习到这些交叉特征,再去额外交给DNN去学习更复杂的交叉特征。那么PNN结构其实相当于FM+DEEP。

再说下网络细节: Embedding layer 和Wide Deep模型是一样的, 不同field特征映射到了一个embedding的空间上,这时,不是所有的特征直接送到一个NN网络里面去,这里分成两个部分z 和p。 z部分直接就是原始的embedding特征不变; P部分是embedding特征两两做内积运算,达到FM的效果,接下来z和p拼接成一个vector, 送到一个NN网络里面,最后softmax输出概率值。

四. DeepFM 模型

DeepFM[4]的网络结构:

可以看到,很像PNN结构,只是在这里FM没有和原始特征一起送到NN中去训练,而是单独拿出来类似于WIDE模型。其实就是WideDeep模型中Wide侧替换为FM。

五. NFM 模型

NFM模型[5]的网络结构:

首先,也是经过全连接得到embedding层,输入是

分别是不同特征对应的相同维数的embedding向量。接下来,这些embedding向量两两做element-wise的相乘运算得到B-interaction layer。(element-wide运算举例: (1,2,3)element-wide相乘(4,5,6)结果是(4,10,18)。)

该B-interaction Layer 得到的是一个和embedding维数相同的向量。然后后面接几个隐藏层输出结果。

为什么这么做呢?首先看如果B-interaction layer后面不接隐藏层,直接把向量的元素相加输出结果(对应下面的公式h=(1,1,1,...,1)) , 就是一个FM, 就好比一个线性模型,权重都是1 :

现在后面增加了隐藏层,相当于做了更高阶的FM,更加增强了非线性表达能力。

六. AFM 模型

AFM模型[6]的网络结构:

AFM是NFM模型的一个改进, 在传统FM模型中,使用二阶交叉特征得到非线性表达能力,但是不是所有的特征交叉都会有预测能力,很多无用的特征交叉加入后反而会相当于加入了噪声。

因此,在这个模型中,加入了Attention Net 机制,aij表示特征i,j交叉的权重。计算方式如下: 经过一个attention net的隐藏层,得到该特征交叉的权重

最后的预测方式和NFM类似, 当P=(1,1,1,...,1),是加了权重的FM, 后面也可以和NFM一样增加隐藏层,得到更高阶特征的表达能力。

结语: 没有万能的模型,针对不同的业务可能需要选择不同的模型,比如如果需要解释能力强的,那么不妨选择AFM模型, Wide Deep实际中应用比较广,效果也可以,但是很难定位问题,也难分析Deep侧的特征重要性。同时网络结构需要不断尝试,或许我们都可以embedding到一个固定的维数后,可以把这个embedding特征当作图像来做,做卷积,pooling, 说不定有惊喜,达到去噪声的目的。

参考文献

[1] Cheng H T, Koc L, Harmsen J, et al. Wide & Deep Learning for Recommender Systems[J]. 2016:7-10.

[2] Zhang, Weinan, T. Du, and J. Wang. "Deep Learning over Multi-field Categorical Data: A Case Study on User Response Prediction." (2016).

[3] Qu Y, Cai H, Ren K, et al. Product-Based Neural Networks for User Response Prediction[J]. 2016:1149-1154.

[4] Guo H, Tang R, Ye Y, et al. DeepFM: A Factorization-Machine based Neural Network for CTR Prediction[J]. 2017.

[5] He X, Chua T S. Neural Factorization Machines for Sparse Predictive Analytics[J]. 2017.

[6] Xiao J, Ye H, He X, et al. Attentional factorization machines: Learning the weight of feature interactions via attention networks[C]. IJCAI, 2017.

相关阅读

基于 word2vec 和 CNN 的文本分类 :综述 & 实践

深度学习的异构硬件加速:TPU 特性与数据中心的 ASIC 应用(概述篇)

基于深度学习的图像真实风格迁移



此文已由作者授权腾讯云技术社区发布,转载请注明文章出处

原文链接:https://cloud.tencent.com/community/article/817449

时间: 2024-12-23 04:29:08

深度学习在 CTR 中应用的相关文章

深度学习在图像识别中的研究进展与展望

深度学习在图像识别中的研究进展与展望 深度学习是近十年来人工智能领域取得的最重要的突破之一.它在语音识别.自然语言处理.计算机视觉.图像与视频分析.多媒体等诸多领域都取得了巨大成功.本文将重点介绍深度学习在物体识别.物体检测.视频分析的最新研究进展,并探讨其发展趋势. 1.深度学习发展历史的回顾 现在的深度学习模型属于神经网络.神经网络的历史可以追溯到上世纪四十年代,曾经在八九十年代流行.神经网络试图通过大脑认知的机理,解决各种机器学习的问题.1986年Rumelhart.Hinton和Will

【王晓刚】深度学习在图像识别中的研究进展与展望

深度学习是近十年来人工智能领域取得的最重要的突破之一.它在语音识别.自然语言处理.计算机视觉.图像与视频分析.多媒体等诸多领域都取得了巨大成功.本文将重点介绍深度学习在物体识别.物体检测.视频分析的最新研究进展,并探讨其发展趋势. 1. 深度学习发展历史的回顾 现有的深度学习模型属于神经网络.神经网络的历史可追述到上世纪四十年代,曾经在八九十年代流行.神经网络试图通过模拟大脑认知的机理,解决各种机器学习的问题.1986 年Rumelhart,Hinton 和Williams 在<自然>发表了著

深度学习在CTR预估中的应用

欢迎大家前往腾讯云+社区,获取更多腾讯海量技术实践干货哦~ 本文由鹅厂优文发表于云+社区专栏 一.前言 二.深度学习模型 1. Factorization-machine(FM) FM = LR+ embedding 2. Deep Neural Network(DNN) 3. Factorisation-machine supported Neural Networks (FNN) 4. Product-based Neural Network(PNN) 5. Wide & Deep Lear

深度学习计算模型中“门函数(Gating Function)”的作用

/* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/ author: 张俊林 看深度学习文献,门函数基本上已经是你必然会遇到的一个概念了,最典型的就是LSTM,首先上来你就得过得去"遗忘门""输入门""输出门"这三个门.门函数本身是个独立概念,不过LSTM使用多个门函数来组合出一个带有状态记忆的计算模型而已.随着LSTM大行其道,各种计算模型开始在计算过程中引入门函数的概念,相信这些论文你也没少看,其实这也是一种研究模式,比如

基于深度学习的图像分类中代码的error

Image classifaction with deep learning 在本次的project中我利用NVIDIA DIGITS网页版深度学习框架实现深度神经网络的简单可视化训练和设计,但出现过很多error 1.搭环境问题 我在Ubuntu的系统下进行配置,安装cuda.cudnn.caffe及其相关依赖 错误一: make all -j8出现错误 /usr/bin/ld: cannot find -lhdf5_hl /usr/bin/ld: cannot find -lhdf5 col

深度学习大规模MIMO中的功率分配

摘要-本文使用深度学习的方法在大规模MIMO网络的下行链路中执行max-min和max-prod功率分配.更确切地说,与传统的面向优化的方法相比,训练深度神经网络来学习用户设备(UE)的位置和最优功率分配策略之间的映射,然后用于预测新的UE集合的功率分配曲线?与传统的优化定向方法相比,使用深度学习的方法显著提高了功率分配的复杂性-性能折衷?特别地,所提出的方法不需要计算任何统计平均值,而是需要使用标准方法来计算,并且能够保证接近最优的性能. 1 引言 大规模MIMO是指一种无线网络技术,其中基站

吴恩达深度学习:python中的广播

1.python中的广播: (1)广播是一种手段,可以让python代码执行得更快,我们来看看python实际如何执行. 下面矩阵列出了100克苹果.牛肉.鸡蛋和蛋白质中含有的碳水化合物.蛋白质和脂肪的数量 比如说我们的目标是四种食物中卡路里有多少百分比.比如100克苹果中有56+1.2+1.8卡路里,然后苹果中来自碳水化合物的卡路里占比是百分之56/59=94.4%,所以苹果中大部分的热量都来自碳水化合物.我们要做的计算就是对上面四列数据求和,得到100g上面食物中卡路里的总量,这些食物分别是

从零开始学会GAN 1:第一部分 介绍生成式深度学习(连载中)

生成模型的框架 让我们从两维开始玩生成模型游戏. 我选择了一条规则,用于生成图1-4中的X点集.我们称这个规则为pdata. 您面临的挑战是在空间中选择不同的数据点x =(x1,x2),使它看起来是由同一规则生成的. 图1-4 由一个未知规则pdata生成的一组二维点 你在哪里选择呢? 呢可能使用你对现有数据点的了解来构建心理模型pmodel,该模型可能更容易找到空间中的位置. 在这方面,pmodel是pdata的估计值. 也许你认为pmodel应该如图1-5所示 - 一个可以找到点的矩形框,以

【深度学习】计算机视觉中的 Single-Scale 和 Multi-Scale

Single-Scale:是指把一张图片送到 CNN : Multi-Scale:一般会送到 CNN 十张图片:比如高宽是 256 Χ 256 的图片,Multi-Scale会在它的四个角以及中心裁剪 5 张 224 Χ 224 的图片,然后再进行翻转,总共得到十张图片,最后全部送到 CNN. 原文地址:https://www.cnblogs.com/xxxxxxxxx/p/11629657.html