基于多因素的搭配推荐模型

之所以起这个名字是因为对应之前的搭配推荐模型,如之前的博客 基于图像信息的搭配商品推荐 中所述,可以看做是基于单因素对搭配进行建模,即认为搭配的商品应该在单因素--风格上相似,然后在对商品映射后的latent space即风格空间中,搭配的商品的距离会更接近。

然后更进一步很自然的想法就是:

1)相互搭配的商品是可以在多个因素上近似的,比如款式、材质、印花、颜色等,而用风格这一个概念来概括就显得有些粗糙。

2)可以与一个主商品进行搭配的pair商品也可以是多种风格的,比如一件T恤可以跟不同风格的下装搭配,搭出运动、休闲、淑女等不同的风格。

基于这两种不同的思路,可以采用不同的两种方式进行建模。

1. Learning Compatibility Across Categories for Heterogeneous Item Recommendation

这篇paper提出一种方法:Mixtures of Non-Metric Embeddings for Recommendation, 简称Monomer,是为了对multiple localized notions of relatedness进行建模,即搭配的商品pair之间是可以有多种方面的因素的,而之前的搭配建模方式是只能学习到global notion of relatedness,这也是这种方法能够产出多样性搭配推荐结果的关键点。

建模方式:

1)Low-rank Mahalanobis Metric

将E看作是商品原始向量到latent space向量的映射关系,则映射后商品pair之间的距离是

2)Multiple, Non-Metric Embeddings

因为考虑到相互搭配的商品是可以在多个因素上近似的,比如款式、材质、印花、颜色等,而用风格这一个概念来概括就显得有些粗糙。所以可以有多个E,即用Ek来表示,每个Ek可以看作是一种特征提取的方式。其中第k种映射空间上,商品pair之间的距离为:

3)Probabilistic Mixtures of Embeddings

将N种映射方式上的预测距离加权求和,那么权重如何确定呢?考虑到非对称的设定,应该主要与主商品的特征相关。如下:

where U  is a newly-introduced F*N  parameter matrix with U:;k  being its k -th column.

最终,商品pair的距离为:

模型训练:

采用最大似然估计的方式计算loss并进行模型训练。

2. Compatibility Family Learning for Item Recommendation and Generation

这篇paper同样是基于多因素进行搭配关系的建模,但与上一篇paper不同的是,主要假设是:可以与一个主商品进行搭配的pair商品可以是多种风格的。

paper提出了一种end-to-end的模型,将每个item映射到latent space上的K+1的向量,其中1个向量代表该item,另外K个向量代表该item的K个compatible prototypes,这些prototypes反应了搭配建模中的多样性,即可以与一个主商品进行搭配的pair商品可以是多种风格的。这K+1个向量即是该item的 compatibility family。

建模方式:

1)Projected Compatibility Distance

PCD是用于衡量两个商品之间的搭配关系的。

每个item可以被E0映射为一个向量;另外还可以被Ek(k=1,2,...,K)映射为K个向量,每个向量都靠近与其搭配的商品所组成的cluster。PCD的计算方式如下:

用图来表示的话:

2)最大似然估计

Ek(k=1,2,...,K)的大多数网络层参数都是共享的,只有最后一层参数是独立训练的。

使用最大似然估计进行建模:

模型训练:

p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 14.0px Helvetica }
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 10.0px Helvetica }
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 10.0px Helvetica }
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 10.0px Helvetica }
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 10.0px Helvetica }
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 10.0px Helvetica }
span.s1 { font: 7.0px Helvetica }
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 14.5px Helvetica }
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 11.0px Helvetica }

原文地址:https://www.cnblogs.com/bentuwuying/p/9348458.html

时间: 2024-08-30 18:27:40

基于多因素的搭配推荐模型的相关文章

基于两两交互张量分解模型的个性化标签推荐

基于PITF的个性化标签推荐 摘要 关键词 引言 相关工作 个性化标签推荐 非个性化标签推荐 张量分解模型 成对交互模型 个性化标签推荐 形式化定义 数据分析 标签推荐的贝叶斯个性化排序BPR BPR最优化准则 BPR学习算法 张量分解模型 塔克分解模型TDTF 规范化分解模型CDTF 成对交互张量分解模型PITF TDCD和PITF之间的关系 实验评价 数据集 评价方法 实验结果 学习运行时间 预测质量 ECMLPKDD 2009知识发现挑战赛 结论和未来工作 基于PITF的个性化标签推荐 摘

基于Spark ALS构建商品推荐引擎

基于Spark ALS构建商品推荐引擎 一般来讲,推荐引擎试图对用户与某类物品之间的联系建模,其想法是预测人们可能喜好的物品并通过探索物品之间的联系来辅助这个过程,让用户能更快速.更准确的获得所需要的信息,提升用户的体验.参与度以及物品对用户的吸引力. 在开始之前,先了解一下推荐模型的分类: 1.基于内容的过滤:利用物品的内容或是属性信息以及某些相似度定义,求出与该物品类似的物品 2.协同过滤:利用大量已有的用户偏好来估计用户对其未接触过的物品的喜好程度 3.矩阵分解(包括显示矩阵分解.隐式矩阵

DNN个性化推荐模型

0 推荐技术 1)协同过滤: (1)基于user的协同过滤:根据历史日志中用户年龄,性别,行为,偏好等特征计算user之间的相似度,根据相似user对item的评分推荐item.缺点:新用户冷启动问题和数据稀疏不能找到置信的相似用户进行推荐. (2)基于item的协同过滤:根据item维度的特征计算item之间的相似度,推荐user偏好item相似的item. (3)基于社交网络:根据user社交网络亲密关系,推荐亲密的user偏好的item. (4)基于模型:LR模型,user和item等维度

基于KNN的相关内容推荐

如果做网站的内容运营,相关内容推荐可以帮助用户更快地寻找和发现感兴趣的信息,从而提升网站内容浏览的流畅性,进而提升网站的价值转化.相关内容 推荐最常见的两块就是“关联推荐”和“相关内容推荐”,关联推荐就是我们常说的购物篮分析,即使用购买了某商品的用户同时购买了什么这个规则来发现商品间 的潜在联系,之前有相关的文章介绍——向上营销.交叉营销与关联推荐:关联推荐是基于用户行为分析的推荐,而相关内容推荐是基于内容固有特征的推荐,只与内容本身有关,与用户的行为完全无关,所以相关内容推荐的模型是一种“冷启

社交网络中基于张量分解的好友推荐

社交网络中基于张量分解的好友推荐 摘要 引言 相关研究 问题描述 所提好友推荐方法 实验验证 结论 摘要 社交网络中快速增长的用户对现有好友推荐系统提出了挑战.本文我们用张量分解模型基于用户的标签行为信息提出了一种新的推荐框架,解决社交网络中的好友推荐问题.该研究有两个主要贡献:(1)提出了一种新的张量模型来刻画社会化标签系统中用户.用户兴趣和朋友之间的潜在关联:(2)基于上述模型提出了一种新的好友推荐方法.在一个真实数据集上的实验表明所提算法由于当前最优算法. 引言 随着互联网上用户和电子媒体

基于关联规则的电子商务智能推荐服务--实例讲解

学习目标 了解网站如何记录用户的访问数据,深入了解在网站如何根据用户的历史访问数据进行关联规则分析,解决网页智能推荐问题,同时在访问数据中提取用户的访问特征,对用户群体进行划分,针对不同用户群进行推荐. 课程目标:了解网站如何记录用户的访问数据,深入了解网站如何根据用户的历史访问数据进行关联规则分析,解决网页智能推荐问题,同时在           访问数据中提取用户的访问特征,对用户群体进行划分,针对不同用户群进行推荐. 课程特色:网站智能推荐实用案例讲解 适用人群:数学专业,数据挖掘专业,数

基于word2vec的文档向量模型的应用

基于word2vec的文档向量模型的应用 word2vec的原理以及训练过程具体细节就不介绍了,推荐两篇文档:<word2vec parameter learning explained>.和<word2vec中的数学>. 在<word2vec中的数学>中谈到了训练语言模型的一些方法:比如n-gram和神经网络.在使用神经网络训练语言模型时得到的"副产物",就是word2vec词向量.基于神经网络训练语言模型有2种方案:cbow和skip-gram,

ALS矩阵分解推荐模型

其实通过模型来预测一个user对一个item的评分,思想类似线性回归做预测,大致如下 定义一个预测模型(数学公式), 然后确定一个损失函数, 将已有数据作为训练集, 不断迭代来最小化损失函数的值, 最终确定参数,把参数套到预测模型中做预测. 矩阵分解的预测模型是: 损失函数是: 我们就是要最小化损失函数,从而求得参数q和p. 矩阵分解模型的物理意义 我们希望学习到一个P代表user的特征,Q代表item的特征.特征的每一个维度代表一个隐性因子,比如对电影来说,这些隐性因子可能是导演,演员等.当然

基于用户的协同过滤推荐算法原理和实现

在推荐系统众多方法中,基于用户的协同过滤推荐算法是最早诞生的,原理也较为简单.该算法1992年提出并用于邮件过滤系统,两年后1994年被 GroupLens 用于新闻过滤.一直到2000年,该算法都是推荐系统领域最著名的算法. 本文简单介绍基于用户的协同过滤算法思想以及原理,最后基于该算法实现园友的推荐,即根据你关注的人,为你推荐博客园中其他你有可能感兴趣的人. 基本思想 俗话说"物以类聚.人以群分",拿看电影这个例子来说,如果你喜欢<蝙蝠侠>.<碟中谍>.&l