推荐系统--二部图方法

参考周涛的几篇二部图的文章做的实验文章列表:

1,2007PRE Bipartite network projection and personal recommendation.pdf (网络结构)

2,2010PNAS-Solving the apparent diversity-accuracy dilemma of recommender systems.pdf (物质扩散和热传导)

  Heats和Pros的简单融合算法

3,2009NJP Accurate and diverse recommendations via eliminating redundant correlations.pdf (多步物质扩散)

  2008EPL Effect of initial configuration on network-based Recommendation.pdf (初始资源分配)

  这两篇是对Pros算法的改进,提高很明显,分别提高9%,(我的试验试验中正确率从16%多到17.8%),20%(试验中从17.8%到      20.5%左  右,细调一下参数可以到21%以上)

此外。这一系列文章中提出一些新的判别指标,不同于与往常评估的precision,recall,popular,cover(覆盖率)(参见推荐系统实战)

这里采用的判别指标有:

rangking score:其实就是第一个推荐正确的物品出现的位置,比如出现在30th,而共有1500个未收集物品,则rat=0.02%,这个值越小代表        结果越好

novelty=mean(log2(u/ka)),u是用户总数,ka是select物品a的用户数,其实是流行度pop的倒数取log,这个值越大越好。

diversity:这个我认为非常有创造性的一个指标,作者将其分为内在相似度(intra-similarity)和外在差异度(inter-diversity)

1,intra: 同一用户不同物品之间的相似度,理应小点好,Il=1/(l*(l-1))*Σi+jSij,l是推荐列表的长度,I=1/m*Σ1~m  I,    m是用户数

      Sij由CF得到,Sij=(k(oi)*k(oj))-1/21~m ( ail*ajl)

2, inter:Hij=1-qij(N)/N=1-Q/L,Q是用户i,j推荐列表中相同的物品数目

    S=1/(m*(m-1))ΣHij,显然inter-diversity越大越好

I与S之间没有直接的关系。

数据集用的Movielens-100K,指标是用的传统的precision,还有recall,pop等,就不上图了

下面是实验结果:

  1,资源初始分配参数beta-precision

      2,beta=-0.3时,w+alpha*w^2,做多步扩散,消除冗余信息,alpha-precision

    3,alpha=-0.75,beta-precision

从结果图来看,先确定alpha再确定beta结果会好点,暂时不清楚有没有更好的方法来同时调节这俩参数,来使结果最优,论文中beta=-0.8,alpha=-0.75,但是由于这里指标用的和它不同,所以参数会有些许差别,21%的结果已经优于user-KNN算法取领域为50的结果20.08%,内存上俩着占用差不多,时间上这个方法只需要3~5s,而KNN-50要80s左右。

时间: 2024-10-24 14:31:59

推荐系统--二部图方法的相关文章

推荐系统评测方法

什么才是好的推荐系统?以图书推荐系统为例: 首先推荐系统要满足用户的需求,要尽可能地覆盖各种图书,要能收集到高质量的用户反馈,增加用户和图书网站的交互,提高网站的收入.要能够准确预测用户的行为,还要扩展用户的视野,帮助用户发现那些他们可能会感兴趣的但却不那么容易发现的东西.本文主要从用户,网站,内容提供方提出不同的指标. 三种推荐系统实验方法 1.离线实验(offline experiment) 实施步骤: (1)将从日志系统收集来的用户行为数据,生成为一个标准的数据集: (2)按照一定的规则,

(4)推荐系统评测方法和指标分析

选择合适的评测方法对推荐系统进行评测,对于提高推荐系统的推荐质量至关重要.评测方法主要有离线实验,用户调查和在线实验三种.离线实验使用服务器日志文件中的用户行为数据进行评测.用户调查需要有真实的用户参与推荐系统的测试,以获得关于推荐系统推荐质量的宝贵信息.可以进行在线实验做AB测试,获得不同算法在线时的性能指标.除推荐系统的评测方法外,还有若干评测指标可以对推荐系统各方面的性能进行评价,这些评测指标包括用户满意度,预测准确度,覆盖率,多样性,新颖性,惊喜度,信任度,实时性和健壮性等. 原文地址:

推荐系统系列3-基于决策树做推荐系统的方法

1.决策树概念 决策树是基于树的结构来进行决策的,这与人类的认知方法类似,例如:今天会下雨么?针对此问题我们首先会进行一系列的判断或者决策:今天阴天么,如果阴天,大概率 会下雨:如果晴天,大概率不下雨.如图1. 图1 2.文本分类 所谓文本分类,就是基于文本的特征将其划分到具体的类别当中,与决策树类似.只需要将文本的特征实例化,就可以将决策树的概念融合到文本分类中. 图2 3.xgboost XGBoost(eXtreme Gradient Boosting)全名叫极端梯度提升,本质上是一种高级

Paper Reading:个性化推荐系统的研究进展

论文:个性化推荐系统的研究进展 发表时间:2009 发表作者:刘建国,周涛,汪秉宏 论文链接:论文链接 本文发表在2009,对经典个性化推荐算法做了基本的介绍,是非常好的一篇中文推荐系统方面的文章. 个性化推荐系统通过建立用户与信息产品之间的二元关系 , 利用已有的选择过程或相似性关系挖掘每个用户潜在感兴趣的对象 , 进而进行个性化推荐, 其 本质就是信息过滤. 事实上, 它是目前解决信息过载问题最有效的工具 .文中根据推荐算法的不同, 分别介绍了协同过滤系统, 基于内容的推荐系统 , 混合推荐

题记 《推荐系统实践》读书笔记

<推荐系统实践>是一本入门级书籍,全书不到200页,通熟易懂,非常适合初学者.记不起上次阅读该书是什么时候,可以确定的是很定不超过三个月,今天回想梳理全书结构,甚是模糊,而是打算重读一遍.并在这里留下些许痕迹,以帮助日后回忆之用.对本笔记内容感兴趣的读者还请购买正版书籍,尊重作者权益! 作者介绍如下: 项亮,毕业于中国科学技术大学和中国科学院自动化所,研究方向为机器学习和推荐系统,现任职于北京Hulu软件技术开发有限公司,从事视频推荐的研究和开发.2009年参加Netflix Prize推荐系

基于矩阵分解的推荐系统应用

使用MATLAB尝试了随机梯度下降的矩阵分解方法,实现了一个比较简单的推荐系统的原理. 常用推荐系统的方法有协同过滤,    基于物品内容过滤等等. 这次是用的矩阵分解模型属于协同过滤的一种方法,大致原理是通过一定数量的因子来描述各个用户的喜好和各个物品的属性. 通过随机梯度下降法分解后得到两个矩阵,一个是用户因子矩阵,另一个是物品因子矩阵. 这两个矩阵相乘可以得到所有用户对所有电影的预测评分. 以Movie-Lens数据集举例,这包含943个用户对1682部电影的十万条评分. 第一列用户编号,

推荐系统:技术、评估及高效算法

这篇是计算机类的优质预售推荐>>>><推荐系统:技术.评估及高效算法> 内容简介 本书汇聚不同领域专家学者的理论成果和实践经验,全面介绍推荐系统的主要概念.理论.趋势.挑战和应用,详细阐释如何支持用户决策.计划和购买过程.书中既详细讲解了经典方法,又介绍了一些新研究成果,内容涵盖人工智能.人机交互.信息技术.数据挖掘.统计学.自适应用户界面.决策支持系统.市场和客户行为等领域,无论是从事技术开发,还是从事产品营销的读者,都能从中受益. 本书可分成五部分,共25章.第1章

上下文感知推荐系统

在推荐系统领域,人们往往只关注"用户-项目"之间的关联关系,而较少考虑它们所处的上下文环境(如时间.位置.周围人员.情绪.活动状态.网络条件等等).但是在许多应用场景下,仅仅依靠"用户-项目"二元关系并不能生成有效推荐.例如,有的用户更喜欢在"早上"而不是"中午"被推荐合适的新闻信息:有的用户在不同的心情可能会希望被推荐不同类型的音乐. 上下文感知推荐系统领域的几个主题 推荐系统中的上下文建模技术; 推荐系统中基于上下文感知

推荐系统-协同过滤原理与实现

一.基本介绍 1. 推荐系统任务 推荐系统的任务就是联系用户和信息一方面帮助用户发现对自己有价值的信息,而另一方面让信息能够展现在对它感兴趣的用户面前从而实现信息消费者和信息生产者的双赢. 2. 与搜索引擎比较 相同点:帮助用户快速发现有用信息的工具 不同点:和搜索引擎不同的是推荐系统不需要用户提供明确的需求而是通过分析用户的历史行为来给用户的兴趣建模从而主动给用户推荐出能够满足他们兴趣和需求的信息. 3. 长尾理论 长尾讲述的是这样一个故事:以前被认为是边缘化的.地下的.独立(艺人?)的产品现