《转》探寻微博背后的大数据原理:微博推荐算法简述

“We are leaving the age of information and entering the age of recommendation” — Chris Anderson in The Long Tail。

我们正在远离信息,而进入推荐时代。——克里斯·安德森

  在介绍微博推荐算法之前,我们先聊一聊推荐系统和推荐算法。有这样一些问题:推荐系统适用哪些场景?用来解决什么问题、具有怎样的价值?效果如何衡量?

  推荐系统诞生很早,但真正被大家所重视,缘起于以”facebook”为代表的社会化网络的兴起和以“淘宝“为代表的电商的繁荣,”选择“的时代已经来临,信息和物品的极大丰富,让用户如浩瀚宇宙中的小点,无所适从。推荐系统迎来爆发的机会,变得离用户更近:

  • 快速更新的信息,使用户需要借助群体的智慧,了解当前热点。
  • 信息极度膨胀,带来了高昂的个性化信息获取成本,过滤获取有用信息的效率低下。
  • 很多情况下,用户的个性化需求很难明确表达,比如“今天晚上需要在附近找一个性价比高、又符合我口味的餐馆“。

  推荐系统的适用场景还有很多,不再一一列举;其主要解决的问题是为用户找到合适的 item(连接和排序),并找到一个合理的理由来解释推荐结果。而问题的解决,就是系统的价值,即建立关联、促进流动和传播、加速优胜劣汰。

  推荐算法是实现推荐系统目标的方法和手段。算法与产品相结合,搭载在高效稳定的架构上,才能发挥它的最大功效。

  接下来我们说一下微博推荐,微博本身的产品设计,使得即使没有推荐系统,仍然会形成一个大的用户关系网络,实现信息快速传播;而衡量一个事物的价值,一个简单的方法是对比看看保留它和去掉它时的差别。微博需要健康的用户关系网络,保障用户 feed 流的质量,且需要优质信息快速流动,通过传播淘汰低质信息。微博推荐的作用在于加速这一过程,并在特定的情况下控制信息的流向,所以微博推荐的角色是一个加速器和控制器。

  最后回到微博推荐算法中来,上面扯了那么多,只是为了让大家能对微博推荐算法有更好的理解。我们的工作,是将微博推荐的目标和需要解决的问题,抽样为一系列的数学问题,然后运用多种数据工具进行求解。

  接下来首先用一个图梳理下我们用到的方法和技术,然后再逐一介绍。  

  基础及关联算法

  这一层算法的主要作用是为微博推荐挖掘必要的基础资源、解决推荐时的通用技术问题、完成必要的数据分析为推荐业务提供指导。

  这一部分中常用的算法和技术如下:

  分词技术与核心词提取

  是微博内容推荐的基础,用于将微博内容转化为结构化向量,包括词语切分、词语信息标注、内容核心词/实体词提取、语义依存分析等。

  分类与 anti-spam

  用于微博内容推荐候选的分析,包含微博内容分类和营销广告/色情类微博识别;

  内容分类采用决策树分类模型实现,共 3 级分类体系,148 个类别;营销广告/色情类微博的识别,采用贝叶斯与最大熵的混合模型。

  聚类技术

  主要用于热点话题挖掘,以及为内容相关推荐提供关联资源。属于微博自主研发的聚类技术 WVT 算法(word vector topic),依据微博内容特点和传播规律设计。

  传播模型与用户影响力分析

  开展微博传播模型研究和用户网络影响力分析(包含深度影响力、广度影响力和领域内影响力)。

  主要推荐算法

  1. Graph-based 推荐算法

  微博具有这样的特点:用户贡献内容,社会化途径传播,带来信息的爆炸式传播。之所以称作 graph-based 推荐算法,而不是业界通用的 memory-based 算法,主要原因在于:

  • 我们的推荐算法设计是建立在社交网络之上,核心点在于从社交网络出发,融入信息传播模型,综合利用各类数据,为用户提供最佳的推荐结果;比如很多时候,我们只是信息传播的关键环节,加入必要的推荐调控,改变信息传播通路,后续的传播沿着原来的网络自然的传播。
  • Feed 流推荐(我们称作趋势),是我们最重要的产品,而结果必须包含用户关系。

  从 graph 的宏观角度看,我们的目标是建立一个具有更高价值的用户关系网络,促进优质信息的快速传播,提升 feed 流质量;其中的重要工作是关键节点挖掘、面向关键节点的内容推荐、用户推荐。

  对这部分的算法做相应的梳理,如下面的表格:

  这里的困难点在于 graph 的“边”怎样量化与取舍,依据多个“边”与“节点”的综合评分计算,以及与网络挖掘分析结果的融合。

  这部分的算法研发中,产出了如下的数据附产品:

  2. Content-based 推荐算法

  Content-based 是微博推荐中最常用也是最基础的推荐算法,它的主要技术环节在于候选集的内容结构化分析和相关性运算。

  正文页相关推荐是 content-based 应用最广的地方,以它为例,简要的说一下

  内容分析的很多点已在前面描述过了,这里重点说 2 个地方:

  • 内容质量分析,主要采用微博曝光收益+内容信息量/可读性的方法来综合计算。微博曝光收益是借助用户群体行为,衡量内容优劣;内容信息量计算比较简单,即是微博关键词的 idf 信息迭代;对于内容可读性的衡量,我们做了一个小的分类模型,分别以可读性较好的新闻语料和可读性较差的口语化语料为训练样本,通过提取里面的各类词搭配信息,计算新微博具有良好可读性的概率。
  • 词扩展,content-based 的效果取决于内容分析的深度。微博的内容比较短,可提取的关键信息比较少,做相关运算时容易因为数据稀疏而导致推荐召回率和准确率的难以权衡;我们引入 word2vec 技术,优化了词扩展效果,后面又以此为基础开展词聚类的工作,实现了推荐召回率和准确率的同步提升。

  相关计算的技术点在于向量的量化和距离度量,我们通常使用“tf*idf 权重量化 + 余弦距离”或者“topic 概率 + KLD 距离“的两种方法。

  3. Model-based 推荐算法

  微博作为中国最大的社会化媒体产品,具有海量的用户和信息资源;这就给推荐带来了 2 个挑战:

  来源融合与排序

  候选的极大丰富,意味着我们有更多的选择,于是我们推荐结果的产生包含两层:多种推荐算法的初选与来源融合排序的精选,为了得到更客观准确的排序结果,我们需要引入机器学习模型,来学习隐藏在用户群体行为背后的规律。

  内容动态分类和语义相关

  微博 UGC 的内容生产模式,以及信息快速传播和更新的特点,意味着之前人工标注样本,训练静态分类模型的方法已经过时了,我们需要很好的聚类模型把近期的全量信息聚合成类,然后建立语义相关,完成推荐。

  Model-based 算法就是为了解决上述的问题,下面是我们两块最重要的机器学习工作:

  3. 1 CTR/RPM(每千次推荐关系达成率)预估模型,采用的基本算法为 Logistic regression,下面是我们 CTR 预估模型整体的架构图:

  这部分工作包含样本选择、数据清洗、特征提取与选择、模型训练、在线预估和排序。值得一提的是,模型训练前的数据清洗和噪音剔除非常重要,数据质量是算法效果的上界,我们之前就在这个地方吃过亏。

  Logisitic regression 是一个 2 分类概率模型

  优化的目标在于最大化“样本正确分类概率的连乘值“;我们借助 yahoo 研发的 vowpal_wabbit 机器学习平台来完成模型特征值求解的最优化过程。

  3. 2 LFM(Latent Factor Model):LDA、矩阵分解(SVD++、SVD Feature)

  LDA 是 2014 年初重点开展的项目,现在已经有了较好的产出,也在推荐线上产品中得到了应用;LDA 本身是一个非常漂亮和严谨的数学模型,下面是我们一个 LDA topic 的例子,仅供参考。

  至于矩阵分解,2013 年的时候做过相应的尝试,效果不是特别理想,没有继续投入。

  隐语义模型是推荐精度最高的单一模型,其困难在于数据规模大时,计算效率会成为瓶颈;我们在这个地方开展了一些工作,后续会有同学专门介绍这一块。

  混合技术

  三个臭皮匠顶个诸葛亮,每一种方法都有其局限性,将不同的算法取长补短,各自发挥价值,是极为有效的方式。微博推荐算法主要采用了下面的混合技术:

  时序混合:

  即在推荐过程的不同时间段,采用不同的推荐算法;以正文页相关推荐为例,在正文页曝光的前期阶段,采用 content-based + ctr 预估的方法生成推荐结果,待产生的足量可信的用户点击行为后,再采用 user-based 协同过滤的方法得到推荐结果,如下图所示:

  这样利用 content-based 很好的解决了冷启动的问题,又充分发挥了 user-based CF 的作用,实现1+1>2 的效果。

  分层模型混合:

  很多情况下,一个模型无法很好的得到想要的效果,而分层组合往往会取得比较好的效果,分层模型混合即“将上一层模型的输出作为下层模型的特征值,来综合训练模型,完成推荐任务“。比如我们在做微博首页右侧的 ctr 预估排序时,采用分层逻辑回归模型,解决了不同产品间特征天然缺失与样本量差异、曝光位置带来的效果偏差等问题。

  瀑布型混合:

  这类混合技术思路非常简单,即在推荐候选非常丰富的情况下,采用逐层过滤的方法的得到推荐结果,通常将运算快、区分度低的算法放在前面,完成大量候选集的筛选;将运算慢、区分度高的算法放在后面,精细计算剩下的小规模集合。这类混合在微博推荐中大量使用,我们采用各种轻量算法完成候选集粗选,然后采用 ctr 预估做精细化排序。

  交叉混合:

  各类推荐算法中子技术,可以在另外的推荐算法中综合使用,比如 content-based 在相关性计算中积累的距离计算方法,可以很好的应用在协同过滤的量化计算中。实际的例子,我们将研究 LDA 时积累的向量计算方法成功的应用到用户推荐中。

  Online 与 offline

  微博数据的特点(海量、多样、静态与动态数据混在一起),决定了大部分推荐产品的结果需要同时借助 online 和 offline 的计算来完成。从系统和算法设计的角度,这是一个“重”与“轻”的问题,计算分解和组合是关键,我们需要将对时间不敏感的重型计算放在 offline 端,而将时间敏感性强的轻型快速计算放在 online 端。几种我们常用的方式如下图:

  Online 需要简单可靠的算法,快速得到结果;简要说明下上面的图,如下

  半成品有以下的 3 中形式

  1)计算过程拆解的离线部分,如 user-based CF 中的用户相似度,online 通过数据库读取后在线计算完成 user-based 推荐。

  2)离线挖掘的优质候选集,如正文页相关推荐的内容候选集,online 通过索引获取到数据后,再通过相关性和 ctr 预估排序生成推荐结果。

  3)具有较高相似度的推荐结果集,如 offline 计算好粉丝相似高的用户,在线对用户行为做出实时反馈,实时补充推荐与其刚关注用户相似的用户。

  • 静态推荐结果,是指那些与时间关联小的推荐 item,如我们的用户推荐 95% 的结果来自离线计算。
  • 机器学习模型,这是一个计算过程时序性上的拆解;offline 完成模型的训练,在线调用 model 完成 item 排序,当然也可以通过 online-learning 或实时特征值完成模型的实时更新。同时,model 在线计算时,需要注意缺失特征值的补全,保证 offline 与 online 环境的一致性。

  此外,我们也有直接 online 计算完成的推荐结果,如首页右侧话题推荐,由于用户对话题需求的差异非常小,它基本上是一个排行榜的需求,但热门微博也可以有精巧的设计,我们采用了一个曝光动态收益模型,通过上一段时段的(点击收益-曝光成本)来控制下一时段的 item 曝光几率,取得了非常好的效果,ctr 和导流量有 3 倍以上的提升。

  不同类型的推荐结果,要辅以不同的推荐理由,这一点需要前端的多种展示尝试和 offline 的日志分析。

  效果评测

  算法效果的度量方式决定了大家努力的方向,而对于不同类型的推荐,最好根据产品的定位和目标,采用不同的标准体系去衡量工作结果。实际效果的评测分为 3 个层次:用户满意度、产品层指标(如 ctr)、算法层指标,我们的效果评测也会分为人工评测、线上A/B测试、离线算法效果评测 3 种。

  产品指标的制定,应该从产品期望达成的目标出发,体现用户满意度。

  对算法离线评测而言,关键的是找到一套合理的算法评测指标去拟合产品层指标,因为算法离线评测总是在上线前进行,这个对应做的越好,算法的优化成果才能更好的转化为线上的产品指标。

  下图为我们的算法离线效果评测的架构图

  常用的离线评测指标有:RMSE、召回率、AUC、用户内多样性、用户间多样性、新颖性等。对于不同的产品有不同的组合指标去衡量,比如用户推荐中“用户间多样性”非常重要,而热点话题却可以允许用户间有较大的结果重合度。

转载自http://news.cnblogs.com/n/500879/#comment

时间: 2024-12-14 00:51:48

《转》探寻微博背后的大数据原理:微博推荐算法简述的相关文章

阿里天池大数据之移动推荐算法大赛总结及代码全公布

移动推荐算法比赛已经结束了一个多星期了,现在写一篇文章来回顾一下自己的参赛历程. 首先,对不了解这个比赛的同学们介绍一下这个比赛(引用自官网): 赛题简介 2014年是阿里巴巴集团移动电商业务快速发展的一年,例如2014双11大促中移动端成交占比达到42.6%,超过240亿元.相比PC时代,移动端网络的访问是随时随地的,具有更丰富的场景数据,比如用户的位置信息.用户访问的时间规律等. 本次大赛以阿里巴巴移动电商平台的真实用户-商品行为数据为基础,同时提供移动时代特有的位置信息,而参赛队伍则需要通

大数据日知录 - 算法与数据结构 - 1

Bloom Filter BF高教的表征数据集合,时间和空间效率极高.使用长度为m的位数组A来存储集合信息,使用k个相互独立的哈希函数将数据映射到为数组空间.对于集合中的成员a,将其进行k次哈希,哈希结果为x,则将位数组的第x位设置为1,最多有w<=k位会被设置为1. 如果需要判断某个成员是否在S中出现,只需要看hash国有w位中有没有出现0即可. BF会发生误判,不在集合中的数据被判定成了在集合中,因为a1和a2设置的位可能刚好覆盖了a3的所有哈希位.但不会发生错判. 最优的哈希函数个数为m/

双11奇迹背后的大数据平台,不喧哗,自有声!

摘要: 大数据技术时代,企业争相数字化转型,任何成功项目的背后,离不开数据平台的支撑,更别说2135亿的大项目,这背后的数据平台要多健壮,多安全,多稳定? 00:02:05 成交额超100亿00:57:56 成交额超666亿01:47:26 成交额超1000亿15:49:39 成交额超1682亿22:28:37 成交额超2000亿 2018年双11新纪录2135亿 高速跳转的数字,不断刷新的状态,光缆中狂奔的代码,键盘上飞舞的手指- 新的记录绝非十年前的记录也非2017年的记录 是产品专家紧抓不

大数据技术学习推荐书籍(一)

因为工作需要需要做一些与大数据开发有关的工作,加之网上的知识过于分散,经常往图书馆跑.看了很多与数据相关的书籍,认为以下基本比较不,错推荐给大家.因为本人接触大数据不足一年,肯定会有一些错误的观念,有错误的地方欢迎在文章下方的评论中评论. 1.<解惑大数据>人民邮电出版社, 2013,丁圣勇,樊勇兵,闵世武编著. 此书综合讲解有关大数据的相关术语和概念,看此书的技术要求较低,非常适合想学习大数据和对大数据相关概念模糊的人员阅读. 2.<写给大忙人的Hadoop2>电子工业出版社,2

揭秘腾讯大数据平台与推荐应用架构

内容简介: 腾讯的月活跃用户8.3亿 微信月活跃用户4.4亿 QQ空间月活跃用户6.5亿 游戏月活跃用户过亿 如今腾讯的数据分析已经能做到始终“不落地”,即全部的实时处理.腾讯大数据平台有如下核心模块:TDW.TRC.TDBank.TPR和 Gaia.简单来说,TDW用来做批量的离线计算,TRC负责做流式的实时计算,TPR负责精准推荐,TDBank则作为统一的数据采集入口,而底层的 Gaia则负责整个集群的资源调度和管理.李勇还特别强调了数据平台体系化是应用基础,数据应用商业化是价值导向. 数据

腾讯数十亿广告的秘密武器:利用大数据实时精准推荐

在过去几年,你在腾讯做了什么来推动大数据的应用? 过去三年,我一直在坚持一件事:推动大数据的实时应用.现在从国外数据中心的数据,一秒钟可以达到深圳数据中心,这就是腾讯具备的数据能力.有了这个能力,就可以做很多商业化行为的模式. 目前腾讯收集的数据已经超过了1万亿条, 计算机规模已经超过了8千8百台.这么庞大的数据如果能实时处理,就能发挥出巨大的商业价值.这个商业价值就是精准推荐. 每年腾讯几十亿的广告,其基础来自于数据的精准推荐.实时数据推荐还可以用于视频的推荐,腾讯音乐推荐,新闻客户端的推荐,

大数据原理架构(学习整理)

前面介绍的废话省略,记录直接的一些知识,方便了解. Hadoop的框架最核心的设计就是:HDFS和MapReduce.HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算. 还有一个Hive,很重要!这是一个传统的SQL到MapReduce的映射器,面向传统的数据库工程师.但是不支持全部SQL.还有一个子项目叫HBase,一个非关系数据库,NoSQL数据库,数据是列存储的,提高响应速度,减少IO量,可以做成分布式集群. ZooKeeper负责服务器节点和进程间的通信,是一个

美柚:最懂女性App背后的混合云架构与大数据服务

免费开通大数据服务:https://www.aliyun.com/product/odps 直播视频: (点击图片查看视频) 幻灯片下载地址:https://oss.aliyuncs.com/yqfiles/5b0a3ac1717e9f25bfd528e1abb60f9c.pdf 3月25日云栖社区在线实时分享顺利结束,本次美柚带来的分享包括如何充分利用现有机房服务器资源与阿里云产品组建混合云架构,实现快速部署与大数据的处理与计算服务.同时也详细介绍了美柚在多维度用户数据分析处理和大数据智能挖掘

【PPT&amp;视频】《陈新河:万亿元大数据产业新生态》——央视网大数据名人讲堂之大数据产业系列

[PPT&视频]<陈新河:万亿元大数据产业新生态>--央视网大数据名人讲堂之大数据产业系列 原创 2016-07-16 陈新河 软件定义世界(SDX) 热门下载(点击标题即可阅读) ?[下载]2015中国数据分析师行业峰会精彩PPT下载(共计21个文件) 因微信限制,部分图不能显示出来,高清完整版全文请扫描二维码,见每篇文章底部专栏 <陈新河:万亿元大数据产业新生态>--央视网大数据名人讲堂之大数据产业系列 嘉宾介绍 陈新河   中关村大数据产业联盟副秘书长 Talking