阿基米德项目ALS矩阵分解算法应用案例

转自:https://github.com/ceys/jdml/wiki/ALS

阿基米德项目ALS矩阵分解算法应用案例

编写人:ceys/youyis

最后更新时间:2014.5.12

一、算法描述

1.原理

问题描述

ALS的矩阵分解算法常应用于推荐系统中,将用户(user)对商品(item)的评分矩阵,分解为用户对商品隐含特征的偏好矩阵,和商品在隐含特征上的映射矩阵。与传统的矩阵分解SVD方法来分解矩阵R($R\in \mathbb{R}^{m\times n}$)不同的是,ALS(alternating least squares)希望找到两个低维矩阵,以 $\tilde{R} = XY$ 来逼近矩阵R,其中 ,$X\in \mathbb{R}^{m\times d}$,$Y\in \mathbb{R}^{d\times n}$,d 表示降维后的维度,一般 d<<r,r表示矩阵 R 的秩,$r<<min(m,n)$。

目标函数

  • 为了找到低维矩阵X,Y最大程度地逼近矩分矩阵R,最小化下面的平方误差损失函数。
    $$L(X,Y) = \sum_{u,i}(r_{ui} - x_{u}^{T}y_{i})^{2}......(1)$$
  • 为防止过拟合给公式 (1) 加上正则项,公式改下为: $$L(X,Y) = \sum_{u,i}(r_{ui} - x_{u}^{T}y_{i})^{2} + \lambda (\left | x_{u}\right |^{2} + \left | y_{i}\right |^{2})......(2)$$

    其中$x_{u}\in \mathbb{R}^{d},y_{i}\in \mathbb{R}^{d}$,$1\leqslant u\leqslant m$,$1\leqslant i\leqslant n$,$\lambda$是正则项的系数。

模型求解

  • 固定Y,对$x_{u}$ 求导 $\frac{\partial L(X,Y)}{\partial x_{u}} = 0$,得到求解$x_{u}$的公式

    $$x_{u} = (Y^{T}Y + \lambda I )^{-1}Y^{T}r(u)......(3)$$

  • 同理固定X,可得到求解$y_{i}$的公式

    $$y_{i} = (X^{T}X + \lambda I )^{-1}X^{T}r(i)......(4)$$

    其中,$r_{u}\in \mathbb{R}^{n}$,$r_{i}\in \mathbb{R}^{m}$,I表示一个d * d的单位矩阵。

  • 基于公式(3)、(4),首先随机初始化矩阵X,然后利用公式(3)更新Y,接着用公式(4)更新X,直到计算出的RMSE(均方根误差)值收敛或迭代次数足够多而结束迭代为止。

    其中,$\tilde{R} = XY$,$RMSE = \sqrt{\frac{\sum (R - \tilde{R})^{2}}{N}}$

ALS-WR模型

以上模型适用于用户对商品的有明确的评分矩阵的场景,然而很多情况下用户没有明确的反馈对商品的偏好,而是通过一些行为隐式的反馈。比如对商品的购买次数、对电视节目收看的次数或者时长,这时我们可以推测次数越多,看得时间越长,用户的偏好程度越高,但是对于没有购买或者收看的节目,可能是由于用户不知道有该商品,或者没有途径获取该商品,我们不能确定的推测用户不喜欢该商品。ALS-WR通过置信度的权重来解决此问题,对于我们更确信用户偏好的项赋予较大的权重,对于没有反馈的项,赋予较小的权重。模型如下

  • ALS-WR目标函数

    $\underset{x_{u},y_{i}}{min} L(X,Y) = \sum_{u,i}c_{ui}(p_{ui} - x_{u}^{T}y_{i})^{2} + \lambda (\left | x_{u}\right |^{2} + \left | y_{i}\right |^{2})......(5)$

    其中 $$p_{ui} = \begin{cases} & \text{1 if } r_{ui} > 0 \ & \text{0 if } r_{ui} = 0 \end{cases}$$

    $c_{ui} = 1 + \alpha r_{ui}$,$\alpha$是置信度系数

  • 通过最小二乘法求解

    $$x_{u} = (Y^{T}C^{u}Y + \lambda I )^{-1}Y^{T}C^{u}r(u)......(6)$$

    $$y_{i} = (X^{T}C^{i}X + \lambda I )^{-1}X^{T}C^{i}r(i)......(7)$$

    其中$C^{u}$是一$n\times n$维的个对角矩阵,$C_{ii}^{u} = c_{ui}$; 其中$C^{u}$是一$m\times m$维的个对角矩阵,$C_{ii}^{u} = c_{ui}$

与其他矩阵分解算法的比较

  • 在实际应用中,由于待分解的矩阵常常是非常稀疏的,与SVD相比,ALS能有效的解决过拟合问题。
  • 基于ALS的矩阵分解的协同过滤算法的可扩展性也优于SVD。
  • 与随机梯度下降的求解方式相比,一般情况下随机梯度下降比ALS速度快;但有两种情况ALS更优于随机梯度下降:1)当系统能够并行化时,ALS的扩展性优于随机梯度下降法。2)ALS-WR能够有效的处理用户对商品的隐式反馈的数据。

2.伪代码:

import numpy

def mf_als(R, P, Q, K, steps=5000, alpha=0.0002, beta=0.02):
    Q = Q.T
    for step in xrange(steps):
        for i in xrange(len(P)):
            e = 0
        for i in xrange(len(R)):
            for j in xrange(len(R[i])):
                if R[i][j] > 0:
                    e = e + pow(R[i][j] - numpy.dot(P[i,:],Q[:,j]), 2)
                    for k in xrange(K):
                        e = e + (beta/2) * (pow(P[i][k],2) + pow(Q[k][j],2))
        if e < 0.001:
        break
    return P, Q.T

if __name__ == "__main__":
    R = [
     [5,3,0,1],
     [4,0,0,1],
     [1,1,0,5],
     [1,0,0,4],
     [0,1,5,4],
    ]
    R = numpy.array(R)
    N, M, K = len(R), len(R[0]), 2
    P = numpy.random.rand(N,K)
    Q = numpy.random.rand(M,K)

    nP, nQ = mf_als(R, P, Q, K)
    print numpy.dot(nP, nQ.T)

3.并行化方法:

整体思路就是把矩阵拆成行向量,分别来做最小二乘参数估计。

伪代码中,所有数据都被广播到了集群节点。实际代码中,只会向各节点分发其运算能用到的部分数据。

# M: item个数, U: user个数, F: 分解矩阵的秩
# 初始化评分矩阵
R = matrix(rand(M, F)) * matrix(rand(U, F).T)
ms = matrix(rand(M ,F))
us = matrix(rand(U, F))

# 将评分矩阵,item矩阵,user矩阵广播到所有节点
Rb = sc.broadcast(R)
msb = sc.broadcast(ms)
usb = sc.broadcast(us)

# 指定遍历次数ITERATIONS
for i in range(ITERATIONS):
    # 固定user矩阵,分布式求解item矩阵
    # 每个节点计算M/slices个items
    ms = sc.parallelize(range(M), slices)            .map(lambda x: update(x, msb.value[x, :], usb.value, Rb.value))            .collect()
    ms = matrix(np.array(ms)[:, :, 0])      # collect() returns a list, so array ends up being
                                            # a 3-d array, we take the first 2 dims for the matrix
    # 广播更新后的item矩阵
    msb = sc.broadcast(ms)

    # 固定item矩阵,分布式求解user矩阵
    us = sc.parallelize(range(U), slices)            .map(lambda x: update(x, usb.value[x, :], msb.value, Rb.value.T))            .collect()
    us = matrix(np.array(us)[:, :, 0])
    usb = sc.broadcast(us)

    # 平方误差
    error = rmse(R, ms, us)

# 最小二乘更新数据
# 输入:矩阵行index,要更新的特征向量,固定的特征矩阵,评分矩阵
def update(i, vec, mat, ratings):
    uu = mat.shape[0]
    ff = mat.shape[1]

    # 变成可逆矩阵
    XtX = mat.T * mat
    Xty = mat.T * ratings[i, :].T

    # 正则项
    for j in range(ff):
        XtX[j,j] += LAMBDA * uu

    # XtXZ=XtY,求Z并返回
    # 返回类型为二维数组。因为每次update只计算一个向量,所以实际只有第一维有值。
    return np.linalg.solve(XtX, Xty)
 

4.文献

二、具体实现及调用

1. 模型调用

输入数据结构与说明:

Rating(UserId:Int, ItemId:Int, Rating:toDouble) 用户、商品id必须为整形,评分为浮点型。

模型输出数据结构及说明:

RDD[(Id:Int, Array[feature:Double]]] 可以分别输出userFeatures和itemFeatures。包含id和隐含特征值。

推荐结果输出数据结构及说明:

Rating(UserId:Int, ItemId:Int, Rating:toDouble) 用户、商品id与预测评分。

算法调用语句示例:
import org.apache.spark.mllib.recommendation.ALS
import org.apache.spark.mllib.recommendation.Rating

// Load and parse the data
val data = sc.textFile("mllib/data/als/test.data")
val ratings = data.map(_.split(‘,‘) match {
    case Array(user, item, rate) =>  Rating(user.toInt, item.toInt, rate.toDouble)
})

// Build the recommendation model using ALS
val numIterations = 20
val model = ALS.train(ratings, 1, 20, 0.01)

// Evaluate the model on rating data
val usersProducts = ratings.map{ case Rating(user, product, rate)  => (user, product)}
val predictions = model.predict(usersProducts).map{
    case Rating(user, product, rate) => ((user, product), rate)
}
val ratesAndPreds = ratings.map{
    case Rating(user, product, rate) => ((user, product), rate)
}.join(predictions)
val MSE = ratesAndPreds.map{
    case ((user, product), (r1, r2)) =>  math.pow((r1- r2), 2)
}.reduce(_ + _)/ratesAndPreds.count
println("Mean Squared Error = " + MSE)
性能参数配置:
val conf = new SparkConf()
  .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
  .set("spark.kryo.registrator",  classOf[ALSRegistrator].getName)
    /*
    Whether to track references to the same object when serializing data with Kryo,
    which is necessary if your object graphs have loops
    and useful for efficiency if they contain multiple copies of the same object.
    Can be disabled to improve performance if you know this is not the case.
    */
  .set("spark.kryo.referenceTracking", "false")
  .set("spark.kryoserializer.buffer.mb", "8")
    /*
    Number of milliseconds to wait to launch a data-local task before giving up and launching it on a less-local node.
    You should increase this setting if your tasks are long and see poor locality, but the default usually works well.
    */
  .set("spark.locality.wait", "10000")

三、案例描述

1. 业务问题描述及分析

问题描述

在电子商务领域中,当用户面对大量的商品时,往往无法快速找到自己喜欢的商品,或者不是非常明确的知道自己喜欢商品。和搜索引擎相比的推荐系统通过研究用户的兴趣偏好,进行个性化计算,由系统发现用户的兴趣点,从而引导用户发现自己的需求。

简要分析

矩阵分解是推荐系统中非常重要的一种算法,它通过将用户对商品的评分矩阵(或者隐含数据),分解为用户对商品隐含特征的偏好矩阵,和商品在隐含特征上的映射矩阵。如果用户所偏好特征,在商品上基本都出现,我们可以认为这个商品是用户喜欢的,进而可以将该商品推荐给用户。

我们用历史的订单数据作为训练数据,来预测用户对未购买过的商品的偏好程度,将偏好程度最高topN的商品推荐给用户。

2. 数据的准备

图书品类下,2014年1月到5月的订单数据,取在1~4月和4~5月两个区间都有图书购物记录的用户。1~4月为训练数据,4~5月为测试数据。用户对商品有购买行为,则隐性反馈值为1。

3. 算法的运行及模型生成

性能:

  1. N = User*Item N的最大值(理论估计+实际验证) 测试了两组数据集:

第一组:

训练: pair:6557620 用户:781030 商品:726490

测试: pair:3250426 用户:781030 商品:490257

N = 726490*781030 = 567410484700

稀疏度 =pair/N = 0.0000115571
  1. worker-num,worker-mem,blocks,kryo,kryo-reference,locality-wait 等运行参数与数据量对一轮迭代时间的影响。
  2. 运行时rdd的transform和action的运算时间与shuffle大小。

模型:

数据性质:
  1. 稀疏性(行为(评分、购买),品类)
参数选择:

lambda,alpha,R,iter

4. 模型的评估

矩阵分解的评估

  • 原始矩阵为R,预测的为$\tilde{R} = U^{T}V$,用RMSE来评估预测的效果。

    $$RMSE = \sqrt{\frac{\sum (R - \tilde{R})^{2}}{N}}$$

    其中N为中所有求和的项数

推荐效果的评估

  • 对推荐预测的效果一般用准确率(precision)和召回率(recall)来衡量。R(u)是根据用户在训练集上的行为给用户推荐的列表,T(u)是用户在测试集上的行为列表。则有

    召回率
    $$Recall = \frac{\sum_{u\in U }\left |R(u)\bigcap T(u) \right |}{\sum_{u\in U }\left |T(u) \right |}$$

    准确率
    $$Precise = \frac{\sum_{u\in U }\left |R(u)\bigcap T(u) \right |}{\sum_{u\in U }\left |R(u) \right |}$$

四、与mahout的对比

mahout与spark性能对比

    • 数据量 6991409行,134M
    • 集群环境:mahout与spark安装在同一集群环境
    • 影响运行时间的参数:降维后的秩 30,迭代次数 30,mahout与spark设置相同
    • 运行时间:mahout(10个reduce) 运行180 minutes,spark 运行 40 minutes
时间: 2024-10-12 05:35:56

阿基米德项目ALS矩阵分解算法应用案例的相关文章

阿基米德螺旋限制了我们对螺旋的想像

阿基米德螺旋限制了我们对螺旋的想像 2018-04-17 刘崇军 风螺旋线 准确的说,应该是:试途用阿基米德螺旋对大多数螺旋进行解释的做法限制了我们的想像,或者说,将阿基米德螺旋当做是螺旋研究终点的想法限制了我们的想像. 阿基米德螺旋本身绝对是跨时代的巨著,有着那个时代的显著特色,直到今天仍是我们学习的经典.然而,如同历史的车轮滚滚向前一样,我们不能仅仅停留在固有的认知之上,是时候开始沿着螺旋的轨迹继续前行了. 问题一 射线运行代替了直线运动 阿基米德螺旋中存在的第一个问题是:尽管在阿基米德螺旋

如何用几何作图法构造阿基米德双子圆

背景 这个作图有些繁琐,只是做备忘之用. 参考资料 可以自行下载PDF版本 具体内容 看上去很简单 左上图: 相切的两个双子圆的半径的构造,其半径恰好是CQ线段的长度; 右上图: 构造两个小半圆的半径和双子圆半径之和用于确定圆心位置 左下和右下, 确定出圆心的位置, 根据已知的半径作图. 所谓"Euclidean construction"直译欧几里德构造作图, 实际"尺规作图".不知道谁这么翻译的,很有意思. 证明在参考文献中已经有.可以自行参考. 做成Geoge

阿基米德三角形

可以秒杀2018年高考全国卷(3)理科数学16题 只有点$P$是可以自由拖动的 原文地址:https://www.cnblogs.com/xuebajunlutiji/p/9180010.html

JPA项目的一个小模块案例

最近在做一个Web项目,找一个小的模块来做笔记,稍微整理下,嗯,入题了 整个项目所用框架大致如下:后台>Struts+Spring+JPA; 前台>jgGrid 下面是整个项目的后台功能逻辑部分: 下面是前台页面展示部分: 这是系统所用到的jar包: 因为用到struts标签所以需要引入一下文件(前面为路径): 1.  b/WebRoot/WEB-INF/struts-bean.tld 2.  b/WebRoot/WEB-INF/struts-html.tld 3.  b/WebRoot/WE

JPA项目的一个小模块案例(二)

前面讲的登录成功之后跳转到welcome.jsp页面,接下来继续: 这个页面功能类似index.jsp界面的功能,主要是一个跳转,根据定义的vUrl进入struts-config.xml获取对应的action,进而找到相关类com.b.portal.action包中的PortalAction.java. PortalAction.java类主要是将当前登录用户的一些基本信息:用户名.用户所属单位等存入到request中,供后面页面展示及后台使用.根据其return findForward("po

ALS矩阵分解推荐模型

其实通过模型来预测一个user对一个item的评分,思想类似线性回归做预测,大致如下 定义一个预测模型(数学公式), 然后确定一个损失函数, 将已有数据作为训练集, 不断迭代来最小化损失函数的值, 最终确定参数,把参数套到预测模型中做预测. 矩阵分解的预测模型是: 损失函数是: 我们就是要最小化损失函数,从而求得参数q和p. 矩阵分解模型的物理意义 我们希望学习到一个P代表user的特征,Q代表item的特征.特征的每一个维度代表一个隐性因子,比如对电影来说,这些隐性因子可能是导演,演员等.当然

.Net有哪些大型项目、大型网站的案例?

.Net开发的部分知名网站案例:http://www.godaddy.com 全球最大域名注册商http://www.ips.com 环迅支付,国内最早的在线支付平台http://www.icbc.com.cn中国工商银行http://www.vancl.com 凡客诚品http://www.m18.com 趣天麦网,全球最大的中文女性网上购物网站http://www.newegg.com 新蛋网,美国规模最大的IT数码网上零售商http://www.letao.com 乐淘网,中国主要的运动鞋

cytoscape.js在vue项目中的安装及案例

1. 安装: npm i cytoscape --save 2. 引入:main.js import cytoscape from 'cytoscape'; Vue.prototype.$cytoscape = cytoscape; 3. demo代码: <template> <div id="MainCy" style="width: 100%;height: 100%;"></div> </template> &l

组装者模式在React Native项目中的一个实战案例

前言 在实际的开发中,如果遇到多个组件有一些共性,我们可以提取一个BaseItem出来,然后在多个组件中进行复用,一种方式是通过继承的方式,而今天我们要说的是另一种方式--组装者模式. 什么是组装者模式? 就是在一个类中封装一些共有特性,然后使得在使用的组件中,可以动态的去添加一些属性或者行为,相比较于继承来说,组装者模式会更加的灵活. 实例演示 /** * AboutCommon.js * 组装者模式 模仿一些生命周期函数 */ export default class AboutCommon