第14章 利用SVD简化数据

    隐性语义索引:矩阵 = 文档 + 词语

    • 是最早的 SVD 应用之一,我们称利用 SVD 的方法为隐性语义索引(LSI)或隐性语义分析(LSA)。

    推荐系统

    1. 利用 SVD 从数据中构建一个主题空间。
    2. 再在该空间下计算其相似度。(从高维-低维空间的转化,在低维空间来计算相似度,SVD 提升了推荐系统的效率。)

    主题空间案例1

    • 上图右边标注的为一组共同特征,表示美式 BBQ 空间;另一组在上图右边未标注的为日式食品 空间。

    图像压缩

    例如:(2*1表示去掉了除对角线的0), 几乎获得了10倍的压缩比。

    矩阵分解

    • 矩阵分解是将数据矩阵分解为多个独立部分的过程。
    • 矩阵分解可以将原始矩阵表示成新的易于处理的形式,这种新形式是两个或多个矩阵的乘积。(类似代数中的因数分解)
    • 举例:如何将12分解成两个数的乘积?(1,12)、(2,6)、(3,4)都是合理的答案。

    SVD 是矩阵分解的一种类型,也是矩阵分解最常见的技术

    • SVD 将原始的数据集矩阵 Data 分解成三个矩阵 U、∑、V
    • 举例:如果原始矩阵 \(Data_{m*n}\) 是m行n列,
      • \(U_{m * k}\) 表示m行k列
      • \(∑_{k * k}\) 表示k行k列
      • \(V_{k * n}\) 表示k行n列。

    \(Data{m*n} = U{m*k} * ∑{k*k} * V{k*n}\)

    SVD公式

    具体的案例:(大家可以试着推导一下: )

    • 上述分解中会构建出一个矩阵∑,该矩阵只有对角元素,其他元素均为0(近似于0)。另一个惯例就是,∑的对角元素是从大到小排列的。这些对角元素称为奇异值。
    • 奇异值与特征值(PCA 数据中重要特征)是有关系的。这里的奇异值就是矩阵 \(Data * Data^T\) 特征值的平方根。
    • 普遍的事实:在某个奇异值的数目(r 个=>奇异值的平方和累加到总值的90%以上)之后,其他的奇异值都置为0(近似于0)。这意味着数据集中仅有 r 个重要特征,而其余特征则都是噪声或冗余特征。

    SVD 算法特点

    1. 优点:简化数据,去除噪声,优化算法的结果
    2. 缺点:数据的转换可能难以理解
    3. 使用的数据类型:数值型数据

    推荐系统 场景

    1. Amazon 会根据顾客的购买历史向他们推荐物品
    2. Netflix 会向其用户推荐电影
    3. 新闻网站会对用户推荐新闻频道
    • 利用Python 实现 SVD(Numpy 有一个称为 linalg 的线性代数工具箱)
    • 协同过滤:是通过将用户和其他用户的数据进行对比来实现推荐的。
    • 当知道了两个用户或两个物品之间的相似度,我们就可以利用已有的数据来预测未知用户的喜好。

    基于物品的相似度和基于用户的相似度:物品比较少则选择物品相似度,用户比较少则选择用户相似度。【矩阵还是小一点好计算】

    • 基于物品的相似度:计算物品之间的距离。【耗时会随物品数量的增加而增加】
    • 由于物品A和物品C 相似度(相关度)很高,所以给买A的人推荐C。

    SVD公式

    • 基于用户的相似度:计算用户之间的距离。【耗时会随用户数量的增加而增加】
    • 由于用户A和用户C 相似度(相关度)很高,所以A和C是兴趣相投的人,对于C买的物品就会推荐给A。

    相似度计算

    • inA, inB 对应的是 列向量
    1. 欧氏距离:指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。二维或三维中的欧氏距离就是两点之间的实际距离。
      • 相似度= 1/(1+欧式距离)
      • 相似度= 1.0/(1.0 + la.norm(inA - inB))
      • 物品对越相似,它们的相似度值就越大。
    2. 皮尔逊相关系数:度量的是两个向量之间的相似度。
      • 相似度= 0.5 + 0.5corrcoef() 【皮尔逊相关系数的取值范围从 -1 到 +1,通过函数0.5 + 0.5\corrcoef()这个函数计算,把值归一化到0到1之间】
      • 相似度= 0.5 + 0.5 * corrcoef(inA, inB, rowvar = 0)[0][1]
      • 相对欧氏距离的优势:它对用户评级的量级并不敏感。
    3. 余弦相似度:计算的是两个向量夹角的余弦值。
      • 余弦值 = (A·B)/(||A||·||B||) 【余弦值的取值范围也在-1到+1之间】
      • 相似度= 0.5 + 0.5*余弦值
      • 相似度= 0.5 + 0.5*( float(inA.T*inB) / la.norm(inA)*la.norm(inB))
      • 如果夹角为90度,则相似度为0;如果两个向量的方向相同,则相似度为1.0。

    推荐系统的评价

    • 采用交叉测试的方法。【拆分数据为训练集和测试集】
    • 推荐引擎评价的指标: 最小均方根误差(Root mean squared error, RMSE),也称标准误差(Standard error),就是计算均方误差的平均值然后取其平方根。
      • 如果RMSE=1, 表示相差1个星级;如果RMSE=2.5, 表示相差2.5个星级。

    推荐系统 原理

    • 推荐系统的工作过程:给定一个用户,系统会为此用户返回N个最好的推荐菜。
    • 实现流程大致如下:
      1. 寻找用户没有评级的菜肴,即在用户-物品矩阵中的0值。
      2. 在用户没有评级的所有物品中,对每个物品预计一个可能的评级分数。这就是说:我们认为用户可能会对物品的打分(这就是相似度计算的初衷)。
      3. 对这些物品的评分从高到低进行排序,返回前N个物品。

    项目概述

    假如一个人在家决定外出吃饭,但是他并不知道该到哪儿去吃饭,该点什么菜。推荐系统可以帮他做到这两点。

    开发流程

    收集 并 准备数据

    SVD 矩阵

    1. def loadExData3():
    2. # 利用SVD提高推荐效果,菜肴矩阵
    3. """
    4. 行:代表人
    5. 列:代表菜肴名词
    6. 值:代表人对菜肴的评分,0表示未评分
    7. """
    8. return[[2, 0, 0, 4, 4, 0, 0, 0, 0, 0, 0],
    9. [0, 0, 0, 0, 0, 0, 0, 1, 0, 4, 0],
    10. [3, 3, 4, 0, 3, 0, 0, 2, 2, 0, 0],
    11. [5, 5, 5, 0, 0, 0, 0, 0, 0, 0, 0],
    12. [0, 0, 0, 0, 0, 0, 5, 0, 0, 5, 0],
    13. [4, 0, 4, 0, 0, 0, 0, 0, 0, 0, 5],
    14. [0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 4],
    15. [0, 0, 0, 0, 0, 0, 5, 0, 0, 5, 0],
    16. [0, 0, 0, 3, 0, 0, 0, 0, 4, 5, 0],
    17. [1, 1, 2, 1, 1, 2, 1, 0, 4, 5, 0]]

    recommend() 会调用 基于物品相似度 或者是 基于SVD,得到推荐的物品评分。

    • 1.基于物品相似度

    欧式距离的计算方式

    1. # 基于SVD的评分估计
    2. # 在recommend() 中,这个函数用于替换对standEst()的调用,该函数对给定用户给定物品构建了一个评分估计值
    3. def svdEst(dataMat, user, simMeas, item):
    4. """svdEst(计算某用户未评分物品中,以对该物品和其他物品评分的用户的物品相似度,然后进行综合评分)
    5. Args:
    6. dataMat 训练数据集
    7. user 用户编号
    8. simMeas 相似度计算方法
    9. item 未评分的物品编号
    10. Returns:
    11. ratSimTotal/simTotal 评分(0~5之间的值)
    12. """
    13. # 物品数目
    14. n = shape(dataMat)[1]
    15. # 对数据集进行SVD分解
    16. simTotal = 0.0
    17. ratSimTotal = 0.0
    18. # 奇异值分解
    19. # 在SVD分解之后,我们只利用包含了90%能量值的奇异值,这些奇异值会以NumPy数组的形式得以保存
    20. U, Sigma, VT = la.svd(dataMat)
    21. # # 分析 Sigma 的长度取值
    22. # analyse_data(Sigma, 20)
    23. # 如果要进行矩阵运算,就必须要用这些奇异值构建出一个对角矩阵
    24. Sig4 = mat(eye(4) * Sigma[: 4])
    25. # 利用U矩阵将物品转换到低维空间中,构建转换后的物品(物品+4个主要的特征)
    26. xformedItems = dataMat.T * U[:, :4] * Sig4.I
    27. # 对于给定的用户,for循环在用户对应行的元素上进行遍历,
    28. # 这和standEst()函数中的for循环的目的一样,只不过这里的相似度计算时在低维空间下进行的。
    29. for j in range(n):
    30. userRating = dataMat[user, j]
    31. if userRating == 0 or j == item:
    32. continue
    33. # 相似度的计算方法也会作为一个参数传递给该函数
    34. similarity = simMeas(xformedItems[item, :].T, xformedItems[j, :].T)
    35. # for 循环中加入了一条print语句,以便了解相似度计算的进展情况。如果觉得累赘,可以去掉
    36. print 'the %d and %d similarity is: %f' % (item, j, similarity)
    37. # 对相似度不断累加求和
    38. simTotal += similarity
    39. # 对相似度及对应评分值的乘积求和
    40. ratSimTotal += similarity * userRating
    41. if simTotal == 0:
    42. return 0
    43. else:
    44. # 计算估计评分
    45. return ratSimTotal/simTotal

    排序获取最后的推荐结果

    1. # recommend()函数,就是推荐引擎,它默认调用standEst()函数,产生了最高的N个推荐结果。
    2. # 如果不指定N的大小,则默认值为3。该函数另外的参数还包括相似度计算方法和估计方法
    3. def recommend(dataMat, user, N=3, simMeas=cosSim, estMethod=standEst):
    4. # 寻找未评级的物品
    5. # 对给定的用户建立一个未评分的物品列表
    6. unratedItems = nonzero(dataMat[user, :].A == 0)[1]
    7. # 如果不存在未评分物品,那么就退出函数
    8. if len(unratedItems) == 0:
    9. return 'you rated everything'
    10. # 物品的编号和评分值
    11. itemScores = []
    12. # 在未评分物品上进行循环
    13. for item in unratedItems:
    14. estimatedScore = estMethod(dataMat, user, simMeas, item)
    15. itemScores.append((item, estimatedScore))
    16. # 按照估计得分,对该列表进行排序并返回。列表逆排序,第一个值就是最大值
    17. return sorted(itemScores, key=lambda jj: jj[1], reverse=True)[: N]

    测试 和 项目调用,可直接参考我们的代码

    : https://github.com/apachecn/MachineLearning/blob/master/src/py2.x/14.SVD/svdRecommend.py

    要点补充

    基于内容(content-based)的推荐

    1. 通过各种标签来标记菜肴
    2. 将这些属性作为相似度计算所需要的数据
    3. 这就是:基于内容的推荐。

    构建推荐引擎面临的挑战

    问题

    • 1)在大规模的数据集上,SVD分解会降低程序的速度
    • 2)存在其他很多规模扩展性的挑战性问题,比如矩阵的表示方法和计算相似度得分消耗资源。
    • 3)如何在缺乏数据时给出好的推荐-称为冷启动【简单说:用户不会喜欢一个无效的物品,而用户不喜欢的物品又无效】

    建议

    • 1)在大型系统中,SVD分解(可以在程序调入时运行一次)每天运行一次或者其频率更低,并且还要离线运行。
    • 2)在实际中,另一个普遍的做法就是离线计算并保存相似度得分。(物品相似度可能被用户重复的调用)
    • 3)冷启动问题,解决方案就是将推荐看成是搜索问题,通过各种标签/属性特征进行基于内容的推荐

    项目案例: 基于 SVD 的图像压缩

    收集 并 准备数据

    将文本数据转化为矩阵

    通常保留矩阵 80% ~ 90% 的能量,就可以得到重要的特征并去除噪声。

    1. def analyse_data(Sigma, loopNum=20):
    2. """analyse_data(分析 Sigma 的长度取值)
    3. Args:
    4. Sigma Sigma的值
    5. loopNum 循环次数
    6. """
    7. # 总方差的集合(总能量值)
    8. SigmaSum = sum(Sig2)
    9. for i in range(loopNum):
    10. SigmaI = sum(Sig2[:i+1])
    11. '''
    12. 根据自己的业务情况,就行处理,设置对应的 Singma 次数
    13. 通常保留矩阵 80% ~ 90% 的能量,就可以得到重要的特征并取出噪声。
    14. '''
    15. print '主成分:%s, 方差占比:%s%%' % (format(i+1, '2.0f'), format(SigmaI/SigmaSum*100, '4.2f'))

    使用算法: 对比使用 SVD 前后的数据差异对比,对于存储大家可以试着写写

    例如:32*32=1024 => 32*2+2*1+32*2=130(2*1表示去掉了除对角线的0), 几乎获得了10倍的压缩比。

    1. # 打印矩阵
    2. def printMat(inMat, thresh=0.8):
    3. # 由于矩阵保护了浮点数,因此定义浅色和深色,遍历所有矩阵元素,当元素大于阀值时打印1,否则打印0
    4. for i in range(32):
    5. for k in range(32):
    6. if float(inMat[i, k]) > thresh:
    7. print 1,
    8. else:
    9. print 0,
    10. print ''
    11. # 实现图像压缩,允许基于任意给定的奇异值数目来重构图像
    12. def imgCompress(numSV=3, thresh=0.8):
    13. """imgCompress( )
    14. Args:
    15. numSV Sigma长度
    16. thresh 判断的阈值
    17. """
    18. # 构建一个列表
    19. myMat = imgLoadData('input/14.SVD/0_5.txt')
    20. print "****original matrix****"
    21. # 对原始图像进行SVD分解并重构图像e
    22. printMat(myMat, thresh)
    23. # 通过Sigma 重新构成SigRecom来实现
    24. # Sigma是一个对角矩阵,因此需要建立一个全0矩阵,然后将前面的那些奇异值填充到对角线上。
    25. U, Sigma, VT = la.svd(myMat)
    26. # SigRecon = mat(zeros((numSV, numSV)))
    27. # for k in range(numSV):
    28. # SigRecon[k, k] = Sigma[k]
    29. # 分析插入的 Sigma 长度
    30. analyse_data(Sigma, 20)
    31. SigRecon = mat(eye(numSV) * Sigma[: numSV])
    32. reconMat = U[:, :numSV] * SigRecon * VT[:numSV, :]
    33. print "****reconstructed matrix using %d singular values *****" % numSV

    : https://github.com/apachecn/MachineLearning/blob/master/src/py2.x/14.SVD/svdRecommend.py