You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

114 lines
8.7 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 09 | 协同过滤中的相似度计算方法有哪些
今天,我们来聊聊协同过滤中的相似度计算方法有哪些。
## 相似度的本质
推荐系统中,推荐算法分为两个门派,一个是机器学习派,另一个就是相似度门派。机器学习派是后起之秀,而相似度派则是泰山北斗,以致撑起来推荐系统的半壁江山。
近邻推荐顾名思义就是在地理位置上住得近。如果用户有个邻居,那么社交软件上把邻居推荐给他在直观上就很合理,当然,如果邻居姓王的话,就不要推荐了。
这里说的近邻,并不一定只是在三维空间下的地理位置的近邻,在任意高维空间都可以找到近邻,尤其是当用户和物品的特征维度都很高时,要找到用户隔壁的邻居,就不是那么直观,需要选择好用适合的相似度度量办法。
近邻推荐的核心就是相似度计算方法的选择,由于近邻推荐并没有采用最优化思路,所以效果通常取决于矩阵的量化方式和相似度的选择。
相似度,与之配套的还有另一个概念就是距离,两者都是用来量化两个物体在高维空间中的亲疏程度的,它们是硬币的两面。
**推荐算法中的相似度门派,实际上有这么一个潜在假设:如果两个物体很相似,也就是距离很近,那么这两个物体就很容易产生一样的动作。**
如果两篇新闻很相似,那么他们很容易被同一个人先后点击阅读,如果两个用户很相似,那么他们就很容易点击同一个新闻。这种符合直觉的假设,大部分时候很奏效。
其实属于另一门派的推荐算法——机器学习中,也有很多算法在某种角度看做是相似度度量。
例如,逻辑回归或者线性回归中,一边是特征向量,另一边是模型参数向量,两者的点积运算,就可以看做是相似度计算,只不过其中的模型参数向量值并不是人肉指定的,而是从数据中由优化算法自动总结出来的。
在近邻推荐中,最常用的相似度是余弦相似度。然而可以选用的相似度并不只是余弦相似度,还有欧氏距离、皮尔逊相关度、自适应的余弦相似度、局部敏感哈希等。使用场景各不相同,今天,我会分别一一介绍如下。
## 相似度的计算方法
### 数据分类
在真正开始巡视相似度计算方法前,我先给你把度量对象做个简单分类。相似度计算对象是向量,或者叫做高维空间下的坐标,一个意思。那表示这个向量的数值就有两种:
1. 实数值;
2. 布尔值也就是0或者1。
下面介绍的不同计算方法适用于不同的数据种类。
### 1欧氏距离
欧氏距离如名字所料是一个欧式空间下度量距离的方法。两个物体都在同一个空间下表示为两个点假如叫做p和q分别都是n个坐标。那么欧式距离就是衡量这两个点之间的距离从p到q移动要经过的距离。欧式距离不适合布尔向量之间。
计算方式可以表示如下,我在文稿中放了一个公式,你可以点击查看。
$$E(p,q) = \\sqrt{\\sum\_{i=1}^{n}{(p\_{i} - q\_{i})^{2}}}$$
这个公式就是,每一个坐标上的取值相减,求平方和,最后输出方根。
显然,欧式距离得到的值是一个非负数,最大值是正无穷。通常相似度计算度量结果希望是\[-11\]或者\[01\]之间,所以欧式距离要么无法直接使用到这个场景中,要么需要经过二次转化得到,我在文稿中放了一个最常用的转化公式,你可以点击查看。
$$ \\frac{1}{1+E(p,q)} $$
距离加一后取倒数。这个公式能够把范围为0到正无穷的欧式距离转换为0到1的相似度。
欧式距离度量的是空间中两个点的绝对差异,适用于分析用户能力模型之间的差异,比如消费能力、贡献内容的能力等。
当然,虽然欧式距离计算两个点的距离,实际上,点的坐标表示和我们常说的向量表示是同一回事,希望这句话是废话,你早已懂得。
### 2余弦相似度
大名鼎鼎的余弦相似度度量的是两个向量之间的夹角其实就是用夹角的余弦值来度量所以名字叫余弦相似度。当两个向量的夹角为0度时余弦值为1当夹角为90度时余弦值为0为180度时余弦值则为-1。
余弦相似度在度量文本相似度、用户相似度、物品相似度的时候都较为常用;但是在这里需要提醒你一点,余弦相似度的特点:它与向量的长度无关。因为余弦相似度计算需要对向量长度做归一化:
$$cos(p,q) = \\frac{\\sum\_{i}{p\_{i}q\_{i}}}{\\sqrt{\\sum\_{i}{q\_{i}^{2}}}\\sqrt{\\sum\_{i}{p\_{i}^{2}}}} $$
经过向量长度归一化后的相似度量方式,背后潜藏着这样一种思想:两个向量,只要方向一致,无论程度强弱,都可以视为“相似”。
这简直就是:招聘人才时只看价值观,不考核代码能力,只要肯干,搬砖嘛,谁搬不是搬。这样做错不错呢?很显然,有非常大的合理性。
比如我用140字的微博摘要了一篇5000字的博客内容两者得到的文本向量可以认为方向一致词频等程度不同但是余弦相似度仍然认为他们是相似的。
在协同过滤中,如果选择余弦相似度,某种程度上更加依赖两个物品的共同评价用户数,而不是用户给予的评分多少。这就是由于余弦相似度被向量长度归一化后的结果。
余弦相似度对绝对值大小不敏感这件事,在某些应用上仍然有些问题。
举个小例子用户A对两部电影评分分别是1分和2分用户B对同样这两部电影评分是4分和5分。用余弦相似度计算出来两个用户的相似度达到0.98。这和实际直觉不符用户A明显不喜欢这两部电影。
针对这个问题对余弦相似度有个改进改进的算法叫做调整的余弦相似度Adjusted Cosine Similarity。调整的方法很简单就是先计算向量每个维度上的均值然后每个向量在各个维度上都减去均值后再计算余弦相似度。
前面这个小例子,用调整的余弦相似度计算得到的相似度是-0.1,呈现出两个用户口味相反,和直觉相符。
### 3皮尔逊相关度
皮尔逊相关度实际上也是一种余弦相似度不过先对向量做了中心化向量p和q各自减去向量的均值后再计算余弦相似度。
$$R(p,q) = \\frac{\\sum\_{i=1}^{n}{(p\_{i} - \\bar{p})(q\_{i} - \\bar{q})}}{\\sqrt{\\sum\_{i=1}^{n}{(p\_{i} - \\bar{p})^{2}}}\\sqrt{\\sum\_{i=1}^{n}{(q\_{i} - \\bar{q})^{2}}}}$$
皮尔逊相关度计算结果范围在-1到1。-1表示负相关1比表示正相关。皮尔逊相关度其实度量的是两个随机变量是不是在同增同减。
如果同时对两个随机变量采样当其中一个得到较大的值另一也较大其中一个较小时另一个也较小时这就是正相关计算出来的相关度就接近1这种情况属于沆瀣一气反之就接近-1。
由于皮尔逊相关度度量的时两个变量的变化趋势是否一致所以不适合用作计算布尔值向量之间相关度因为两个布尔向量也就是对应两个0-1分布的随机变量这样的随机变量变化只有有限的两个取值根本没有“变化趋势高低起伏”这一说。
### 4 杰卡德Jaccard相似度
杰卡德相似度,是两个集合的交集元素个数在并集中所占的比例。由于集合非常适用于布尔向量表示,所以杰卡德相似度简直就是为布尔值向量私人定做的。对应的计算方式是:
1. 分子是两个布尔向量做点积计算,得到的就是交集元素个数;
2. 分母是两个布尔向量做或运算,再求元素和。
余弦相似度适用于评分数据,杰卡德相似度适合用于隐式反馈数据。例如,使用用户的收藏行为,计算用户之间的相似度,杰卡德相似度就适合来承担这个任务。
## 总结
今天,我介绍了常用的几种相似度计算方法,以及其各自的使用场景。
这里的场景是按照数据形式划分的,按照向量维度取值是否是布尔值来看,杰卡德相似度就只适合布尔值向量,余弦相似度弹性略大,适合两种向量。欧式距离度量的是绝对差异,余弦相似度度量的是方向差异,但是调整的余弦相似度则可以避免这个弱点。
现在留给你一个问题:如果在一个社交网络中,要计算好友的相似度,你会选择哪种相似度来做?欢迎留言讨论。
感谢收听,我们下期再见。
![](https://static001.geekbang.org/resource/image/dc/2a/dc6f7ddc7a766cf76f1f21aedd16b42a.jpg)