gitbook/检索技术核心20讲/docs/231760.md
2022-09-03 22:05:03 +08:00

138 lines
18 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 16 | 最近邻检索(下):如何用乘积量化实现“拍照识花”功能?
你好,我是陈东。
随着AI技术的快速发展以图搜图、拍图识物已经是许多平台上的常见功能了。比如说在搜索引擎中我们可以直接上传图片进行反向搜索。在购物平台中我们可以直接拍照进行商品搜索。包括在一些其他的应用中我们还能拍照识别植物品种等等。这些功能都依赖于高效的图片检索技术那它究竟是怎么实现的呢今天我们就来聊一聊这个问题。
## 聚类算法和局部敏感哈希的区别?
检索图片和检索文章一样,我们首先需要用向量空间模型将图片表示出来,也就是将一个图片对象转化为高维空间中的一个点。这样图片检索问题就又变成了我们熟悉的高维空间的相似检索问题。
如果我们把每个图片中的像素点看作一个维度把像素点的RGB值作为该维度上的值那一张图片的维度会是百万级别的。这么高的维度检索起来会非常复杂我们该怎么处理呢我们可以像提取文章关键词一样对图片进行特征提取来压缩维度。
要想实现图片特征提取我们有很多种深度学习的方法可以选择。比如使用卷积神经网络CNN提取图片特征。这样用一个512到1024维度的向量空间模型我们就可以很好地描述图像了但这依然是一个非常高的维度空间。因此我们仍然需要使用一些近似最邻近检索技术来加速检索过程。
一种常用的近似最邻近检索方法,是使用局部敏感哈希对高维数据进行降维处理,将高维空间的点划到有限的区域中。这样,通过判断要查询的点所在的区域,我们就能快速取出这个区域的所有候选集了。
不过,在上一讲中我们也提到,局部敏感哈希由于哈希函数构造相对比较简单,往往更适合计算字面上的相似性(表面特征的相似性),而不是语义上的相似性(本质上的相似性)。这怎么理解呢?举个例子,即便是面对同一种花,不同的人在不同的地点拍出来的照片,在角度、背景、花的形状上也会有比较大的差异。也就是说,这两张图片的表面特征其实差异很大,这让我们没办法利用局部敏感哈希,来合理评估它们的相似度。
而且局部敏感哈希其实是一种粒度很粗的非精准检索方案。以SimHash为例它能将上百万的高维空间压缩到64位的比特位中这自然也会损失不少的精确性。
![](https://static001.geekbang.org/resource/image/3d/c6/3d30166fba8d4af8917e53fa4a4d3ac6.jpg "表面特征差异很大的同一种花的对比示意图")
因此更常见的一种方案是使用聚类算法来划分空间。和简单的局部敏感哈希算法相比聚类算法能将空间中的点更灵活地划分成多个类并且保留了向量的高维度使得我们可以更准确地计算向量间的距离。好的聚类算法要保证类内的点足够接近不同类之间的距离足够大。一种常见的聚类算法是K-means算法K-平均算法)。
![](https://static001.geekbang.org/resource/image/0c/b5/0c9793222bb1a062d7135a88914ae2b5.jpg "局部敏感哈希空间划分 VS 聚类空间划分")
K-means聚类算法的思想其实很“朴素”它将所有的点划分为k个类每个类都有一个**类中心向量**。在构建聚类的时候我们希望每个类内的点都是紧密靠近类中心的。用严谨的数学语言来说K-means聚类算法的优化目标是**类内的点到类中心的距离均值总和最短**。因此K-means聚类算法具体的计算步骤如下:
1. 随机选择k个节点作为初始的k个聚类的中心
2. 针对所有的节点计算它们和k个聚类中心的距离将节点归入离它最近的类中
3. 针对k个类统计每个类内节点的向量均值作为每个类的新的中心向量
4. 重复第2步和第3步**重新计算每个节点和新的类中心的距离,将节点再次划分到最近的类中,然后再更新类的中心节点向量**。经过多次迭代,直到节点分类不再变化,或者迭代次数达到上限,我们停止算法。
![](https://static001.geekbang.org/resource/image/81/4f/8115bc2286b78f9e65f2a2fdb4faef4f.jpeg "K-means 算法计算流程图")
以上就是K-means聚类算法的计算过程了那使用聚类算法代替了局部敏感哈希以后我们该怎么进行相似检索呢
## 如何使用聚类算法进行相似检索?
首先对于所有的数据我们先用聚类算法将它们划分到不同的类中。在具体操作之前我们会给聚类的个数设定一个目标。假设聚类的个数是1024个那所有的点就会被分到这1024个类中。这样我们就可以用每个聚类的ID作为Key来建立倒排索引了。
建立好索引之后当要查询一个点邻近的点时我们直接计算该点和所有聚类中心的距离将离查询点最近的聚类作为该点所属的聚类。因此以该聚类的ID为Key去倒排索引中查询我们就可以取出所有该聚类中的节点列表了。然后我们遍历整个节点列表计算每个点和查询点的距离取出Top K个结果进行返回。
这个过程中会有两种常见情况出现。第一种,最近的聚类中的节点数非常多。这个时候,我们就计算该聚类中的所有节点和查询点的距离,这个代价会很大。这该怎么优化呢?这时,我们可以参考二分查找算法不断划分子空间划分的思路,使用层次聚类将一个聚类中的节点,再次划分成多个聚类。这样,在该聚类中查找相近的点时,我们通过继续判断查询点和哪个子聚类更相近,就能快速减少检索空间,从而提升检索效率了。
![](https://static001.geekbang.org/resource/image/b6/15/b69ff3fcaa5a8f1ad192f1714ae43215.jpg "层次聚类检索过程示意图")
第二种该聚类中的候选集不足Top K个或者我们担心聚类算法的相似判断不够精准导致最近的聚类中的结果不够好。那我们还可以再去查询次邻近的聚类将这些聚类中的候选集取出计算每个点和查询点的距离补全最近的Top K个点。
## 如何使用乘积量化压缩向量?
对于向量的相似检索除了检索算法本身以外如何优化存储空间也是我们必须要关注的一个技术问题。以1024维的向量为例因为每个向量维度值是一个浮点数浮点数就是小数一个浮点数有4个字节所以一个向量就有4K个字节。如果是上亿级别的数据光是存储向量就需要几百G的内存这会导致向量检索难以在内存中完成检索。
因此为了能更好地将向量加载到内存中我们需要压缩向量的表示。比如说我们可以用聚类中心的向量代替聚类中的每个向量。这样一个类内的点都可以用这个类的ID来代替和存储我们也就节省了存储每个向量的空间开销。那计算查询向量和原始样本向量距离的过程也就可以改为计算查询向量和对应聚类中心向量的距离了。
![](https://static001.geekbang.org/resource/image/e3/5a/e364eb5c372b58192b88b029842de05a.jpg "用聚类中心代替样本点")
想要压缩向量,我们往往会使用**向量量化**Vector Quantization技术。其中我们最常用的是**乘积量化**Product Quantization技术。
乍一看,你会觉得乘积量化是个非常晦涩难懂的概念,但它其实并没有那么复杂。接下来,我就把它拆分成乘积和量化这两个概念,来为你详细解释一下。
**量化指的就是将一个空间划分为多个区域,然后为每个区域编码标识**。比如说,一个二维空间<x,y>可以被划为两块那我们只需要1个比特位就能分别为这两个区域编码了它们的空间编码分别是0和1。那对二维空间中的任意一个点来说它要么属于区域0要么属于区域1。
这样我们就可以用1个比特位的0或1编码来代替任意一个点的二维空间坐标<x,y>了 。假设x和y是两个浮点数各4个字节那它们一共是8个字节。如果我们将8个字节的坐标用1个比特位来表示就能达到压缩存储空间的目的了。前面我们说的用聚类ID代替具体的向量来进行压缩也是同样的原理。
而**乘积指的是高维空间可以看作是由多个低维空间相乘得到的**。我们还是以二维空间<x,y>为例,它就是由两个一维空间和相乘得到。类似的还有,三维空间<x,y,z>是由一个二维空间<x,y>和一个一维空间相乘得到,依此类推。
那将高维空间分解成多个低维空间的乘积有什么好处呢它能降低数据的存储量。比如说二维空间是由一维的x轴和y轴相乘得到。x轴上有4个点x1到x4y轴上有4个点y1到y4这四个点的交叉乘积会在二维空间形成16个点。但是如果我们仅存储一维空间中x轴和y轴的各4个点一共只需要存储8个一维的点这会比存储16个二维的点更节省空间。
总结来说对向量进行乘积量化其实就是将向量的高维空间看成是多个子空间的乘积然后针对每个子空间再用聚类技术分成多个区域。最后给每个区域生成一个唯一编码也就是聚类ID。
好了,乘积量化压缩向量的原理我们已经知道了。接下来,我们就通过一个例子来说说,乘积量化压缩样本向量的具体操作过程。
如果我们的样本向量都是1024维的浮点数向量那我们可以将它分为4段这样每一段就都是一个256维的浮点向量。然后在每一段的256维的空间里我们用聚类算法将这256维空间再划分为256个聚类。接着我们可以用1至256作为ID来为这256个聚类中心编号。这样我们就得到了256 \* 4 共1024个聚类中心每个聚类中心都是一个256维的浮点数向量256 \* 4字节 = 1024字节。最后我们将这1024个聚类中心向量都存储下来。
![](https://static001.geekbang.org/resource/image/20/c6/204ab74bf747ee1308454fb1ff91f3c6.jpg "记录256*4个聚类向量中心示意图")
这样,对于这个空间中的每个向量,我们就不需要再精确记录它在每一维上的权重了。我们只需要将每个向量都分为四段,让**每段子向量都根据聚类算法找到所属的聚类然后用它所属聚类的ID来表示这段子向量**就可以了。
因为聚类ID是从1到256的所以我们只需要8个比特位就可以表示这个聚类ID了。由于完整的样本向量有四段因此我们用4个聚类ID就可以表示一个完整的样本向量了也就一共只需要32个比特位。因此一个1024维的原始浮点数向量共1024 \* 4 字节使用乘积量化压缩后存储空间变为了32个比特位空间使用只有原来的1/1024。存储空间被大幅降低之后所有的样本向量就有可能都被加载到内存中了。
![](https://static001.geekbang.org/resource/image/f1/12/f1e2e8a56fb4ca40de8bc0cfeb514c12.jpg "压缩前后向量的存储空间对比图")
## 如何计算查询向量和压缩样本向量的距离(相似性)?
这样我们就得到了一个压缩后的样本向量它是一个32个比特位的向量。这个时候如果要我们查询一个新向量和样本向量之间的距离也就是它们之间的相似性我们该怎么做呢这里我要强调一下一般来说要查询的新向量都是一个未被压缩过的向量。也就是说在我们的例子中它是一个1024维的浮点向量。
好了明确了这一点之后我们接着来说一下计算过程。这整个计算过程会涉及3个主要向量分别是**样本向量**、**查询向量**以及**聚类中心向量**。你在理解这个过程的时候,要注意分清楚它们。
那接下来,我们一起来看一下具体的计算过程。
首先,我们在对所有样本点生成聚类时,需要记录下**聚类中心向量**的向量值作为后面计算距离的依据。由于1024维向量会分成4段每段有256个聚类。因此我们共需要存储1024个聚类中所有中心向量的数据。
然后,对于**查询向量**我们也将它分为4段每段也是一个256维的向量。对于查询向量的每一段子向量我们要分别计算它和之前存储的对应的256个聚类中心向量的距离并用一张距离表存下来。由于有4段因此一共有4个距离表。
![](https://static001.geekbang.org/resource/image/e6/dd/e67d8f8adc92486a250b5781b9e015dd.jpg "计算查询向量和聚类中心向量的距离表过程示意图")
当计算查询向量和样本向量的距离时我们将查询向量和样本向量都分为4段子空间。然后分别计算出每段子空间中查询子向量和样本子向量的距离。这时我们可以用聚类中心向量代替样本子向量。这样求查询子向量和样本子向量的距离就转换为求查询子向量和对应的聚类中心向量的距离。那我们只需要将样本子向量的聚类ID作为key去查距离表就能在O(1)的时间代价内知道这个距离了。
![](https://static001.geekbang.org/resource/image/74/d9/749af0780fdd1d7ac8f3641095ed70d9.jpg "获得全部查询子向量和样本子向量近似距离的过程示意图")
最后,我们将得到的四段距离按欧氏距离的方式计算,合并起来,即可得到查询向量和样本向量的距离,距离计算公式:
![](https://static001.geekbang.org/resource/image/64/1a/644e03d03748728edff3332f39e82a1a.jpg)
以上就是计算查询向量和样本向量之间距离的过程了。你会看到原本两个高维向量的复杂的距离计算被4次O(1)时间代价的查表操作代替之后,就变成了常数级的时间代价。因此,在对压缩后的样本向量进行相似查找的时候,我们即便是使用遍历的方式进行计算,时间代价也会减少许多。
而计算查询向量到每个聚类中心的距离我们也只需要在查询开始的时候计算一次就可以生成1024个距离表在后面对比每个样本向量时这个对比表就可以反复使用了。
## 如何对乘积量化进行倒排索引?
尽管使用乘积量化的方案,我们已经可以用很低的代价来遍历所有的样本向量,计算每个样本向量和查询向量的距离了。但是我们依然希望能用更高效的检索技术代替遍历,来提高检索效率。因此,结合前面的知识,我们可以将聚类、乘积量化和倒排索引综合使用,让整体检索更高效。下面,我就来具体说说,在建立索引和查询这两个过程中,它们是怎么综合使用的。
首先我们来说建立索引的过程我把它总结为3步。
1. 使用K-means聚类将所有的样本向量分为1024个聚类以聚类ID为Key建立倒排索引。
2. 对于每个聚类中的样本向量,计算它们和聚类中心的差值,得到新的向量。你也可以认为这是以聚类中心作为原点重新建立向量空间,然后更新该聚类中的每个样本向量。
3. 使用乘积量化的方式,压缩存储每个聚类中新的样本向量。
![](https://static001.geekbang.org/resource/image/ba/d3/ba2da0119e3e53448e31c5824433d0d3.jpg "一个样本向量加入倒排索引的过程示意图")
建好索引之后我们再来说说查询的过程它也可以总结为3步。
1. 当查询向量到来时,先计算它离哪个聚类中心最近,然后查找倒排表,取出该聚类中所有的向量。
2. 计算查询向量和聚类中心的差值,得到新的查询向量。
3. 对新的查询向量使用乘积量化的距离计算法来遍历该聚类中的所有压缩样本向量取出最近的k个结果返回。
![](https://static001.geekbang.org/resource/image/75/b2/75fbb780bbbc5d412f660bb76fc717b2.jpg "查询向量查询倒排索引的过程示意图")
这样,我们就同时结合了聚类、乘积量化和倒排索引的检索技术,使得我们能在压缩向量节省存储空间的同时,也通过快速减少检索空间的方式,提高了检索效率。通过这样的组合技术,我们能解决大量的图片检索问题。比如说,以图搜图、拍照识物,人脸识别等等。
实际上除了图像检索领域在文章推荐、商品推荐等推荐领域中我们也都可以用类似的检索技术来快速返回大量的结果。尤其是随着AI技术的发展越来越多的对象需要用特征向量来表示。所以针对这些对象的检索问题其实都会转换为高维空间的近似检索问题那我们今天讲的内容就完全可以派上用场了。
## 重点回顾
今天,我们学习了在高维向量空间中实现近似最邻近检索的方法。相对于局部敏感哈希,使用聚类技术能实现更灵活的分类能力,并且聚类技术还支持层次聚类,它能更快速地划分检索空间。
此外,对于高维的向量检索,如何优化存储空间也是我们需要考虑的一个问题。这个时候,可以使用乘积量化的方法来压缩样本向量,让我们能在内存中运行向量检索的算法。
那为了进一步提高检索率和优化存储空间,我们还能将聚类技术、乘积量化和倒排索引技术结合使用。这也是目前图像检索和文章推荐等领域中,非常重要的设计思想和实现方案。
![](https://static001.geekbang.org/resource/image/0b/c3/0bc88d22a8ae6ac44e4a7e5180c7ebc3.jpg "知识总结")
## 课堂讨论
1.为什么使用聚类中心向量来代替聚类中的样本向量,我们就可以达到节省存储空间的目的?
2.如果二维空间中有16个点它们是由x轴的1、2、3、4四个点以及y轴的1、2、3、4四个点两两相乘组合成的。那么对于二维空间中的这16个样本点如果使用乘积量化的思路你会怎么进行压缩存储当我们新增了一个点(17,17)时,它的查询过程又是怎么样的?
欢迎在留言区畅所欲言,说出你的思考过程和最终答案。如果有收获,也欢迎把这一讲分享给你的朋友。