gitbook/分布式数据库30讲/docs/289299.md
2022-09-03 22:05:03 +08:00

16 KiB
Raw Permalink Blame History

20 | 关联查询如何提升多表Join能力

你好我是王磊你也可以叫我Ivan。

今天我们会继续学习查询场景中的处理技术。这一讲的关键词是“多表关联”也就是数据库中常见的Join操作。无论是单体数据库还是分布式数据库关联操作的语义始终没有变一些经典算法也保持了很好的延续性。

关联算法作为一个稍微细节点的设计,在不同数据库中是有差异的,我们还是秉承课程的整体思路,不陷入具体的设置参数、指令等内容。这样安排的依据是,只要你掌握关联算法的基本原理,就能快速掌握具体数据库的实现了。同时,有了这些原理作为基础,你也能更容易地掌握分布式数据库的优化思路。

那么,我们先来看看这些经典的关联算法吧。

三类关联算法

常见的关联算法有三大类分别是嵌套循环Nested Loop Join、排序归并Sort-Merge Join和哈希Hash Join

嵌套循环连接算法

所有的嵌套循环算法都由内外两个循环构成分别从两张表中顺序取数据。其中外层循环表称为外表Outer表内层循环表则称为内表Inner表。因为这个算法的过程是由遍历Outer表开始所以Outer表也称为驱动表。在最终得到的结果集中记录的排列顺序与Outer表的记录顺序是一致的。

根据在处理环节上的不同嵌套循环算法又可以细分为三种分别是Simple Nested-Loop JoinSNLJ、Block Nested-Loop JoinBNJ和Index Lookup JoinILJ

Simple Nested Loop Join

SNLJ是最简单粗暴的算法所以也称为Simple Nested-Loop Join。有些资料中会用NLJ指代SNLJ。

SNLJ的执行过程是这样的

  1. 遍历 Outer 表,取一条记录 r1
  2. 遍历 Inner 表,对于 Inner 表中的每条记录与r1做join操作并输出结果
  3. 重复步骤 1和2直至遍历完 Outer 表中的所有数据,就得到了最后的结果集。

这样看SNLJ算法虽然简单但也很笨拙存在非常明显的性能问题。原因在于每次为了匹配Outer表的一条记录都要对Inner表做一次全表扫描操作。而全表扫描的磁盘I/O开销很大所以SNLJ的成本很高。

Block Nested-Loop Join

BNJ是对SNLJ的一种优化改进点就是减少Inner表的全表扫描次数。BNJ的变化主要在于步骤1读取Outer表时不再只取一条记录而是读取一个批次的x条记录加载到内存中。这样执行一次Inner表的全表扫描就可以比较x条记录。在MySQL中这个x对应一个叫做Join Buffer的设置项它直接影响了BNJ的执行效率。

与SNLJ相比BNJ虽然在时间复杂度都是O(m*n)m和n分别是Outer表和Inner表的记录行数但磁盘I/O的开销却明显降低了所以效果优于SNLJ。

Index Lookup Join

你应该也注意到了SNLJ和BNJ都是直接在数据行上扫描并没有使用索引。所以这两种算法的磁盘I/O开销还是比较大的。

Index Lookup JoinILJ就是在BNJ的基础上使用了索引算法执行过程是这样的

  1. 遍历 Outer 表,取一个批次的记录 ri
  2. 通过连接键Join Key和ri可以确定对Inner表索引的扫描范围再通过索引得到对应的若干条数据记录记为sj
  3. 将ri的每一条记录与sj的每一条记录做Join操作并输出结果
  4. 重复前三步,直到遍历完 Outer 表中的所有数据,就得到了最后结果集。

看到这里ILJ的主要优化点也很明显了就是对Inner表进行索引扫描。那么你可能会问了为什么不让Outer表也做索引扫描呢

我认为Outer表当然也可以走索引。但是BNJ在Inner表上要做多次全表扫描成本最高所以Inner表上使用索引的效果最显著也就成为了算法的重点。而对Outer表来说因为扫描结果集要放入内存中暂存这意味着它的记录数是比较有限的索引带来的效果也就没有Inner表那么显著所以在定义中没有强调这部分。

关联算法的定义是为了让我们专注其中的重点而不是僵化地去理解它。比如我们会在有些教材上看到对ILJ的定义就是直接在SNLJ增加索引并不是在BNJ上拓展。而要真正在工程中应用关联算法都要结合具体场景进一步优化。

排序归并连接算法

排序归并算法就是Sort-Merge JoinSMJ也被称为Merge Join。SMJ可以分为排序和归并两个阶段

  1. 第一阶段是排序就是对Outer表和Inner表进行排序排序的依据就是每条记录在连接键上的数值。
  2. 第二阶段就是归并因为两张表已经按照同样的顺序排列所以Outer表和Inner表各一次循环遍历就能完成比对工作了。

简单来说SMJ就是先要把两个数据集合变成两个数据序列也就是有序的数据单元然后再做循环比对。这样算下来它的计算成本是两次排序再加两次循环。你可能会觉得奇怪这成本是不是比NLJ还要高呀

是的。所以选择SMJ是有前提的而这个前提就是表的记录本身就是有序的否则就不划算了。我们知道索引是天然有序的如果表的连接键刚好是索引列那么SMJ就是三种嵌套循环算法中成本最低的它的时间复杂度只有O(m+n)。

哈希连接算法

哈希连接的基本思想是取关联表的记录计算连接键上数据项的哈希值再根据哈希值映射为若干组然后分组进行匹配。这个算法体现了一种分治思想。具体来说常见的哈希连接算法有三种分别是Simple Hash Join、Grace Hash Join和Hybrid Hash Join。

Simple Hash Join

Simple Hash Join也称为经典哈希连接Classic Hash Join它的执行过程包括建立阶段Build Phase和探测阶段Probe Phase

  1. 建立阶段

选择一张表作为Inner表对其中每条记录上的连接属性Join Attribute使用哈希函数得到哈希值从而建立一个哈希表。在计算逻辑允许的情况下建立阶段选择数据量较小的表作为Inner表以减少生成哈希表的时间和空间开销。

  1. 探测阶段

另一个表作为Outer表扫描它的每一行并计算连接属性的哈希值与建立阶段生成的哈希表进行对比。当然哈希值相等不代表连接属性相等还要再做一次判断返回最终满足条件的记录。

通过Simple Hash Join这个命名我们就能知道它也是一个简单的算法。这里的简单是说它做了非常理想化的假设也就是Inner表形成的哈希表小到能够放入内存中。可实际上即使对于单体数据库来说这个哈希表也是有可能超过内存容量的。

哈希表无法全部放入内存怎么办呢这时就要使用Grace HashJoin算法了。

Grace Hash Join

GHJ算法与SHJ的不同之处在于GHJ正视了哈希表大于内存这个问题将哈希表分块缓存在磁盘上。GHJ中的Grace并不是指某项技术而是首个采用该算法的数据库的名字。

GHJ算法的执行过程也是分为两个阶段。

第一阶段Inner表的记录会根据哈希值分成若干个块Bucket写入磁盘而且每个Bucket必须小于内存容量。Outer表也按照同样的方法被分为若干Bucket写入磁盘但它的大小并不受到内存容量限制。

第二阶段和SHJ类似先将Inner表的Bucket加载到内存再读取Outer表对应Bucket的记录进行匹配所有Inner表和Outer表的Bucket都读取完毕后就得到了最终的结果集。

Hybrid Hash Join

Hybrid Hash Join也就是混合哈希字面上是指Simple Hash Join和Grace Hash Join的混合。实际上它主要是针对Grace Hash Join的优化在内存够用的情况下可以将Inner表的第一个Bucket和Outer表的第一个Bucket都保留在内存中这样建立阶段一结束就可以进行匹配节省了先写入磁盘再读取的两次I/O操作。

总体来说,哈希连接的核心思想和排序归并很相似,都是对内外表的记录分别只做一次循环。哈希连接算法不仅能够处理大小表关联,对提升大表之间关联的效率也有明显效果,但限制条件就是适用于等值连接。

分布式数据库实现

学习了基本的关联算法后我们聚焦到分布式数据库的范畴内继续讨论。其实在学习GHJ的过程中你是不是已经嗅到一点分布式架构的味道了GHJ就是将一个大任务拆解成若干子任务并执行的过程这些子任务本身是独立的如果调度到不同的节点上运行那这就是一个并行框架。由此我们可以说分布式架构下关联算法的优化和并行框架密切相关。

并行框架

第19讲中我们提到了计算下推,换个角度看,其实它就是一种并行框架,不过是最简单的并行框架。因为在很多情况下,计算任务的执行节点和对应数据的存储节点并不是完全对应的,也就没办法只依据数据分布就拆分出子任务。

那么要想在数据交错分布的情况下合理地划分和调度子任务就需要引入更复杂的计算引擎。这种并行执行引擎在OLAP数据库中比较常见通常称为MPPMassively Parallel Processing。很明显MPP已经超出了OLTP计算引擎的范畴并不是所有分布式数据库都支持的。

比如我们前面介绍过的TiDB在最初的TiDB + TiKV的体系中就没有MPP引擎。TiDB的存储节点之间是不能通讯的除了Raft协议这就意味着如果子任务之间有数据传输就必须以计算节点为通道。这样计算节点很容易成为瓶颈同时增加了网络传输负载。由此可见必须经过计算节点这个约束是生成高效并行计划的一个障碍。后来TiDB也没有打破这个约束而是通过引入Spark来处理复杂的OLAP计算任务这就是TiSpark组件。

但并不是所有分布式数据库都采用引入外部组件的方式比如OceanBase就在原有设计中拓展了并行执行框架实现了更复杂的任务调度在存储节点间也可以直接进行数据交换。

OceanBase大致也是P2P架构每个Observer部署了相同的服务在运行过程中动态的承担不同角色。图中一个Observer节点承担了入口处的查询协调器其他节点作为子查询协调器上面的工作线程是真正的任务执行者。

理解了并行框架的必要性,我们再回到多表关联这个具体场景。多表关联的复杂度,主要看参与表的数据量。其中,小表之间的关联都比较简单,所以我们接下来主要关注小表与大表关联和大表之间的关联。

大小表关联(复制表)

大小表关联时,可以把小表复制到相关存储节点,这样全局关联就被转换为一系列的本地关联,再汇总起来就得到了最终结果。这种算法的具体实现方式有两种。

  1. 静态的方式

静态的方式其实就是在创建表的时候直接使用关键字将表声明为复制表这样每个节点上都会保留一份数据副本。当它与大表关联时计算节点就可以将关联操作下推到每个存储节点进行。很多分布式数据库比如TBase、TDSQL等都支持定义复制表。

  1. 动态方式

动态方式也称为“小表广播”,这种方式不需要人工预先定义,而是在关联发生时,系统自行处理。这就是说,当关联的某张表足够小时,在整个集群中分发不会带来太大的网络开销,系统就将其即时地复制到相关的数据节点上,实现本地关联。

下面这张图体现了小表广播的过程。

动态方式和并行执行引擎有直接的联系例如Spark并行执行引擎中的Broadcast Hash Join就是先采用动态广播方式而后在每个节点上再执行哈希连接。

当然,这里的 “复制”和“广播”只表达了自然语义不能作为静态还是动态的判断标准。比如TDSQL中的“广播表”TBase中的“复制表”说的都是指静态方式。

大表关联(重分布)

复制表解决了大小表关联的问题,还剩下最棘手的大表间关联,它的解决方案通常就是重分布。

我们直接看一个例子现在要对A、B两张大表进行关联执行下面的SQL

select A.C1,B.C2 from A,B where A.C1=B.C1;

这个SQL可能会引发两种不同的重分布操作。

第一种如果C1是A表的分区键但不是B表的分区键则B表按照C1做重分布推送到A的各个分片上实现本地关联。

第二种如果两张表的分区键都不是C1则两张表都要按照C1做重分布而后在多个节点上再做本地关联。当然这种情况的执行代价就比较高了。

这个基于重分布的关联过程其实和MapReduce、Spark等并行计算引擎的思路是一样的基本等同于它们的Shuffle操作。我们可以用Spark的Shuffle Hash Join来对比学习一下。

  1. shuffle阶段分别将两个表按照连接键进行分区将相同连接键的记录重分布到同一节点数据就会被分配到尽量多的节点上增大并行度。

  2. hash join阶段每个分区节点上的数据单独执行单机hash join算法。

小结

那么,今天的课程就到这里了,让我们梳理一下这一讲的要点。

  1. 关联是数据库中比较复杂的操作相关算法主要分为三类分别是嵌套循环、排序归并和哈希。嵌套循环是比较基础的排序算法大多数数据库都会支持又细分为SNLJ、BNLJ、ILJ三种。排序归并算法仅适用于关联数据有序的情况比如连接键是关联表的索引列时在这个前提下排序归并算法的成本低于嵌套循环。
  2. 哈希算法适用于大小表关联和大表关联的场景并不是OLTP数据库的标配。在海量数据下哈希算法比嵌套循环和排序归并这两种算法的效果更好所以在OLAP数据库和大数据技术产品中比较常见。常用的哈希算法包括SHJ、GHJ和HHJ。
  3. 分布式数据库下关联算法的优化依赖于并行框架MPP而并行框架更多地出现在OLAP数据库中不是分布式数据库的标配。
  4. 大小表关联的方法是复制表有静态和动态两种实现方式。静态方式是预先将小表存储在所有节点动态方式是在关联发生时决定是否广播小表。大表间关联的方法是重分布。当A和B两张表关联时如果A表的分区键与连接键相同只需要对B表做单表重分布否则两表都需要重分布代价更大。

关联计算是查询场景中比较复杂的操作即使面向OLTP场景的传统单体数据库也没有完善的处理比如MySQL直到8.0版本才支持Hash Join。而分布式数据库也由于自身定位不同对关联算法支持程度存在差异。总的来说越倾向于支持OLAP场景对关联算法的支持度也就越高。

思考题

课程的最后我们来看看今天的思考题。我在介绍哈希算法时说“在计算逻辑允许的情况下建立阶段选择数据量较小的表作为Inner表”我的问题就是在什么情况下系统无法根据数据量决定Inner表呢

欢迎你在评论区留言和我一起讨论,我会在答疑篇和你继续讨论这个问题。如果你身边的朋友也对关联查询这个话题感兴趣,你也可以把今天这一讲分享给他,我们一起讨论。