gitbook/分布式数据库30讲/docs/288220.md
2022-09-03 22:05:03 +08:00

14 KiB
Raw Permalink Blame History

19 | 查询性能优化:计算与存储分离架构下有哪些优化思路?

你好我是王磊你也可以叫我Ivan。

我在第4讲介绍架构风格时曾经提到过分布式数据库的主体架构是朝着计算和存储分离的方向发展的这一点在NewSQL架构中体现得尤其明显。但是计算和存储是一个完整的过程架构上的分离会带来一个问题是应该将数据传输到计算节点(Data Shipping),还是应该将计算逻辑传输到数据节点(Code Shipping)

从直觉上说肯定要选择Code Shipping因为Code的体量远小于Data因此它能传输得更快让系统的整体性能表现更好。

这个将code推送到存储节点的策略被称为“计算下推”是计算存储分离架构下普遍采用的优化方案。

计算下推

将计算节点的逻辑推送到存储节点执行,避免了大量的数据传输,也达到了计算并行执行的效果。这个思路还是很好理解的,我们用一个例子来具体说明下。

假如有一张数据库表test目前有四条记录。

我们在客户端执行下面这条查询SQL。

select value from test where cond=C1

计算节点接到这条SQL后会将过滤条件“cond=C1“下推给所有存储节点。

存储节点S1有符合条件的记录则返回计算节点其他存储节点没有符合的记录返回空。计算节点直接将S1的结果集返回给客户端。

这个过程因为采用了下推方式,网络上没有无效的数据传输,否则,就要把四个存储节点的数据都送到计算节点来过滤。

这个例子是计算下推中比较典型的“谓词下推”(Predicate Pushdown)很直观地说明了下推的作用。这里的谓词下推就是把查询相关的条件下推到数据源进行提前的过滤操作表现形式主要是Where子句。但场景更复杂时比如事务包含了写入操作时对于某些分布式数据库来说就没这么简单了。

TiDB的挑战

下面的例子就是关于TiDB如何处理下推的我们首先来看这组SQL。

begin;
insert into test (id, value, cond) values(5,V5,C4);
select * from test where cond=C4;

SQL的逻辑很简单先插入一条记录后再查询符合条件的所有记录。结合上一个例子中test表的数据存储情况得到的查询结果应该是两条记录一条是原有ID等于4的记录另一条是刚插入的ID等于5的记录。这对单体数据库来说是很平常的操作但是对于TiDB来说就是一个有挑战的事情了。

我在第10讲曾经介绍过TiDB采用了“缓存写提交”技术就是将所有的写SQL缓存起来直到事务commit时再一起发送给存储节点。这意味着执行事务中的select语句时insert的数据还没有写入存储节点而是缓存在计算节点上的那么select语句下推后查询结果将只有ID为4的记录没有ID等于5的记录。

这个结果显然是错误的。为了解决这个问题TiDB开始的设计策略是当计算节点没有缓存数据时就执行下推否则就不执行下推。

这种策略限制了下推的使用对性能的影响很大。所以之后TiDB又做了改进将缓存数据也按照存储节点的方式组织成Row格式再将缓存和存储节点返回结果进行Merge就得到了最后的结果。这样缓存数据就不会阻碍读请求的下推了。

分区键与Join下推

除了谓词下推,还有一个对下推来讲很重要的关联设计,那就是分区键。分区键是沿用单体数据库的说法,这里的分区实质是指分片,也就是在定义建表语句时,显式指定的分片对应的键值。

如果你已经学习过第6讲一定记得不同的分片机制与架构风格直接相关。通常在PGXC架构中是显式指定分片的所以会出现分区键而NewSQL主要采用Range分片用户感受不到分片的存在所以往往无法利用这个特性。

只要SQL的谓词条件中包含分区键那么很多时候是可以下推到各个存储节点执行的。就算是面对多表关联的情况只要这些表使用了相同的分区键也是可以下推的类似的方式在PolarDB中被称为“Join下推”在Greenplum中被称为本地连接Local Joins。Join下推可以保证数据移动最少减少网络开销。

但是,多表使用相同的分区键并不是一个通用的方法,很多时候会在性能的均衡上面临挑战。例如,我们对用户表和交易表同样使用“机构”来做分区键,这时在每个分片内用户数量和交易数量往往不成正比。这是因为少量用户贡献了多数的交易,同时这些少量用户可能又会集中在几个节点上,就会出现局部资源紧张。

最后也不是所有计算都能下推的。比如排序操作业务需求往往不只是在一个分区内进行排序还有关联查询Join即使关联的多张表都使用了分区键但如果查询条件中没有包含分区键也是很难处理。关联查询的有关内容我在第20讲还会详细介绍。

索引分布

分布式数据库执行计算下推的目的就是为了加速查询。我想问问你,单体数据库的查询优化手段是什么呢?嗯,你一定会告诉我,索引优化。

的确,索引是数据库加速查询的重要手段。索引优化的基本逻辑是:索引实质是数据库表的子表,它的数据量更少,所以查询索引比查询数据表更高效。那么,先通过索引确定记录的主键后再“回表”查询,也就比直接查询数据表的速度更快。当然,在有些情况下,索引包含的数据项已经能够满足查询的需要,可以免去“回表”这个步骤,性能表现会更好。

索引优化对于分布式数据库来说仍然是重要的优化手段,并且和前面介绍的计算下推有密切的关系。

对于单体数据库,索引和数据表必然在同一节点上;而在分布式架构下,索引和数据既可能是同节点的,也可能是跨节点的,而这对于读写性能有很大影响。我们按照索引的分布情况和作用范围,可以分为全局索引和分区索引两种类型。在很多分布式数据库中都有对应实现,支持情况稍有差异。

分区索引

分区索引就是索引与数据在同一分区这个分区实际就是我们之前说的分片。因为分片是最小调度单位那就意味着在分区索引下索引和数据是确保存储在同一物理节点。我们把索引和数据在同一个物理节点的情况称为同分布co_located

分区索引的优点很明显,那就是性能好,因为所有走索引的查询都可以下推到每个存储节点,每个节点只把有效查询结果返回给计算节点,避免了大量无效的数据传输。分区索引的实现难点在于如何保证索引与数据始终同分布。

索引与数据同分布又和分片的基本策略有关。我们在第6讲介绍了动态分片的分拆和调度,都会影响同分布。Spanner2017论文中简短地介绍了父子表模式parent-child的同分布策略原理就是利用键值存储系统左前缀匹配Key区间的特性通过设置子表记录与父表记录保持相同的前缀来实现两者的同分布。索引作为数据的子表也采用了类似的设计理念。

NewSQL分布式数据库的底层就是分布式键值存储系统所以我们下面用BigTable的开源实现HBase来介绍具体实现原理。

在HBase下每个分片都有一个不重叠的Key区间这个区间左闭右开。当新增一个键值对Key/Value系统会先判断这个Key与哪个分片的区间匹配而后就分配到那个匹配的分片中保存匹配算法一般采用左前缀匹配方式。

这个场景中我们要操作的是一张用户信息表T_USER它有四个字段分别是主键PID、客户名称Name、城市City和年龄Age。T_USER映射到HBase这样的键值系统后主键PID作为Key其他数据项构成Value。事实上HBase的存储格式还要更复杂些这里为了便于你理解做了简化。

我们在“Ctiy”字段上建立索引索引与数据行是一对一的关系。索引存储也是KV形式Key是索引自身的主键IDValue是反序列化信息用于解析主键内容。索引主键由三部分构成分别是分片区间起始值、索引值和所指向数据行的主键PID。因为PID是唯一的索引主键在它的基础上增加了前缀所以也必然是唯一的。

整个查询的流程是这样的:

  1. 客户端发起查询SQL。
  2. 计算节点将SQL下推到各个存储节点。
  3. 存储节点在每个Region上执行下推计算取Region的起始值加上查询条件中的索引值拼接在一起作为左前缀扫描索引数据行。
  4. 根据索引扫描结果中的PID回表查询。
  5. 存储节点将Region查询结果反馈给计算节点。
  6. 计算节点汇总结果,反馈给客户端。

实现分区索引的难点在于如何始终保持索引与数据的同分布尤其是发生分片分裂时这是很多索引方案没有完美解决的问题。有些方案是在分裂后重建索引这样开销太大而且有短暂的不一致。我在自研软件Phaors时专门对这个处理做了设计优化这里和你分享一下。其实设计思想并不复杂那就是把同分布的索引和数据装入一个更小的组织单元(Bucket)而在分片分裂时要保持Bucket的完整性。这样一来因为Bucket的粒度足够小就不会影响分片分裂本身的目标也就是平衡分片的数据量和访问压力又能维持索引数据同分布。

全局索引

当然,分区索引也是有缺陷的。如果你期望的是一个唯一索引,那么分区索引就无法实现。因为唯一值的判定显然是一个全局性的约束,而所有全局性的约束,都无法在一个分片内完成。

唯一索引对应的方案就是全局索引。全局索引并不保持索引与数据同分布,于是就带来两个问题:

  1. 读操作的通讯成本更高,计算节点要与存储节点做两轮通讯,第一次查询索引信息,第二次回表查询数据。
  2. 写操作的延迟更长,因为任何情况下索引应该与数据保持一致,如果同分布,那么数据变更时可以通过本地事务保证,但在全局索引下就变成了一个分布式事务,代价当然更高了。

所以,在使用分布式数据库时,是否有必要建立全局索引,是一个非常谨慎的决定。

回到产品层面并不是所有分布式数据库都支持了分区索引和全局索引供用户选择比如TiDB的二级索引只支持全局索引。

小结

那么,今天的课程就到这里了,让我们梳理一下这一讲的要点。

  1. 计算与存储分离是分布式数据库的指导思想,但容易造成数据的无效传输,降低整体性能。所以将计算逻辑推送到存储节点,是一个主要的优化方向,这个策略被称为“计算下推”。
  2. 计算下推的逻辑非常简单但并不是每个产品都能轻松实现的。比如在TiDB中因为缓存了写操作需要使用更复杂的机制来对冲。
  3. 索引是数据优化的重要手段,在分布式数据库下具体实现包括分区索引和全局索引。分区索引可以兼容计算下推的要求,将负载分散到各个存储节点。
  4. 分区索引的难点在于分片分裂时如何保持索引与数据的同分布,可以通过引入更小的数据组织单元解决这个问题。
  5. 分区索引无法实现唯一索引,只能用全局索引支持。但是全局索引会带来两个问题,一是查询索引与数据是两轮通讯,延迟更长,二是索引必须与数据同步更新,这就增加了一个分布式事务,造成数据更新的代价更大。

其实,计算与存储分离架构自诞生起,就伴随着对其性能的质疑,这也推动了各种分布式数据库进行计算下推的优化,在存储节点支持更多的计算函数。但是计算下推终归要受到运算逻辑的限制,并不是所有计算都可以无冗余地下推。分区索引是计算下推的一种特殊形式,但很多分布式数据库并没支持这个特性,而是用实现起来更简单的全局索引代替,也因此增加了读、写两个方面的性能开销。

思考题

课程的最后,我们来看看今天的思考题。我们今天的关键词是计算下推,在课程的最后我提到一个“无冗余下推”的概念。其实,我想表达的意思是,有时候虽然可以下推但是计算量会被增大,这是因为运算逻辑无法等价地拆分成若干个子任务分散到存储节点上,那么增加出来的计算量就是一种冗余。我的问题就是,如果将“单表排序”操作进行下推,该如何设计一种有冗余的下推算法呢?

欢迎你在评论区留言和我一起讨论,我会在答疑篇和你继续讨论这个问题。如果你身边的朋友也对计算下推这个话题感兴趣,你也可以把今天这一讲分享给他,我们一起讨论。

学习资料

David F. Bacon et al.: Spanner: Becoming a SQL System