You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

96 lines
14 KiB
Markdown

2 years ago
# 08 | 基础篇大串讲:重难点回顾+思考题答疑+知识全景图
你好我是王磊你也可以叫我Ivan。
这一讲是我们课程的答疑篇我会集中讨论前7讲布置的思考题以及留言区中大家关注的一些内容。
## 第1讲分布式数据库的定义
在[第1讲](https://time.geekbang.org/column/article/271373)中我们通过层层递进式的分析给这门课程要讨论的“分布式数据库”下了一个定义分布式数据库是服务于写多读少、低延时、海量并发OLTP场景的具有海量数据存储能力和高可靠性的关系型数据库。在“内部构成”这一节我们还着重讨论了几种不属于分布式数据库的解决方案。
在这一讲的思考题部分我们聊到了Aurora我说“Aurora和这里说的分布式数据库还是有明显差别的”想看看大家的理解。在留言中我看到有些同学是持不同观点的理由是Aurora也基于分布式存储的。
那么为什么我说它不是分布式数据库呢主要原因就是Aurora依然是不支持写入能力的水平扩展。
Aurora是亚马逊推出的云原生数据库它采用计算与存储分离的思想计算能力垂直扩展存储能力水平扩展。究其原因它的存储系统是直接架设在自家的分布式存储系统S3之上的而计算节点仍然是单节点所以是垂直扩展。当然Aurora也像MySQL一样是支持一写多读的根据亚马逊的官方说明可以配置15个备节点来分流读操作的压力。由于Aurora的元数据会缓存在主节点上的在发生变更时主备同步数据有一个小的延迟小于100毫秒这就造成备节点不能承接写入功能读也不能保证严格的数据一致性。
我们在定义中强调了海量并发和写多读少,这其实就是要求分布式数据库的写入能力必须是可水平扩展的。
“开心哥”的留言中提到了Aurora是不能支持多写的准确地抓住了它与NewSQL的重要差别。而“南国”同学的留言中还提到了Aurora的论文。这篇论文是2017年亚马逊在SIGMOD上发表的论文题目叫做”[Amazon Aurora: Design Considerations for High Throughput Cloud-Native Relational Databases](https://media.amazonwebservices.com/blog/2017/aurora-design-considerations-paper.pdf)”,其中披露了系统架构的设计细节,推荐有兴趣的同学阅读。其实阅读顶会论文是非常不错的学习方法,给“南国”同学点赞,希望大家也尝试一下。
最后“xy”同学的留言还提到了另外两款同架构的产品阿里polarDB腾讯CynosDB说明“xy”同学很关注对系统的横向比较这也是非常好的学习习惯。我这里再补充一点华为的Taurus也采用了类似Aurora的架构。
## 第2讲数据一致性
[第2讲](https://time.geekbang.org/column/article/272104)中我们首先明确了强一致性包含数据一致性和事务一致性两个方面而后展开介绍了数据一致性。我们的讲解方式是先给出一个分析框架也就是状态和操作双视角并从状态视角引出了最终一致性这个概念。而后我们在最终一致性的基础上介绍了5种不同强度的一致性模型其中线性一致性和因果一致性是分布式数据库中普遍应用的。
思考题部分则是“你觉得Paxos这个一致性协议和数据一致性又是什么关系呢
这个答案嘛,很显然它们是不同的概念。可为什么不同的概念,都叫做**一致性**呢就像“峰”同学说的这个问题其实是翻译造成的。数据一致性对应是Consistency而一致性协议对应的则是Consensus这个单词更多时候被翻译成共识就是我们常说的共识算法。
我认为Paxos本质上是一种复制协议约定了副本之间的同步策略就像我们谈到的最终一致性同样也只是描述了副本之间同步情况。再看看我们具体介绍的5个数据一致性模型它们都在多副本的基础上又约定了读写策略所以这两点都是一致性模型Consistency Model必不可少的内容。
我在留言中发现有的同学对Paxos这样的共识算法认识很深刻谈了多副本的一致性讲得很好但是会忽略了读写策略的作用。“chenchukun”和“tt”同学的留言则抓住了这两个点点赞。
## 第3讲事务一致性
[第3讲](https://time.geekbang.org/column/article/272999)谈的事务一致性也是强一致性的组成部分它具体又细化为ACID四个特性其中的一致性比较宽泛持久性的实现机制比较稳定而原子性在分布式架构下面临挑战最后的隔离性则非常复杂。即使在单体数据库下工业界也没找到公认的处理隔离性问题的完美方法很难实现最高级别的可串行化。所以在分布式架构下多数产品依然需要在性能与正确性之间进行权衡。
关于原子性和隔离性我们还有比较多的篇幅展开讨论所以课程的最后我留了一道关于持久性的思考题就是预写日志WAL写成功但是数据表写失败要怎么处理
在留言中我发现很多同学都对WAL有深刻的认识也都了解基于日志恢复数据的运作原理。其实我这个问题是想让大家思考联机写入的那一刻除了记录WAL数据库还干了什么。这也是一个与WAL有关的设计也很有意思。
事实上对大多数的数据库来说实时写入数据时并不是真的将数据写入数据表在磁盘中的对应文件里因为数据表的组织形式复杂不像WAL那样只是在文件尾部追加所以I/O操作的延迟太长。因此写入过程往往是这样的记录WAL日志同时将数据写入内存两者都成功就返回客户端了。这些内存中的数据在Oracle和MySQL中都被称为脏页达到一定比例时会批量写入磁盘。而NewSQL所采用的LSM-Tree存储模型也是大致的思路只不过在磁盘的数据组织上不同。
写入内存和WAL这两个操作构成了一个事务必须一起成功或失败。
## 第4讲两种架构风格
[第4讲](https://time.geekbang.org/column/article/274200)我们谈了分布式数据库的两种架构风格NewSQL和PGXC。PGXC是从代理中间件演化而来以单体数据库作为数据节点它的优势是工程实现更稳定。NewSQL则是以分布式键值系统为基础引入了很多新技术这些技术都会在我们的课程中逐步介绍。NewSQL的代表系统是Google的Spanner而它的优势就是架构的先进性。
其实关于架构风格的讨论,往往是百家争鸣,各持观点,所以我们的思考题也是一个开放性话题,请大家聊聊自己熟悉的分布式数据库,或者其他分布式系统的架构。
在留言区“xy”和“赵见跃”同学都提到了TDSQL它是不是也属于PGXC风格呢我认为目前腾讯输出的TDSQL还不是典型的PGXC因为它没有全局时钟也没有等效的设计去解决全局一致性问题。当然说它不是我也是有点纠结的在2019年TDSQL的技术演讲中腾讯的研发人员深入地分析了缺失全局时钟带来的一致性问题同时也提及了正在进行的技术尝试。所以我相信TDSQL很快会在新版本中增加类似的特性。
“南国”同学还提出了一个新问题NewSQL与PGXC的界限似乎很模糊是不是差别就在存储层面NewSQL只能存储而PGXC是完整的数据库呢我认为这只是一个表象最关键的差异其实是分片设计或者说是两种架构对数据组织形式上的根本差别。PGXC的数据是相对固定的而NewSQL的数据是能够更加灵活移动的移动意味着解锁了数据与节点的关系有点像灵魂和躯体的关系。如果灵魂不被限制在一个躯体里那是不是就可以实现永生。解锁了数据与节点的依赖关系系统也更加鲁棒。总的来说我认为能够适应变化在各种意外情况下都能生存下来这是设计分布式系统的核心思想。
## 第5讲全局时钟
[第5讲](https://time.geekbang.org/column/article/274908)我们介绍了全局时钟的不同实现方式包括物理时钟和逻辑时钟两种方式物理时钟的难点首先是要做到足够高的精度其次是在使用时如何处理时钟误差学术一点的说法叫做时钟的置信区间。逻辑时钟实际上是混合逻辑时钟还是会引入物理时钟作为参考但主要通过逻辑控制来保证时钟的单调递增。有同学问是不是可以不用物理时钟我要说的是对于多时间源是不行的因为这样会造成不相关事件的时钟偏差太大也就是偏序拼接的全序失真太大。如果是单时间源的混合逻辑时钟它的好处是不用处理误差简化了其他模块的设计。而HLC这样多时间源的混合逻辑时钟则依然有时钟误差的问题。
这一讲的思考题是让大家思考一下“时间对于分布式数据库的影响是什么”我发现大家的留言对这个问题的讨论并不多。其实时间在很多分布式系统都是存在的比如HBase对于各节点的时钟偏移也是有限制只不过它的容忍度更高可以达到几十秒。而在分布式数据库中与时间有关的功能主要体现在事务并发控制比如MVCC、读写冲突。既然留言讨论不多我这里就先不做点评卖个关子在第11讲、第12讲中我们再来详细聊聊。
## 第6讲数据分片
[第6讲](https://time.geekbang.org/column/article/275696)我们介绍了分布式数据库中一个非常重要的概念“分片”。分片机制的两个关键点是分片策略和分片调度机制。分片策略包括Hash和Range调度机制则包括静态和动态两种。分片机制的实现和架构有很大的关系PGXC架构基本上都是静态分片是以Hash分片为主有的产品也同时支持Range分片。关于NewSQL架构我们主要介绍了最有代表性的动态Range分片。
这一讲的思考题,就是在问分片元数据的存储方案。
分析这个问题首先要看元数据会不会变更比如静态分片就不会变更那么就可以把它复制多份部署在所有工作节点上如果会变更那就要考虑变更带来的多副本一致性问题这里其实是和后面的07讲相呼应的。现在读完07讲你自然应该知道如果是少数节点集中存储元数据那么可以采用Paxos协议保证一致性。如果是P2P架构因为节点规模太大那就适合采用Gossip协议。设计的权衡点主要是在于节点规模大小对传播效率的影响。
“开心哥”和“真名不叫黄金”两位同学都回答其中的一种情况就是基于etcd或PD基于etcd来存储元数据而etcd是Raft协议的开源实现。
## 第7讲数据复制
[第7讲](https://time.geekbang.org/column/article/277028)我们讨论的话题是数据复制这和分片一样是非常基础和重要的内容。这一讲我们介绍了两个知识点其中第一个就是分片元数据的存储方案刚刚我们已经说过了第二个知识点是数据复制的效率问题。Raft由于顺序投票的限制在复制效率上比Paxos稍差。但是因为Raft有高质量的开源实现项目etcd而Paxos因为算法复杂没有稳定的开源能实现所有TiDB和CockroachDB还是选择了Raft协议。同时TiDB和CockroachDB采用了Multi Raft的方式让多分片并行处理提升性能。两者在Raft协议实现上也进行了若干改进。这些改进思路很有普适性一些独立的Raft项目也同样实现了比如SOFA-JRaft。
这一讲的思考题,我们讨论的是分布式数据库的存储上限。你一定有点疑惑,既然分布式数据库是一个水平扩展的系统,可以不断地增加节点。那么为什么还有存储上限呢?事实上,不仅分布式数据库,绝大多数分布式存储系统都是有上限的。因为有了这个限制,可以简化系统架构设计,而这个上限当然也是一个很大的数值,能够满足绝大多数业务场景的需求。
以CockroachDB为例它的存储容量大致是4EB而这个限制是由元数据的存储方式决定的。
在CockroachDB中存储分片元数据的数据结构叫做Meta ranges它是一个两层索引结构第一层Meta1存储了第二层Meta2的地址第二层Meta2则指向了具体分片。每个节点会保存Meta1的定位而且Meta1是不会分拆的这样就更好的稳定性。Meta1和Meta2的长度都是18位所以CockroachDB中最多只能有2^36个分片。CockroachDB默认分片初始大小是64M那么可以算出一个总存储量是4EB2^36\*64M。从这个意义上说CockroachDB的最大存储容量是4EB。当然如果分片增大整体容量还会增加但第6讲我们介绍过分片过大是有副作用的所以不能无限制增加系统的容量还是有上限的。
## 小结
最后要特别感谢“Monday”同学他建议我们增加一张分布式数据库的全景图让知识的组织更加系统。我觉得这是个好主意和编辑商量了一下最后决定在每个答疑篇都会增量补充这个全景图在最后的第30讲大家就能看到完整的全景图了。这样安排还有一个好处就是帮助大家阶段性地复习前面课程。
## 分布式数据全景图1/4
![](https://static001.geekbang.org/resource/image/fb/61/fb98977aea0413fddbe477643f1f3661.jpg)
如果你对今天的内容有任何疑问,欢迎在评论区留言和我一起讨论。要是你身边的朋友也对分布式数据库这个话题感兴趣,你也可以把今天这一讲分享给他,我们一起讨论。
## 学习资料
Alexandre Verbitski et al.: [_Amazon Aurora: Design Considerations for High Throughput Cloud-Native Relational Databases_](https://media.amazonwebservices.com/blog/2017/aurora-design-considerations-paper.pdf)