You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

106 lines
14 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 09 | 数据库优化方案(二):写入数据量增加时,如何实现分库分表?
你好,我是唐扬。
前一节课,我们学习了在高并发下数据库的一种优化方案:读写分离,它就是依靠主从复制的技术使得数据库实现了数据复制为多份,增强了抵抗大量并发读请求的能力,提升了数据库的查询性能的同时,也提升了数据的安全性。当某一个数据库节点,无论是主库还是从库发生故障时,我们还有其他的节点中存储着全量的数据,保证数据不会丢失。此时,你的电商系统的架构图变成了下面这样:
![](https://static001.geekbang.org/resource/image/05/23/05fa7f7a861ebedc4d8f0c57bc88b023.jpg)
这时公司CEO突然传来一个好消息运营推广持续带来了流量你所设计的电商系统的订单量突破了五千万。订单数据都是单表存储的你的压力倍增因为无论是数据库的查询还是写入性能都在下降数据库的磁盘空间也在报警。所以你主动分析现阶段自己需要考虑的问题并寻求高效的解决方式以便系统能正常运转下去。**你考虑的问题主要有以下几点:**
1.系统正在持续不断地发展,注册的用户越来越多,产生的订单越来越多,数据库中存储的数据也越来越多,单个表的数据量超过了千万甚至到了亿级别。这时即使你使用了索引,索引占用的空间也随着数据量的增长而增大,数据库就无法缓存全量的索引信息,那么就需要从磁盘上读取索引数据,就会影响到查询的性能了。**那么这时你要如何提升查询性能呢?**
2.数据量的增加也占据了磁盘的空间,数据库在备份和恢复的时间变长,**你如何让数据库系统支持如此大的数据量呢?**
3.不同模块的数据,比如用户数据和用户关系数据,全都存储在一个主库中,一旦主库发生故障,所有的模块都会受到影响,**那么如何做到不同模块的故障隔离呢?**
4.你已经知道了在4核8G的云服务器上对MySQL 5.7做Benchmark大概可以支撑500TPS和10000QPS你可以看到数据库对于写入性能要弱于数据查询的能力那么随着系统写入请求量的增长**数据库系统如何来处理更高的并发写入请求呢?**
这些问题你可以归纳成,数据库的写入请求量大造成的性能和可用性方面的问题,要解决这些问题,你所采取的措施就是对数据进行分片。这样可以很好地分摊数据库的读写压力,也可以突破单机的存储瓶颈,而常见的一种方式是对数据库做“分库分表”。
分库分表是一个很常见的技术方案,你应该有所了解。那你会说了:“既然这个技术很普遍,而我又有所了解,那你为什么还要提及这个话题呢?”因为以我过往的经验来看,不少人会在“分库分表”这里踩坑,主要体现在:
1.对如何使用正确的分库分表方式一知半解,没有明白使用场景和方法。比如,一些同学会在查询时不使用分区键;
2.分库分表引入了一些问题后,没有找到合适的解决方案。比如,会在查询时使用大量连表查询等等。
本节课,我就带你解决这两个问题,从常人容易踩坑的地方,跳出来。
## 如何对数据库做垂直拆分
分库分表是一种常见的将数据分片的方式,它的基本思想是依照某一种策略将数据尽量平均地分配到多个数据库节点或者多个表中。
不同于主从复制时数据是全量地被拷贝到多个节点,分库分表后,每个节点只保存部分的数据,这样可以有效地减少单个数据库节点和单个数据表中存储的数据量,在解决了数据存储瓶颈的同时也能有效地提升数据查询的性能。同时,因为数据被分配到多个数据库节点上,那么数据的写入请求也从请求单一主库变成了请求多个数据分片节点,在一定程度上也会提升并发写入的性能。
**比如,我之前做过一个直播项目,**在这个项目中,需要存储用户在直播间中发的消息以及直播间中的系统消息,你知道这些消息量极大,有些比较火的直播间有上万条留言是很常见的事儿,日积月累下来就积攒了几亿的数据,查询的性能和存储空间都扛不住了。没办法,就只能加班加点重构,启动多个数据库来分摊写入压力和容量的压力,也需要将原来单库的数据迁移到新启动的数据库节点上,好在最后成功完成分库分表和数据迁移校验工作,不过也着实花费了不少的时间和精力。
数据库分库分表的方式有两种:一种是垂直拆分,另一种是水平拆分。这两种方式,在我看来,掌握拆分方式是关键,理解拆分原理是内核。所以你在学习时,最好可以结合自身业务来思考。
垂直拆分,顾名思义就是对数据库竖着拆分,也就是将数据库的表拆分到多个不同的数据库中。
垂直拆分的原则一般是按照业务类型来拆分核心思想是专库专用将业务耦合度比较高的表拆分到单独的库中。举个形象的例子就是在整理衣服的时候将羽绒服、毛衣、T恤分别放在不同的格子里。这样可以解决我在开篇提到的第三个问题把不同的业务的数据分拆到不同的数据库节点上这样一旦数据库发生故障时只会影响到某一个模块的功能不会影响到整体功能从而实现了数据层面的故障隔离。
**我还是以微博系统为例来给你说明一下。**
在微博系统中有和用户相关的表,有和内容相关的表,有和关系相关的表,这些表都存储在主库中。在拆分后,我们期望用户相关的表分拆到用户库中,内容相关的表分拆到内容库中,关系相关的表分拆到关系库中。
![](https://static001.geekbang.org/resource/image/77/40/7774c9393a6295b2d5e0f1a9fa7a5940.jpg)
对数据库进行垂直拆分是一种偏常规的方式,这种方式其实你会比较常用,不过拆分之后,虽然可以暂时缓解存储容量的瓶颈,但并不是万事大吉,因为数据库垂直拆分后依然不能解决某一个业务模块的数据大量膨胀的问题,一旦你的系统遭遇某一个业务库的数据量暴增,在这个情况下,你还需要继续寻找可以弥补的方式。
比如微博关系量早已经过了千亿,单一的数据库或者数据表已经远远不能满足存储和查询的需求了,这个时候,你需要将数据拆分到多个数据库和数据表中,**也就是对数据库和数据表做水平拆分了。**
## 如何对数据库做水平拆分
和垂直拆分的关注点不同,垂直拆分的关注点在于业务相关性,而水平拆分指的是将单一数据表按照某一种规则拆分到多个数据库和多个数据表中,关注点在数据的特点。
**拆分的规则有下面这两种:**
1.按照某一个字段的哈希值做拆分这种拆分规则比较适用于实体表比如说用户表内容表我们一般按照这些实体表的ID字段来拆分。比如说我们想把用户表拆分成16个库每个库是64张表那么可以先对用户ID做哈希哈希的目的是将ID尽量打散然后再对16取余这样就得到了分库后的索引值对64取余就得到了分表后的索引值。
![](https://static001.geekbang.org/resource/image/7c/39/7c6af43da41bb197be753207d4b9e039.jpg)
2.另一种比较常用的是按照某一个字段的区间来拆分,比较常用的是时间字段。你知道在内容表里面有“创建时间”的字段,而我们也是按照时间来查看一个人发布的内容。我们可能会要看昨天的内容,也可能会看一个月前发布的内容,这时就可以按照创建时间的区间来分库分表,比如说可以把一个月的数据放入一张表中,这样在查询时就可以根据创建时间先定位数据存储在哪个表里面,再按照查询条件来查询。
**一般来说,列表数据可以使用这种拆分方式,**比如一个人一段时间的订单一段时间发布的内容。但是这种方式可能会存在明显的热点这很好理解嘛你当然会更关注最近我买了什么发了什么所以查询的QPS也会更多一些对性能有一定的影响。另外使用这种拆分规则后数据表要提前建立好否则如果时间到了2020年元旦DBADatabase Administrator数据库管理员却忘记了建表那么2020年的数据就没有库表可写了就会发生故障了。
![](https://static001.geekbang.org/resource/image/40/c4/40ec1287d871d656f508d5e108f675c4.jpg)
数据库在分库分表之后,数据的访问方式也有了极大的改变,原先只需要根据查询条件到从库中查询数据即可,现在则需要先确认数据在哪一个库表中,再到那个库表中查询数据。这种复杂度也可以通过数据库中间件来解决,我们在[08讲](https://time.geekbang.org/column/article/145095)中已经有所讲解,这里就不再赘述了,不过,我想再次强调的是,你需要对所使用数据库中间件的原理有足够的了解,和足够强的运维上的把控能力。
不过,你要知道的是,分库分表虽然能够解决数据库扩展性的问题,但是它也给我们的使用带来了一些问题。
## 解决分库分表引入的问题
分库分表引入的一个最大的问题就是**引入了分库分表键,也叫做分区键,**也就是我们对数据库做分库分表所依据的字段。
从分库分表规则中你可以看到无论是哈希拆分还是区间段的拆分我们首先都需要选取一个数据库字段这带来一个问题是我们之后所有的查询都需要带上这个字段才能找到数据所在的库和表否则就只能向所有的数据库和数据表发送查询命令。如果像上面说的要拆分成16个库和64张表那么一次数据的查询会变成16\*64=1024次查询查询的性能肯定是极差的。
**当然,方法总比问题多,**针对这个问题我们也会有一些相应的解决思路。比如在用户库中我们使用ID作为分区键这时如果需要按照昵称来查询用户时你可以按照昵称作为分区键再做一次拆分但是这样会极大地增加存储成本如果以后我们还需要按照注册时间来查询时要怎么办呢再做一次拆分吗
**所以最合适的思路是**你要建立一个昵称和ID的映射表在查询的时候要先通过昵称查询到ID再通过ID查询完整的数据这个表也可以是分库分表的也需要占用一定的存储空间但是因为表中只有两个字段所以相比重新做一次拆分还是会节省不少的空间的。
**分库分表引入的另外一个问题是一些数据库的特性在实现时可能变得很困难。**比如说多表的JOIN在单库时是可以通过一个SQL语句完成的但是拆分到多个数据库之后就无法跨库执行SQL了不过好在我们对于JOIN的需求不高即使有也一般是把两个表的数据取出后在业务代码里面做筛选复杂是有一些不过是可以实现的。再比如说在未分库分表之前查询数据总数时只需要在SQL中执行count()即可现在数据被分散到多个库表中我们可能要考虑其他的方案比方说将计数的数据单独存储在一张表中或者记录在Redis里面。
当然,虽然分库分表会对我们使用数据库带来一些不便,但是相比它所带来的扩展性和性能方面的提升,我们还是需要做的,因为,经历过分库分表后的系统,才能够突破单机的容量和请求量的瓶颈,就比如说,我在开篇提到的我们的电商系统,它正是经历了分库分表,才会解决订单表数据量过大带来的性能衰减和容量瓶颈。
## 课程小结
总的来说,在面对数据库容量瓶颈和写并发量大的问题时,你可以采用垂直拆分和水平拆分来解决,不过你要注意,这两种方式虽然能够解决问题,但是也会引入诸如查询数据必须带上分区键,列表总数需要单独冗余存储等问题。
而且,你需要了解的是在实现分库分表过程中,数据从单库单表迁移多库多表是一件既繁杂又容易出错的事情,而且如果我们初期没有规划得当,后面要继续增加数据库数或者表数时,我们还要经历这个迁移的过程。**所以,从我的经验出发,对于分库分表的原则主要有以下几点:**
1.如果在性能上没有瓶颈点那么就尽量不做分库分表;
2.如果要做就尽量一次到位比如说16库每个库64表就基本能够满足几年内你的业务的需求。
3.很多的NoSQL数据库例如HbaseMongoDB都提供auto sharding的特性如果你的团队内部对于这些组件比较熟悉有较强的运维能力那么也可以考虑使用这些NoSQL数据库替代传统的关系型数据库。
其实,在我看来,有很多人并没有真正从根本上搞懂为什么要拆分,拆分后会带来哪些问题,只是一味地学习大厂现有的拆分方法,从而导致问题频出。**所以,你在使用一个方案解决一个问题的时候一定要弄清楚原理,搞清楚这个方案会带来什么问题,要如何来解决,要知其然也知其所以然,这样才能在解决问题的同时避免踩坑。**
## 一课一思
分库分表实际上是分布式存储中一种数据分片的解决方案,那么你还了解哪些分布式存储组件也使用了类似的技术呢?它的实现方式你了解吗?欢迎在留言区与我分享你的经验。
最后,感谢你的阅读,如果这篇文章让你有所收获,也欢迎你将它分享给更多的朋友。