You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

12 KiB

20 | CAP理论怎样舍弃一致性去换取性能

你好,我是陶辉。

上一讲我们介绍了如何通过监控找到性能瓶颈,从这一讲开始,我们将具体讨论如何通过分布式系统来提升性能。

在第一部分课程中,我介绍了多种提升单机处理性能的途径,然而,进程的性能必然受制于一台服务器上各硬件的处理能力上限。如果需要进一步地提升服务性能,那只有整合多台主机组成分布式系统才能办到。

然而,当多台主机通过网络协同处理用户请求时,如果主机上的进程含有数据状态,那么必然需要在多台主机之间跨网络同步数据,由于网络存在时延,也并不稳定,因此不可靠的数据同步操作将会增加请求的处理时延。

CAP理论指出当数据同时存放在多个主机上时可用性与一致性是不可兼得的。根据CAP的指导性思想我们可以通过牺牲一致性来提升可用性中的核心因素性能。当然在实践中对一致性与性能并不是非黑即白的选择而是从概率上进行不同程度的取舍。

这一讲,我们将基于分布式系统中的经典理论,从总体上看看如何设计一致性模型,通过牺牲部分数据的一致性来提升性能。

如何权衡性能与一致性?

首先,这节课针对的是有状态服务的性能优化。所谓有状态服务是指进程会在处理完请求后仍然保存着影响下次请求结果的用户数据而无状态服务则只从每个请求的输入参数中获取数据在请求处理完成后并不保存任何会话信息。因此无状态服务拥有最好的可伸缩性但涉及数据持久化时则必须由有状态服务处理这是CAP理论所要解决的问题。

什么是CAP理论呢这是2000年University of California, Berkeley 的计算机教授Eric Brewer也是谷歌基础设施VP提出的理论。所谓CAP是以下3个单词的首字母缩写它们都是分布式系统最核心的特性

  • Consistency一致性
  • Availability可用性
  • Partition tolerance分区容错性

我们通过以下3张示意图快速理解下这3个词的意义。下图中N1、N2两台主机上运行着A进程和B进程它们操作着同一个用户的数据数据的初始值是V0这里N1和N2主机就处于不同的Partition分区中如下所示

正常情况下当用户请求到达N1主机上的A进程并将数据V0修改为V1后A进程将会把这一修改行为同步到N2主机上的B进程最终N1、N2上的数据都是V1这就保持了系统的Consistency一致性。

然而一旦N1和N2之间网络异常数据同步行为就会失败。这时N1和N2之间数据不一致如果我们希望在分区间网络不通的情况下N2能够继续为用户提供服务就必须容忍数据的不一致此时系统的Availability可用性更高系统的并发处理能力更强比如Cassandra数据库。

反之如果A、B进程一旦发现数据同步失败那么B进程自动拒绝新请求仅由A进程独立提供服务那么虽然降低了系统的可用性但保证了更强的一致性比如MySQL的主备同步模式。

这就是CAP中三者只能取其二的简要示意对于这一理论2002年MIT的Seth GilbertNancy Lynch这篇论文中,证明了这一理论。当然,可用性是一个很大的概念,它描述了分布式系统的持续服务能力,如下表所示:

当用户、流量不断增长时,系统的性能将变成衡量可用性的关键因素。当我们希望拥有更强的性能时,就不得不牺牲数据的一致性。当然,一致性并不是只有是和否这两种属性,我们既可以从时间维度上设计短暂不一致的同步模型,也可以从空间维度上为不含有因果、时序关系的用户数据设计并发模型。

在学术上通常会按照2个维度对一致性模型分类。首先是从数据出发设计出的一致性模型,比如顺序一致性必须遵照读写操作的次序来保持一致性,而弱一些的因果一致性则允许不具备因果关系的读写操作并发执行。其次是从用户出发设计出的一致性模型,比如单调读一致性保证客户端不会读取到旧值,而单调写一致性则保证写操作是串行的。

实际工程中一致性与可用性的边界会模糊很多,因此又有了最终一致性这样一个概念这个“最终”究竟是多久将由业务特性、网络故障率等因素综合决定。伴随最终一致性的是BASE理论

  • Basically Available基本可用性
  • Soft state软状态
  • Eventually consistent最终一致性

BASE与CAP一样并没有很精确的定义它们最主要的用途是从大方向上给你指导性的思想。接下来我们看看如何通过最终一致性来提升性能。

怎样舍弃一致性提升性能?

服务的性能,主要体现在请求的时延和系统的并发性这两个方面,而它们都与上面提到的最终一致性有关。我通常会把分布式系统分为纵向、横向两个维度,其中**纵向是请求的处理路径,横向则是同类服务之间的数据同步路径。**这样,在纵向上在离客户端更近的位置增加数据的副本,并把它存放在处理速度更快的物理介质上,就可以作为缓存降低请求的时延;而在横向上对数据增加副本,并在这些主机间同步数据,这样工作在数据副本上的进程也可以同时对客户端提供服务,这就增加了系统的并发性,如下图所示:

我们先来看纵向上的缓存,是如何在降低请求处理时延时,保持最终一致性的。

缓存可以由读、写两个操作触发更新,[第15课] 介绍过的HTTP私有缓存就是工作在浏览器上基于读操作触发的缓存。

工作在代理服务器上的HTTP共享缓存也是由读操作触发的。这些缓存与源服务器上的数据最终是一致的但在CacheControl等HTTP头部指定的时间内缓存完全有可能与源数据不同这就是牺牲一致性来提升性能的典型例子。

事实上也有很多以写操作触发缓存更新的设计它们通常又分为write back和write through两种模式。其中write back牺牲了更多的一致性但带来了更低的请求时延。比如[第4课] 介绍过的Linux磁盘高速缓存就采用了write back这种设计它虽然是单机内的一种缓存设计但在分布式系统中缓存的设计方式也是一样的。而write through会在更新数据成功后再更新缓存虽然带来了很好的一致性但写操作的时延会更久,如下图所示:

write through的一致性非常好它常常是我们的首选设计。然而一旦缓存到源数据的路径很长、延时很高的时候就值得考虑write back模式此时一致性模型虽然复杂了许多但可以带来显著的性能提升。比如机械磁盘相对内存延时高了很多因此磁盘高速缓存会采用write back模式。

虽然缓存也可以在一定程度上增加系统的并发处理连接,但这更多是缘于缓存采用了更快的算法以及存储介质带来的收益。从水平方向上,在更多的主机上添加数据副本,并在其上用新的进程提供服务,这才是提升系统并发处理能力最有效的手段。此时,进程间同步数据主要包含两种方式:同步方式以及异步方式,前者会在每个更新请求完成前,将数据成功同步到每个副本后,请求才会处理完成,而后者则会在处理完请求后,才开始异步地同步数据到副本中,如下图所示:

同步方式下系统的一致性最好但由于请求的处理时延包含了副本间的通讯时长所以性能并不好。而异步方式下系统的一致性要差特别是在主进程宕机后副本上的进程很容易出现数据丢失但异步方式的性能要好得多这不只由于更新请求的返回更快而且异步化后主进程可以基于合并、批量操作等技巧进行效率更高的数据同步。比如MySQL的主备模式下默认就使用异步方式同步数据当然你也可以改为同步方式包括Full-synchronous Replication同步所有数据副本后请求才能返回以及Semi-synchronous Replication仅成功同步1个副本后请求就可以返回两种方式。

当然在扩容、宕机恢复等场景下副本之间的数据严重不一致如果仍然基于单个操作同步数据时间会很久性能很差。此时应结合定期更新的Snapshot快照以及实时的Oplog操作日志协作同步数据这样效率会高很多。其中快照是截止时间T0时所有数据的状态而操作日志则是T0时间到当下T1之间的所有更新操作这样副本载入快照恢复至T0时刻的数据后再通过有限的操作日志与主进程保持一致。

小结

这一讲我们介绍了分布式系统中的CAP理论以及根据CAP如何通过一致性来换取性能。

CAP理论指出可用性、分区容错性、一致性三者只能取其二因此当分布式系统需要服务更多的用户时只能舍弃一致性换取可用性中的性能因子。当然性能与一致性并不是简单的二选一而是需要你根据网络时延、故障概率设计出一致性模型在提供高性能的同时保持时间、空间上可接受的最终一致性。

具体的设计方法可以分为纵向上添加缓存横向上添加副本进程两种做法。对于缓存的更新write through模式保持一致性更容易但写请求的时延偏高而一致性模型更复杂的write back模式时延则更低适用于性能要求很高的场景。

提升系统并发性可以通过添加数据副本,并让工作在副本上的进程同时对用户提供服务。副本间的数据同步是由写请求触发的,其中包括同步、异步两种同步方式。异步方式的最终一致性要差一些,但写请求的处理时延更快。在宕机恢复、系统扩容时,采用快照加操作日志的方式,系统的性能会好很多。

思考题

最后留给你一道讨论题当数据副本都在同一个IDC内部时网络时延很低带宽大而且近乎免费使用。然而一旦数据副本跨IDC后特别是IDC之间物理距离很遥远那么网络同步就变得很昂贵。这两种不同场景下你是如何考虑一致性模型的它与性能之间有多大的影响期待你的分享。

感谢阅读,如果你觉得这节课对你有一些启发,也欢迎把它分享给你的朋友。