You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

124 lines
16 KiB
Markdown

2 years ago
# 51 | 分布式计算:如果所有人的大脑都联网会怎样?
今天是原理篇的最后一篇。过去50讲我们一起看了抽象概念上的计算机指令看了这些指令怎么拆解成一个个简单的电路以及CPU是怎么通过一个一个的电路组成的。我们还一起看了高速缓存、内存、SSD硬盘和机械硬盘以及这些组件又是怎么通过总线和CPU连在一起相互通信的。
把计算机这一系列组件组合起来我们就拿到了一台完整的计算机。现在我们每天在用的个人PC、智能手机乃至云上的服务器都是这样一台计算机。
但是,一台计算机在数据中心里是不够的。因为如果只有一台计算机,我们会遇到三个核心问题。第一个核心问题,叫作**垂直扩展和水平扩展的选择问题**,第二问题叫作**如何保持高可用性**High Availability第三个问题叫作**一致性问题**Consistency
围绕这三个问题,其实就是我们今天要讲的主题,分布式计算。当然,短短的一讲肯定讲不完这么大一个主题。分布式计算拿出来单开一门专栏也绰绰有余。我们今天这一讲的目标,是让你能理解水平扩展、高可用性这两个核心问题。对于分布式系统带来的一致性问题,我们会留在我们的实战篇里面,再用案例来为大家分析。
## 从硬件升级到水平扩展
从技术开发的角度来讲想要在2019年创业真的很幸福。只要在AWS或者阿里云这样的云服务上注册一个账号一个月花上一两百块钱你就可以有一台在数据中心里面的服务器了。而且这台服务器可以直接提供给世界各国人民访问。如果你想要做海外市场你可以把这个服务器放在美国、欧洲、东南亚任何一个你想要去的市场的数据中心里然后把自己的网站部署在这台服务器里面就可以了。
![](https://static001.geekbang.org/resource/image/1d/6e/1d1cb606a2ee8261c45f99686fb7946e.png)
现在在云服务商购买服务器的成本和方便程度都已经很高了
当然,这台服务器就是我们在[第34讲](https://time.geekbang.org/column/article/107183)里说的虚拟机。不过因为只是个业余时间的小项目一开始这台服务器的配置也不会太高。我以我现在公司所用的Google Cloud为例。最低的配置差不多是1个CPU核心、3.75G内存以及一块10G的SSD系统盘。这样一台服务器每个月的价格差不多是28美元。
幸运的是,你的网站很受大家欢迎,访问量也上来了。这个时候,这台单核心的服务器的性能有点不够用了。这个时候,你需要升级你的服务器。于是,你就会面临两个选择。
第一个选择是升级现在这台服务器的硬件变成2个CPU核心、7.5G内存。这样的选择我们称之为**垂直扩展**Scale Up。第二个选择则是我们再租用一台和之前一样的服务器。于是我们有了2台1个CPU核心、3.75G内存的服务器。这样的选择我们称之为**水平扩展**Scale Out
在这个阶段这两个选择从成本上看起来没有什么差异。2核心、7.5G内存的服务器成本是56.61美元而2台1核心、3.75G内存的服务器价格成本是57美元这之间的价格差异不到1%。
不过垂直扩展和水平扩展看似是两个不同的选择但是随着流量不断增长。到最后只会变成一个选择。那就是既会垂直扩展又会水平扩展并且最终依靠水平扩展来支撑Google、Facebook、阿里、腾讯这样体量的互联网服务。
垂直扩展背后的逻辑和优势都很简单。一般来说,垂直扩展通常不需要我们去改造程序,也就是说,我们**没有研发成本**。那为什么我们最终还是要用水平扩展呢?你可以先自己想一想。
原因其实很简单因为我们没有办法不停地去做垂直扩展。我们在Google Cloud上现在能够买到的性能最好的服务器是96个CPU核心、1.4TB的内存。如果我们的访问量逐渐增大一台96核心的服务器也支撑不了了那么我们就没有办法再去做垂直扩展了。这个时候我们就不得不采用水平扩展的方案了。
96个CPU核心看起来是个很强大的服务器但是你算一算就知道其实它的计算资源并没有多大。你现在多半在用一台4核心或者至少也是2核心的CPU。96个CPU也就是3050台日常使用的开发机的计算性能。而我们今天在互联网上遇到的问题是每天数亿的访问量靠3050台个人电脑的计算能力想要支撑这样的计算需求可谓是天方夜谭了。
然而,一旦开始采用水平扩展,我们就会面临在软件层面改造的问题了。也就是我们需要开始进行**分布式计算**了。我们需要引入**负载均衡**Load Balancer这样的组件来进行流量分配。我们需要拆分应用服务器和数据库服务器来进行垂直功能的切分。我们也需要不同的应用之间通过消息队列来进行异步任务的执行。
![](https://static001.geekbang.org/resource/image/03/91/034fdb2fcf4a371d1eeb331e86fa4491.jpeg)
所有这些软件层面的改造其实都是在做分布式计算的一个核心工作就是通过消息传递Message Passing而不是共享内存Shared Memory的方式让多台不同的计算机协作起来共同完成任务。
而因为我们最终必然要进行水平扩展,我们需要在系统设计的早期就基于消息传递而非共享内存来设计系统。即使这些消息只是在同一台服务器上进行传递。
事实上有不少增长迅猛的公司早期没有准备好通过水平扩展来支撑访问量的情况而一味通过提升硬件配置Scale Up来支撑更大的访问量最终影响了公司的存亡。最典型的例子就是败在Facebook手下的[MySpace](https://en.wikipedia.org/wiki/Myspace)。
## 理解高可用性和单点故障
尽管在1个CPU核心的服务器支撑不了我们的访问量的时候选择垂直扩展是一个最简单的办法。不过如果是我的话第一次扩展我会选择水平扩展。
选择水平扩展的一个很好的理由,自然是可以“强迫”从开发的角度,尽早地让系统能够支持水平扩展,避免在真的流量快速增长的时候,垂直扩展的解决方案跟不上趟。不过,其实还有一个更重要的理由,那就是系统的可用性问题。
上面的1核变2核的垂直扩展的方式扩展完之后我们还是只有1台服务器。如果这台服务器出现了一点硬件故障比如CPU坏了那我们的整个系统就坏了就**不可用**了。
如果采用了水平扩展即便有一台服务器的CPU坏了我们还有另外一台服务器仍然能够提供服务。负载均衡能够通过健康检测Health Check发现坏掉的服务器没有响应了就可以自动把所有的流量切换到第2台服务器上这个操作就叫作**故障转移**Failover我们的系统仍然是**可用**的。
系统的**可用性**Avaiability指的就是我们的系统可以正常服务的时间占比。无论是因为软硬件故障还是需要对系统进行停机升级都会让我们损失系统的可用性。可用性通常是用一个百分比的数字来表示比如99.99%。我们说系统每个月的可用性要保障在99.99%也就是意味着一个月里你的服务宕机的时间不能超过4.32分钟。
有些系统可用性的损失是在我们计划内的。比如上面说的停机升级这个就是所谓的计划内停机时间Scheduled Downtime。有些系统可用性的损失是在我们计划外的比如一台服务器的硬盘忽然坏了这个就是所谓的计划外停机时间Unscheduled Downtime
我们的系统是一定不可能做到100%可用的,特别是计划外的停机时间。从简单的硬件损坏,到机房停电、光缆被挖断,乃至于各种自然灾害,比如地震、洪水、海啸,都有可能使得我们的系统不可用。作为一个工程师和架构师,我们要做的就是尽可能低成本地提高系统的可用性。
咱们的专栏是要讲计算机组成原理,那我们先来看一看硬件服务器的可用性。
现在的服务器的可用性都已经很不错了通常都能保障99.99%的可用性了。如果我们有一个小小的三台服务器组成的小系统一台部署了Nginx来作为负载均衡和反向代理一台跑了PHP-FPM作为Web应用服务器一台用来作为MySQL数据库服务器。每台服务器的可用性都是99.99%。那么我们整个系统的可用性是多少呢?你可以先想一想。
答案是99.99% × 99.99% × 99.99% = 99.97%。在这个系统当中这个数字看起来似乎没有那么大区别。不过反过来看我们是从损失了0.01%的可用性变成了损失0.03%的可用性不可用的时间变成了原来的3倍。
如果我们有1000台服务器那么整个的可用性就会变成 99.99% ^ 1000 = 90.5%。也就是说,我们的服务一年里有超过一个月是不可用的。这可怎么办呀?
![](https://static001.geekbang.org/resource/image/e9/35/e9ef478712d744d07c82c54534564335.jpeg)
我们先来分析一下原因。之所以会出现这个问题,是因为在这个场景下,任何一台服务器出错了,整个系统就没法用了。这个问题就叫作**单点故障问题**Single Point of FailureSPOF。我们这里的这个假设特别糟糕。我们假设这1000台服务器每一个都存在单点故障问题。所以我们的服务也就特别脆弱随便哪台出现点风吹草动整个服务就挂了。
要解决单点故障问题,第一点就是要移除单点。其实移除单点最典型的场景,在我们水平扩展应用服务器的时候就已经看到了,那就是让两台服务器提供相同的功能,然后通过负载均衡把流量分发到两台不同的服务器去。即使一台服务器挂了,还有一台服务器可以正常提供服务。
不过光用两台服务器是不够的,单点故障其实在数据中心里面无处不在。我们现在用的是云上的两台虚拟机。如果这两台虚拟机是托管在同一台物理机上的,那这台物理机本身又成为了一个单点。那我们就需要把这两台虚拟机分到两台不同的物理机上。
不过这个还是不够。如果这两台物理机在同一个机架Rack那机架上的交换机Switch就成了一个单点。即使放到不同的机架上还是有可能出现整个数据中心遭遇意外故障的情况。
![](https://static001.geekbang.org/resource/image/ab/a4/ab09e9a2b9670d61c2391906189694a4.jpeg)
去年我自己就遇到过部署在Azure上的服务所在的数据中心因为散热问题触发了整个数据中心所有服务器被关闭的问题。面对这种情况我们就需要设计进行**异地多活**的系统设计和部署。所以在现代的云服务你在买服务器的时候可以选择服务器的area地区和zone区域而要不要把服务器放在不同的地区或者区域里也是避免单点故障的一个重要因素。
只是能够去除单点其实我们的可用性问题还没有解决。比如上面我们用负载均衡把流量均匀地分发到2台服务器上当一台应用服务器挂掉的时候我们的确还有一台服务器在提供服务。但是负载均衡会把一半的流量发到已经挂掉的服务器上所以这个时候只能算作一半可用。
想要让整个服务完全可用我们就需要有一套故障转移Failover机制。想要进行故障转移就首先要能发现故障。
以我们这里的PHP-FPM的Web应用为例负载均衡通常会定时去请求一个Web应用提供的健康检测Health Check的地址。这个时间间隔可能是5秒钟如果连续23次发现健康检测失败负载均衡就会自动将这台服务器的流量切换到其他服务器上。于是我们就自动地产生了一次故障转移。故障转移的自动化在大型系统里是很重要的因为服务器越多出现故障基本就是个必然发生的事情。而自动化的故障转移既能够减少运维的人手需求也能够缩短从故障发现到问题解决的时间周期提高可用性。
![](https://static001.geekbang.org/resource/image/09/02/0907c25d6f2fd80401ee3d9bf5d17802.png)
我们在Web应用上设置了一个Heartbeat接口每20秒检查一次出现问题的时候可以进行故障转移切换
那么,让我们算一算,通过水平扩展相同功能的服务器来去掉单点故障,并且通过健康检查机制来触发自动的故障转移,这样的可用性会变成多少呢?你可以拿出纸和笔来试一下。
不知道你想明白应该怎么算了没有,在这种情况下,我们其实只要有任何一台服务器能够正常运转,就能正常提供服务。那么,我们的可用性就是:
100% - (100% - 99.99%) × (100% - 99.99%) = 99.999999%
可以看出,不能提供服务的时间就减少到了原来的万分之一。
当然,在实际情况中,可用性没法做到那么理想的地步。光从硬件的角度,从服务器到交换机,从网线连接到机房电力,从机房的整体散热到外部的光纤线路等等,可能出现问题的地方太多了。这也是为什么,我们需要从整个系统层面,去设计系统的高可用性。
## 总结延伸
讲到这里,相信你已经很清楚,为什么我们需要水平扩展了。对于怎么去设计整个硬件的部署,来保障高可用性,你应该也有了一个清晰的认识。这两点也是分布式计算在实践中非常重要的应用场景。
不过,光有这两点还是不够的。一旦系统里面有了很多台服务器。特别是,为了保障可用性,对于同样功能的、有状态的数据库进行了水平的扩展,我们就会面临一个新的挑战,那就是分区一致性问题。不过,这个问题更多的是一个软件设计问题,我把它留在后面的实战篇再进行讲解。
我们下面来回顾一下这一讲的内容。我们讲了通过升级硬件规格来提升服务能力的垂直扩展。除此之外,也可以通过增加服务器数量来提升服务能力。不过归根到底,我们一定要走上水平扩展的路径。
一方面是因为垂直扩展不可持续;另一方面,则是只有水平扩展才能保障高可用性。而通过水平扩展保障高可用性,则需要我们做三件事情。第一个是理解可用性是怎么计算的。服务器硬件的损坏只是可能导致可用性损失的因素之一,机房内的电力、散热、交换机、网络线路,都有可能导致可用性损失。而外部的光缆、自然灾害,也都有可能造成我们整个系统的不可用。
所以,在分析设计系统的时候,我们需要尽可能地排除单点故障。进一步地,对于硬件的故障,我们还要有自动化的故障转移策略。在这些策略都齐全之后,我们才能真的长舒一口气,在海量的负载和流量下安心睡个好觉。
## 推荐阅读
今天的推荐阅读,不是读一篇具体的文章,我推荐你可以常常去浏览一下[http://highscalability.com/](http://highscalability.com/)这个网站,里面有不少有价值的、讲解怎么做到高扩展性的小文章。
## 课后思考
你可以想一想,你现在在学习和工作中开发的系统,是否考虑到高可用性呢?你能找找这些系统中,你们做了哪些高可用性的硬件层面的设计,是否还存在哪些单点故障,以及做了哪些故障转移的措施来保持可用性吗?
你可以写在留言区,和大家一起分享一下实际的应用经验,也可以看看其他同学的工作中做了什么样的设计和相关工作,和大家一起交流、分享。