gitbook/架构实战案例解析/docs/215124.md
2022-09-03 22:05:03 +08:00

143 lines
17 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 14 | 高可用架构案例(二):如何第一时间知道系统哪里有问题?
你好,我是王庆友。
在前面两讲中,我与你介绍了系统的高可用都有哪些设计原则和具体手段。其中我也特别提到,**要想保证系统的高可用,我们还需要对系统进行全面有效的监控**。
监控是系统的眼睛,无监控,不运维。今天我们就从监控的角度来聊聊如何保证系统的高可用。
在开发软件时,我们经常强调一个业务功能的可测性,甚至有一种说法是测试驱动开发。在开发之前,我们会先设计测试用例,再去考虑如何实现功能。同样,当我们对系统作了很多加固,也是希望能保证它的稳定可用。
**但我们怎么判断系统的各个节点当前是否正常呢?**这个就对应了节点的可监控性,如果你事先想好了系统应该如何监控,如何判断每个节点是否正常,那你就会更清楚应该采取什么样的措施。很多时候,我们可以从监控的角度来倒推系统的可用性设计。
## 监控的分类
在[第11讲](https://time.geekbang.org/column/article/212066)中我和你介绍了系统的组成它包括接入层、应用系统、中间件、基础设施这几个部分那我们的监控也是针对这些部分来实施的。一般来说监控可以分为5个层次如下图所示
![](https://static001.geekbang.org/resource/image/07/cf/079ff9bc96e0bb11d438b965ddd751cf.jpg)
从上到下,分别为用户体验监控、业务监控、应用监控、中间件监控、基础平台监控。
1. **用户体验监控:**指的是从前端用户的访问速度出发,来监测系统的可用性,包括页面能否打开、关键接口的响应时间等等,用户体验监控一般结合前端的埋点来实现。
2. **业务监控:**它是从业务结果的角度来看,比如说订单数、交易金额等等,业务监控也是最直观的,我们知道,如果业务数据没问题,系统整体也就没有问题。对于业务监控,我们一般是从数据库里定时拉取业务数据,然后以曲线的方式展示业务指标随着时间的变化过程。除了当前的曲线,一般还有同比和环比曲线。同比是和前一天的数据进行比较,环比是和一周前的数据进行比较,两方面结合起来,我们就能知道当前的业务指标有没有问题。
3. **应用监控:**指的是对自己开发的代码进行监控比如接口在一段时间内的调用次数、响应时间、出错次数等等。更深入一点的应用监控还包含了调用链监控我们知道一个外部请求的处理过程包含了很多环节比如说网关、应用、服务、缓存和数据库我们可以通过调用链监控把这些环节串起来当系统有问题时我们可以一步步地排查。有很多APM工具可以实现调用链监控如CAT、SkyWalking等等。
4. **中间件监控:**指的是对标准中间件进行监控它是第三方开发的代码比如数据库、缓存、Tomcat等等这些组件对应的是系统的PaaS层。这些中间件往往带有配套的监控系统比如RabbitMQ就有自带的监控后台。
5. **基础平台监控:**指的是对系统底层资源进行监控如操作系统、硬件设备等等这个层次的监控对应的是系统的IaaS层。Zabbix就是典型的基础设施监控工具它可以监控CPU、内存和磁盘的使用情况。
## 监控的痛点
我们知道,一个大型的互联网平台,背后对应的是大规模的分布式系统,有大量的软硬件节点一起协作,这里的任何节点都有可能出问题,所以我们需要通过监控,及时发现和解决问题,提升系统的可用性。
但想要实现高效的监控,这不是一件容易的事情。下面,我给你举一个线上事故处理的例子,你就能理解监控面临的挑战。
首先Monitor发现订单曲线突然跌停当前的订单数量变为0于是Monitor快速拉起电话会议或者在微信群里@所有人进行排查。这时候一大堆相关的或不相关的人都开始排查自己负责的那部分系统比如说运维在Zabbix里检查网络和机器开发在ELK系统Elasticsearch+Logstash+Kibana里检查错误日志DBA检查数据库。
过了一会儿负责App服务端的开发人员在ELK里发现有大量的调用下单服务超时于是他去询问下单服务的开发人员这是怎么回事。下单服务的开发人员就去检索错误日志结果发现调用会员服务有大量的超时情况然后他就去问会员服务的开发人员这是怎么回事。会员服务的开发人员通过错误日志发现会员数据库连接不上于是他把问题反映给DBA。DBA先拉上负责网络的同事一起看发现网络没啥问题然后他再去检查会员数据库本身这时他发现有慢查询把DB给挂住了。
这样通过一系列的接力式排查问题终于找到了最后DBA把慢查询杀掉所有人都去检查自己的系统发现没有新的错误情况系统恢复了正常。而这个时候距离问题的发生已经过去了很长时间在这个期间技术被老板催老板被商户催而商户也已经被用户投诉了N次。
以上的事故处理过程还算比较顺利的,毕竟我们通过顺藤摸瓜,最后找到并解决了问题。**更多的时候,我们面对事故,就像是热锅上的蚂蚁,众说纷纭,谁也不能肯定问题出在哪里。结果呢,我们病急乱投医,胡乱干预系统,不但没能解决问题,而且往往引发了二次事故。**
你可以发现在这个例子中虽然我们有应用日志监控有Zabbix系统监控有网络和数据库监控但对于一个大规模的分布式系统来说这种分散的监控方式在实践中有一系列的弊端。
* 首先,不同的节点,它的监控的方式是不一样的,相应地,监控的结果也在不同的系统里输出。
* 同时,系统不同部分的监控都是由不同的人负责的,比如说,运维负责的是基础平台监控,开发负责的是应用系统监控。而监控信息往往专门的人才能解读,比如应用监控,它需要对应的开发人员才能判断当前的接口访问是否有问题。
* 最后,系统作为一个整体,需要上下游各个环节的人一起协作,进行大量的沟通,才能最终找到问题。
你可以看到,这种监控方式是碎片化的,对于处理线上紧急事故,它无疑是低效的,这里有很多问题。
![](https://static001.geekbang.org/resource/image/87/d0/872d239bc37b3b28dca238fc3f6665d0.jpg)
1. **发现问题慢:**业务监控的曲线一般1分钟更新一次有时候因为正常的业务抖动Monitor还需要把这种情况排除掉。因此他会倾向于多观察几分钟这样就导致问题的确认有很大的滞后性。
2. **定位问题慢:**系统节点多,大量的人需要介入排查,而且由于节点依赖复杂,需要反复沟通才能把信息串起来,因此很多时候,这种排查方式是串行或者说无序的。一方面,无关的人会卷入进来,造成人员的浪费;另一方面排查效率低,定位问题的时间长。
3. **解决问题慢:**当定位到问题,对系统进行调整后,验证问题是否已经得到解决,也不是一件很直观的事情,需要各个研发到相应的监控系统里去进行观察,通过滞后的业务曲线观察业务是否恢复。
**那么,我们怎么解决监控面临的这些困境,以高效的方式解决线上事故,保障系统的高可用呢?**
## 解决思路
你可以看到,前面这种监控方式,它是碎片化和人工化的,它由不同的工具负责监控系统的不同部分,并且需要大量专业的人介入,并通过反复的沟通,才能把相关的信息拼接起来,最后定位到问题。
**那我们能不能把系统所有的监控信息自动关联起来,并且以一种直观的方式展示,让所有人一看就明白是哪里出了问题,以及出问题的原因是什么呢?**
从这个思路出发,对系统的监控,我们需要做到两点:
1. 系统能够自动地判断每个节点是否正常,并直观地给出结果,不需要经过专业人员的分析。
2. 系统能够自动把各个节点的监控信息有机地串起来,从整体的角度对系统进行监控,不需要很多人反复地进行沟通。
这里,我们可以借鉴一下道路交通监控的例子。
我们经常可以在市内的高架上看到交通拥堵示意图。在下面的这张交通信息图上,你可以看到,每条道路都通过上下左右不同的方位,有机地关联在一起,形成一个整体的交通网络;同时,在交通图上,通过红黄绿三种状态,实时地反映了每条道路的拥堵情况。这样,司机就可以非常直观地了解道路是否畅通,从而提前避开拥堵路段。
![](https://static001.geekbang.org/resource/image/fb/13/fba62d78cffa6e8ba1d1951e133edc13.jpg)
这里有几个关键词:实时、直观、整体。下面,我们就来对照下软件系统的监控,来看看要想实现类似的监控效果,我们应该怎么做。
首先要**实时**,我们需要第一时间知道系统当前是否有问题。
然后要**直观**,节点是否有问题,我们需要很直观地就能判断出来,就像交通图上的红黄绿颜色标识一样。我们知道,在发生紧急事故时,人脑很可能会处于错乱状态,这个时候,我们一定不能指望专业的头脑或者严密的分析来判断问题,这样不但慢,而且很容易出错。所以,系统哪些部分有问题,问题是否严重,以及出问题的大致原因是什么,这些信息,监控系统都必须能够直观地给出来。
最后是**整体**,我们需要针对系统做整体监控,就像交通图一样,它是针对周边整体的道路情况进行展示,我们也需要把系统的各个节点放在一起,清晰地给出节点依赖关系。系统真正出问题的地方往往只有一个,其他地方都是连带的,如果监控系统能够给出节点的上下游依赖关系,对于定位真正的问题源是非常有用的。
所以,对照道路交通监控的思路,我们可以采取这样的监控方式:
* 首先,系统中的每个节点对应交通图的一条道路;
* 然后,节点的健康状况对应道路的拥堵情况,节点同样也有红黄绿三种不同的颜色,来展示该节点是否正常;
* 最后,节点之间的调用关系对应道路的方位关系。
这样我们就能构建一个实时的、直观的、一体化的监控系统,类似交通图一样,可以一眼就看出系统的问题所在。
好,回到刚才事故处理的例子,如果我们的监控系统按照这种方式来设计,它的监控效果会是什么样的呢?
首先所有的节点,包括服务端应用、下单服务、会员服务还有其他服务,以及它们各自用到的缓存、消息队列和数据库,这些节点的健康状态我们在一个页面里就可以看到,包括它们的依赖关系。
如果会员数据库出了问题,我们根据依赖关系倒推,会员数据库->会员服务->下单服务->服务端应用这4个节点都会爆红而其他节点不受影响保持绿色。服务端应用和下单服务节点会有错误消息提示接口调用超时而会员服务和会员数据库节点的错误消息提示的是数据库连接超时。
这样其他绿色的节点我们就不用排查了然后我们观察爆红的节点通过上下游依赖关系就知道最终的问题很可能出在会员数据库上DBA重点检查会员数据库就可以了。当数据库问题解决以后我们可以看到所有爆红的节点马上变绿立即就能确认系统恢复了正常。
## 架构方案和效果
根据前面的思路,我们设计了监控系统的整体架构,如下图所示:
![](https://static001.geekbang.org/resource/image/a4/d2/a469d19331860e8d4084279c422753d2.jpg)
每个被监控的节点均有对应的Agent负责采集健康数据不同的节点类型数据采集的方式也不一样Web节点通过HTTP接口调用Redis通过JredisMQ也通过对应的API接口DB则采用JDBC。
Agent每隔3s采集节点数据然后上报数据给Monitor ServiceMonitor Service负责确定节点当前的状态并保存到数据库这样就完成了节点健康状态的检测最后前端Dashboard每隔3s拉取所有节点的状态以红黄绿三种颜色在同一页面展示同时还会显示具体的出错信息。
**那我们是根据什么规则来判断节点的健康状态呢?**
这里我以DB为例简单说明一下。Agent每隔3秒会去尝试连接数据库并进行简单的表读写操作如果连接和读写都能够成功那就说明该DB当前的运行是正常的相应的在Dashboard里面这个DB节点会显示为绿色。
Redis和MQ类似我们主要也是检测组件的可用性Web应用的健康规则会相对复杂一些我们会结合Web应用接口的功能和性能来做综合判断。这个监控系统的设计我还会在下一讲里具体介绍你到时候可以深入理解其中的细节。
我们最后来看下监控的效果。
下图是某个业务系统的实际监控效果图左边是系统的部署架构最上面是两个Web应用这两个应用分别有自己的Web服务器、MQ和Redis节点。
> 提示:这里,我对细节做了模糊化处理,不过没关系,我主要的目的是让你能了解监控的效果,尽管图片模糊,但它不会影响你理解内容。
![](https://static001.geekbang.org/resource/image/d6/41/d67b89c71a3888068ffc2559ef659141.jpg)
以左上角的应用为例它的Web应用部署在Docker里面所以这里只显示一个节点虚拟机部署可以看到每个实例的IP但Docker容器无法看到对外表现为一个地址对于Redis我们是购买公有云的服务所以也是一个实例但MQ是集群的方式它有三个实例。
然后这两个Web应用同时依赖后端的3个基础服务这3个服务是并列的关系每个服务又分别有自己的应用、MQ和Redis。所以你可以看到在这个监控页面里节点的部署情况和依赖关系都是一目了然的。
在这个例子中有一个节点显示为黄色黄色说明它有问题但并不严重。你可以在右边的异常消息列表里看到具体的原因在最近3s内这个Web应用的接口响应时间超过了正常值的5倍每条异常消息包括了出错的节点、具体出错的接口、该接口的正常响应时间以及当前的响应时间。这样你就可以很方便地把左边的出错节点和右边的异常消息对应起来知道哪些节点有错误还有出错的原因是什么。
另外如果你在左边的图里点击某个节点会弹出新页面显示该节点的历史出错信息并且新页面里有链接可以直接跳到Zabbix、CAT和ELK系统这样你可以在这些专门的系统里做进一步的排查。
所以说,这里的监控系统提供的是整体的监控信息,可以帮助你快速定位问题的根源,在很多情况下,我们通过这里给出的错误信息,就可以知道出错的原因。当然,如果碰到特别复杂的情况,你还是可以在这里快速关联到各个专业的监控系统去收集更深入的信息。
## 总结
今天,我与你介绍了一下监控的分类,你现在应该对监控有了比较深入的了解,知道一个完整的监控体系都包含了哪些内容。
此外,我也结合线上事故处理的例子,和你说明了碎片化的监控带来的一些问题,并给出了整体化的解决思路以及具体的落地方案。在实践中,这套监控系统也确实发挥了巨大的价值,让我们可以高效地应对线上事故,提升系统的可用性,希望你能够深入地领悟和掌握。
在下一讲中,我还会和你介绍这个方案的实现细节,这样,你也可以尝试着去落地类似的监控系统。
**最后,给你留一道思考题:** 你的公司都有哪些监控手段,当处理线上事故时,你遇到的最大的挑战是什么?
欢迎你在留言区与大家分享你的答案,如果你在学习和实践的过程中,有什么问题或者思考,也欢迎给我留言,我们一起讨论。感谢阅读,我们下期再见。