You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

154 lines
14 KiB
Markdown

2 years ago
# 37 | 遇到线上故障,你和高手的差距在哪里?
你好,我是宝玉。在软件上线后,发生线上故障是一个常见的问题,但怎样对线上的故障进行处理,却很能反映出新手和高手程序员的差距。对于团队来说,如何应对线上故障,也同样能反映出线上运维水平的高低。
今天,我将带你一起分析一下,新手和高手在应对故障时有什么不同?大厂在处理线上故障时,有哪些可以学习借鉴的地方。
## 遇到线上故障,新手和高手的差距在哪里?
在这里,我把新手在处理线上故障遇到的一些常见问题列一下,同时,我们也一起分析下,高手是怎么处理这些问题的。
#### 新手遇到复杂的线上故障,不知道该怎么下手
对于线上故障有的很简单从界面或者错误日志上可以直观地看到问题在哪从而也好找到方法去解决。但有的故障却没办法直观地看出原因比如说内存一直在涨CPU居高不下遇到这种复杂的故障通常新手就不知道该怎么下手了。
而对高手来说会在实践中总结一套自己解决问题的步骤遇到问题会按照解决问题的步骤有条不紊地去分析和解决。比如说caoz的这篇《[出了bug怎么办](http://mp.weixin.qq.com/s?__biz=MzI0MjA1Mjg2Ng==&mid=2649867038&idx=1&sn=8924a2a7b51f57f983b24445812f29c5&chksm=f1075973c670d06547a8f7ad6eb687bfd78fb32894321b5519c1e982b4f7d31d23bb3a2e9fbc&scene=0#rd)》,就充分体现了一个高手的水平。)通常通过下面这样的步骤:
* 第一步,评估影响范围;
* 第二步,试图重现问题;
* 第三步,临时方案和终极方案;
* 第四步,风险评估及持续优化。
如果你还记得专栏文章《[28 | 软件工程师的核心竞争力是什么?(下)](http://time.geekbang.org/column/article/93185)》里的内容,就会发现,其实这本质就是一种解决问题的能力。一步步分析、解决和预防问题。
从新手到高手,可以从借鉴像这样的方法开始,然后在实践中不断总结经验,形成一套自己的分析问题、解决问题的方法。
#### 新手遇到线上故障会想着马上修复Bug
当发现Bug后尤其是自己的Bug很多开发人员马上就想到了Bug的修复方案迫不及待就要去写代码打补丁了。然而这样做的问题就是匆忙之间打补丁如果没有经过充分的测试可能会引入新的Bug甚至是更严重的Bug。如果要充分测试那么意味着时间会比较长而线上故障的时间越长可能意味着损失也越大。
而对于高手来说会首先对故障进行评级看对用户的影响范围如果是核心业务大面积影响用户那么当务之急是恢复生产然后再考虑如何去修复Bug。
恢复生产并不一定需要修复Bug可以用一些临时性的方案比如说回滚系统到上一个稳定的版本重启服务看是否能恢复正常。当然在恢复之前还要尽可能保留当时的日志、故障场景的截图、内存的Dump把当前内存数据保存的静态文件等信息用来后续查找故障原因使用。
遇到线上故障新手需要时刻牢记恢复生产、降低损失是第一要务修复Bug是其次的。
#### 新手遇到线上故障不知道如何快速定位到Bug在哪
在临时恢复业务后还是需要找到Bug在哪后续才能从根本上解决。对于比较复杂的线上故障新手通常不知道从哪里下手看日志看代码都看不出所以然而高手却总能快速地定位到Bug在哪。
高手快速定位Bug在哪关键在于通过有效的手段逐步缩小问题范围直到找到Bug在哪里。
比如说一种常见手段就是先重现Bug因为有了重现的步骤就等于将问题的范围缩小到重现Bug的这几步操作相关的代码上就很容易发现问题在哪。
还有一种手段就是分析错误日志,通过错误日志,可以马上定位到错误在哪里。所以对于平时写程序,无论是客户端还是服务端,注意收集错误日志是非常重要的,可以帮助你在排查问题的时候节约不少时间。
还有一些不能重现的Bug则不是那么容易发现其实也可以按照缩小问题范围的思路来定位。
比如说Bug是在最近一次部署后发现的并且回滚部署后就恢复了正常那么就说明问题很可能是由于这一次部署和上一次部署之间的代码变更导致的如果代码变更不多就可以通过分析变更的代码来定位。
像内存泄漏或者CPU高的问题一般就可以通过分析内存Dump文件分析当前是哪些线程占用资源多线程运行的代码是什么哪些变量占用资源多。从而可以缩小范围快速发现问题在哪。
排除法也是一种缩小范围的方法,尤其是在架构比较复杂的情况,一次用户请求的操作可能经过多个服务,如果配合日志,那么可以对一个请求经过的每一个服务都进行日志分析,对于正常的服务可以逐一排除,直到找到出问题的环节,从而可以缩小问题范围。
所以下一次你在遇到难以定位的Bug的时候也可以想想怎么样可以逐步缩小问题的范围直到发现问题。
#### 新手解决完线上故障后,下次可能还会发生类似故障
新手在遇到线上故障后,采用一些临时解决方案,比如说重启服务,发现恢复了,然后就把这事忘记了。对于线上的故障,如果不找到产生的原因,那么下一次还会发生类似的故障,甚至比以前还更严重。
高手对于线上故障会仔细分析Bug产生的原因从根本上解决避免类似的故障再次发生。
比如说我以前所在的项目组采用敏捷开发每周一个Sprint每周会部署上线。但上线后经常会出现一些故障导致在部署后就要回滚或者再打补丁。
虽然每一次上线后的故障可能都不一样但是如果仔细分析背后的深层次原因还是因为上线前没有充分测试导致的。每周34天时间开发12天测试来不及对程序进行充分的测试。所以我们后来从流程上改进将一个Sprint内开发好的程序在测试环境测试一周后再上线这样调整后极少出现线上故障。
有关上面案例中流程改进结果,可以参考专栏文章《[07 | 大厂都在用哪些敏捷方法?(下)](http://time.geekbang.org/column/article/85018)》中“一周一个迭代怎么保证质量?”的说明。
对于新手来说,每一次解决线上故障,同时也是一次学习和总结的机会,不仅是学习如何解决一个线上故障,还要学习解决一类的线上故障,避免类似的故障再次发生。
## 大厂都是怎么处理线上故障的?
在处理故障方面,可以看到新手和高手的差距。同样,如果你留心观察,会发现各个大厂,也都有一套自己线上故障处理的流程。(比如:《[SREGoogle运维解密](http://book.douban.com/subject/26875239/)》《[阿里如何应对电商故障?](http://yq.aliyun.com/articles/105551)》《[滴滴是如何高效率处理线上故障的?](http://www.infoq.cn/article/2017/08/didi-ops-practise)》)
![](https://static001.geekbang.org/resource/image/de/9a/de24d22dfe710baf651af9848ac1589a.png)
通过看这些大厂的故障处理流程,你会发现,大厂其实是把高手解决故障的方式,变成故障处理的流程和操作手册,并且通过反复地故障演习。不断练习和强化对故障处理的流程,让系统更健壮,让新手也可以快速上手,做到高效处理线上故障。
至于具体的处理流程,其实大同小异。
* 首先,对故障进行评级。
根据故障影响的范围对故障进行评级从而决定后续的处理方案。比如说P0是最严重最紧急的可能是大面积服务瘫痪影响大量用户需要紧急处理如果是P5可能只是用户体验相关的晚一点处理也没关系。
* 其次,要马上恢复生产,避免进一步损失。
使用临时方案,恢复生产减少损失是第一位的。可以采用部署回滚、服务降级等处理手段。
* 另外,要分析故障原因,修复故障。
* 最后,记录故障发生处理全过程,分析故障原因,提出后续改进方案。
## 大厂处理线上故障处理机制有哪些值得借鉴的地方?
从流程看,大厂处理线上故障的机制似乎并没有什么特别的,那么有没有值得学习借鉴的地方呢?答案是肯定有的。
* 故障报警和轮值机制
你可以先思考一个问题:如果你所在项目组的系统出现线上故障,要多长时间可以恢复正常?怎么样可以做到最快的速度恢复?
**要做到最快速度处理线上故障,关键就是要让正确的人第一时间就可以去响应。正确的人就是对故障服务最熟悉的人,通常就是这个服务的开发人员。**
但让所有开发人员7x24小时随时待命也不现实所以一般大厂会采用轮值的机制比如说对于每个服务每周要安排两个人值班一个是主要的出现故障第一时间响应另一个人准备着以防万一联系不上主要值班人员时可以顶替值班。
大厂都有一个报警系统值班的那一周值班人员手机要24小时开机笔记本要随身携带如果负责的服务出现故障那么会在第一时间被报警系统呼叫。如果15分钟没有人响应就会层层往上传递值班开发人员没响应就呼叫经理再是总监VP直到CEO。
这套机制虽然被很多开发人员诟病良多,毕竟值班期间要随时待命,但确实是一套非常简单有效的机制,让最熟悉服务的开发人员第一时间去处理,可以帮助线上系统以最快的速度恢复服务。
* 实战演习
在我工作经历中,不止一次出现过数据丢失的情况,其实丢失数据前,都有完善的备份恢复方案和日常备份,然而这些备份恢复方案却从来没执行过,等到真正出问题,才发现这个方案完全是不可行的,日常备份也早已被破坏无法恢复,最终导致数据丢失。
如果日常对这些方案有演习,去实际测试一下,就不至于这么狼狈。实战演习就是频繁地对故障进行演练,来测试平时做的这些方案是不是真的可行,这样遇到真正的故障,才不至于手忙脚乱不知道如何应对。
其中最有名的就是Netflix的混乱猴子军团Netflix在亚马逊云上建立了一个叫做 Chaos Monkey混乱猴子的系统这些猴子会在工作日期间随机杀死一些服务制造混乱来测试生产环境下的稳定性。
也有人把这样的实战演习叫“混沌工程”。
> 混沌工程就像“疫苗”:注射少量潜在有害的异物以预防疾病,这种人为的“破坏”其实是有帮助的。混沌工程通过在技术系统中注入危害(如延迟、CPU故障或网络黑洞)来建立这种免疫力,从而发现和修正潜在的弱点。《[以毒攻毒: Google、Amazon、Netflix如何用混沌工程控制系统风险](http://mp.weixin.qq.com/s/cNI0V0poYX0XR8Zl6Z36fA) 》
* 日志记录和分析工具
对于软件来说线上出现问题分析日志记录是最简单有效的定位问题方式。这就要求平时在开发的时候就要注意对关键日志信息的记录同时还要搭建像ELK或Splunk这样的日志分析系统方便查询日志。
举个例子一个API请求出现了随机无法访问的故障而这个API可能会经过5-10个服务怎么快速定位是哪一个服务出现问题
一个好的实践是这样的:
对于每一个请求都会分配一个唯一的请求编号requestId在经过每一个服务的时候都带上这个请求编号每个服务都把这个请求的输入和输出记录下来输入的url参数是什么http的header是什么输出的状态码是什么输出内容的大小是什么如果出错异常信息包括错误堆栈是什么
当出现故障的时候找到一个有问题的requestId根据这个requestId去日志分析系统查询相关的所有服务的日志这样马上就可以看出来哪一个服务返回的结果是有问题的。
当然还有一些其他好的实践,例如说新功能上线时,灰度发布的策略。通过开关控制,先让一小部分用户使用,如果出现故障,马上关闭开关,避免影响。
大厂的这些线上故障处理预防的实践都是公开的,通过网上的一些文章或者他们技术人员在技术大会上的分享,你也可以从中了解和学习到很多。重要的是看这些实践的好处是什么,哪些是可借鉴到你的项目中的。
## 总结
今天带你一起学习了线上故障的处理。对于线上故障的处理,基本原则就是要先尽快恢复生产减少损失,然后再去查找原因,最后不要忘记总结复盘。
要做到最快速度处理线上故障,关键就是要让正确的人第一时间就可以去响应。正确的人就是对故障服务最熟悉的人,通常就是这个服务的开发人员。
要让你的故障响应流程在真正遇到故障时能起到作用,需要经常做故障演习,测试你的故障响应流程,测试你的系统在故障下的稳健性。
线上故障的分析,少不了对日志的记录和分析,平时在开发阶段就应该要注意对日志的记录,同时也可以搭建一套适合你项目的日志分析系统,在遇到故障时,能及时的通过日志定位到问题所在。
最后,保持学习大厂对这些线上故障处理的好的实践,应用到你的项目中。
## 课后思考
你平时对于线上故障是如何处理的?有哪些可以改进的地方?你的团队对于线上故障是怎么样的处理流程?有哪些可以改进的地方?欢迎在留言区与我分享讨论。
感谢阅读,如果你觉得这篇文章对你有一些启发,也欢迎把它分享给你的朋友。