gitbook/遗留系统现代化实战/docs/519664.md

225 lines
24 KiB
Markdown
Raw Permalink Normal View History

2022-09-03 22:05:03 +08:00
# 17 | DevOps现代化从持续集成到持续部署
你好,我是姚琪琳。
上节课我们讲了任务分解、小步提交、质量门禁、分级构建、制品晋级等DevOps实践它们都可以看做是持续集成的基础。只有做好任务分解和小步提交才能放心大胆地PUSH代码触发持续构建只有通过质量门禁才能得到一个有信心的制品分级构建可以让我们更加快速地得到反馈而制品晋级才真正地让持续集成流水线流动起来。
不过有了一个初始版本的DevOps持续集成流水线还不够今天我们就继续聊聊DevOps现代化的高阶话题即如何从持续集成演进到持续部署和持续交付。
开始学习之前我想给你提个醒。这节课内容相当长特别是分支策略这里本可以拆成两篇甚至三篇。但为了让你一次看个够我还是决定不拆分。如果你耐心看完一定可以从根本上理解从持续集成到持续部署的关键知识点。毕竟只有筑牢基础未来DevOps实践里才可能大展身手。
## 持续集成
要想做到真正的持续集成,需要一个与之匹配的代码分支策略。这方面的话题历来就十分有争议,我来说说我的观点。
### 分支策略特性分支or基于主干开发
要说现在国内最流行的分支策略,非**特性分支Feature Branch**莫属,它还有一个更响亮的名字—— [GitFlow](https://nvie.com/posts/a-successful-git-branching-model)。不过虽然名字叫GitFlow但它并不是Git官方推荐的做法而只是Vincent Driessen的发明创造而已。
![图片](https://static001.geekbang.org/resource/image/33/7f/3372788180ae5b197ab713b21ebac17f.jpg?wh=1295x742 "图片来源https://medium.com/@rafavinnce/gitflow-branch-guide-8a523360c053")
不过国内很多团队刚刚开始使用持续集成工具其分支策略是在GitFlow基础上的某种变形。
比如每个开发人员在开发一个特性时都会在主分支上拉出自己的特性分支等开发完成后再合并到QA分支当持续集成流水线运行成功制品会部署到QA环境当QA测试通过后开发人员再把自己的特性分支合并到UAT分支进行UAT测试……以此类推当各个测试环境都测试通过后再把特性分支合并到发布分支。
你可以看出,这样的方式是不可能做到制品晋级的。
#### 特性分支带来的问题
不管是GitFlow还是这种变形的特性分支都会造成很多问题。
首先最大的问题就是**质量隐患**因为缺少制品晋级的机制即使所有的特性分支在各测试环境都得到了充分验证也无法100%保证,所有特性分支合并到发布分支后的制品是可靠的。毕竟只有经过多个环境层层检验的同一个制品,才能让我们放心部署。
另外,特性分支的好处之一是,可以在发布之前灵活选择哪些特性延迟上线,方法就是不把这个特性分支合并到发布分支。但这同样有很严重的质量隐患。在其他测试环境所测试的制品都包含这个特性分支的代码,但发布分支中的制品却不包含,你必须对所有特性重新测试才能确保它们的正确性。然而这一步却常常被忽略,人们普遍认为只要特性被单独测过了,集成后就仍然是正确的。
其次,特性分支只有在特性开发完毕后才会合并代码,这样就**无法实现小步提交和持续构建**,更不要说持续集成了。在每个开发周期的前几天,团队成员都刚刚起步,没有代码提交,持续集成服务器可能都不会执行任何构建任务,资源闲置。而在中后期,大家密集地合并代码,又可能导致资源不够用。
第三,由于合并的时机比较晚,常常会造成大规模的**合并冲突**,不仅如此,在向每个环境的分支上合并时,都要解决一遍合并冲突,十分痛苦。说好的痛苦的事情频繁做呢?有时候为了避免冲突,很多开发人员会选择不去修改原有代码,而是将代码复制出来,只加入自己的修改,造成了大量代码重复。
乍看上去有点像我们已经讲过的种种模式,但它只“扩张”,不“收缩”,实际上只能增加混乱。而且重构代码是最有可能造成大规模冲突的。我们不得不面对旷日持久的代码合并,彼此合并代码时的怨声载道,这种状况下心情和效率自然都好不了。
久而久之,团队重构代码的意愿也会逐渐消退,代码质量也就越来越糟,新系统又会向着遗留系统的不归路大步流星。
最后由于开发人员在开发完一个需求并合并到QA分支后就开始着手开发下一个需求了。但此时他还需要时刻想着将原来的特性分支在不同的时间点合并到其他测试分支就这样在不同的分支上下文之间来回切换开发人员除了开发需求外脑子里还要想着各种跟开发无关的东西**认知负载相当高**。
这种分支策略,表面上看是把不同的特性分支当成沙箱,帮助多个开发人员在隔离的环境下并行开发,但实际上它**把软件开发这个团队活动割裂为单个开发人员的单人行为与DevOps的价值观背道而驰**。说白了,选择等一个需求完全开发完毕再合并,就已经和持续集成渐行渐远了。
近年来国内流行的 [AoneFlow](https://developer.aliyun.com/article/573549) 分支策略其实也无法解决上述问题它虽然允许频繁提交代码但由于要保持本地分支的“干净”你只能将代码合并到release分支却不能把release的代码合并或rebase到本地。也就是说代码只在远端集成本地不能集成。这就导致你每次的合并都将十分头疼。
而且当临时有需求延迟发布或者干脆砍掉的时候虽然AoneFlow的重建发布分支很快但你想想这个新发布分支中的所有特性是不是还需要重新测试
你可能会说,它们之前已经测过了。但那是在有延迟发布的那个需求代码的基础上测试的,摘掉这些代码后,就不需要测试了吗?对于开发人员,重建分支是分分钟的事情,但对于测试人员,就又得加班加点重测一遍。[说好的团队为质量负责呢?](https://mp.weixin.qq.com/s/u4nzBMhZeSce_tUI6WbWKw)
#### 最理想的分支策略:基于主干开发
在我看来,最理想的分支策略是[基于主干开发Trunk Based Development](https://trunkbaseddevelopment.com)。这其实是SVN时代就流行的开发方式。在最新的 [2021 DevOps年度报告](https://cloud.google.com/blog/products/devops-sre/announcing-dora-2021-accelerate-state-of-devops-report)中仍然把基于主干开发作为必备的DevOps能力。同时在刚刚上市的《加速企业数字化转型的24项核心能力》这本书中也推荐了基于主干开发。
为什么值得推荐,我们先看看这种策略的一般流程。
* 持续提交:开发人员每日持续提交当天开发的代码,持续构建和集成;
* 冲突处理每次提交代码都会先rebase远端的master代码这让开发人员有机会在本地解决当前的冲突
* 制品晋级:提交的代码经过持续集成流水线产生制品,该制品不断晋级,最终成为生产环境的部署候选。
* 延迟发布的特性处理:在一开始就预警这种风险,并使用**特性开关Feature Toggle**来进行控制,如果需要延迟,就将开关关闭,只部署但并不交付这个特性,由于开关关闭的场景早就在多个环境下验证过了,测试人员也不需要加班。
因为采用了基于业务场景的任务分解和小步提交理论上每个commit都能提供业务价值也是可以部署和交付的。
由于代码直接PUSH你根本不用在本地建立分支而直接在本地的主干分支上开发即可。每一个commit都是可以提交甚至交付的所以无需担心其他高优先级的工作影响本地分支。你可以立即PUSH当前已经commit的代码着手新的工作。即使有时当前代码无法提交也可以建立一个临时分支或者暂时stash代码。
而我们一直头疼的冲突处理也被分解了,它内嵌到每次提交代码中,因为团队日常始终在频繁多次地解决这些冲突,所以冲突都不会太大。
在这种策略下所有的代码变更包括revert的代码都会走一遍流水线产生新的制品这也是一种增量的思想。而不是像其他策略那样靠是否合并到特定分支来决定代码的去留。
你会发现只有做好任务分解和小步提交才能做到持续PUSH代码只有写好单元测试才有信心PUSH代码只有引入特性开关才能无所畏惧地PUSH代码。主干开发和上节课讲的诸多DevOps实践是一脉相承的。
然而很多团队认为主干开发的门槛太高,任务分解、小步提交、单元测试、特性开关这些实践对开发人员要求过高,普通的团队无法达到这样的要求。但我认为这并不是人员能力的问题,因为很多互联网大厂也无法做到这一点,是他们的能力不行吗?显然不是。这其实是团队文化的问题。
### DevOps文化
DevOps其实不是一个角色而是一种文化一种价值观。任务分解、小步提交等实践与其说是开发技能不如说是团队协作、快速反馈等价值观在技术实践上的投影。我们拿持续集成流水线的纪律来举个例子。
一般持续集成做得好的团队,都会贯彻这样的流水线纪律:
* 如果当前CI的状态是红色则禁止提交新的代码
* 如果15分钟内不能快速修复就revert刚才PUSH的代码重新提交
* 尽量频繁地触发CI比如一天N次
* CI失败不过夜
* 一旦提交代码要监控CI状态直到全部通过或提交构建通过次级构建开始才能着手其他工作
![图片](https://static001.geekbang.org/resource/image/80/1c/8063ba54a187d54565afa866f627531c.jpg?wh=1920x1319)
这样的纪律背后隐藏的是团队协作、责任共享、快速反馈的DevOps价值观。CI是团队的CI一个人把CI“搞挂了”其他人就不能再次提交要等他修复如果短时间无法修复则revert代码不要影响其他人尽量频繁地提交代码让其他人可以跟你的代码更早地集成CI失败如果过夜第二天早上早来的同事就无法提交代码负责任地监控CI状态得到失败的反馈后第一时间着手修复只有修复了或revert了才是有效的反馈如果置之不理则是无效的反馈。
而基于特性分支开发代码提交频率低且代码量大导致CI挂掉的可能性非常高。为了避免影响其他人提交开发团队只能退而为每次提交提供单独的CI服务器。团队协作进一步割裂产出的制品也无法部署。
如果DevOps文化没有融入整个团队那么各种DevOps实践都会打折扣充其量也就是能做到用工具来辅助构建和打包无法做到持续构建和持续集成。
我曾在一个50~80人的开发团队中工作6年团队中三年以下工作经验的初级开发人员超过半数然而基于主干开发的分支策略运转良好。所以这根本不是能力的问题而是文化的问题、意愿的问题、魄力的问题。
### 需求管理
当然主干分支+特性开关的策略并不是毫无缺点的,特别是当需求变化较大,多个特性开关并存且存在交叉的情况下,这些都有可能成为定时炸弹。这时,需求管理就需要变革了。
一方面,有可能不会上线的需求要提前预警,让开发人员准备特性开关。另一方面,要把需求的粒度砍小。
为什么要砍小呢?我们可以从开发侧来倒推。我们所提倡的任务分解和小步提交,前提就是需求的粒度足够小,这样代码提交的粒度才能随之变小。
如果还是传统的大需求,这中间自然需要一个拆解过程,把需求从粗粒度拆分成细粒度,进而分解成足够小的开发任务。不过拆分需求并非开发人员擅长的,而是需求分析人员的本职工作。
再者,如果一个大需求需要几个月开发完成,需求方就只能在最后阶段才能看到做成了什么样子。一旦与想要的不符,就要推倒重来,造成了巨大的浪费。细粒度的需求可以在早期就向客户展示部分已完成的内容,确保方向的正确性。
这时,需求管理不但要需求分析人员转变工作方式,连需求方都要一并加入,用细粒度的用户故事替代落后的需求文档。
### Code Review
还有一个影响持续集成的原因是目前普遍存在的基于Pull Request的Code Review方式。
你的团队是不是这样做Code Review的开发人员开发完特性commit完代码申请一个Pull Request并选择一个高级开发人员进行Code Review。这名高级开发人员在Review完成后才会合并代码触发持续集成流水线。
你发现这样做的问题了吗你根本不知道你提交的代码在什么时候合并什么时候触发CI。提完PR后你会跟自己的代码“失联”多久是未知的。于是你着手其他工作等发现CI挂掉又不得不切换回上个特性分支修复。
而在基于主干的分支策略下代码是直接PUSH的而无需使用PR。你可以立即得到CI的反馈。秉承极限编程的理念既然Code Review是好的那么就频繁地去做。
所以,可以尝试每日Code Review。每天一个固定的时间团队成员围在一台显示器前或者会议室的大电视前集体Code Review每个人都能知道其他人在做的事情尽早知道是否会影响自己的开发也能在其他人遇到困难的时候第一时间伸手帮忙。
为了实现更高效的Code Review你还可以在commit代码的时候使用一些小技巧。
比如在使用并行运行模式的时候你需要复制代码。你可以在复制完代码后立即commit一次然后再在复制后的代码上修改继续commit。这样做的好处是第二次commit和第一次commit的代码是可以看出差别的有利于Code Review。否则如果复制出来直接修改那么就只能看到修改后的代码无法diff你的修改了。
## 持续部署
当团队内部形成了良好的DevOps文化之后你就可以考虑加快部署频率了。
### 高频发布
[2017年的DevOps年度报告](https://puppet.com/resources/report/2017-state-devops-report)中指出Amazon和Netflix每天的部署次数高达数千次。报告还给出了高效组织的部署频次约为每天4次每年1460次中等组织每年部署32次而低效组织每年部署7次。
你可能会问每天可以部署这么多次有什么好处呢其实这种高频发布跟任务分解、小步提交等实践都遵循了增量演进的思想。部署的频率越高每次部署的风险和成本也越低部署时间和Bug修复的时间也越少。此外由于你能更快速地得到真实用户的反馈也能及时调整产品演进的方向。
### 自动化部署
要做到高频次地发布首先要实现部署的自动化也就是在持续集成流水线中加上部署的阶段。这样每一次代码PUSH所触发的集成最终都能部署到服务器上。
在遗留系统中,部署总是最头疼的问题。通常需要一个专门的发布团队,停机数小时甚至更久,按照部署手册依次进行抽取软件包、准备并执行数据库脚本、复制文件等操作。
而要做到自动化部署,你需要为每个阶段准备部署脚本,使用部署流水线来管理部署的过程,对不同的环境也尽量使用同一套部署脚本,并把脚本纳入到代码版本管理中。
在尝试之初,你可以只把持续部署到测试环境这条链路打通。毕竟对于大多数系统,还是需要经过手动测试,才能部署到生产环境的。但即使你只能做到每一行代码提交都能持续部署到测试环境,也已经超越了绝大多数软件项目。
### 低风险发布
其次,要构建低风险发布策略,将发布风险降到最低。低风险发布策略,是指在部署过程中不要影响正常的业务行为,要让用户无感知;一旦部署失败,需要尽快回滚到正常状态,尽量减少对客户的影响。
低风险发布策略包括蓝绿部署、滚动部署、金丝雀发布等。
**蓝绿部署blue-green deployment**是指准备两套完全一样的运行环境,即生产环境(蓝环境)和预生产环境(绿环境)。
在部署时,先在绿环境中部署,并测试验收。在确认没有问题后,再将请求引流到绿环境,而蓝环境则仍然保持旧版本。当确定新版的部署没有问题后,绿环境升级为生产环境,而蓝环境则变为预生产环境,等待下次部署。
由于蓝绿部署并不会造成停机,新的生产数据一直在产生,这样就会给环境切换造成一定的困难。
因此,很多蓝绿部署方案都会采用共享数据库的方式,同时对数据迁移脚本做兼容性处理,让共享的数据库可以应对新旧两个版本的系统。比如在修改字段时使用扩张-收缩模式,先增加字段,并做数据迁移。这样,数据库就可以运行在新旧两个版本上了。当新版本确认没问题后,在下次部署的时候再删掉老字段。
![图片](https://static001.geekbang.org/resource/image/83/39/8345bc6a0a51147479fc5016af8dae39.jpg?wh=1920x1145 "图片来源于网络https://dev.to/mostlyjason/intro-to-deployment-strategies-blue-green-canary-and-more-3a3")
蓝绿部署需要准备两个完全一样的环境,有没有比它更节省资源的策略呢?
这种策略就是**滚动部署rolling deployment**,即在服务集群中选择一个或多个服务单元,先对这些服务单元进行部署,然后投入使用,并开始部署其他服务单元。如此循环直到所有单元都部署完毕。
![图片](https://static001.geekbang.org/resource/image/fd/e7/fd3416a2e8d894286415ea63b1a8f9e7.jpg?wh=1920x1014 "图片来源于网络https://dev.to/mostlyjason/intro-to-deployment-strategies-blue-green-canary-and-more-3a3")
上面的两种部署方式是从物理的角度隔离新旧版本,而[金丝雀发布Canary Release策略](https://martinfowler.com/bliki/CanaryRelease.html)则引入了用户的维度。比如在蓝绿部署或滚动部署中引入了新版本后,并不是将所有流量都引流到新版本,而是只对一小部分用户开放,以快速验证,从而降低发布风险。
![图片](https://static001.geekbang.org/resource/image/73/84/73660c57ece798f00b1667d7d4907b84.jpg?wh=1920x1279 "图片来源于网络https://dev.to/mostlyjason/intro-to-deployment-strategies-blue-green-canary-and-more-3a3")
在实际操作中可以让生产环境的测试用户作为金丝雀用户测试人员在生产环境进行测试和验证这样能在一定程度上做到QA in Production。这时你会发现你可能都不需要那么多的测试环境了。
金丝雀发布还可以延伸成为灰度发布即当金丝雀用户验证通过后不立即开发给全部用户而是按照一定阶段逐步开放给所有用户。有的时候你会发现你和别人用着同样版本的手机App但却没有别人的功能那可能就是还没有“灰度”到你。
### 应用回滚
哪怕我们已经将发布风险降到最低,也不代表零风险。当发布出现问题的时候,要及时将系统“回滚”到上一个稳定的版本。
这里说的“回滚”并不是指像数据库回滚事务那样从逻辑上逆向执行一遍所有代码增量也不是指revert所有这次部署的代码提交重新走一遍流水线产生新的制品进而部署而是指部署上一个稳定的版本。这个稳定版本是相对可靠的没必要产生新的制品了。
但这时可能会需要一定程度的人工介入如果你的流水线执行速度相当快、质量相当高也可以revert代码并重新产生制品。
如果发生问题的部分包含特性开关,也可以关闭开关来规避问题。同时,数据库的结构要做到向下兼容。一般回滚部署时,只回滚应用程序,而不要回滚数据库,否则会造成数据丢失等问题。
就算你只做到了持续部署到测试环境,低风险发布策略和应用回滚也是有必要的,毕竟在如此高频的发布下,测试人员的工作是不能被阻塞的。
## 小结
总结一下今天的内容。我们首先用了不少篇幅讨论了分支策略。这是一个充满争议的话题,每次对于 [GitFlow的批判](https://insights.thoughtworks.cn/gitflow-consider-harmful),都会引发[热议](https://ruby-china.org/topics/29263)。因此,我也只是抛出我的观点,如果你有不同想法,欢迎在评论区留下你的想法。
你会发现,**只有应用了主干开发,遗留系统现代化的增量演进原则才能更好地贯彻**。每次增量演进都能及时PUSH到主干从而过一遍持续集成流水线并部署到各个环境。而如果是特性分支策略你会不自觉地等着全部完成后再合并代码。
灵活的分支功能是Git的一大亮点但它并不是为了开发特性而设计的。利用特性分支在本地长期保存多份代码版本这是对Git分支的滥用增加了不必要的认知负载。
虽然应用主干开发也具备一定的认知负载,但这些都属于内在认知负载,一旦掌握就一劳永逸。而不像特性分支所带来的外在认知负载那样,需要时刻想着这个想着那个。
另外还要说的一点是,**不要因为忌惮代码合并而回避代码重构**。
此外我们还介绍了团队协作、责任共享、快速反馈的DevOps文化以及要适应这种文化需要在需求管理方面做出的转变。
我这里总结了一个对于持续集成的建议,希望你和团队能够不畏艰难,勇于尝试:
![图片](https://static001.geekbang.org/resource/image/18/74/184215fda70752849781306e948a0874.jpg?wh=1920x997)
最后,我们还学习了持续部署相关的内容。尽管遗留系统看上去离做到持续部署还很遥远,但低风险发布和应用回滚等策略对遗留系统现代化是非常有价值的。
比如我们常说的增量演进原则,以及抽象分支、扩张收缩模式的应用,在测试和交付时都会用到蓝绿部署和灰度发布等低风险发布策略。而一旦发生问题,就会关闭开关,将应用回滚。
到这里我们关于DevOps现代化的内容就全部讲完了。从单次构建到持续构建到持续集成到持续部署和持续交付这是一条漫长又美好的演进之旅。
![图片](https://static001.geekbang.org/resource/image/0b/72/0b9ab3582d67a432e506df04859d5472.jpg?wh=1920x884)
现在国内很多传统企业都开始做DevOps转型这是一个好现象也是企业遗留系统现代化以及数字化转型的必经之路。
[下节课](https://time.geekbang.org/column/article/520553),我们一起来学习最后一个现代化:团队结构现代化。一起来看看为什么遗留系统需要调整团队结构。
## 思考题
感谢你学完了今天的内容,今天的思考题请你分享一下你们团队的分支策略,它们有哪些优点和缺点?解决了哪些问题,又带来了哪些问题?
期待你的分享如果你觉得这节课对你有帮助别忘了分享给你的同事和朋友我们一起拥抱DevOps。