gitbook/赵成的运维体系管理课/docs/3277.md
2022-09-03 22:05:03 +08:00

97 lines
7.9 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 18 | 持续交付流水线软件构建难吗?有哪些关键问题?
上期文章我们介绍了需求分解与应用对应的管理方式,以及提交环节的开发协作模式,今天我们详细介绍一下提交阶段的构建环节,也就是我们经常提到的代码的编译打包。
## 构建环节
由于静态语言从过程上要比动态语言复杂一些代码提交后对于Java和C++这样的静态语言我们要进行代码编译和打包。而对于PHP和Python这样的动态语言就不需要编译直接打包即可。
同时,编译过程就开始要依赖多环境以及多环境下的配置管理,并根据不同的环境获取不同的配置,然后打包到最终的软件发布包中。
下面我就结合自己的实践经验以Java为例对构建环节做下介绍。
构建过程中我们要用到以下**4种工具**
* **Gitlab**,代码管理工具,也是版本管理工具;
* **Maven**依赖管理和自动化构建工具业界同类型的工具还有Gradle等
* **Docker**,用来提供一个干净独立的编译环境;
* **自动化脚本和平台**自动化构建的任务我们使用Python脚本来实现代码获取、编译执行、软件包生成等。
具体整个构建过程图示如下:
![](https://static001.geekbang.org/resource/image/2e/87/2ecde6e88787e007f41fb01a85718687.png)
我们以Java为例描述如下。
1.首先准备好JDK的编译镜像这个镜像环境与线上运行环境保持一致比如OS版本、内核参数以及JDK版本等基础环境。当需要启动一个构建任务时就创建一个对应的Docker实例作为独立的编译环境。
2.构建任务会根据应用配置管理中的Git地址将代码克隆下来放到指定的编译目录。Docker实例启动后将编译目录挂载到Docker实例中。
3.执行mvn package命令进行编译打包最终会生成一个可发布war的软件包。同样的对于C++、Go、Node.js也会准备好类似的编译镜像。不同的是打包时对于C++中的cmake和makeGo中的go install等等最终也会生成一个可发布的软件包。
4.构建完成后生成软件包放到指定构件库目录或者直接发布到maven的构件库中管理然后将Docker实例销毁。
上述就是一个完整的构建过程。在这里,你一定会有一些疑问,那么,我先回答几个比较常见的问题,欢迎你留言和我继续讨论。
## 几个关键问题
**1.配置文件如何打包?**
这个问题,我们在前面持续交付的多环境配置管理文章中,已经详细介绍过。这里我们结合构建过程,再介绍一下。
在上述第3个步骤中我们要进行代码编译。按照持续交付理念软件只需打包一次就可以各处运行这对于代码编译是没有问题的但是对于一些跟环境相关的配置就无法满足。
比如我们前面讲到不同的环境会涉及到不同的配置如DB、缓存。而且其他公共基础服务在不同环境中也会有不同的地址、域名或其他参数配置。
所以,我们就需要建立环境与配置之间的对应关系,并保存在配置管理平台中,至于如何来做,大家可以参考前面多环境配置管理的文章。
这里我们回到打包过程上来。
在做构建时,我们是可以确认这个软件包是要发布到哪个环境的。比如,按照流程,当前处于线下集成测试环境这个流程环节上,这时只要根据集成测试环境对应的配置项,生成配置文件,然后构建进软件包即可。如果是处于预发环境,那就生成预发环境对应的配置文件。
在我们的实际场景中多个环境需要多次打包这与我们持续交付中只构建一次的理念相悖。这并不是有意违背而是对于Java构建出的交付件最终无论生成的是war包还是jar包上述提到的跟环境相关的配置文件是要在构建时就打入软件包中的。
而且在后续启动和运行阶段,我们是无法修改已经构建进软件包里的文件及其内容的。这样一来,配置文件无法独立发布,那么就必须跟软件包一起发布。所以,在实际场景下,我们要针对不同环境多次打包。
那么,我们如何确保多次打包的效果能够和“只构建一次”理念的效果相一致呢?
这就还是要依赖我们前面介绍的各个环节的建设过程主要有以下3个方面
* 代码提交。通过分支提交管理模式每次构建都以master为基线确保合入的代码是以线上运行代码为基础的。且前面的发布分支代码未上线之前后续分支不允许进入线上发布环节确保发布分支在多环境下是同一套代码。
* 编译环境统一。上述过程已经介绍编译环境通过全新的Docker容器环境来保证。
* 配置管理。前面介绍到的多环境配置管理手段, 通过模板和auto-config的配置管理能力确保多环境配置项和配置值统一管理。
至此,一个完整的软件构建过程就完成了。可以看到,如果充分完善前期的准备工作,在做后期的方案时就会顺畅很多。
**2.为什么用Docker做编译环境的工具**
Docker容器很大的一个优势在于其创建和销毁的效率非常高而且每次新拉起的实例都是全新的消除了环境共用带来的交叉影响。而且对于并发打包的情况Docker可以快速创建出多个并行的实例来提供编译环境所以无论在效率上还是环境隔离上都有非常好的支持。
你可以尝试一下我的这个建议,确实会非常方便。
**3.为什么不直接生成Docker镜像做发布**
在使用Docker容器做编译的过程中我们最终取得的交付件模式是一个war包或者是一个jar包这个也是我们后续发布的对象。
可能有读者会问为什么不直接生成Docker镜像后续直接发布镜像
这确实是一个好问题。如果单纯从发布的维度来看,直接发布镜像会更方便,更高效。不过,在现实场景下,我们应该更全面地看问题。
早期我们曾有一段时间使用OpenStack+Docker的模式进行物理机的虚拟化以提升资源利用率。这实际上是将容器虚拟机化。
也就是说虽然Docker是一个容器但是我们的使用方式仍然是虚拟机模式要给它配置IP地址要增加很多常用命令比如top、sar等等定位问题需要ssh到容器内。
这里一方面是因为基于Docker的运维工具和手段没有跟上当时也缺少Kubernetes这样优秀的编排工具另一方面我们之前所有的运维体系都是基于IP模式建设的比如监控、发布、稳定性以及服务发现等等完全容器化的模式是没有办法一步到位的。
所以这里我们走了个小弯路容器虚拟机化。那为什么我们不直接使用虚拟机还能帮我们省去很多为了完善容器功能而做的开发工作所以一段时间之后我们还是回归到了KVM虚拟机使用方式上来。
这样也就有了上述我们基于虚拟机或者更准确地说是基于IP管理模式下的持续交付体系。
经过这样一个完整的持续交付体系过程后,我们总结出一个规律:
容器也好,虚拟机也罢,这些都是工具,只不过最终交付模式不一样。但是前面我们所讲的不管是标准化、多环境、配置管理等等这些基础工作,无论用不用容器都要去做。而且,容器的高效使用,一定是建立在更加完善和高度标准化的体系之上,否则工具只会是越用越乱。
关于持续交付流水线软件构建方面的内容,我们今天先分享到这里,欢迎你留言与我讨论。
如果今天的内容对你有帮助,也欢迎你分享给身边的朋友,我们下期见!