gitbook/Android开发高手课/docs/82468.md
2022-09-03 22:05:03 +08:00

21 KiB
Raw Permalink Blame History

26 | 关于编译,你需要了解什么?

作为Android工程师我们每天都会经历无数次编译而对于大型项目来说每次编译就意味着要花去一杯咖啡的时间。可能我讲具体的数字你会更有体会当时我在微信时全量编译Debug包需要5分钟而编译Release包更是要超过15分钟。

如果每次编译可以减少1分钟对微信整个Android团队来说就可以节约1200分钟团队40人 × 每天编译30次 × 1分钟。所以说优化编译速度对于提升整个团队的开发效率是非常重要的。

那应该怎么样优化编译速度呢微信、Google、Facebook等国内外大厂都做了哪些努力呢除了编译速度之外关于编译你还需要了解哪些知识呢

关于编译

虽然我们每天都在编译,那到底什么是编译呢?

你可以把编译简单理解为将高级语言转化为机器或者虚拟机所能识别的低级语言的过程。对于Android来说这个过程就是把Java或者Kotlin转变为Android虚拟机运行的Dalvik字节码的过程。

编译的整个过程会涉及词法分析、语法分析 、语义检查和代码优化等步骤。对于底层编译原理感兴趣的同学,你可以挑战一下编译原理的三大经典巨作:龙书、虎书、鲸鱼书

但今天我们的重点不是底层的编译原理而是希望一起讨论Android编译需要解决的问题是什么目前又遇到了哪些挑战以及国内外大厂又给出了什么样的解决方案。

1. Android编译的基础知识

无论是微信的编译优化还是Tinker项目都涉及比较多的编译相关知识因此我在Android编译方面研究颇多经验也比较丰富。Android的编译构建流程主要包括代码、资源以及Native Library三部分整个流程可以参考官方文档的构建流程图

Gradle是Android官方的编译工具它也是GitHub上的一个开源项目。从Gradle的更新日志可以看到当前这个项目还更新得非常频繁基本上每一两个月都会有新的版本。对于Gradle我感觉最痛苦的还是Gradle Plugin的编写主要是因为Gradle在这方面没有完善的文档因此一般都只能靠看源码或者断点调试的方法。

但是编译实在太重要了每个公司的情况又各不相同必须强行造一套自己的“轮子”。已经开源的项目有Facebook的Buck以及Google的Bazel

为什么要自己“造轮子”呢?主要有下面几个原因:

  • 统一编译工具。Facebook、Google都有专门的团队负责编译工作他们希望内部的所有项目都使用同一套构建工具这里包括Android、Java、iOS、Go、C++等。编译工具的统一优化,所有项目都会受益。

  • 代码组织管理架构。Facebook和Google的代码管理有一个非常特别的地方就是整个公司的所有项目都放到同一个仓库里面。因此整个仓库非常庞大所以他们也不会使用Git。目前Google使用的是PiperFacebook是基于HG修改的,也是一种基于分布式的文件系统。

  • 极致的性能追求。Buck和Bazel的性能的确比Gradle更好内部包含它们的各种编译优化。但是它们或多或少都有一些定制的味道例如对Maven、JCenter这样的外部依赖支持的也不是太好。

“程序员最痛恨写文档还有别人不写文档”所以它们的文档也是比较少的如果想做二次定制开发会感到很痛苦。如果你想把编译工具切换到Buck和Bazel需要下很大的决心而且还需要考虑和其他上下游项目的协作。当然即使我们不去直接使用它们内部的优化思路也非常值得我们学习和参考。

Gradle、Buck、Bazel都是以更快的编译速度、更强大的代码优化为目标我们下面一起来看看它们做了哪些努力。

2. 编译速度

回想一下我们的Android开发生涯在编译这件事情上面究竟浪费了多少时间和生命。正如前面我所说编译速度对团队效率非常重要。

关于编译速度我们最关心的可能还是编译Debug包的速度尤其是增量编译incremental build的速度希望可以做到更加快速的调试。正如下图所示我们每次代码验证都要经过编译和安装两个步骤。

  • 编译时间。把Java或者Kotlin代码编译为“.class“文件然后通过dx编译为Dex文件。对于增量编译我们希望编译尽可能少的代码和资源最理想情况是只编译变化的部分。但是由于代码之间的依赖大部分情况这并不可行。这个时候我们只能退而求其次希望编译更少的模块。Android Plugin 3.0使用Implementation代替Compile正是为了优化依赖关系。

  • 安装时间。我们要先经过签名校验校验成功后会有一大堆的文件拷贝工作例如APK文件、Library文件、Dex文件等。之后我们还需要编译Odex文件这个过程特别是在Android 5.0和6.0会非常耗时。对于增量编译最好的优化是直接应用新的代码无需重新安装新的APK。

对于增量编译我先来讲讲Gradle的官方方案Instant Run。在Android Plugin 2.3之前它使用的Multidex实现。在Android Plugin 2.3之后它使用Android 5.0新增的Split APK机制。

如下图所示资源和Manifest都放在Base APK中 在Base APK中代码只有Instant Run框架应用的本身的代码都在Split APK中。

Instant Run有三种模式如果是热交换和温交换我们都无需重新安装新的Split APK它们的区别在于是否重启Activity。对于冷交换我们需要通过adb install-multiple -r -t重新安装改变的Split APK应用也需要重启。

虽然无论哪一种模式我们都不需要重新安装Base APK。这让Instant Run看起来是不是很不错但是在大型项目里面它的性能依然非常糟糕主要原因是

  • 多进程问题。“The app was restarted since it uses multiple processes”如果应用存在多进程热交换和温交换都不能生效。因为大部分应用都会存在多进程的情况Instant Run的速度也就大打折扣。

  • Split APK安装问题。虽然Split APK的安装不会生成Odex文件但是这里依然会有签名校验和文件拷贝APK安装的乒乓机制。这个时间需要几秒到几十秒是不能接受的。

  • javac问题。在Gradle 4.6之前如果项目中运用了Annotation Processor。那不好意思本次修改以及它依赖的模块都需要全量javac而这个过程是非常慢的可能会需要几十秒。这个问题直到Gradle 4.7才解决,关于这个问题原因的讨论你可以参考这个Issue

你还可以看看这一个Issuefull rebuild if a class contains a constant假设修改的类中包含一个“public static final”的变量那同样也不好意思本次修改以及它依赖的模块都需要全量javac。这是为什么呢因为常量池是会直接把值编译到其他类中Gradle并不知道有哪些类可能使用了这个常量。

询问Gradle的工作人员他们出给的解决方案是下面这个

// 原来的常量定义:
public static final int MAGIC = 23

// 将常量定义替换成方法: 
public static int magic() {
  return 23;
}

对于大型项目来说这肯定是不可行的。正如我在Issue中所写的一样无论我们是不是真正改到这个常量Gradle都会无脑的全量javac这样肯定是不对的。事实上我们可以通过比对这次代码修改看看是否有真正改变某一个常量的值。

但是可能用过阿里的Freeline或者蘑菇街的极速编译的同学会有疑问它们的方案为什么不会遇到Annotation和常量的问题

事实上它们的方案在大部分情况比Instant Run更快那是因为牺牲了正确性。也就是说它们为了追求更快的速度直接忽略了Annotation和常量改变可能带来错误的编译产物。Instant Run作为官方方案它优先保证的是100%的正确性。

当然Google的人也发现了Instant Run的种种问题在Android Studio 3.5之后对于Android 8.0以后的设备将会使用新的方案“Apply Changes”代替Instant Run。目前我还没找到关于这套方案更多的资料不过我认为应该是抛弃了Split APK机制

一直以来我心目中都有一套理想的编译方案这套方案安装的Base APK依然只是一个壳APK真正的业务代码放到Assets的ClassesN.dex中。

  • 无需安装。依然使用类似Tinker热修复的方法每次只把修改以及依赖的类插入到pathclassloader的最前方就可以不熟悉的同学可以参考《微信Android热补丁实践演进之路》中的Qzone方案。

  • Oatmeal。为了解决首次运行时Assets中ClassesN.dex的Odex耗时问题我们可以使用“安装包优化“中讲过的ReDex中的黑科技Oatmeal。它可以在100毫秒以内生成一个完全解释执行的Odex文件。

  • 关闭JIT。我们通过在AndroidManifest指定android:vmSafeMode=“true”关闭虚拟机的JIT优化这样也就不会出现Tinker在Android N混合编译遇到的问题

这套方案应该可以完全解决Instant Run当前的各种问题我也希望对编译优化感兴趣的同学可以自行实现这一套方案并能开源出来。

对于编译速度的优化,我还有几个建议:

  • 更换编译机器。对于实力雄厚的公司直接更换Mac或者其他更给力的设备作为编译机这种方式是最简单的。

  • Build Cache。可以将大部分不常改变的项目拆离出去,并使用远端Cache模式保留编译后的缓存。

  • 升级Gradle和SDK Build Tools。我们应该及时去升级最新的编译工具链享受Google的最新优化成果。

  • 使用Buck。无论是Buck的exopackage还是代码的增量编译Buck都更加高效。但我前面也说过一个大型项目如果要切换到Buck其实顾虑还是比较多的。在2014年初微信就接入了Buck但是因为跟其他项目协作的问题导致在2015年切换回Gradle方案。相比之下可能目前最热的Flutter中Hot Reload秒级编译功能会更有吸引力

当然最近几个Android Studio版本Google也做了大量的其他优化例如使用AAPT2替代了AAPT来编译Android资源。AAPT2实现了资源的增量编译它将资源的编译拆分成Compile和Link两个步骤。前者资源文件以二进制形式编译Flat格式后者合并所有的文件再打包。

除了AAPT2Google还引入了d8和R8下面分别是Google提供的一些测试数据。


那什么是d8和R8呢除了编译速度的优化它们还有哪些其他的作用

3. 代码优化

对于Debug包编译我们更关心速度。但是对于Release包来说代码的优化更加重要因为我们会更加在意应用的性能。

下面我就分别讲讲ProGuard、d8、R8和ReDex这四种我们可能会用到的代码优化工具。

ProGuard

在微信Release包12分钟的编译过程里单独ProGuard就需要花费8分钟。尽管ProGuard真的很慢但是基本每个项目都会使用到它。加入了ProGuard之后应用的构建过程流程如下

ProGuard主要有混淆、裁剪、优化这三大功能它的整个处理流程是

其中优化包括内联、修饰符、合并类和方法等30多种具体介绍与使用方法你可以参考官方文档

d8

Android Studio 3.0推出了d8并在3.1正式成为默认工具。它的作用是将“.class”文件编译为Dex文件取代之前的dx工具。

d8除了更快的编译速度之外还有一个优化是减少生成的Dex大小。根据Google的测试结果大约会有3%5%的优化。

R8

R8在Android Studio 3.1中引入它的志向更加高远它的目标是取代ProGuard和d8。我们可以直接使用R8把“.class”文件变成Dex。

同时R8还支持ProGuard中混淆、裁剪、优化这三大功能。由于目前R8依然处于实验阶段网上的介绍资料并不多你可以参考下面这些资料

R8的最终目的跟d8一样一个是加快编译速度一个是更强大的代码优化。

ReDex

如果说R8是未来想取代的ProGuard的工具那Facebook的内部使用的ReDex其实已经做到了。

Facebook内部的很多项目都已经全部切换到ReDex不再使用ProGuard了。跟ProGuard不同的是它直接输入的对象是Dex而不是“.class”文件也就是它是直接针对最终产物的优化所见即所得。

在前面的文章中我已经不止一次提到ReDex这个项目因为它里面的功能实在是太强大了具体可以参考专栏前面的文章《包体积优化(上):如何减少安装包大小?》

  • Interdex类重排和文件重排、Dex分包优化。
  • Oatmeal直接生成的Odex文件。
  • StripDebugInfo去除Dex中的Debug信息。

此外ReDex中例如Type Erasure和去除代码中的Aceess方法也是非常不错的功能它们无论对包体积还是应用的运行速度都有帮助因此我也鼓励你去研究和实践一下它们的用法和效果。但是ReDex的文档也是万年不更新的而且里面掺杂了一些Facebook内部定制的逻辑所以它用起来的确非常不方便。目前我主要还是直接研究它的源码参考它的原理然后再直接单独实现。

事实上Buck里面其实也还有很多好用的东西但是文档里面依然什么都没有提到所以还是需要“read the source code”。

  • Library Merge和Relinker
  • 多语言拆分
  • 分包支持
  • ReDex支持

持续交付

Gradle、Buck、Bazel它们代表的都是狭义上的编译我认为广义的编译应该包括打包构建、Code Review、代码工程管理、代码扫描等流程也就是业界最近经常提起的持续集成。

目前最常用的持续集成工具有Jenkins、GitLab CI、Travis CI等GitHub也有提供自己的持续集成服务。每个大公司都有自己的持续集成方案例如腾讯的RDM、阿里的摩天轮、大众点评的MCI等。

下面我来简单讲一下我对持续集成的一些经验和看法:

  • 自定义代码检查。每个公司都会有自己的编码规范代码检查的目的在于防止不符合规范的代码提交到远程仓库中。比如微信就定义了一套代码规范并且写了专门的插件来检测。例如日志规范、不能直接使用new Thread、new Handler等而且违反者将会得到一定的惩罚。自定义代码检测可以通过完全自己实现或者扩展Findbugs插件例如美团它们就利用Findbugs实现了Android漏洞扫描工具Code Arbiter

  • 第三方代码检查。业界比较常用的代码扫描工具有收费的Coverity以及Facebook开源的Infer,例如空指针、多线程问题、资源泄漏等很多问题都可以扫描出来。除了增加检测流程,我最大的体会是需要同时增加人员的培训。我遇到很多开发者为了解决扫描出来的问题,空指针就直接判空、多线程就直接加锁,最后可能会造成更加严重的问题。

  • Code Review。关于Code Review集成GitLab、Phabricator或者Gerrit都是不错的选择。我们一定要重视Code Review这也是给其他人展示我们“伟大”代码的机会。而且我们自己应该是第一个Code Reviewer在给别人Review之前自己先以第三者的角度审视一次代码。这样先通过自己这一关的考验既尊重了别人的时间也可以为自己树立良好的技术品牌。

持续集成涉及的流程有很多,你需要结合自己团队的现状。如果只是一味地去增加流程,有时候可能适得其反。

总结

在Android 8.0Google引入了Dexlayout库实现类和方法的重排Facebook的Buck也第一时间引入了AAPT2。ReDex、d8、R8其实都是相辅相成可以看到Google也在摄取社区的知识但同时我们也会从Google的新技术发展里寻求思路。

我在写今天的内容时还有另外一个体会Google为了解决Android编译速度的问题花了大量的力气结果却不尽如人意。我想说如果我们敢于跳出系统的制约可能才会彻底解决这个问题正如在Flutter上面就可以完美实现秒级编译。其实做人、做事也是如此我们经常会陷入局部最优解的困局或者走进“思维怪圈”这时如果能跳出路径依赖从更高的维度重新思考、审视全局得到的体会可能会完全不一样。

课后作业

在你的工作中,遇到过哪些编译问题?有没有做过具体优化编译速度的工作?对于编译,你还有哪些疑问?欢迎留言跟我和其他同学一起讨论。

对于Android Build System可以说每年都会有不少的变化也有很多新的东西出来。所以我们应该保持敏感度你会发现很多工具都非常有用例如Desugar、Dexlayout、JVM TI、App Bundle等。

今天的课后作业是请你观看2018年Google I/O编译工具相关的视频在留言中写下自己的心得体会。

欢迎你点击“请朋友读”,把今天的内容分享给好友,邀请他一起学习。最后别忘了在评论区提交今天的作业,我也为认真完成作业的同学准备了丰厚的“学习加油礼包”,期待与你一起切磋进步哦。