gitbook/Android开发高手课/docs/88846.md
2022-09-03 22:05:03 +08:00

21 KiB
Raw Permalink Blame History

38 | 移动开发新大陆Android音视频开发

> 你好我是张绍文。俊杰目前负责微信的音视频开发工作无论是我们平常经常使用到的小视频还是最新推出的即刻视频都是出自他手。俊杰在音视频方面有非常丰富的经验今天有幸请到他来给我们分享他个人对Android音视频开发的心得和体会。

在日常生活中视频类应用占据了我们越来越多的时间各大公司也纷纷杀入这个战场不管是抖音、快手等短视频类型虎牙、斗鱼等直播类型腾讯视频、爱奇艺、优酷等长视频类型还是Vue、美拍等视频编辑美颜类型总有一款适合你。

未来随着5G普及以及网络资费的下降音视频的前景是非常广阔的。但是另一方面无论是音视频的编解码和播放器、视频编辑和美颜的各种算法还是视频与人工智能的结合AI剪片、视频修复、超清化等),它们都涉及了方方面面的底层知识,学习曲线比较陡峭,门槛相对比较高,所以也造成了目前各大公司音视频相关人才的紧缺。如果你对音视频开发感兴趣,我也非常建议你去往这个方向尝试,我个人是非常看好音视频开发这个领域的。

当然音视频开发的经验是靠着一次又一次的“填坑”成长起来的,下面我们一起来看看俊杰同学关于音视频的认识和思考。

大家好我是周俊杰现在在微信从事Android多媒体开发。应绍文的邀请分享一些我关于Android音视频开发的心得和体会。

不管作为开发者还是用户现在我们每天都会接触到各种各样的短视频、直播类的App与之相关的音视频方向的开发也变得越来越重要。但是对于大多数Android开发者来说从事Android音视频相关的开发可能目前还算是个小众领域虽然可能目前深入这个领域的开发者还不是太多但这个方向涉及的知识点可一点都不少。

音视频的基础知识

1. 音视频相关的概念

说到音视频,先从我们熟悉也陌生的视频格式说起。

对于我们来说,最常见的视频格式就是MP4格式,这是一个通用的容器格式。所谓容器格式,就意味内部要有对应的数据流用来承载内容。而且既然是一个视频,那必然有音轨和视轨,而音轨、视轨本身也有对应的格式。常见的音轨、视轨格式包括:

  • 视轨:H.265(HEVC)H.264。其中目前大部分Android手机都支持H.264格式的直接硬件编码和解码对于H.265来说Android 5.0以上的机器就支持直接硬件解码了但是对于硬件编码目前只有一部分高端芯片可以支持例如高通的8xx系列、华为的98x系列。对于视轨编码来说分辨率越大性能消耗也就越大编码所需的时间就越长。

  • 音轨:AAC。这是一种历史悠久音频编码格式Android手机基本可以直接硬件编解码几乎很少遇到兼容性问题。可以说作为视频的音轨格式AAC已经非常成熟了。

对于编码本身,上面提到的这些格式都是有损编码,因此压缩编码本身还需要一个衡量压缩之后,数据量多少的指标,这个标准就是码率。同一个压缩格式下码率越高质量也就越好。更多Android本身支持的编解码格式你可以参考官方文档

小结一下要拍摄一个MP4视频我们需要将视轨 + 音轨分别编码然后作为MP4的数据流再合成出一个MP4文件。

2. 音视频编码的流程

接下来我们再来看看一个视频是怎么拍摄出来的。首先既然是拍摄少不了跟摄像头、麦克风打交道。从流程来说以H.264/AAC编码为例录制视频的总体流程是

我们分别从摄像头/录音设备采集数据,将数据送入编码器,分别编码出视轨/音轨之后再送入合成器MediaRemuxer或者类似mp4v2、FFmpeg之类的处理库最终输出MP4文件。接下来我主要以视轨为例来介绍下编码的流程。

首先,直接使用系统的MediaRecorder录制整个视频这是最简单的方法直接就能输出MP4文件。但是这个接口可定制化很差比如我们想录制一个正方形的视频除非摄像头本身支持宽高一致的分辨率否则只能后期处理或者各种Hack。另外在实际App中除非对视频要求不是特别高一般也不会直接使用MediaRecorder。

视轨的处理是录制视频中相对比较复杂的部分输入源头是Camera的数据最终输出是编码的H.264/H.265数据。下面我来介绍两种处理模型。

第一种方法是利用Camera获取摄像头输出的原始数据接口例如onPreviewFrame经过预处理例如缩放、裁剪之后送入编码器输出H.264/H.265。

摄像头输出的原始数据格式为NV21这是YUV颜色格式的一种。区别于RGB颜色YUV数据格式占用空间更少在视频编码领域使用十分广泛。

一般来说因为摄像头直接输出的NV21格式大小跟最终视频不一定匹配而且编码器往往也要求输入另外一种YUV格式一般来说是YUV420P因此在获取到NV21颜色格式之后还需要进行各种缩放、裁剪之类的操作一般会使用FFmpeglibyuv这样的库处理YUV数据。

最后会将数据送入到编码器。在视频编码器的选择上我们可以直接选择系统的MediaCodec利用手机本身的硬件编码能力。但如果对最终输出的视频大小要求比较严格的话使用的码率会偏低这种情况下大部分手机的硬件编码器输出的画质可能会比较差。另外一种常见的选择是利用x264来进行编码,画质表现相对较好,但是比起硬件编码器,速度会慢很多,因此在实际使用时最好根据场景进行选择。

除了直接处理摄像头原始数据以外还有一种常见的处理模型利用Surface作为编码器的输入源。

对于Android摄像头的预览需要设置一张Surface/SurfaceTexture来作为摄像头预览数据的输出而MediaCodec在API 18+之后,可以通过createInputSurface来创建一张Surface作为编码器的输入。这里所说的另外一种方式就是将摄像头预览Surface的内容输出到MediaCodec的InputSurface上。

而在编码器的选择上虽然InputSurface是通过MediaCodec来创建的乍看之下似乎只能通过MediaCodec来进行编码无法使用x264来编码但利用PreviewSurface我们可以创建一个OpenGL的上下文这样所有绘制的内容都可以通过glReadPixel来获取然后再讲读取数据转换成YUV再输入到x264即可另外如果是在GLES 3.0的环境,我们还可以利用PBO来加速glReadPixles的速度

由于这里我们创建了一个OpenGL的上下文对于目前的视频类App来说还有各种各样的滤镜和美颜效果实际上都可以基于OpenGL来实现。

而至于这种方式录制视频具体实现代码你可以参考下grafika中示例

视频处理

1. 视频编辑

在当下视频类App中你可以见到各种视频裁剪、视频编辑的功能例如

  • 裁剪视频的一部分。

  • 多个视频进行拼接。

对于视频裁剪、拼接来说Android直接提供了MediaExtractor的接口结合seek以及对应读取帧数据readSampleData的接口我们可以直接获取对应时间戳的帧的内容这样读取出来的是已经编码好的数据因此无需重新编码直接可以输入合成器再次合成为MP4。

我们只需要seek到需要裁剪原视频的时间戳然后一直读取sampleData送入MediaMuxer即可这是视频裁剪最简单的实现方式。

但在实践时会发现,seekTo并不会对所有时间戳都生效。比如说,一个4min左右的视频我们想要seek到大概2min左右的位置然后从这个位置读取数据但实际调用seekTo到2min这个位置之后再从MediaExtractor读取数据你会发现实际获取的数据上可能是从2min这里前面一点或者后面一点位置的内容。这是因为MediaExtractor这个接口只能seek到视频关键帧的位置,而我们想要的位置并不一定有关键帧。这个问题还是要回到视频编码,在视频编码时两个关键帧之间是有一定间隔距离的。

如上图所示,关键帧被成为I帧,可以被认为是一帧没有被压缩的画面,解码的时候无需要依赖其他视频帧。但是在两个关键帧之间,还存在这B帧P帧这样的压缩帧,需要依赖其他帧才能完整解码出一个画面。至于两个关键帧之间的间隔,被称为一个GOP 在GOP内的帧MediaExtractor是无法直接seek到的因为这个类不负责解码只能seek到前后的关键帧。但如果GOP过大就会导致视频编辑非常不精准了实际上部分手机的ROM有改动实现的MediaExtractor也能精确seek

既然如此,那要实现精确裁剪也就只能去依赖解码器了。解码器本身能够解出所有帧的内容,在引入解帧之后,整个裁剪的流程就变成了下面的样子。

我们需要先seek到需要位置的前一I帧上然后送入解码器解码器解除一帧之后判断当前帧的PTS是否在需要的时间戳范围内如果是的话再将数据送入编码器重新编码再次得到H.264视轨数据然后合成MP4文件。

上面是基础的视频裁剪流程对于视频拼接也是类似得到多段H.264数据之后,才一同送入合成器。

另外在实际视频编辑中我们还会添加不少视频特效和滤镜。前面在视频拍摄的场景下我们利用Surface作为MediaCodec的输入源并且利用Surface创建了OpenGL的上下文。而MediaCodec作为解码器的时候也可以在configure的时候指定一张Surface作为其解码的输出。大部分视频特效都是可以通过OpenGL来实现的因此要实现视频特效一般的流程是下面这样的。

我们将解码之后的渲染交给OpenGL然后输出到编码器的InputSurface上来实现整套编码流程。

2. 视频播放

任何视频类App都会涉及视频播放从录制、剪辑再到播放构成完整的视频体验。对于要播放一个MP4文件最简单的方式莫过于直接使用系统的MediaPlayer,只需要简单几行代码,就能直接播放视频。对于本地视频播放来说,这是最简单的实现方式,但实际上我们可能会有更复杂的需求:

  • 需要播放的视频可能本身并不在本地,很多可能都是网络视频,有边下边播的需求。

  • 播放的视频可能是作为视频编辑的一部分,在剪辑时需要实时预览视频特效。

对于第二种场景我们可以简单配置播放视频的View为一个GLSurfaceView有了OpenGL的环境我们就可以在这上实现各种特效、滤镜的效果了。而对于视频编辑常见的快进、倒放之类的播放配置MediaPlayer也有直接的接口可以设置。

更为常见的是第一种场景例如一个视频流界面大部分视频都是在线视频虽然MediaPlayer也能实现在线视频播放但实际使用下来会有两个问题

  • 通过设置MediaPlayer视频URL方式下载下来的视频被放到了一个私有的位置App不容易直接访问这样会导致我们没法做视频预加载而且之前已经播放完、缓冲完的视频也不能重复利用原有缓冲内容。

  • 同视频剪辑直接使用MediaExtractor返回的数据问题一样MediaPlayer同样无法精确seek只能seek到有关键帧的地方。

对于第一个问题我们可以通过视频URL代理下载的方式来解决通过本地使用Local HTTP Server的方式代理下载到一个指定的地方。现在开源社区已经有很成熟的项目实现例如AndroidVideoCache

而对于第二个问题来说没法精确seek的问题在有些App上是致命的产品可能无法接受这样的体验。那同视频编辑一样我们只能直接基于MediaCodec来自行实现播放器这部分内容就比较复杂了。当然你也可以直接使用Google开源的ExoPlayer简单又快捷而且也能支持设置在线视频URL。

看似所有问题都有了解决方案,是不是就万事大吉了呢?

常见的网络边下边播视频的格式都是MP4但有些视频直接上传到服务器上的时候我们会发现无论是使用MediaPlayer还是ExoPlayer似乎都只能等待到整个视频都下载完才能开始播放没有达到边下边播的体验。这个问题的原因实际上是因为MP4的格式导致的具体来看是跟MP4格式中的moov有关。

MP4格式中有一个叫作moov的地方存储这当前MP4文件的元信息包括当前MP4文件的音轨视轨格式、视频长度、播放速率、视轨关键帧位置偏移量等重要信息MP4文件在线播放的时候需要moov中的信息才能解码音轨视轨。

而上述问题发生的原因在于当moov在MP4文件尾部的时候播放器没有足够的信息来进行解码因此视频变得需要直接下载完之后才能解码播放。因此要实现MP4文件的边下边播则需要将moov放到文件头部。目前来说业界已经有非常成熟的工具FFmpegmp4v2都可以将一个MP4文件的moov提前放到文件头部。例如使用FFmpeg则是如下命令

ffmpeg -i input.mp4 -movflags faststart -acodec copy -vcodec copy output.mp4

使用-movflags faststart我们就可以把视频文件中的moov提前了。

另外如果想要检测一个MP4的moov是否在前面可以使用类似AtomicParsley的工具来检测。

在视频播放的实践中除了MP4格式来作为边下边播的格式以外还有更多的场景需要使用其他格式例如m3u8、FLV之类业界在客户端中常见的实现包括ijkplayerExoPlayer,有兴趣的同学可以参考下它们的实现。

音视频开发的学习之路

音视频相关开发涉及面很广今天我也只是简单介绍一下其中基本的架构如果想继续深入这个领域发展从我个人学习的经历来看想要成为一名合格的开发者除了基础的Android开发知识以外还要深入学习我认为还需要掌握下面的技术栈。

语言

  • C/C++音视频开发经常需要跟底层代码打交道掌握C/C++是必须的技能。这方面资料很多,相信我们都能找到。

  • ARM NEON汇编这是一项进阶技能在视频编解码、各种帧处理低下时很多都是利用NEON汇编加速例如FFmpeg/libyuv底层都大量利用了NEON汇编来加速处理过程。虽说它不是必备技能但有兴趣也可以多多了解具体资料可以参考ARM社区的教程

框架

  • FFmpeg:可以说是业界最出名的音视频处理框架了,几乎囊括音视频开发的所有流程,可以说是必备技能。

  • libyuvGoogle开源的YUV帧处理库因为摄像头输出、编解码输入输出也是基于YUV格式所以也经常需要这个库来操作数据FFmpeg也有提供了这个库里面所有的功能libswscale都可以找到类似的实现。不过这个库性能更好也是基于NEON汇编加速

  • libx264/libx265目前业界最为广泛使用的H.264/H.265软编解码库。移动平台上虽然可以使用硬编码但很多时候出于兼容性或画质的考虑因为不少低端的Android机器在低码率的场景下还是软编码的画质会更好最终可能还是得考虑使用软编解码。

  • OpenGL ES当今大部分视频特效、美颜算法的处理最终渲染都是基于GLES来实现的因此想要深入音视频的开发GLES是必备的知识。另外除了GLES以外Vulkan也是近几年开始发展起来的一个更高性能的图形API但目前来看使用还不是特别广泛。

  • ExoPlayer/ijkplayer一个完整的视频类App肯定会涉及视频播放的体验这两个库可以说是当下业界最为常用的视频播放器了支持众多格式、协议如果你想要深入学习视频播放处理它们几乎也算是必备技能。

从实际需求出发,基于上述技术栈,我们可以从下面两条路径来深入学习。

1. 视频相关特效开发

直播、小视频相关App目前越来越多几乎每个App相关的特效往往都是利用OpenGL本身来实现。对于一些简单的特效可以使用类似Color Look Up Table的技术通过修改素材配合Shader来查找颜色替换就能实现。如果要继续学习更加复杂的滤镜推荐你可以去shadertoy学习参考上面有非常多Shader的例子。

而美颜、美型相关的效果特别是美型需要利用人脸识别获取到关键点对人脸纹理进行三角划分然后再通过Shader中放大、偏移对应关键点纹理坐标来实现。如果想要深入视频特效类的开发我推荐可以多学习OpenGL相关的知识这里会涉及很多优化点。

2. 视频编码压缩算法

H.264/H.265都是非常成熟的视频编码标准,如何利用这些视频编码标准,在保证视频质量的前提下,将视频大小最小化,从而节省带宽,这就需要对视频编码标准本身要有非常深刻的理解。这可能是一个门槛相对较高的方向,我也尚处学习阶段,有兴趣的同学可以阅读相关编码标准的文档。

欢迎你点击“请朋友读”,把今天的内容分享给好友,邀请他一起学习。我也为认真思考、积极分享的同学准备了丰厚的“学习加油礼包”,期待与你一起切磋进步哦。