You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

95 lines
10 KiB
Markdown

2 years ago
# 开篇词 | Spark性能调优你该掌握这些“套路”
你好,我是吴磊,欢迎和我一起探索 Spark 应用的性能优化。
2020年6月Spark正式发布了新版本从2.4直接跨越到了3.0。这次大版本升级的亮点就在于性能优化它添加了诸如自适应查询执行AQE、动态分区剪裁DPP、扩展的Join Hints等新特性。
其实在3.0版本发布之前Spark就已然成为了分布式数据处理技术的事实标准。在数据科学与机器学习魔力象限中Gartner更是连续3年2018~2020将DatabricksSpark云原生商业版本提名为Market Leader。
![](https://static001.geekbang.org/resource/image/c9/01/c98c4978a48fd52538a99583b48e6601.jpg)
自然而然地,**Spark也成为了各大头部互联网公司的标配在海量数据处理上扮演着不可或缺的关键角色**。比如字节跳动基于Spark构建的数据仓库去服务几乎所有的产品线包括抖音、今日头条、西瓜视频、火山视频等。再比如百度基于Spark推出BigSQL为海量用户提供次秒级的即席查询。
可以预见的是,**这次版本升级带来的新特性会让Spark在未来5到10年继续雄霸大数据生态圈。**
而说到我和Spark的缘分可以追溯到2014年。一次偶然的机会我参与到了Spark的调研。深入研究之后我对Spark高效的执行性能深深着迷这也让我未来的职业发展都和Spark紧紧地绑在了一起。就这样我从数据分析、数据挖掘领域转移到了现在的商业智能和机器学习领域一直不停地尝试探索数据中蕴含的核心价值。
目前我在FreeWheel带领团队负责机器学习的应用与落地。我们所有已落地和正在启动的项目都在使用Spark进行数据探索、数据处理、数据分析、特征工程和样本工程。除此之外我们还会经常基于Spark在海量数据上进行模型训练和模型推理。
如果你也和我一样正沿着数据规划自己的职业路径那么精通Spark也必定是你的职业目标之一。
## 精通Spark你需要一把叫做“性能调优”的万能钥匙
目前Spark有海量批处理、实时流计算、图计算、数据分析和机器学习这5大应用场景不论你打算朝哪个方向深入性能调优都是你职业进阶必须要跨越的一步。
![](https://static001.geekbang.org/resource/image/1b/be/1b271125207a917916f0a45389df75be.jpg)
为什么这么说呢?原因很简单,**对于这5大场景来说提升执行性能是刚需**。
图计算和机器学习往往需要上百次迭代才能收敛,如果没有性能保障,这类作业不可能完成计算。流计算和数据分析对于响应实时性的要求非常高,没有高效的执行性能,不可能做到在亚秒级完成处理。
相比其他场景批处理对于执行效率的要求是最低的但是在日增数据量以TB、甚至PB为单位计数的当下想要在小时级别完成海量数据处理不做性能调优简直是天方夜谭。
因此我认为这5大场景就像是5扇门每扇门背后都别有洞天而**性能调优就像是一把“万能钥匙”**。有了这把钥匙在手,你才能如入无人之境,去探索更广阔的世界。
## 为什么性能调优不能“照葫芦画瓢”?
其实我身边很多开发人员也都意识到了这一点他们会去网上搜集一些教程进行学习。但是目前关于Spark性能调优的资料大都不是很系统或者只是在讲一些常规的调优技巧和方法。而对于一些大神分享的调优手段我们往往“照葫芦画瓢”做出来的东西也总是达不到预期的效果比如
* 明明都是内存计算为什么我用了RDD/DataFrame Cache性能反而更差了
* 网上吹得神乎其神的调优手段,为啥到了我这就不好使呢?
* 并行度设置得也不低为啥我的CPU利用率还是上不去
* 节点内存几乎全都划给Spark用了为啥我的应用还是OOM
这些问题看似简单,但真不是一两句话就能说得清的。**这需要我们深入Spark的核心原理不断去尝试每一个API、算子设置不同的配置参数最终找出最佳的排列组合。**
那么问题来了,这该怎么做呢?接下来,我就和你分享一下,我是怎么学习性能调优的。
刚刚接触Spark那会儿我觉得它的开发效率是真高啊MapReduce上千行代码才能实现的业务功能Spark几十行代码就搞定了
后来随着客户要求的不断提高以及我个人的“较真行为”为了让应用能跑得更快我几乎把所有的RDD API查了个遍仔细研究每一个算子的含义和运行原理汇总不同算子的适用场景总结哪些算子会引入Shuffle对比同类功能算子的差异与优劣势比如map和mapPartitions再比如groupByKey、reduceByKey和aggregateByKey。
除此之外Spark官网的Configuration页面我也查阅了无数次汇总与性能有关的配置项不停地做对比实验比较不同参数配置下的执行性能。遇到与认知不符的实验结果就再回去反复咀嚼Spark的核心原理从RDD和调度系统到内存管理和存储系统再到内存计算和Shuffle如此往复乐此不疲。
虽然失败的次数非常多,但成倍的性能提升带来的惊喜让我久久不能忘怀。后来,我就把我的经验分享给身边的同事,在帮助他们进行调优的过程中,我也有意识地把我接触到的案例整理了起来,**从点到线、从线到面,**我逐渐摸清了性能调优的脉络,最终总结出一套关于性能调优的方法论,也因此建立起了以性能为导向的开发习惯。
![](https://static001.geekbang.org/resource/image/b5/eb/b53099170df81c6dfb629254f5bf82eb.jpg)
**遵循这套方法论,开发者可以按图索骥地去开展性能调优工作,做到有的放矢、事半功倍。**我希望在这个专栏里把它分享给你。
## 学得快,也要学得好
结合方法论我把专栏划分为了3个部分原理篇、性能篇和实战篇。
原理篇聚焦Spark底层原理打通性能调优的任督二脉
Spark的原理非常多但我会聚焦于那些与性能调优息息相关的核心概念包括**RDD、DAG、调度系统、存储系统和内存管理**。我会力求用最贴切的故事和类比、最少的篇幅让你在最短的时间内掌握这5大概念的核心原理为后续的性能调优打下坚实的基础。
性能篇:实际案例驱动,多角度解读,全方位解析性能调优技巧
我们刚才说了Spark的应用场景非常多主要分为海量批处理、实时流计算、图计算、数据分析和机器学习这5个。但在所有的子框架里Spark对Spark SQL的倾斜和倚重也是有目共睹所以性能篇我主要分两部分来讲。
**一部分是讲解性能调优的通用技巧包括应用开发的基本原则、配置项的设置、Shuffle的优化以及资源利用率的提升。**首先我会从常见的例子入手教你怎么在不改变代码逻辑的情况下快速提升执行能。其次我会带你去归纳与执行效率相关的配置项。接着针对Shuffle、数据关联这些典型场景我们一起去分析有效的应对策略。最后我们再从硬件视角出发带你探讨如何最大化资源利用率在整体上提升Spark的执行性能。
虽然不同应用场景的开发API和运行原理都有所不同但是性能调优的本质和方法论是一样的。因此这类技巧不限定应用场景适用于所有Spark子框架。
**另一部分我会专注于数据分析领域借助如Tungsten、AQE这样的Spark内置优化项和数据关联这样的典型场景来和你聊聊Spark SQL中的调优方法和技巧。**
首先我会带你深入挖掘Tungsten、Catalyst优化器和Spark 3.0发布的诸多新特性充分利用Spark已有的优化机制让性能调优站到一个更高的起点上。接着我会借助数据分析的典型场景案例如数据清洗、数据关联、数据转换等等带你case-by-case地去归纳调优的思路与方法。
值得一提的是随着所有子框架的开发API陆续迁移到DataFrame我们在每个子框架之上开发的应用都将受益于Spark SQL的性能提升。换句话说尽管这部分调优技巧围绕数据分析领域展开但其中的思路和方法也同样适用于其他子框架。
实战篇:打造属于自己的分布式应用
在实战篇为了帮助你实践我们的方法论和调优技巧。我会以2011~2019的《北京市汽油车摇号》数据为例**手把手教你打造一个分布式应用,带你从不同角度洞察汽油车摇号的趋势和走向**。我相信,通过这个实战案例,你对性能调优技巧和思路的把控肯定会有一个“质的飞跃”。
除此之外我还会不定期地针对一些热点话题进行加餐比如和Flink、Presto相比Spark有哪些优势再比如Spark的一些新特性以及业界对于Spark的新探索。这也能帮助我们更好地面对变化把握先机。
![](https://static001.geekbang.org/resource/image/88/1e/8886909e1eda59a1d7e7ab45243b991e.jpg)
最后我想说我一直希望把学习变成一件有趣又轻松的事情所以在这个专栏里我会用一个个小故事和实例来帮助你理解Spark的核心原理引导你建立以性能为导向的开发思维以及从不同视角汇总性能调优的方法和技巧**让你像读小说一样去弄懂Spark**。
我也期望,你能像小说里的主人公一样,利用“调优技巧和方法论”这本武功秘籍,一路过五关、斩六将,打败现实中层出不穷的开发问题,在职业发展中更上一层楼。
最后欢迎你在这里畅所欲言提出你的困惑和疑问也欢迎多多给我留言你们的鼓励是我的动力。让我们一起拿起性能调优这把万能钥匙去开启全新的Spark职业生涯吧