You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

76 lines
7.0 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 28 | 知名大厂如何搭建大数据平台?
专栏第26期我介绍了一个常规的大数据平台架构方案这种架构方案是基于大数据平台Lamda架构进行设计的。事实上业界也基本是按照这种架构模型搭建自己的大数据平台。
今天我们来看一下淘宝、美团和滴滴的大数据平台,一方面进一步学习大厂大数据平台的架构,另一方面也学习大厂的工程师如何画架构图。通过大厂的这些架构图,你就会发现,不但这些知名大厂的大数据平台设计方案大同小异,架构图的画法也有套路可以寻觅。
## 淘宝大数据平台
淘宝可能是中国互联网业界较早搭建了自己大数据平台的公司下图是淘宝早期的Hadoop大数据平台比较典型。
![](https://static001.geekbang.org/resource/image/cb/66/cb45bdbe16771738adf04e76b91ffc66.png)
淘宝的大数据平台基本也是分成三个部分上面是数据源与数据同步中间是云梯1也就是淘宝的Hadoop大数据集群下面是大数据的应用使用大数据集群的计算结果。
数据源主要来自Oracle和MySQL的备库以及日志系统和爬虫系统这些数据通过数据同步网关服务器导入到Hadoop集群中。其中DataExchange非实时全量同步数据库数据DBSync实时同步数据库增量数据TimeTunnel实时同步日志和爬虫数据。数据全部写入到HDFS中。
![](https://static001.geekbang.org/resource/image/72/81/72e8b66653211df4aa0c33a786340081.png)
在Hadoop中的计算任务会通过天网调度系统根据集群资源和作业优先级调度作业的提交和执行。计算结果写入到HDFS再经过DataExchange同步到MySQL和Oracle数据库。处于平台下方的数据魔方、推荐系统等从数据库中读取数据就可以实时响应用户的操作请求。
淘宝大数据平台的核心是位于架构图左侧的天网调度系统提交到Hadoop集群上的任务需要按序按优先级调度执行Hadoop集群上已经定义好的任务也需要调度执行何时从数据库、日志、爬虫系统导入数据也需要调度执行何时将Hadoop执行结果导出到应用系统的数据库也需要调度执行。可以说整个大数据平台都是在天网调度系统的统一规划和安排下进行运作的。
DBSync、TimeTunnel、DataExchange这些数据同步组件也是淘宝内部开发的可以针对不同的数据源和同步需求进行数据导入导出。这些组件淘宝大都已经开源我们可以参考使用。
## 美团大数据平台
美团大数据平台的数据源来自MySQL数据库和日志数据库通过Canal获得MySQL的binlog输出给消息队列Kafka日志通过Flume也输出到Kafka。
![](https://static001.geekbang.org/resource/image/24/08/249bfac48d6b191a452ecc6634e02a08.png)
Kafka的数据会被流式计算和批处理计算两个引擎分别消费。流处理使用Storm进行计算结果输出到HBase或者数据库。批处理计算使用Hive进行分析计算结果输出到查询系统和BI商业智能平台。
数据分析师可以通过BI产品平台进行交互式的数据查询访问也可以通过可视化的报表工具查看已经处理好的常用分析指标。公司高管也是通过这个平台上的天机系统查看公司主要业务指标和报表。
美团大数据平台的整个过程管理通过调度平台进行管理。公司内部开发者使用数据开发平台访问大数据平台进行ETL数据提取、转换、装载开发提交任务作业并进行数据管理。
## 滴滴大数据平台
滴滴大数据平台分为实时计算平台(流式计算平台)和离线计算平台(批处理计算平台)两个部分。
实时计算平台架构如下。数据采集以后输出到Kafka消息队列消费通道有两个一个是数据ETL使用Spark Streaming或者Flink将数据进行清洗、转换、处理后记录到HDFS中供后续批处理计算。另一个通道是Druid计算实时监控指标将结果输出到报警系统和实时图表系统DashBoard。
![](https://static001.geekbang.org/resource/image/db/ce/db71097f009f6dd53910cc984ed96fce.png)
离线计算平台架构如下。滴滴的离线大数据平台是基于Hadoo 2HDFS、Yarn、MapReduce和Spark以及Hive构建在此基础上开发了自己的调度系统和开发系统。调度系统和前面其他系统一样调度大数据作业的优先级和执行顺序。开发平台是一个可视化的SQL编辑器可以方便地查询表结构、开发SQL并发布到大数据集群上。
![](https://static001.geekbang.org/resource/image/23/4b/239dd0686a1b8edce3cac6fb82027c4b.png)
此外滴滴还对HBase重度使用并对相关产品HBase、Phoenix做了一些自定义的开发维护着一个和实时、离线两个大数据平台同级别的HBase平台它的架构图如下。
![](https://static001.geekbang.org/resource/image/66/77/66bfbc37ac0cb63ae9f3b5a6c098c777.png)
来自于实时计算平台和离线计算平台的计算结果被保存到HBase中然后应用程序通过Phoenix访问HBase。而Phoenix是一个构建在HBase上的SQL引擎可以通过SQL方式访问HBase上的数据。
## 小结
你可以看到,这些知名大厂的大数据平台真的是大同小异,他们根据各自场景和技术栈的不同,虽然在大数据产品选型和架构细节上略有调整,但整体思路基本上都是一样的。
不过也正是这种大同小异,让我们从各个角度更加了解大数据平台架构,对大数据平台架构有了更加深刻的认知。
我在阿里巴巴工作期间,有一阵子不断参加各种基础技术产品的架构评审会。有一次,另一个和我一样经常参加这类会议的架构师说:“我感觉这些产品的架构怎么都一样”。被他一说,大家都纷纷点头称是,好像确实如此。
同一类问题的解决方案通常也是相似的。一个解决方案可以解决重复出现的同类问题,这种解决方案就叫作模式。模式几乎是无处不在的,一旦一个解决方案被证明是行之有效的,就会被重复尝试解决同类的问题。
所以我们看到很多大数据产品的架构也都是差不多的比如Hadoop 1、Yarn、Spark、Flink、Storm这些产品的部署架构真的是太像了。
对于有志于成为架构师的工程师来说,一方面当然是提高自己的编程水平,另一方面也可以多看看各种架构设计文档,多去参加一些架构师技术大会。在我看来,编程需要天分;而架构设计,真的是孰能生巧。
## 思考题
下图是腾讯的大数据平台架构,请你尝试对这个架构图的主要组件和运行机制进行分析。
![](https://static001.geekbang.org/resource/image/cd/88/cd23d9032e00b1e2c2451b30bca36788.png)
欢迎你点击“请朋友读”,把今天的文章分享给好友。也欢迎你写下自己的思考或疑问,与我和其他同学一起讨论。