gitbook/从0开始学大数据/docs/69459.md
2022-09-03 22:05:03 +08:00

10 KiB
Raw Blame History

11 | Hive是如何让MapReduce实现SQL操作的

前面我们讲过MapReduce的出现大大简化了大数据编程的难度使得大数据计算不再是高不可攀的技术圣殿普通工程师也能使用MapReduce开发大数据程序。但是对于经常需要进行大数据计算的人比如从事研究商业智能BI的数据分析师来说他们通常使用SQL进行大数据分析和统计MapReduce编程还是有一定的门槛。而且如果每次统计和分析都开发相应的MapReduce程序成本也确实太高了。那么有没有更简单的办法可以直接将SQL运行在大数据平台上呢

在给出答案前我们先看看如何用MapReduce实现SQL数据分析。

MapReduce实现SQL的原理

坚持学习到这里的同学一定还记得我在专栏第7期留了一道思考题对于常见的一条SQL分析语句MapReduce如何编程实现

SELECT pageid, age, count(1) FROM pv_users GROUP BY pageid, age;

错过这期内容的同学可以先返回第7期文章思考一下这个问题思考之余也可以看看其他同学给出的方案我看留言很多同学的思路都是正确的我们来详细看看MapReduce实现SQL的原理。

这是一条非常常见的SQL统计分析语句统计不同年龄的用户访问不同网页的兴趣偏好对于产品运营和设计很有价值。具体数据输入和执行结果请看下面的图示。

左边是要分析的数据表右边是分析结果。实际上把左边表相同的行进行累计求和就得到右边的表了看起来跟WordCount的计算很相似。确实也是这样我们看下这条SQL语句的MapReduce的计算过程按照MapReduce编程模型map和reduce函数的输入输出以及函数处理过程分别是什么。

首先看下map函数的输入Key和Value我们主要看Value。Value就是左边表中每一行的数据比如<1, 25>这样。map函数的输出就是以输入的Value作为KeyValue统一设为1比如<<1, 25>, 1>这样。

map函数的输出经过shuffle以后相同的Key及其对应的Value被放在一起组成一个<Key, Value集合>作为输入交给reduce函数处理。比如<<2, 25>, 1>被map函数输出两次那么到了reduce这里就变成输入<<2, 25>, <1, 1>>这里的Key是<2, 25>Value集合是<1, 1>。

在reduce函数内部Value集合里所有的数字被相加然后输出。所以reduce的输出就是<<2, 25>, 2>。

讲起来有点拗口,我把这个过程画成了一张图,看起来就清楚多了。

这样一条很有实用价值的SQL就被很简单的MapReduce计算过程处理好了。

在数据仓库中SQL是最常用的分析工具既然一条SQL可以通过MapReduce程序实现那么有没有工具能够自动将SQL生成MapReduce代码呢这样数据分析师只要输入SQL就可以自动生成MapReduce可执行的代码然后提交Hadoop执行也就完美解决了我们最开始提出的问题。问题的答案也就是这个神奇的工具就是Hadoop大数据仓库Hive。

Hive的架构

Hive能够直接处理我们输入的SQL语句Hive的SQL语法和数据库标准SQL略有不同调用MapReduce计算框架完成数据分析操作。下面是它的架构图我们结合架构图来看看Hive是如何实现将SQL生成MapReduce可执行代码的。

我们通过Hive的ClientHive的命令行工具JDBC等向Hive提交SQL命令。如果是创建数据表的DDL数据定义语言Hive就会通过执行引擎Driver将数据表的信息记录在Metastore元数据组件中这个组件通常用一个关系数据库实现记录表名、字段名、字段类型、关联HDFS文件路径等这些数据库的Meta信息元信息

如果我们提交的是查询分析数据的DQL数据查询语句Driver就会将该语句提交给自己的编译器Compiler进行语法分析、语法解析、语法优化等一系列操作最后生成一个MapReduce执行计划。然后根据执行计划生成一个MapReduce的作业提交给Hadoop MapReduce计算框架处理。

对于一个较简单的SQL命令比如

SELECT * FROM status_updates WHERE status LIKE michael jackson;

它对应的Hive执行计划如下图。

Hive内部预置了很多函数Hive的执行计划就是根据SQL语句生成这些函数的DAG有向无环图然后封装进MapReduce的map和reduce函数中。这个例子中map函数调用了三个Hive内置函数TableScanOperator、FilterOperator、FileOutputOperator就完成了map计算而且无需reduce函数。

Hive如何实现join操作

除了上面这些简单的聚合group by、过滤where操作Hive还能执行连接join on操作。文章开头的例子中pv_users表的数据在实际中是无法直接得到的因为pageid数据来自用户访问日志每个用户进行一次页面浏览就会生成一条访问记录保存在page_view表中。而age年龄信息则记录在用户表user中。

这两张表都有一个相同的字段userid根据这个字段可以将两张表连接起来生成前面例子的pv_users表SQL命令是

SELECT pv.pageid, u.age FROM page_view pv JOIN user u ON (pv.userid = u.userid);

同样这个SQL命令也可以转化为MapReduce计算连接的过程如下图所示。

从图上看join的MapReduce计算过程和前面的group by稍有不同因为join涉及两张表来自两个文件所以需要在map输出的时候进行标记比如来自第一张表的输出Value就记录为<1, X>这里的1表示数据来自第一张表。这样经过shuffle以后相同的Key被输入到同一个reduce函数就可以根据表的标记对Value数据求笛卡尔积用第一张表的每条记录和第二张表的每条记录连接输出就是join的结果。

所以我们如果打开Hive的源代码看join相关的代码会看到一个两层for循环对来自两张表的记录进行连接操作。

小结

在实践中工程师其实并不需要经常编写MapReduce程序因为网站最主要的大数据处理就是SQL分析也因此Hive在大数据应用中的作用非常重要。

后面随着Hive的普及我们对于在Hadoop上执行SQL的需求越加强烈对大数据SQL的应用场景也多样化起来于是又开发了各种大数据SQL引擎。

Cloudera开发了Impala这是一种运行在HDFS上的MPP架构的SQL引擎。和MapReduce启动Map和Reduce两种执行进程将计算过程分成两个阶段进行计算不同Impala在所有DataNode服务器上部署相同的Impalad进程多个Impalad进程相互协作共同完成SQL计算。在一些统计场景中Impala可以做到毫秒级的计算速度。

后来Spark出道以后也迅速推出了自己的SQL引擎Shark也就是后来的Spark SQL将SQL语句解析成Spark的执行计划在Spark上执行。由于Spark比MapReduce快很多Spark SQL也相应比Hive快很多并且随着Spark的普及Spark SQL也逐渐被人们接受。后来Hive推出了Hive on Spark将Hive的执行计划转换成Spark的计算模型当然这是后话了。

此外我们还希望在NoSQL的数据库上执行SQL毕竟SQL发展了几十年积累了庞大的用户群体很多人习惯了用SQL解决问题。于是Saleforce推出了Phoenix一个执行在HBase上的SQL引擎。

这些SQL引擎基本上都只支持类SQL语法并不能像数据库那样支持标准SQL特别是数据仓库领域几乎必然会用到嵌套查询SQL也就是在where条件里面嵌套select子查询但是几乎所有的大数据SQL引擎都不支持。然而习惯于传统数据库的使用者希望大数据也能支持标准SQL我当时在Intel的大数据团队就决定开发一款可以支持标准SQL的大数据引擎我作为最主要的开发者参与其中。江湖传说开发数据库、编译器、操作系统是程序员的三大梦想。我将在专栏里专门讲述如何设计、开发一个大数据SQL引擎一起感受开发数据库是怎样一种体验。

最后我们还是回到Hive。Hive本身的技术架构其实并没有什么创新数据库相关的技术和架构已经非常成熟只要将这些技术架构应用到MapReduce上就得到了Hadoop大数据仓库Hive。但是想到将两种技术嫁接到一起,却是极具创新性的通过嫁接产生出的Hive可以极大降低大数据的应用门槛也使Hadoop大数据技术得到大规模普及。

在我们工作中也可以借鉴一下这种将两种技术嫁接到一起产生极大应用创新性的手段说不定下一个做出类似Hive这种具有巨大应用价值技术产品的就是你。

思考题

在软件编程的上古时代,各种编程语言有各种编译器,将软件工程师编写的程序编译成可执行代码。软件工程师必须要在另外一个文本编辑器里将代码编写好,然后保存,再调用编译器对这个程序源代码文件进行编译。

后来有人把编译器集成到文本编辑器里面工程师可以在文本编辑器里面编写代码、编译调试代码工作效率得到极大提高这就是软件开发的集成开发环境IDE。

类似这样将两个(或更多个)软件集成(嫁接)到一起,产生巨大创新应用价值的软件产品还有哪些?

欢迎你写下自己的思考或疑问,与我和其他同学一起讨论。