You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

241 lines
11 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 25 | TransformBeam数据转换操作的抽象方法
你好,我是蔡元楠。
今天我要与你分享的主题是“Beam数据转换操作的抽象方法”。
在上一讲中我们一起学习了Beam中数据的抽象表达——PCollection。但是仅仅有数据的表达肯定是无法构建一个数据处理框架的。那么今天我们就来看看Beam中数据处理的最基本单元——Transform。
下图就是单个Transform的图示。
![](https://static001.geekbang.org/resource/image/cc/66/cc1266a6749cdae13426dd9721f66e66.jpg)
之前我们已经讲过Beam把数据转换抽象成了有向图。PCollection是有向图中的边而Transform是有向图里的节点。
不少人在理解PCollection的时候都觉得这不那么符合他们的直觉。许多人都会自然地觉得PCollection才应该是节点而Transform是边。因为数据给人的感觉是一个实体应该用一个方框表达而边是有方向的更像是一种转换操作。事实上这种想法很容易让人走入误区。
其实区分节点和边的关键是看一个Transform是不是会有一个多余的输入和输出。
每个Transform都可能有大于一个的输入PCollection它也可能输出大于一个的输出PCollection。所以我们只能把Transform放在节点的位置。因为一个节点可以连接多条边而同一条边却只能有头和尾两端。
## Transform的基本使用方法
在了解了Transform和PCollection的关系之后我们来看一下Transform的基本使用方法。
Beam中的PCollection有一个抽象的成员函数Apply。使用任何一个Transform时候你都需要调用这个apply方法。
Java
```
pcollection1 = pcollection2.apply(Transform)
```
Python
```
Pcollection1 = pcollection2 | Transform
```
当然你也可以把Transform级连起来。
```
final_collection = input_collection.apply(Transform1)
.apply(Transform2)
.apply(Transform3)
```
![](https://static001.geekbang.org/resource/image/41/ec/41a408a0153844036909e98dd2cefaec.jpg)
所以说Transform的调用方法是要通过apply()的但是Transform有很多种。
## 常见的Transform
Beam也提供了常见的Transform接口比如ParDo、GroupByKey。最常使用的Transform就是ParDo了。
ParDo就是 Parallel Do的意思顾名思义表达的是很通用的并行处理数据操作。GroupByKey的意思是把一个Key/Value的数据集按Key归并就如下面这个例子。
```
cat, 1
dog, 5
and, 1
jump, 3
tree, 2
cat, 5
dog, 2
and, 2
cat, 9
and, 6
=>
cat, [1,5,9]
dog, [5,2]
and, [1,2,6]
jump, [3]
tree, [2]
```
当然你也可以用ParDo来实现GroupByKey一种简单的实现方法就是放一个全局的哈希表然后在ParDo里把一个一个元素插进这个哈希表里。但这样的实现方法并不能用因为你的数据量可能完全无法放进一个内存哈希表。而且你还要考虑到PCollection会把计算分发到不同机器上的情况。
当你在编写ParDo时你的输入是一个PCollection中的单个元素输出可以是0个、1个或者是多个元素。你只要考虑好怎样处理一个元素。剩下的事情Beam会在框架层面帮你做优化和并行。
使用ParDo时你需要继承它提供的DoFn类你可以把DoFn看作是ParDo的一部分。因为ParDo和DoFn单独拿出来都没有意义。
java
```
static class UpperCaseFn extends DoFn<String, String> {
@ProcessElement
public void processElement(@Element String word, OutputReceiver<String> out) {
out.output(word.toUpperCase());
}
}
PCollection<String> upperCaseWords = words.apply(
ParDo
.of(new UpperCaseFn()));
```
在上面的代码中你可以看出每个DoFn的@ProcessElement标注的函数processElement就是这个DoFn真正的功能模块。在上面这个DoFn中我们把输入的一个词转化成了它的大写形式。之后在调用apply(ParDo.of(new UpperCaseFn()))的时候Beam就会把输入的PCollection中的每个元素都使用刚才的processElement处理一遍。
看到这里你可能会比较迷惑transform、apply、DoFn、ParDo之间到底是什么关系啊怎么突然冒出来一堆名词其实Transform是一种概念层面的说法。具体在编程上面Transform用代码来表达的话就是这样的
```
pcollection.apply(ParDo.of(new DoFn()))
```
这里的apply(ParDo)就是一个Transform。
我们在[第7讲](https://time.geekbang.org/column/article/92928)中讲过数据处理流程的常见设计模式。事实上很多应用场景都可以用ParDo来实现。比如过滤一个数据集、格式转化一个数据集、提取一个数据集的特定值等等。
**1.过滤一个数据集**
当我们只想要挑出符合我们需求的元素的时候我们需要做的就是在processElement中实现。一般来说会有一个过滤函数如果满足我们的过滤条件我们就把这个输入元素输出。
Java
```
@ProcessElement
public void processElement(@Element T input, OutputReceiver<T> out) {
if (IsNeeded(input)) {
out.output(input);
}
}
```
**2.格式转化一个数据集**
给数据集转化格式的场景非常常见。比如我们想把一个来自csv文件的数据转化成TensorFlow的输入数据tf.Example的时候就可以用到ParDo。
Java
```
@ProcessElement
public void processElement(@Element String csvLine, OutputReceiver<tf.Example> out) {
out.output(ConvertToTfExample(csvLine));
}
```
**3.提取一个数据集的特定值**
ParDo还可以提取一个数据集中的特定值。比如当我们想要从一个商品的数据集中提取它们的价格的时候也可以使用ParDo。
Java
```
@ProcessElement
public void processElement(@Element Item item, OutputReceiver<Integer> out) {
out.output(item.price());
}
```
通过前面的几个例子你可以看到ParDo和DoFn这样的抽象已经能处理非常多的应用场景问题。事实正是如此在实际应用中80%的数据处理流水线都是使用基本的ParDo和DoFn。
## Stateful Transform和side input/side output
当然还有一些Transform其实也是很有用的比如GroupByKey不过它远没有ParDo那么常见。所以这一模块中暂时不会介绍别的数据转换操作需要的话我们可以在后面用到的时候再介绍。我想先在这里介绍和ParDo同样是必用的却在大部分教程中被人忽略的技术点——Statefullness和side input/side output。
上面我们所介绍的一些简单场景都是无状态的也就是说在每一个DoFn的processElement函数中输出只依赖于输入。它们的DoFn类不需要维持一个成员变量。无状态的DoFn能保证最大的并行运算能力。因为DoFn的processElement可以分发到不同的机器或者不同的进程也能有多个DoFn的实例。但假如我们的processElement的运行需要另外的信息我们就不得不转而编写有状态的DoFn了。
试想这样一个场景你的数据处理流水线需要从一个数据库中根据用户的id找到用户的名字。你可能会想到用“在DoFn中增加一个数据库的成员变量”的方法来解决。的确实际的应用情况中我们就会写成下面这个代码的样子。
java
```
static class FindUserNameFn extends DoFn<String, String> {
@ProcessElement
public void processElement(@Element String userId, OutputReceiver<String> out) {
out.output(database.FindUserName(userId));
}
Database database;
}
```
但是因为有了共享的状态这里是一个共享的数据库连接。在使用有状态的DoFn时我们需要格外注意Beam的并行特性。
如上面讲到的Beam不仅会把我们的处理函数分发到不同线程、进程也会分发到不同的机器上执行。当你共享这样一个数据库的读取操作时很可能引发服务器的QPS过高。
例如你在处理一个1万个用户id如果beam很有效地将你的DoFn并行化了你就可能观察到数据库的QPS增加了几千。如果你不仅是读取还做了修改的话就需要注意是不是有竞争风险了。这里你可以联想在操作系统中有关线程安全的相关知识。
除了这种简单的增加一个成员变量的方法。如果我们需要共享的状态来自于另外一些Beam的数据处理的中间结果呢这时候为了实现有状态DoFn我们需要应用Beam的Side input/side output计数。
java
```
PCollectionView<Integer> mediumSpending = ...;
PCollection<String> usersBelowMediumSpending =
userIds.apply(ParDo
.of(new DoFn<String, String>() {
@ProcessElement
public void processElement(@Element String userId, OutputReceiver<String> out, ProcessContext c) {
int medium = c.sideInput(mediumSpending);
if (findSpending(userId) <= medium) {
out.output(userId);
}
}
}).withSideInputs(mediumSpending)
);
```
比如在这个处理流程中我们需要根据之前处理得到的结果也就是用户的中位数消费数据找到消费低于这个中位数的用户。那么我们可以通过side input把这个中位数传递进DoFn中。然后你可以在ProcessElement的参数ProcessContext中拿出来这个side input。
## Transform的优化
之前我们也提到过Beam中的数据操作都是lazy execution的。这使得Transform和普通的函数运算很不一样。当你写下面这样一个代码的时候真正的计算完全没有被执行。
```
Pcollection1 = pcollection2.apply(Transform)
```
这样的代码仅仅是让Beam知道了“你想对数据进行哪些操作”需要让它来构建你的数据处理有向图。之后Beam的处理优化器会对你的处理操作进行优化。所以千万不要觉得你写了10个Transform就会有10个Transform马上被执行了。
理解Transform的lazy execution非常重要。很多人会过度地优化自己的DoFn代码想要在一个DoFn中把所有运算全都做了。其实完全没这个必要。
![](https://static001.geekbang.org/resource/image/23/55/235e17cc1c3885a39e79217fddbabc55.png)
你可以用分步的DoFn把自己想要的操作表达出来然后交给Beam的优化器去合并你的操作。比如在FlumeJava论文中提到的MSCR Fusion它会把几个相关的GroupByKey的Transform合并。
## 小结
在这一讲中我们学习了Transform的概念和基本的使用方法。通过文章中的几个简单的例子你要做到的是了解怎样编写Transform的编程模型DoFn类。有状态DoFn在实际应用中尤其常见你可以多加关注。
## 思考题
你可能会发现Beam的ParDo类似于Spark的map()或者是MapReduce的map。它们确实有很多相似之处。那你认为它们有什么不一样之处呢
欢迎你把答案写在留言区,与我和其他同学一起讨论。如果你觉得有所收获,也欢迎把文章分享给你的朋友。