You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

208 lines
11 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 33 | 横看成岭侧成峰再战Streaming WordCount
你好,我是蔡元楠。
今天我要与你分享的主题是“横看成岭侧成峰再战Streaming WordCount”。
在上一讲中我们学习了Beam窗口Window的概念。当时我们提到窗口技术的产生是因为我们想要根据时间戳去分组处理一个PCollection中的元素。
我们也提到了在“统计莎士比亚文集词频”这个例子中,如果莎士比亚穿越到了现代,成了一名极客时间的专栏作家,我们就可能需要根据他文章的写作时间来统计词频了。
举个具体的例子的话就是我们能不能灵活地得到莎士比亚在2017年9月使用的高频词汇或者是他在2018年第7个周五偏爱使用的高频词汇呢
时效性是数据处理很重要的一部分,类似上面这样的问题还有很多。
比如能不能根据实时交通数据得到最近24小时之内拥堵的道路能不能根据所有微信分享文章的点击数据得到过去一周最热门的文章这些问题都是可以用窗口技术来解决。
所以今天这一讲我们就来看看怎样在WordCount这个例子中使用窗口技术。我会介绍怎样在Beam中实现以下六个问题
1. 怎样区分有界数据还是无界数据?
2. 怎样读取无边界数据?
3. 怎样给PCollection数据添加时间戳
4. 怎样在PCollection应用窗口
5. 怎样复用之前的DoFn和PTransform
6. 怎样存储无边界数据?
### 怎样区分有界数据还是无界数据?
我们知道在Beam中你可以用同一个Pipeline处理有边界数据或者无边界数据。但我们在处理两者时的思考方式和操作方法还是有细微的不同的。
比如,有界数据之所以有界,是因为你在处理数据时,所有的数据就已经准备就绪了。
在[第31讲](https://time.geekbang.org/column/article/105324)的WordCount例子中莎士比亚文集早已成为历史不会有新的作品了。所以你可以用有界数据的处理方式进行实现。当你的数据输入是有界的时候下游的数据一般也是有界的。因为你的数据元素是有限的在数据处理的过程中不会凭空造出无限多的数据。
而无边界数据的到来是时刻不停的。在你处理处理流水线的任意时刻,数据都没有完全结束。
比如,在我们[第1讲](https://time.geekbang.org/column/article/90081)中提到的处理美团外卖电动车例子中,美团外卖电动车的图片就是一直在不停地更新。你不可能说“我已经有了所有的外卖电动车图片了”。在无界数据的处理流水线中,因为输入数据是无界的,所以下游的处理结果一般也是无界的。
相信你已经掌握了区分区分有界和无界数据方法。在接下来的内容中,我们会看到针对两种数据的不同处理方式。
但是不论是有界数据还是无界数据在Beam中我们都可以用窗口把数据按时间分割成一些有限大小的集合。只是对于无界数据你必须使用窗口对数据进行分割然后对每个窗口内的数据集进行处理。
### 怎样读取无边界数据?
在[第31讲](https://time.geekbang.org/column/article/105324)WordCount的案例中我们从一个外部文本文件读取了莎士比亚全集的文本内容。当时我们使用的是Beam的TextIO
Java
```
Pipeline p = Pipeline.create(options);
p.apply("ReadLines", TextIO.read().from(options.getInputFile()))
```
这是因为我们当时面对的是有边界的数据在我们的数据处理流水线运行之前所有的莎士比亚全集文本早已准备就绪所以我们可以一股脑儿全部读进来。但是当输入数据是无界的时候我们就没法这样读取数据了。常见的无界数据读取自logging系统或者Pub/Sub系统。
由于logging系统一直在不断地运行新的log在不停地产生并且每条log都自带时间戳。比如我们想要根据用户对于微信文章的点击log分析不同时刻的热门文章我们就可以去读取微信文章的log。而在Pub/Sub系统中我们订阅的消息也会永无止境地到来类似的一般Pub/Sub订阅的每条消息也会自带原生的时间戳。
这一讲中我们已经假设莎士比亚穿越到现代在极客时间开了个专栏。我们不妨把他的专栏文章更新设计在一个Kafka消息系统中。
如下图所示即使你并没有使用过Kafka也没有关系。你只需要知道在我们的数据处理系统中能够不定时地收到来自莎士比亚的文章更新每一次的文章更新包含了更新的文章标题和更新内容。
![](https://static001.geekbang.org/resource/image/4f/85/4f075951e25ad5eb9792468d4c802085.png)
这时我们可以使用Beam的Kafka IO来读取来自Kafka的订阅消息。
在下面的示例代码中我们指定了需要读取的Kafka消息主题“shakespeare”以及Kafka消息的key/value类型都是String。你需要注意这里的读取选项withLogAppendTime()它的意思是我们用Kafka的log append time作为我们beam PCollection数据集的时间戳。
Java
```
pipeline
.apply(KafkaIO.<String, String>read()
.withBootstrapServers("broker_1:9092,broker_2:9092")
.withTopic("shakespeare") // use withTopics(List<String>) to read from multiple topics.
.withKeyDeserializer(StringDeserializer.class)
.withValueDeserializer(StringDeserializer.class)
.withLogAppendTime()
)
```
### 怎样给PCollection数据添加时间戳
一般情况下窗口的使用场景中时间戳都是原生的。就如同我们从Kafka中读取消息记录一样时间戳是自带在每一条Kafka消息中的。
但Beam也允许我们手动给PCollection的元素添加时间戳。例如第31讲的WordCount例子本身就是一个有界数据集你还记得吗那么我们怎么给这些有界数据集添加时间戳呢
第31讲的输入数据格式就是简单的文本文件
```
HAMLET
ACT I
SCENE I Elsinore. A platform before the castle.
[FRANCISCO at his post. Enter to him BERNARDO]
BERNARDO Who's there?
FRANCISCO Nay, answer me: stand, and unfold yourself.
```
为了方便阐述概念,我们不妨假设一下,现在我们的输入文件变成了如下的格式,每一行的开头都会带有一个时间戳,在冒号分隔符号之后才是我们需要处理的文本:
```
2019-07-05: HAMLET
2019-07-06: ACT I
2019-07-06: SCENE I Elsinore. A platform before the castle.
2019-07-07: [FRANCISCO at his post. Enter to him BERNARDO]
2019-07-07: BERNARDO Who's there?
2019-07-07: FRANCISCO Nay, answer me: stand, and unfold yourself.
```
当时我们是直接对每一行的文本提取了所有的单词。但在现在这样的输入格式下我们就可以先把每一行开头的时间戳提取出来。在DoFn的processElement实现中我们用outputWithTimestamp()方法,可以对于每一个元素附上它所对应的时间戳。
Java
```
static class ExtractTimestampFn extends DoFn<String, String> {
@ProcessElement
public void processElement(ProcessContext c) {
String extractedLine = extractLine(c.element());
Instant timestamp =
new Instant(extractTimestamp(c.element());
c.outputWithTimestamp(extractedLine, timestamp);
}
}
```
### 怎样在PCollection应用窗口
通过前面的内容我们已经解决了“PCollection的时间戳来自于哪里”的问题。在无界数据的应用场景中时间戳往往是数据记录自带的比如来自Kafka消息。在有界数据的应用场景中时间戳往往需要自己指定比如我们读取的自定义的莎士比亚文集格式。
PCollection元素有了时间戳我们就能根据时间戳应用窗口对数据进行划分。[第32讲](https://time.geekbang.org/column/article/105707)中,我们已经介绍了常见的窗口种类,有固定窗口、滑动窗口和会话窗口。
要把特定的窗口应用到PCollection上我们同样使用PCollection的apply()方法。如果是固定窗口我们就用FixedWindows类型如果是滑动窗口就用SlidingWindows类型相应的如果是会话窗口我们就用Sessions窗口类型。下面的代码示例就是使用FixedWindows的情况
Java
```
PCollection<String> windowedWords = input
.apply(Window.<String>into(
FixedWindows.of(Duration.standardMinutes(options.getWindowSize()))));
```
### 怎样复用之前的DoFn和PTransform
有了窗口我们下一步就是把之前的DoFn和PTransform应用到数据集上。
这一步其实是最简单的。因为Beam的Transform不区分有界数据还是无界数据。我们可以一行代码不改和第31讲用到的例子一样直接使用之前的CountWords这个PTransform就可以了。
Java
```
PCollection<KV<String, Long>> wordCounts = windowedWords.apply(new WordCount.CountWords());
```
值得注意的是在应用了窗口之后Beam的transform是在每一个窗口中间进行数据处理的。在我们的例子中词频统计的是每一个窗口里的词频而不再是全局的词频。
### 怎样输出无边界数据?
同数据读取对应无边界数据的输出也是与有界数据大相径庭。在第31讲中我们把数据处理结果写进了一个外部文件中使用了TextIO
Java
```
pipeline.apply("WriteCounts", TextIO.write().to(options.getOutput()));
```
但是在无边界的应用场景中数据在持续不断地进来。最常见的输出模式是把处理结果还是以Pub/Sub的模式发布出去。
假设我们用Google Pub/Sub输出我们的处理结果的话我们可以用PubsubIO.writeStrings()方法。同样,这里的输出结果是针对每一个窗口的,每一个窗口都会输出自己的词频统计结果。
Java
```
pipeline.apply("Write to PubSub", PubsubIO.writeStrings().to(options.getOutputTopic()));
```
## 小结
今天我们深入探索了Beam窗口在流处理的场景中的应用。
我们巩固了区分有界数据还是无界数据的方法掌握了在Beam中怎样读取无边界数据怎样给PCollection数据添加时间戳怎样在PCollection应用窗口怎样复用之前的DoFn和PTransform和怎样输出无边界数据。
将这些方法融会贯通后,相信类似的时间性数据处理或者是流处理问题在你手中都能迎刃而解了。
## 思考题
你的工作中有哪些应用场景不适合一般的数据批处理呢?能否利用这里介绍窗口方式处理?
欢迎你把答案写在留言区,与我和其他同学一起讨论。如果你觉得有所收获,也欢迎把文章分享给你的朋友。