You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

163 lines
10 KiB
Markdown

2 years ago
# 33 | Thread-Per-Message模式最简单实用的分工方法
我们曾经把并发编程领域的问题总结为三个核心问题:分工、同步和互斥。其中,同步和互斥相关问题更多地源自微观,而分工问题则是源自宏观。我们解决问题,往往都是从宏观入手,在编程领域,软件的设计过程也是先从概要设计开始,而后才进行详细设计。同样,**解决并发编程问题,首要问题也是解决宏观的分工问题**。
并发编程领域里解决分工问题也有一系列的设计模式比较常用的主要有Thread-Per-Message模式、Worker Thread模式、生产者-消费者模式等等。今天我们重点介绍Thread-Per-Message模式。
## 如何理解Thread-Per-Message模式
现实世界里很多事情我们都需要委托他人办理一方面受限于我们的能力总有很多搞不定的事比如教育小朋友搞不定怎么办呢只能委托学校老师了另一方面受限于我们的时间比如忙着写Bug哪有时间买别墅呢只能委托房产中介了。委托他人代办有一个非常大的好处那就是可以专心做自己的事了。
在编程领域也有很多类似的需求比如写一个HTTP Server很显然只能在主线程中接收请求而不能处理HTTP请求因为如果在主线程中处理HTTP请求的话那同一时间只能处理一个请求太慢了怎么办呢可以利用代办的思路创建一个子线程委托子线程去处理HTTP请求。
这种委托他人办理的方式,在并发编程领域被总结为一种设计模式,叫做**Thread-Per-Message模式**,简言之就是为每个任务分配一个独立的线程。这是一种最简单的分工方法,实现起来也非常简单。
## 用Thread实现Thread-Per-Message模式
Thread-Per-Message模式的一个最经典的应用场景是**网络编程里服务端的实现**,服务端为每个客户端请求创建一个独立的线程,当线程处理完请求后,自动销毁,这是一种最简单的并发处理网络请求的方法。
网络编程里最简单的程序当数echo程序了echo程序的服务端会原封不动地将客户端的请求发送回客户端。例如客户端发送TCP请求"Hello World",那么服务端也会返回"Hello World"。
下面我们就以echo程序的服务端为例介绍如何实现Thread-Per-Message模式。
在Java语言中实现echo程序的服务端还是很简单的。只需要30行代码就能够实现示例代码如下我们为每个请求都创建了一个Java线程核心代码是new Thread(()->{...}).start()。
```
final ServerSocketChannel =
ServerSocketChannel.open().bind(
new InetSocketAddress(8080));
//处理请求
try {
while (true) {
// 接收请求
SocketChannel sc = ssc.accept();
// 每个请求都创建一个线程
new Thread(()->{
try {
// 读Socket
ByteBuffer rb = ByteBuffer
.allocateDirect(1024);
sc.read(rb);
//模拟处理请求
Thread.sleep(2000);
// 写Socket
ByteBuffer wb =
(ByteBuffer)rb.flip();
sc.write(wb);
// 关闭Socket
sc.close();
}catch(Exception e){
throw new UncheckedIOException(e);
}
}).start();
}
} finally {
ssc.close();
}
```
如果你熟悉网络编程相信你一定会提出一个很尖锐的问题上面这个echo服务的实现方案是不具备可行性的。原因在于Java中的线程是一个重量级的对象创建成本很高一方面创建线程比较耗时另一方面线程占用的内存也比较大。所以为每个请求创建一个新的线程并不适合高并发场景。
于是你开始质疑Thread-Per-Message模式而且开始重新思索解决方案这时候很可能你会想到Java提供的线程池。你的这个思路没有问题但是引入线程池难免会增加复杂度。其实你完全可以换一个角度来思考这个问题语言、工具、框架本身应该是帮助我们更敏捷地实现方案的而不是用来否定方案的Thread-Per-Message模式作为一种最简单的分工方案Java语言支持不了显然是Java语言本身的问题。
Java语言里Java线程是和操作系统线程一一对应的这种做法本质上是将Java线程的调度权完全委托给操作系统而操作系统在这方面非常成熟所以这种做法的好处是稳定、可靠但是也继承了操作系统线程的缺点创建成本高。为了解决这个缺点Java并发包里提供了线程池等工具类。这个思路在很长一段时间里都是很稳妥的方案但是这个方案并不是唯一的方案。
业界还有另外一种方案,叫做**轻量级线程**。这个方案在Java领域知名度并不高但是在其他编程语言里却叫得很响例如Go语言、Lua语言里的协程本质上就是一种轻量级的线程。轻量级的线程创建的成本很低基本上和创建一个普通对象的成本相似并且创建的速度和内存占用相比操作系统线程至少有一个数量级的提升所以基于轻量级线程实现Thread-Per-Message模式就完全没有问题了。
Java语言目前也已经意识到轻量级线程的重要性了OpenJDK有个Loom项目就是要解决Java语言的轻量级线程问题在这个项目中轻量级线程被叫做**Fiber**。下面我们就来看看基于Fiber如何实现Thread-Per-Message模式。
## 用Fiber实现Thread-Per-Message模式
Loom项目在设计轻量级线程时充分考量了当前Java线程的使用方式采取的是尽量兼容的态度所以使用上还是挺简单的。用Fiber实现echo服务的示例代码如下所示对比Thread的实现你会发现改动量非常小只需要把new Thread(()->{...}).start()换成 Fiber.schedule(()->{})就可以了。
```
final ServerSocketChannel ssc =
ServerSocketChannel.open().bind(
new InetSocketAddress(8080));
//处理请求
try{
while (true) {
// 接收请求
final SocketChannel sc =
ssc.accept();
Fiber.schedule(()->{
try {
// 读Socket
ByteBuffer rb = ByteBuffer
.allocateDirect(1024);
sc.read(rb);
//模拟处理请求
LockSupport.parkNanos(2000*1000000);
// 写Socket
ByteBuffer wb =
(ByteBuffer)rb.flip()
sc.write(wb);
// 关闭Socket
sc.close();
} catch(Exception e){
throw new UncheckedIOException(e);
}
});
}//while
}finally{
ssc.close();
}
```
那使用Fiber实现的echo服务是否能够达到预期的效果呢我们可以在Linux环境下做一个简单的实验步骤如下
1. 首先通过 `ulimit -u 512` 将用户能创建的最大进程数包括线程设置为512
2. 启动Fiber实现的echo程序
3. 利用压测工具ab进行压测ab -r -c 20000 -n 200000 [http://测试机IP地址:8080/](http://xn--IP-im8ckc884ihkivx9c:8080/)
压测执行结果如下:
```
Concurrency Level: 20000
Time taken for tests: 67.718 seconds
Complete requests: 200000
Failed requests: 0
Write errors: 0
Non-2xx responses: 200000
Total transferred: 16400000 bytes
HTML transferred: 0 bytes
Requests per second: 2953.41 [#/sec] (mean)
Time per request: 6771.844 [ms] (mean)
Time per request: 0.339 [ms] (mean, across all concurrent requests)
Transfer rate: 236.50 [Kbytes/sec] received
Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 557 3541.6 1 63127
Processing: 2000 2010 31.8 2003 2615
Waiting: 1986 2008 30.9 2002 2615
Total: 2000 2567 3543.9 2004 65293
```
你会发现即便在20000并发下该程序依然能够良好运行。同等条件下Thread实现的echo程序512并发都抗不过去直接就OOM了。
如果你通过Linux命令 `top -Hp pid` 查看Fiber实现的echo程序的进程信息你可以看到该进程仅仅创建了16不同CPU核数结果会不同个操作系统线程。
![](https://static001.geekbang.org/resource/image/ae/e9/aebe9691be206fb88f45e4f763bcb7e9.png)
如果你对Loom项目感兴趣也想上手试一把可以下载源代码自己构建构建方法可以参考[Project Loom的相关资料](https://wiki.openjdk.java.net/display/loom/Main)不过需要注意的是构建之前一定要把代码分支切换到Fibers。
## 总结
并发编程领域的分工问题指的是如何高效地拆解任务并分配给线程。前面我们在并发工具类模块中已经介绍了不少解决分工问题的工具类例如Future、CompletableFuture 、CompletionService、Fork/Join计算框架等这些工具类都能很好地解决特定应用场景的问题所以这些工具类曾经是Java语言引以为傲的。不过这些工具类都继承了Java语言的老毛病太复杂。
如果你一直从事Java开发估计你已经习以为常了习惯性地认为这个复杂度是正常的。不过这个世界时刻都在变化曾经正常的复杂度现在看来也许就已经没有必要了例如Thread-Per-Message模式如果使用线程池方案就会增加复杂度。
Thread-Per-Message模式在Java领域并不是那么知名根本原因在于Java语言里的线程是一个重量级的对象为每一个任务创建一个线程成本太高尤其是在高并发领域基本就不具备可行性。不过这个背景条件目前正在发生巨变Java语言未来一定会提供轻量级线程这样基于轻量级线程实现Thread-Per-Message模式就是一个非常靠谱的选择。
当然对于一些并发度没那么高的异步场景例如定时任务采用Thread-Per-Message模式是完全没有问题的。实际工作中我就见过完全基于Thread-Per-Message模式实现的分布式调度框架这个框架为每个定时任务都分配了一个独立的线程。
## 课后思考
使用Thread-Per-Message模式会为每一个任务都创建一个线程在高并发场景中很容易导致应用OOM那有什么办法可以快速解决呢
欢迎在留言区与我分享你的想法,也欢迎你在留言区记录你的思考过程。感谢阅读,如果你觉得这篇文章对你有帮助的话,也欢迎把它分享给更多的朋友。