You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

298 lines
20 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 32并发聊聊Goroutine调度器的原理
你好我是Tony Bai。
上一讲我们学习了并发的基本概念和Go的并发方案也就是Goroutine的一些基本使用和注意事项。对于大多数Gopher来说这些内容作为Go并发入门已经是足够了。
但毕竟Go没有采用基于线程的并发模型可能很多Gopher都好奇Go运行时究竟是如何将一个个Goroutine调度到CPU上执行的。当然Goroutine的调度本来是Go语言核心开发团队才应该关注的事情大多数Gopher们无需关心。但就我个人的学习和实践经验而言我觉得了解Goroutine的调度模型和原理能够帮助我们编写出更高质量的Go代码。
因此在这一讲中我想和你一起简单探究一下Goroutine调度器的原理和演化历史。
## Goroutine调度器
提到“调度”我们首先想到的就是操作系统对进程、线程的调度。操作系统调度器会将系统中的多个线程按照一定算法调度到物理CPU上去运行。
前面我们也提到传统的编程语言比如C、C++等的并发实现多是基于线程模型的也就是应用程序负责创建线程一般通过libpthread等库函数调用实现操作系统负责调度线程。当然我们也说过这种传统支持并发的方式有很多不足。为了解决这些问题Go语言中的并发实现使用了Goroutine代替了操作系统的线程也不再依靠操作系统调度。
Goroutine占用的资源非常小上节课我们也说过每个Goroutine栈的大小默认是2KB。而且Goroutine调度的切换也不用陷入trap操作系统内核层完成代价很低。因此一个Go程序中可以创建成千上万个并发的Goroutine。而将这些Goroutine按照一定算法放到“CPU”上执行的程序就被称为**Goroutine调度器Goroutine Scheduler**注意这里说的“CPU”打了引号。
不过一个Go程序对于操作系统来说只是一个**用户层程序**,操作系统眼中只有线程,它甚至不知道有一种叫**Goroutine**的事物存在。所以Goroutine的调度全要靠Go自己完成。那么实现Go程序内Goroutine之间“公平”竞争“CPU”资源的任务就落到了Go运行时runtime头上了。要知道在一个Go程序中除了用户层代码剩下的就是Go运行时了。
于是Goroutine的调度问题就演变为Go运行时如何将程序内的众多Goroutine按照一定算法调度到“CPU”资源上运行的问题了。
**可是在操作系统层面线程竞争的“CPU”资源是真实的物理CPU但在Go程序层面各个Goroutine要竞争的“CPU”资源又是什么呢**
Go程序是用户层程序它本身就是整体运行在一个或多个操作系统线程上的。所以这个答案就出来了Goroutine们要竞争的“CPU”资源就是操作系统线程。这样Goroutine调度器的任务也就明确了**将Goroutine按照一定算法放到不同的操作系统线程中去执行**。
那么Goroutine调度器究竟是以怎样的算法模型将Goroutine调度到不同的操作系统线程上去的呢我们继续向下看。
## Goroutine调度器模型与演化过程
Goroutine调度器的实现不是一蹴而就的它的调度模型与算法也是几经演化从最初的G-M模型、到G-P-M模型从不支持抢占到支持协作式抢占再到支持基于信号的异步抢占Goroutine调度器经历了不断地优化与打磨。
首先我们来看最初的**G-M模型**。
2012年3月28日Go 1.0正式发布。在这个版本中Go开发团队实现了一个简单的Goroutine调度器。在这个调度器中每个Goroutine对应于运行时中的一个抽象结构`G(Goroutine)`
而被视作“物理CPU”的操作系统线程则被抽象为另外一个结构`M(machine)`。
调度器的工作就是将G调度到M上去运行。为了更好地控制程序中活跃的M的数量调度器引入了GOMAXPROCS变量来表示Go调度器可见的“处理器”的最大数量。
这个模型实现起来比较简单,也能正常工作,但是却存在着诸多问题。前英特尔黑带级工程师、现谷歌工程师[德米特里-维尤科夫Dmitry Vyukov](https://github.com/dvyukov))在其《[Scalable Go Scheduler Design](https://docs.google.com/document/d/1TTj4T2JO42uD5ID9e89oa0sLKhJYD0Y_kqxDv3I3XMw/edit#!)》一文中指出了**G-M模型**的一个重要不足限制了Go并发程序的伸缩性尤其是对那些有高吞吐或并行计算需求的服务程序。
这个问题主要体现在这几个方面:
* 单一全局互斥锁`(Sched.Lock)` 和集中状态存储的存在导致所有Goroutine相关操作比如创建、重新调度等都要上锁
* Goroutine传递问题M经常在M之间传递“可运行”的Goroutine这导致调度延迟增大也增加了额外的性能损耗
* 每个M都做内存缓存导致内存占用过高数据局部性较差
* 由于系统调用syscall而形成的频繁的工作线程阻塞和解除阻塞导致额外的性能损耗。
为了解决这些问题,德米特里-维尤科夫又亲自操刀改进了Go调度器在Go 1.1版本中实现了**G-P-M调度模型**和[work stealing算法](http://supertech.csail.mit.edu/papers/steal.pdf),这个模型一直沿用至今。模型如下图所示:
![图片](https://static001.geekbang.org/resource/image/43/a8/43ffdbc6b2203d9400ac98423192caa8.png?wh=1224x1142)
有人说过:**“计算机科学领域的任何问题都可以通过增加一个间接的中间层来解决”**,德米特里-维尤科夫的**G-P-M**模型恰是这一理论的践行者。你可以看到,德米特里-维尤科夫通过向G-M模型中增加了一个P让Go调度器具有很好的伸缩性。
P是一个“逻辑Proccessor”每个GGoroutine要想真正运行起来首先需要被分配一个P也就是进入到P的本地运行队列local runq中。对于G来说P就是运行它的“CPU”可以说**在G的眼里只有P**。但从Go调度器的视角来看真正的“CPU”是M只有将P和M绑定才能让P的runq中的G真正运行起来。
G-P-M模型的实现算是`Go调度器`的一大进步,但调度器仍然有一个令人头疼的问题,那就是**不支持抢占式调度**这导致一旦某个G中出现死循环的代码逻辑那么G将永久占用分配给它的P和M而位于同一个P中的其他G将得不到调度出现“**饿死**”的情况。
更为严重的是当只有一个PGOMAXPROCS=1整个Go程序中的其他G都将“饿死”。于是德米特里-维尤科夫又提出了《[Go Preemptive Scheduler Design](https://docs.google.com/document/d/1ETuA2IOmnaQ4j81AtTGT40Y4_Jr6_IDASEKg0t0dBR8/edit#!)》并在**Go 1.2中实现了基于协作的“抢占式”调度**。
这个抢占式调度的原理就是Go编译器在每个函数或方法的入口处加上了一段额外的代码(runtime.morestack\_noctxt),让运行时有机会在这段代码中检查是否需要执行抢占调度。
这种解决方案只能说局部解决了“饿死”问题只在有函数调用的地方才能插入“抢占”代码埋点对于没有函数调用而是纯算法循环计算的GGo调度器依然无法抢占。
比如死循环等并没有给编译器插入抢占代码的机会这就会导致GC在等待所有Goroutine停止时的等待时间过长从而[导致GC延迟](https://github.com/golang/go/issues/10958)内存占用瞬间冲高甚至在一些特殊情况下导致在STWstop the world时死锁。
为了解决这些问题Go在1.14版本中接受了奥斯汀-克莱门茨Austin Clements的[提案](https://go.googlesource.com/proposal/+/master/design/24543-non-cooperative-preemption.md),增加了**对非协作的抢占式调度的支持**这种抢占式调度是基于系统信号的也就是通过向线程发送信号的方式来抢占正在运行的Goroutine。
除了这些大的迭代外Goroutine的调度器还有一些小的优化改动比如**通过文件I/O poller减少M的阻塞等**。
Go运行时已经实现了netpoller这使得即便G发起网络I/O操作也不会导致M被阻塞仅阻塞G也就不会导致大量线程M被创建出来。
但是对于文件I/O操作来说一旦阻塞那么线程M将进入挂起状态等待I/O返回后被唤醒。这种情况下P将与挂起的M分离再选择一个处于空闲状态idle的M。如果此时没有空闲的M就会新创建一个M线程所以这种情况下大量I/O操作仍然会导致大量线程被创建。
为了解决这个问题Go开发团队的伊恩-兰斯-泰勒Ian Lance Taylor在Go 1.9中增加了一个[针对文件I/O的Poller](https://groups.google.com/forum/#!topic/golang-dev/tT8SoKfHty0)的功能这个功能可以像netpoller那样在G操作那些支持监听pollable的文件描述符时仅会阻塞G而不会阻塞M。不过这个功能依然不能对常规文件有效常规文件是不支持监听的pollable。但对于Go调度器而言这也算是一个不小的进步了。
从Go 1.2以后Go调度器就一直稳定在G-P-M调度模型上尽管有各种优化和改进但也都是基于这个模型之上的。那未来的Go调度器会往哪方面发展呢德米特里-维尤科夫在2014年9月提出了一个新的设计草案文档《[NUMAaware scheduler for Go](https://docs.google.com/document/u/0/d/1d3iI2QWURgDIsSR6G2275vMeQ_X7w-qxM2Vp7iGwwuM/pub)》作为对未来Goroutine调度器演进方向的一个提议不过至今似乎这个提议也没有列入开发计划。
通过前面对Goroutine调度器演化的分析你可以看到目前G-M模型已经废弃NUMA调度模型尚未实现那么现在我们要理解如今的Goroutine调度只需要学习G-P-M模型就可以了接下来我们就来看看G-P-M模型下Goroutine的调度原理。
## 深入G-P-M模型
Go语言中Goroutine的调度、GC、内存管理等是Go语言原理最复杂、最难懂的地方随便拿出一个都可以讲上几节课并且这三方面的内容随着Go版本的演进也在不断更新。因为我们是入门课所以这里我就只基于Go 1.12.7版本支持基于协作的抢占式调度给你粗略介绍一下基于G-P-M模型的调度原理如果你还对这方面感兴趣可以基于这些介绍深入到相关的Go源码中去深入挖掘细节。
### G、P和M
关于G、P、M的定义我们可以参见`$GOROOT/src/runtime/runtime2.go`这个源文件。你可以看到G、P、M这三个结构体定义都是大块头每个结构体定义都包含十几个甚至二三十个字段。更不用说像调度器这样的核心代码向来很复杂考虑的因素也非常多代码“耦合”成一坨。不过从复杂的代码中我们依然可以看出来G、P、M的各自的大致用途我们这里简要说明一下
* G: 代表Goroutine存储了Goroutine的执行栈信息、Goroutine状态以及Goroutine的任务函数等而且G对象是可以重用的
* P: 代表逻辑processorP的数量决定了系统内最大可并行的G的数量P的最大作用还是其拥有的各种G对象队列、链表、一些缓存和状态
* M: M代表着真正的执行计算资源。在绑定有效的P后进入一个调度循环而调度循环的机制大致是**从P的本地运行队列以及全局队列中获取G切换到G的执行栈上并执行G的函数调用goexit做清理工作并回到M如此反复**。M并不保留G状态这是G可以跨M调度的基础。
我这里也给出了G、P、M定义的代码片段注意我们这里使用的是Go 1.12.7版本随着Go演化结构体中的字段定义可能会有不同你也可以看一看
```plain
//src/runtime/runtime2.go
type g struct {
stack stack // offset known to runtime/cgo
sched gobuf
goid int64
gopc uintptr // pc of go statement that created this goroutine
startpc uintptr // pc of goroutine function
... ...
}
type p struct {
lock mutex
id int32
status uint32 // one of pidle/prunning/...
mcache *mcache
racectx uintptr
// Queue of runnable goroutines. Accessed without lock.
runqhead uint32
runqtail uint32
runq [256]guintptr
runnext guintptr
// Available G's (status == Gdead)
gfree *g
gfreecnt int32
... ...
}
type m struct {
g0 *g // goroutine with scheduling stack
mstartfn func()
curg *g // current running goroutine
... ...
}
```
而Goroutine调度器的目标就是公平合理地将各个G调度到P上“运行”下面我们重点看看G是如何被调度的。
### G被抢占调度
我们先来说常规情况也就是如果某个G没有进行系统调用syscall、没有进行I/O操作、没有阻塞在一个channel操作上**调度器是如何让G停下来并调度下一个可运行的G的呢**
答案就是:**G是被抢占调度的**。
前面说过除非极端的无限循环否则只要G调用函数Go运行时就有了抢占G的机会。Go程序启动时运行时会去启动一个名为sysmon的M一般称为监控线程这个M的特殊之处在于它不需要绑定P就可以运行以g0这个G的形式这个M在整个Go程序的运行过程中至关重要你可以看下我对sysmon被创建的部分代码以及sysmon的执行逻辑摘录
```plain
//$GOROOT/src/runtime/proc.go
// The main goroutine.
func main() {
... ...
systemstack(func() {
newm(sysmon, nil)
})
.... ...
}
// Always runs without a P, so write barriers are not allowed.
//
//go:nowritebarrierrec
func sysmon() {
// If a heap span goes unused for 5 minutes after a garbage collection,
// we hand it back to the operating system.
scavengelimit := int64(5 * 60 * 1e9)
... ...
if .... {
... ...
// retake P's blocked in syscalls
// and preempt long running G's
if retake(now) != 0 {
idle = 0
} else {
idle++
}
... ...
}
}
```
我们看到sysmon每20us~10ms启动一次sysmon主要完成了这些工作
* 释放闲置超过5分钟的span内存
* 如果超过2分钟没有垃圾回收强制执行
* 将长时间未处理的netpoll结果添加到任务队列
* 向长时间运行的G任务发出抢占调度
* 收回因syscall长时间阻塞的P
我们看到sysmon将“向长时间运行的G任务发出抢占调度”这个事情由函数`retake`实施:
```plain
// $GOROOT/src/runtime/proc.go
// forcePreemptNS is the time slice given to a G before it is
// preempted.
const forcePreemptNS = 10 * 1000 * 1000 // 10ms
func retake(now int64) uint32 {
... ...
// Preempt G if it's running for too long.
t := int64(_p_.schedtick)
if int64(pd.schedtick) != t {
pd.schedtick = uint32(t)
pd.schedwhen = now
continue
}
if pd.schedwhen+forcePreemptNS > now {
continue
}
preemptone(_p_)
... ...
}
func preemptone(_p_ *p) bool {
mp := _p_.m.ptr()
if mp == nil || mp == getg().m {
return false
}
gp := mp.curg
if gp == nil || gp == mp.g0 {
return false
}
gp.preempt = true //设置被抢占标志
// Every call in a go routine checks for stack overflow by
// comparing the current stack pointer to gp->stackguard0.
// Setting gp->stackguard0 to StackPreempt folds
// preemption into the normal stack overflow check.
gp.stackguard0 = stackPreempt
return true
}
```
从上面的代码中,我们可以看出,**如果一个G任务运行10mssysmon就会认为它的运行时间太久而发出抢占式调度的请求**。一旦G的抢占标志位被设为true那么等到这个G下一次调用函数或方法时运行时就可以将G抢占并移出运行状态放入队列中等待下一次被调度。
不过除了这个常规调度之外还有两个特殊情况下G的调度方法。
**第一种channel阻塞或网络I/O情况下的调度。**
如果G被阻塞在某个channel操作或网络I/O操作上时G会被放置到某个等待wait队列中而M会尝试运行P的下一个可运行的G。如果这个时候P没有可运行的G供M运行那么M将解绑P并进入挂起状态。当I/O操作完成或channel操作完成在等待队列中的G会被唤醒标记为可运行runnable并被放入到某P的队列中绑定一个M后继续执行。
**第二种:系统调用阻塞情况下的调度。**
如果G被阻塞在某个系统调用system call那么不光G会阻塞执行这个G的M也会解绑P与G一起进入挂起状态。如果此时有空闲的M那么P就会和它绑定并继续执行其他G如果没有空闲的M但仍然有其他G要去执行那么Go运行时就会创建一个新M线程
当系统调用返回后阻塞在这个系统调用上的G会尝试获取一个可用的P如果没有可用的P那么G会被标记为runnable之前的那个挂起的M将再次进入挂起状态。
## 小结
好了,今天的课讲到这里就结束了,现在我们一起来回顾一下吧。
基于Goroutine的并发设计离不开一个高效的生产级调度器。Goroutine调度器演进了十余年先后经历了G-M模型、G-P-M模型和work stealing算法、协作式的抢占调度以及基于信号的异步抢占等改进与优化目前Goroutine调度器相对稳定和成熟可以适合绝大部分生产场合。
现在的G-P-M模型和最初的G-M模型相比通过向G-M模型中增加了一个代表逻辑处理器的P使得Goroutine调度器具有了更好的伸缩性。
M是Go代码运行的真实载体包括Goroutine调度器自身的逻辑也是在M中运行的。
P在G-P-M模型中占据核心地位它拥有待调度的G的队列同时M要想运行G必须绑定一个P。一个G被调度执行的时间不能过长超过特定长的时间后G会被设置为**可抢占**并在下一次执行函数或方法时被Go运行时移出运行状态。
如果G被阻塞在某个channel操作或网络I/O操作上时M可以不被阻塞这避免了大量创建M导致的开销。但如果G因慢系统调用而阻塞那么M也会一起阻塞但在阻塞前会与P解绑P会尝试与其他M绑定继续运行其他G。但若没有现成的MGo运行时会建立新的M这也是系统调用可能导致系统线程数量增加的原因你一定要注意这一点。
## 思考题
为了让你更好理解Goroutine调度原理我这里留个思考题。请看下面代码
```plain
func deadloop() {
for {
}
}
func main() {
go deadloop()
for {
time.Sleep(time.Second * 1)
fmt.Println("I got scheduled!")
}
}
```
我的问题是:
1. 在一个拥有多核处理器的主机上使用Go 1.13.x版本运行这个示例代码你在命令行终端上是否能看到“I got scheduled!”输出呢也就是main goroutine在创建deadloop goroutine之后是否能继续得到调度呢
2. 我们通过什么方法可以让上面示例中的main goroutine在创建deadloop goroutine之后无法继续得到调度
欢迎你把这节课分享给更多对Gouroutine调度原理感兴趣的朋友。我是Tony Bai我们下节课见。