257 lines
15 KiB
Markdown
257 lines
15 KiB
Markdown
|
# 03|双端队列:并行计算中的工作窃取算法如何实现?
|
|||
|
|
|||
|
你好,我是微扰君。
|
|||
|
|
|||
|
目前我们已经学习了 vector 动态数组和 list 双向链表两种STL中的序列式容器了,今天我们继续学习另一种常见的序列式数据结构,双端队列。
|
|||
|
|
|||
|
在并行计算中,我们常常会用多进程处理一些复杂的计算任务。为了能够通过多进程加速计算,我们除了需要对任务进行合理的切分,也需要将任务合理公平地分配到每一个进程。简单来说就是,我们希望每个进程都不至于闲着。那怎么样能做到这件事呢?
|
|||
|
|
|||
|
其实有一种非常常用的算法,工作窃取算法,就可以用来达成这个目标,它就需要用到我们今天的主角——双端队列。
|
|||
|
|
|||
|
## 队列
|
|||
|
|
|||
|
要介绍双端队列,我们先来聊一聊队列,queue。什么是队列呢?
|
|||
|
|
|||
|
从概念上来说其实非常好理解,因为它的特性和“队列”这个词在现实生活中的意思是一致的,那就是FIFO先进先出。简单来说就是排队。
|
|||
|
|
|||
|
比如说现在到很多餐厅就餐,服务员都会给你发一个号码让你排队,等有空位的时候,服务员叫号是按照取号的顺序来的,肯定是先来取号的人结束排队去入座;这样的约束就是先进先出。
|
|||
|
|
|||
|
显然这种**先进先出的队列也是一种典型的序列式数据结构**;和数组最大的区别就在于,它是一个有约束的序列式数据结构,因为先进先出的特性要求我们,所有的插入操作必须在队列的尾部进行,而所有的删除操作则必须在队列的头部进行。
|
|||
|
|
|||
|
![图片](https://static001.geekbang.org/resource/image/03/75/031f3908df1315910fab5543a50e9575.jpg?wh=1920x736)
|
|||
|
|
|||
|
上图就是一个对队列入队、出队操作的示例。我们注意到先入队的元素一定会比后入队的元素更早出队。这一特性和思想在许多业务系统或者基础软件、操作系统、计算机网络中都有应用,比如在操作系统中的CPU调度中,进程资源使用CPU的顺序就用队列来排序。
|
|||
|
|
|||
|
## 双端队列
|
|||
|
|
|||
|
队列和链表一样也会延展出更多种类的队列,比如带权重的优先队列、或者只能一边进一边出的单端队列。
|
|||
|
|
|||
|
我们今天要实现的double ended queue,双端队列是其中一种,相比于普通队列而言,双端队列是两端开口的,在队列的头尾两端都可以进行进队和出队操作,让我们在使用队列时有了更大的灵活性。
|
|||
|
|
|||
|
你肯定想问,数组也可以在两边插入数据呀,那双端队列和数组有什么区别呢?
|
|||
|
|
|||
|
首先,数组头部的插入操作复杂度很高,如果我们并不需要快速随机访问,这种操作的复杂度是完全可以避免的,这是双端队列和数组的一个很大区别。更本质的地方在于,**双端队列仅仅是一个两端都支持FIFO插入删除操作的队列,语义上来说并不支持数组基于下标在指定位置的修改、插入和删除的操作**。
|
|||
|
|
|||
|
![图片](https://static001.geekbang.org/resource/image/7a/76/7a241d6d4783165e7b7d359087b61976.jpg?wh=1920x1223)
|
|||
|
|
|||
|
当然,我们是可以用数组或者链表来模拟实现双端循环队列的,只要暴露出经过剪裁的且满足FIFO的语义方法就可以了。
|
|||
|
|
|||
|
比如可以开一个大小为N的数组array,用两个数字 rear 和 front 代表队列的前端和尾端。在前端插入 target,只需要 `array[(--front+N)%N] = target`,这样既扩展了前端的边界,也达到了插入target的效果。%N也就是要对N取模,主要也就是为了处理越界的问题,这样当数组的前端read到达小于0的位置时,就会马上变成N-1,也就实现了一个循环队列。
|
|||
|
|
|||
|
## Deque实现
|
|||
|
|
|||
|
虽然说,可以用数组或者链表来实现队列,但**C++并没有选择依赖已有的序列式容器vector或者list来实现**,原因是什么呢?你可以先想一想。
|
|||
|
|
|||
|
带着这个问题,我们一起来学习后面的内容,看看STL中的deque是如何实现一个高效好用的双端队列的。
|
|||
|
|
|||
|
我个人认为,在 STL 序列化容器的空间分配中,deque 可能是最复杂的,这也可能会对你阅读源码造成一定的障碍,但是不要害怕,如果只是为了搞清deque设计的大致思想,我们完全可以将内存分配的部分当成黑盒来看,这对搞清楚deque的原理并没有什么影响。
|
|||
|
|
|||
|
### Deque的内存布局
|
|||
|
|
|||
|
deque的内存布局,可以说同时具备了list和vector的特点。
|
|||
|
|
|||
|
deque的内存布局**是由一段段连续的空间、用另一个类似数组的东西将这些空间的地址信息拼接在一起组成的,真实存放数据的就是那一段段连续的空间。**在首尾两端插入和删除的时间复杂度是O(1)。以插入为例,每次一段连续的空间元素被用完的时候,会直接申请一段新的空间并链接到deque的分段空间末尾。
|
|||
|
|
|||
|
所以deque既不像 vector 那样每次扩容都需要付出复制和拷贝的高昂代价,也不会像链表那样每次插入一个新的节点都需要申请一次内存。
|
|||
|
|
|||
|
当然这也导致了非常复杂的控制流程,deque的代码量也远远多于vector和list。
|
|||
|
|
|||
|
为了维护一段段连续的内存空间,deque需要维护一个被称为map的成员变量;这个map数据结构起到了管理真正用于存储队列元素的一段段连续线性空间的作用。那一段段连续的线性空间,我们称为缓冲区。
|
|||
|
|
|||
|
map的示意图如下:
|
|||
|
|
|||
|
![图片](https://static001.geekbang.org/resource/image/c8/7a/c8ac7fb00e8eae4637ab764aea0dc47a.jpg?wh=1920x1223)
|
|||
|
|
|||
|
可以认为map是一个数组,每个元素指向了一段缓冲区的地址。而缓冲区对应了一段指定大小的连续内存空间,默认大小为 512 bytes。
|
|||
|
|
|||
|
```c++
|
|||
|
template <class _Tp, class _Alloc>
|
|||
|
class _Deque_base {
|
|||
|
...
|
|||
|
protected:
|
|||
|
_Tp** _M_map;
|
|||
|
size_t _M_map_size;
|
|||
|
iterator _M_start;
|
|||
|
iterator _M_finish;
|
|||
|
...
|
|||
|
}
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
因此 \_M\_map 在数据结构中的表现就是一个二级指针。\_M\_map\_size指的就是 deque 中 map 的空间大小,即在map中最多能存储多少个指针。如果map的空间已经被用满了,我们也会对map进行一次重新分配迁移的操作,核心思想和vector的重分配其实是一样的,我们马上具体讲。
|
|||
|
|
|||
|
### Deque的迭代器
|
|||
|
|
|||
|
介绍完内存布局和基本数据结构,下一个重点就是STL的通用访问模式,迭代器的实现了。
|
|||
|
|
|||
|
正是因为 **deque 底层实质是分段连续空间**,operator++ 和 operator`--` 的实现也变得更困难一些,迭代器既要能找到与当前缓冲区相邻的缓冲区在哪;也需要知道目前访问的地方是否已经到当前缓冲区的边缘,只有这样到边缘时,才能正确跳转。
|
|||
|
|
|||
|
为了方便达到这一目标,我们需要在迭代器的数据结构中记录一下迭代器在当前缓冲区的位置,同时记录当前缓冲区的开始位置和结束位置,以及缓冲区的map指针:
|
|||
|
|
|||
|
```c++
|
|||
|
template <class _Tp, class _Ref, class _Ptr>
|
|||
|
struct _Deque_iterator {
|
|||
|
typedef _Deque_iterator<_Tp, _Tp&, _Tp*> iterator;
|
|||
|
typedef _Deque_iterator<_Tp, const _Tp&, const _Tp*> const_iterator;
|
|||
|
static size_t _S_buffer_size() { return __deque_buf_size(sizeof(_Tp)); }
|
|||
|
...
|
|||
|
typedef _Tp** _Map_pointer; // 缓冲区指针
|
|||
|
...
|
|||
|
_Tp* _M_cur; // 当前缓冲区的位置
|
|||
|
_Tp* _M_first; // 缓冲区的左边界线
|
|||
|
_Tp* _M_last; // 缓冲区的右边界
|
|||
|
_Map_pointer _M_node;
|
|||
|
_Deque_iterator(_Tp* __x, _Map_pointer __y)
|
|||
|
: _M_cur(__x), _M_first(*__y),
|
|||
|
_M_last(*__y + _S_buffer_size()), _M_node(__y) {}
|
|||
|
}
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
有了位置的记录,operator++ 可以这样实现:
|
|||
|
|
|||
|
```c++
|
|||
|
_Self& operator++() {
|
|||
|
++_M_cur;
|
|||
|
if (_M_cur == _M_last) {
|
|||
|
_M_set_node(_M_node + 1);
|
|||
|
_M_cur = _M_first;
|
|||
|
}
|
|||
|
return *this;
|
|||
|
}
|
|||
|
void _M_set_node(_Map_pointer __new_node) {
|
|||
|
_M_node = __new_node;
|
|||
|
_M_first = *__new_node;
|
|||
|
_M_last = _M_first + difference_type(_S_buffer_size());
|
|||
|
}
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
核心的就是\_M\_set\_node方法,如果我们发现M\_cur已经达到了当前缓冲区的尾部,就将它移动到下一段缓冲区的头部,更新迭代器中当前map的位置。另外,也需要将\_M\_first和\_M\_last更新为新的缓冲区的左确界和右虚界。
|
|||
|
|
|||
|
`--` 的操作类似:
|
|||
|
|
|||
|
```c++
|
|||
|
_Self& operator--() {
|
|||
|
if (_M_cur == _M_first) {
|
|||
|
_M_set_node(_M_node - 1);
|
|||
|
_M_cur = _M_last;
|
|||
|
}
|
|||
|
--_M_cur;
|
|||
|
return *this;
|
|||
|
}
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
我们发现M\_cur达到缓冲区头部的时候,就要将它移动到当前缓冲区的前一段缓冲区了,调用set\_node方法即可。
|
|||
|
|
|||
|
到这里就完成了迭代器的主要接口,这让我们将内存实质不连续的真相隐藏了起来,取而代之地提供了一个非常简洁好用的遍历deque的接口。
|
|||
|
|
|||
|
好啦,学完deque 的内存布局和迭代器如何实现,你知道它的基础操作该怎么写了吗?
|
|||
|
|
|||
|
## Deque的基础操作
|
|||
|
|
|||
|
相比于vector和list来说,deque支持的操作要少得多,只有基本的push和pop实现,因为队列语义保证了我们不会在队列中间进行插入删除操作,也就不用支持insert和erase这样的操作了。
|
|||
|
|
|||
|
不过正因为内存布局复杂,deque的内存管理扩缩容的逻辑也比较复杂,我们了解大概思想就可以了。如果你感兴趣可以自行查阅deque源码。
|
|||
|
|
|||
|
### push操作
|
|||
|
|
|||
|
Deque的第一个操作当然是push\_front和push\_back,因为我们实现的是双端队列,所以头部尾部都有可能插入数据。
|
|||
|
|
|||
|
遇到内存不足的时候,deque会按照下图的逻辑进行扩容,有几个检查点,首先判断是不是能在当前缓冲区插入元素,如果可以,直接插入就行;如果不能,就要检查缓冲区map两端是否有足够的空间;如果有的话,也很简单,直接创建一个新的缓冲区并存入map。
|
|||
|
|
|||
|
![](https://static001.geekbang.org/resource/image/df/10/dfb62956a3766be073e91e56a6348b10.jpg?wh=2769x1394)
|
|||
|
|
|||
|
关键是在map空间不足的时候,也就是插入的数据已经达到map头部或者尾部缓冲区的边界时,我们可以分两种情况讨论:
|
|||
|
|
|||
|
1. **如果 map使用率已经超过一半**,我们就可以重新申请更大的空间,把老的map上的数据拷贝到新的区域。这里注意,map中指向的那些缓冲区里的数据并不用变化,只是需要一个更大的map去放那些缓冲区的指针,和动态数组扩容的方式如出一辙。
|
|||
|
2. **map使用率没有超过一半**,这时候我们认为申请新的空间可能是浪费的,所以只是将数据重新调整到map中间的位置,当然也要进行一次拷贝。这可能会帮我们节约大量的空间。
|
|||
|
|
|||
|
翻译成代码如下:
|
|||
|
|
|||
|
```c++
|
|||
|
void push_back(const value_type& __t) {
|
|||
|
if (_M_finish._M_cur != _M_finish._M_last - 1) {
|
|||
|
construct(_M_finish._M_cur, __t);
|
|||
|
++_M_finish._M_cur;
|
|||
|
}
|
|||
|
else
|
|||
|
_M_push_back_aux(__t);
|
|||
|
}
|
|||
|
template <class _Tp, class _Alloc>
|
|||
|
void deque<_Tp,_Alloc>::_M_push_back_aux()
|
|||
|
{
|
|||
|
_M_reserve_map_at_back();
|
|||
|
*(_M_finish._M_node + 1) = _M_allocate_node();
|
|||
|
__STL_TRY {
|
|||
|
construct(_M_finish._M_cur);
|
|||
|
_M_finish._M_set_node(_M_finish._M_node + 1);
|
|||
|
_M_finish._M_cur = _M_finish._M_first;
|
|||
|
}
|
|||
|
__STL_UNWIND(_M_deallocate_node(*(_M_finish._M_node + 1)));
|
|||
|
}
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
### pop操作
|
|||
|
|
|||
|
pop操作不再需要处理插入导致的扩容拷贝问题, 相对来说就显得简单很多。以pop\_back为例,我们只需要关注是否已经pop到某一段缓冲区的边界。
|
|||
|
|
|||
|
```c++
|
|||
|
void pop_back() {
|
|||
|
if (_M_finish._M_cur != _M_finish._M_first) {
|
|||
|
--_M_finish._M_cur;
|
|||
|
destroy(_M_finish._M_cur);
|
|||
|
}
|
|||
|
else
|
|||
|
_M_pop_back_aux();
|
|||
|
}
|
|||
|
// Called only if _M_finish._M_cur == _M_finish._M_first.
|
|||
|
template <class _Tp, class _Alloc>
|
|||
|
void deque<_Tp,_Alloc>::_M_pop_back_aux()
|
|||
|
{
|
|||
|
_M_deallocate_node(_M_finish._M_first);
|
|||
|
_M_finish._M_set_node(_M_finish._M_node - 1);
|
|||
|
_M_finish._M_cur = _M_finish._M_last - 1;
|
|||
|
destroy(_M_finish._M_cur);
|
|||
|
}
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
如果发现当前迭代器已经和缓冲区的首位置相同,除了释放掉当前的内存,还需要释放掉整段缓冲区的内存,并且将迭代器的缓冲区指针,指向当前缓冲区前一段的位置,这可以通过\_M\_set\_node方法达成。当然,由于我们还需要pop一个节点,所以会将\_M\_cur指向\_M\_finish.\_M\_last-1的位置。
|
|||
|
|
|||
|
### C++的选择
|
|||
|
|
|||
|
现在掌握了deque的实现和基本操作,我们来回答一下为什么C++不选择依赖已有的序列式容器来实现deque?
|
|||
|
|
|||
|
其实我们已有的容器就两个,一个是vector,另外一种就是list。
|
|||
|
|
|||
|
显然,基于vector实现,不能真的在头部插入元素,会产生O(N)的时间开销,我们只能用一个固定大小的vector来模拟循环队列,具体实现方式前面说过。但这样就导致我们**必须事先确定数组的最大容量,让它的大小是实现分配好的,这就和数组一样,也会产生内存浪费和无法动态扩容的问题**。
|
|||
|
|
|||
|
不过在最大容量能确定的场景下,用vector也是一种非常常见的循环队列实现方式。
|
|||
|
|
|||
|
而基于list,看起来首尾都可以O(1)的时间插入,但对数据的随机读取性能会很差;且每次插入元素都需要申请内存,相比于deque一次申请一段内存的方式也会带来额外的性能开销。而**list的最大优势,任意位置的快速插入/删除能力,我们却用不上**。
|
|||
|
|
|||
|
所以基于deque的使用场景,C++设计了基于map分段存储的双端队列的数据结构,能同时具备list和vector的特点。
|
|||
|
|
|||
|
## 总结
|
|||
|
|
|||
|
队列的基本特性是FIFO,也就是先进先出,它能衍生出几种不同的形式,包括循环队列、双端队列,既可以通过数组实现,也可以通过链表实现。
|
|||
|
|
|||
|
STL的deque是一种双端队列的实现,内存布局是由一段段连续内存串联起来的,在队列两端都可以pop和push数据。因为复杂的内存分配,代码实现的难度要高很多。但更多的复杂性还是体现在内存管理中,只要我们通过迭代器等模式,将底层的逻辑封装起来,相信你也看到了,pop和push操作的思路其实是非常清晰好懂的。
|
|||
|
|
|||
|
现在你知道为什么说工作窃取算法需要用到双端队列了吗?
|
|||
|
|
|||
|
我们一起看看。为了更公平也更高效地分配每个进程负责的任务,我们可能会多开很多个队列去存储任务,每个进程就去消费一个队列中的任务,这样就可以有效避免进程间的竞争。因为任务先进先出,用一个普通的单向队列就可以完成了。
|
|||
|
|
|||
|
但是你可能很难保证任务划分得非常均匀,使得每个进程完成所有任务的时间都差不多。这不是一个很好解决的问题。但是如果我们**换一个思路,不再费心让任务分配得均匀,只是简单地允许先完成任务的进程,去其他进程的队列盗取任务,是不是就不会有进程闲置了呢**?
|
|||
|
|
|||
|
不过怎么盗取,可以让我们仍然尽量规避进程间的竞争问题呢? 相信你已经想到答案了,没错,就是双端队列。我们让盗取任务的进程,从队列的另一端盗取就行了,这样只有队列长度为1的时候才会出现竞争。当然还有很多实现细节,你感兴趣的话可以去看一下Java中ForkJoinPool的实现。
|
|||
|
|
|||
|
## 课后作业
|
|||
|
|
|||
|
最后,同样给你留一个课后作业。我们讲解了如何用数组实现队列,也提到队列同样可以通过链表来实现?你可以试着实现一下吗?
|
|||
|
|
|||
|
欢迎你留言与我讨论交流~
|
|||
|
|