gitbook/深入浅出计算机组成原理/docs/103433.md
2022-09-03 22:05:03 +08:00

106 lines
13 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 27 | SIMD如何加速矩阵乘法
上一讲里呢我进一步为你讲解了CPU里的“黑科技”分别是超标量Superscalar技术和超长指令字VLIW技术。
超标量Superscalar技术能够让取指令以及指令译码也并行进行在编译的过程超长指令字VLIW技术可以搞定指令先后的依赖关系使得一次可以取一个指令包。
不过CPU里的各种神奇的优化我们还远远没有说完。这一讲里我就带你一起来看看专栏里最后两个提升CPU性能的架构设计。它们分别是你应该常常听说过的**超线程**Hyper-Threading技术以及可能没有那么熟悉的**单指令多数据流**SIMD技术。
## 超线程Intel多卖给你的那一倍CPU
不知道你是不是还记得,在[第21讲](https://time.geekbang.org/column/article/100554)我给你介绍了Intel是怎么在Pentium 4处理器上遭遇重大失败的。如果不太记得的话你可以回过头去回顾一下。
那时我和你说过Pentium 4失败的一个重要原因就是它的CPU的流水线级数太深了。早期的Pentium 4的流水线深度高达20级而后期的代号为Prescott的Pentium 4的流水线级数更是到了31级。超长的流水线使得之前我们讲的很多解决“冒险”、提升并发的方案都用不上。
因为这些解决“冒险”、提升并发的方案,本质上都是一种**指令级并行**Instruction-level parallelism简称IPL的技术方案。换句话说就是CPU想要在同一个时间去并行地执行两条指令。而这两条指令呢原本在我们的代码里是有先后顺序的。无论是我们在流水线里面讲到的流水线架构、分支预测以及乱序执行还是我们在上一讲说的超标量和超长指令字都是想要通过同一时间执行两条指令来提升CPU的吞吐率。
然而在Pentium 4这个CPU上这些方法都可能因为流水线太深而起不到效果。我之前讲过更深的流水线意味着同时在流水线里面的指令就多相互的依赖关系就多。于是很多时候我们不得不把流水线停顿下来插入很多NOP操作来解决这些依赖带来的“冒险”问题。
不知道是不是因为当时面临的竞争太激烈了为了让Pentium 4的CPU在性能上更有竞争力一点2002年底Intel在的3.06GHz主频的Pentium 4 CPU上第一次引入了**超线程**Hyper-Threading技术。
什么是超线程技术呢Intel想既然CPU同时运行那些在代码层面有前后依赖关系的指令会遇到各种冒险问题我们不如去找一些和这些指令完全独立没有依赖关系的指令来运行好了。那么这样的指令哪里来呢自然同时运行在另外一个程序里了。
你所用的计算机其实同一个时间可以运行很多个程序。比如我现在一边在浏览器里写这篇文章后台同样运行着一个Python脚本程序。而这两个程序是完全相互独立的。它们两个的指令完全并行运行而不会产生依赖问题带来的“冒险”。
然而这个时候你可能就会觉得奇怪了这么做似乎不需要什么新技术呀。现在我们用的CPU都是多核的本来就可以用多个不同的CPU核心去运行不同的任务。即使当时的Pentium 4是单核的我们的计算机本来也能同时运行多个进程或者多个线程。这个超线程技术有什么特别的用处呢
无论是上面说的多个CPU核心运行不同的程序还是在单个CPU核心里面切换运行不同线程的任务在同一时间点上一个物理的CPU核心只会运行一个线程的指令所以其实我们并没有真正地做到指令的并行运行。
![](https://static001.geekbang.org/resource/image/96/c8/96aa1220ff27776f55091c55c2eddbc8.jpeg)
超线程可不是这样。超线程的CPU其实是把一个物理层面CPU核心“伪装”成两个逻辑层面的CPU核心。这个CPU会在硬件层面增加很多电路使得我们可以在一个CPU核心内部维护两个不同线程的指令的状态信息。
比如在一个物理CPU核心内部会有双份的PC寄存器、指令寄存器乃至条件码寄存器。这样这个CPU核心就可以维护两条并行的指令的状态。在外面看起来似乎有两个逻辑层面的CPU在同时运行。所以超线程技术一般也被叫作**同时多线程**Simultaneous Multi-Threading简称SMT技术**。**
不过在CPU的其他功能组件上Intel可不会提供双份。无论是指令译码器还是ALU一个CPU核心仍然只有一份。因为超线程并不是真的去同时运行两个指令那就真的变成物理多核了。超线程的目的是在一个线程A的指令在流水线里停顿的时候让另外一个线程去执行指令。因为这个时候CPU的译码器和ALU就空出来了那么另外一个线程B就可以拿来干自己需要的事情。这个线程B可没有对于线程A里面指令的关联和依赖。
这样CPU通过很小的代价就能实现“同时”运行多个线程的效果。通常我们只要在CPU核心的添加10%左右的逻辑功能,增加可以忽略不计的晶体管数量,就能做到这一点。
不过,你也看到了,我们并没有增加真的功能单元。所以超线程只在特定的应用场景下效果比较好。一般是在那些各个线程“等待”时间比较长的应用场景下。比如,我们需要应对很多请求的数据库应用,就很适合使用超线程。各个指令都要等待访问内存数据,但是并不需要做太多计算。
于是我们就可以利用好超线程。我们的CPU计算并没有跑满但是往往当前的指令要停顿在流水线上等待内存里面的数据返回。这个时候让CPU里的各个功能单元去处理另外一个数据库连接的查询请求就是一个很好的应用案例。
![](https://static001.geekbang.org/resource/image/75/e5/759b55d8acdc6f69d0b711f4f62ad4e5.png)
我的移动工作站的CPU信息
我这里放了一张我的电脑里运行CPU-Z的截图。你可以看到在右下角里我的CPU的Cores被标明了是4而Threads则是8。这说明我手头的这个CPU只有4个物理的CPU核心也就是所谓的4核CPU。但是在逻辑层面它“装作”有8个CPU核心可以利用超线程技术来同时运行8条指令。如果你用的是Windows可以去下载安装一个[CPU-Z](https://www.cpuid.com/softwares/cpu-z.html)来看看你手头的CPU里面对应的参数。
## SIMD如何加速矩阵乘法
在上面的CPU信息的图里面你会看到中间有一组信息叫作Instructions里面写了有MMX、SSE等等。这些信息就是这个CPU所支持的指令集。这里的MMX和SSE的指令集也就引出了我要给你讲的最后一个提升CPU性能的技术方案**SIMD**,中文叫作**单指令多数据流**Single Instruction Multiple Data
我们先来体会一下SIMD的性能到底怎么样。下面是两段示例程序一段呢是通过循环的方式给一个list里面的每一个数加1。另一段呢是实现相同的功能但是直接调用NumPy这个库的add方法。在统计两段程序的性能的时候我直接调用了Python里面的timeit的库。
```
$ python
>>> import numpy as np
>>> import timeit
>>> a = list(range(1000))
>>> b = np.array(range(1000))
>>> timeit.timeit("[i + 1 for i in a]", setup="from __main__ import a", number=1000000)
32.82800309999993
>>> timeit.timeit("np.add(1, b)", setup="from __main__ import np, b", number=1000000)
0.9787889999997788
>>>
```
从两段程序的输出结果来看你会发现两个功能相同的代码性能有着巨大的差异足足差出了30多倍。也难怪所有用Python讲解数据科学的教程里往往在一开始就告诉你不要使用循环而要把所有的计算都向量化Vectorize
有些同学可能会猜测是不是因为Python是一门解释性的语言所以这个性能差异会那么大。第一段程序的循环的每一次操作都需要Python解释器来执行而第二段的函数调用是一次调用编译好的原生代码所以才会那么快。如果你这么想不妨试试直接用C语言实现一下1000个元素的数组里面的每个数加1。你会发现即使是C语言编译出来的代码还是远远低于NumPy。原因就是NumPy直接用到了SIMD指令能够并行进行向量的操作。
而前面使用循环来一步一步计算的算法呢,一般被称为**SISD**,也就是**单指令单数据**Single Instruction Single Data的处理方式。如果你手头的是一个多核CPU呢那么它同时处理多个指令的方式可以叫作**MIMD**,也就是**多指令多数据**Multiple Instruction Multiple Dataa
为什么SIMD指令能快那么多呢这是因为SIMD在获取数据和执行指令的时候都做到了并行。一方面在从内存里面读取数据的时候SIMD是一次性读取多个数据。
就以我们上面的程序为例数组里面的每一项都是一个integer也就是需要 4 Bytes的内存空间。Intel在引入SSE指令集的时候在CPU里面添上了8个 128 Bits的寄存器。128 Bits也就是 16 Bytes ,也就是说,一个寄存器一次性可以加载 4 个整数。比起循环分别读取4次对应的数据时间就省下来了。
![](https://static001.geekbang.org/resource/image/48/a6/48ddcd5ac345091c1be5963d5ef7d7a6.jpeg)
在数据读取到了之后在指令的执行层面SIMD也是可以并行进行的。4个整数各自加1互相之前完全没有依赖也就没有冒险问题需要处理。只要CPU里有足够多的功能单元能够同时进行这些计算这个加法就是4路同时并行的自然也省下了时间。
所以对于那些在计算层面存在大量“数据并行”Data Parallelism的计算中使用SIMD是一个很划算的办法。在这个大量的“数据并行”其实通常就是实践当中的向量运算或者矩阵运算。在实际的程序开发过程中过去通常是在进行图片、视频、音频的处理。最近几年则通常是在进行各种机器学习算法的计算。
而基于SIMD的向量计算指令也正是在Intel发布Pentium处理器的时候被引入的指令集。当时的指令集叫作**MMX**也就是Matrix Math eXtensions的缩写中文名字就是**矩阵数学扩展**。而Pentium处理器也是CPU第一次有能力进行多媒体处理。这也正是拜SIMD和MMX所赐。
从Pentium时代开始我们能在电脑上听MP3、看VCD了而不用专门去买一块“声霸卡”或者“显霸卡”了。没错在那之前在电脑上看VCD是需要专门买能够解码VCD的硬件插到电脑上去的。而到了今天通过GPU快速发展起来的深度学习技术也一样受益于SIMD这样的指令级并行方案在后面讲解GPU的时候我们还会遇到它。
## 总结延伸
这一讲我们讲完了超线程和SIMD这两个CPU的“并行计算”方案。超线程其实是一个“线程级并行”的解决方案。它通过让一个物理CPU核心“装作”两个逻辑层面的CPU核心使得CPU可以同时运行两个不同线程的指令。虽然这样的运行仍然有着种种的限制很多场景下超线程并不一定能带来CPU的性能提升。但是Intel通过超线程让使用者有了“占到便宜”的感觉。同样的4核心的CPU在有些情况下能够发挥出8核心CPU的作用。而超线程在今天也已经成为Intel CPU的标配了。
而SIMD技术则是一种“指令级并行”的加速方案或者我们可以说它是一种“数据并行”的加速方案。在处理向量计算的情况下同一个向量的不同维度之间的计算是相互独立的。而我们的CPU里的寄存器又能放得下多条数据。于是我们可以一次性取出多条数据交给CPU并行计算。
正是SIMD技术的出现使得我们在Pentium时代的个人PC开始有了多媒体运算的能力。可以说Intel的MMX、SSE指令集和微软的Windows 95这样的图形界面操作系统推动了PC快速进入家庭的历史进程。
## 推荐阅读
如果你想看一看Intel CPU里面的SIMD指令具体长什么样可以去读一读《计算机组成与设计硬件/软件接口》的3.7章节。
## 课后思考
最后,给你留一道思考题。超线程这样的技术,在什么样的应用场景下最高效?你在自己开发系统的过程中,是否遇到超线程技术为程序带来性能提升的情况呢?
欢迎留言和我分享你的疑惑和见解。你也可以把今天的内容,分享给你的朋友,和他一起学习和进步。