gitbook/Tony Bai · Go语言第一课/docs/483380.md

641 lines
34 KiB
Markdown
Raw Permalink Normal View History

2022-09-03 22:05:03 +08:00
# 38成果优化怎么实现一个TCP服务器
你好我是Tony Bai。
在上一讲中我们初步实现了一个基于TCP的自定义应用层协议的通信服务端。对于一个常驻内存的服务端而言更高的性能以及更低的资源消耗始终是后端开发人员的追求。同时更高性能的服务程序也意味着在处理相同数量访问请求的前提下我们使用的机器数量更少这可是为公司节省真金白银的有效策略。
而且Go语言最初设计时就被定位为“系统级编程语言”这说明高性能也一直是Go核心团队的目标之一。很多来自动态类型语言的开发者转到Go语言几乎都有着性能方面的考量。
所以在实战篇的最后一讲我们就结合上一讲实现的自定义应用层协议的通信服务端看看优化Go程序使用的常用工具与套路给你引引路。
## Go程序优化的基本套路
Go程序的优化也有着固定的套路可循这里我将它整理成了这张示意图
![](https://static001.geekbang.org/resource/image/76/ce/767f360c71dece48b9c68dc46053yyce.jpg?wh=1980x1080)
这张图也不难理解,我简单解释一下。
**首先我们要建立性能基准。**要想对程序实施优化,我们首先要有一个初始“参照物”,这样我们才能在执行优化措施后,检验优化措施是否有效,所以这是优化循环的第一步。
**第二步是性能剖析。**要想优化程序,我们首先要找到可能影响程序性能的“瓶颈点”,这一步的任务,就是通过各种工具和方法找到这些“瓶颈点”。
**第三步是代码优化。**我们要针对上一步找到的“瓶颈点”进行分析,找出它们成为瓶颈的原因,并有针对性地实施优化。
**第四步是与基准比较,确定优化效果。**这一步,我们会采集优化后的程序的性能数据,与第一步的性能基准进行比较,看执行上述的优化措施后,是否提升了程序的性能。
如果有提升,那就说明这一轮的优化是有效的。如果优化后的性能指标仍然没有达到预期,可以再执行一轮优化,这时我们就要用新的程序的性能指标作为新的性能基准,作为下一轮性能优化参考。
接下来我们就围绕这个优化循环,看看怎么对我们上一讲实现的自定义应用层协议的通信服务端进行优化。首先我们要做的是**建立性能基准**这是Go应用性能优化的基础与前提。
## 建立性能基准
上一讲,我们已经初步实现了自定义应用层协议的通信服务端,那它的性能如何呢?
我们肯定不能拍脑门说这个程序性能很好、一般或很差吧?我们需要**用数据说话**也就是为我们的Go程序建立性能基准。通过这个性能基准我们不仅可以了解当前程序的性能水平也可以据此判断后面的代码优化措施有没有起到效果。
建立性能基准的方式大概有两种,一种是通过**编写Go原生提供的性能基准测试benchmark test用例**来实现这相当于对程序的局部热点建立性能基准常用于一些算法或数据结构的实现比如分布式全局唯一ID生成算法、树的插入/查找等。
另外一种是**基于度量指标为程序建立起图形化的性能基准**,这种方式适合针对程序的整体建立性能基准。而我们的自定义协议服务端程序就十分适合用这种方式,接下来我们就来看一下基于度量指标建立基准的一种可行方案。
### 建立观测设施
这些年基于Web的可视化工具、开源监控系统以及时序数据库的兴起给我们建立性能基准带来了很大的便利业界有比较多成熟的工具组合可以直接使用。但业界最常用的还是Prometheus+Grafana的组合这也是我日常使用比较多的组合所以在这里我也使用这个工具组合来为我们的程序建立性能指标观测设施。
以Docker为代表的轻量级容器container的兴起让这些工具的部署、安装都变得十分简单这里我们就使用docker-compose工具基于容器安装Prometheus+Grafana的组合。
我建议你使用一台Linux主机来安装这些工具因为docker以及docker-compose工具在Linux平台上的表现最为成熟稳定。我这里不再详细说明docker与docker-compose工具的安装方法了你可以参考[docker安装教程](https://docs.docker.com/get-docker/)以及[docker-compose安装教程](https://docs.docker.com/compose/install/)自行在Linux上安装这两个工具。
这里我简单描述一下安装Prometheus+Grafana的组合的步骤。
首先我们要在Linux主机上建立一个目录monitor这个目录下我们创建docker-compose.yml文件它的内容是这样的
```plain
version: "3.2"
services:
prometheus:
container_name: prometheus
image: prom/prometheus:latest
network_mode: "host"
volumes:
- ./conf/tcp-server-prometheus.yml:/etc/prometheus/prometheus.yml
- /etc/localtime:/etc/localtime
restart: on-failure
grafana:
container_name: grafana
image: grafana/grafana:latest
network_mode: "host"
restart: on-failure
volumes:
- /etc/localtime:/etc/localtime
- ./data/grafana:/var/lib/grafana
# linux node_exporter
node_exporter:
image: quay.io/prometheus/node-exporter:latest
restart: always
container_name: node_exporter
command:
- '--path.rootfs=/host'
network_mode: host
pid: host
volumes:
- '/:/host:ro,rslave'
```
docker-compose.yml是docker-compose工具的配置文件基于这个配置文件docker-compose工具会拉取对应容器镜像文件并在本地启动对应的容器。
我们这个docker-compose.yml文件中包含了三个工具镜像分别是Prometheus、Grafana与node-exporter。其中node-exporter是prometheus开源的主机度量数据的采集工具通过node exporter我们可以采集到主机的CPU、内存、磁盘、网络I/O等主机运行状态数据。结合这些数据我们可以查看我们的应用在运行时的系统资源占用情况。
docker-compose.yml中Prometheus容器挂载的tcp-server-prometheus.yml文件放在了monitor/conf下面它的内容是这样
```plain
global:
scrape_interval: 5s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
# Alertmanager configuration
alerting:
alertmanagers:
- static_configs:
- targets:
# - alertmanager:9093
# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
rule_files:
# - "first_rules.yml"
# - "second_rules.yml"
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: "prometheus"
# metrics_path defaults to '/metrics'
# scheme defaults to 'http'.
static_configs:
- targets: ["localhost:9090"]
- job_name: "tcp-server"
static_configs:
- targets: ["localhost:8889"]
- job_name: "node"
static_configs:
- targets: ["localhost:9100"]
```
我们看到在上面Prometheus的配置文件的scrpae\_configs下面配置了三个采集job分别用于采集Prometheus自身度量数据、我们的tcp server的度量数据以及node-exporter的度量数据。
grafana容器会挂载本地的data/grafana路径到容器中为了避免访问权限带来的问题我们在创建data/grafana目录后最好再为这个目录赋予足够的访问权限比如
```plain
$chmod -R 777 data
```
运行下面命令docker-compose就会自动拉取镜像并启动docker-compose.yml中的三个容器
```plain
$docker-compose -f docker-compose.yml up -d
```
等待一段时间后执行docker ps命令如果你能看到下面三个正在运行的容器就说明我们的安装就成功了
```plain
$docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
563d655cdf90 grafana/grafana:latest "/run.sh" 26 hours ago Up 26 hours grafana
65616d1b6d1a prom/prometheus:latest "/bin/prometheus --c…" 26 hours ago Up 26 hours prometheus
b29d3fef8572 quay.io/prometheus/node-exporter:latest "/bin/node_exporter …" 26 hours ago Up 26 hours node_exporter
```
为了更直观地了解到整个观测设施中各个工具之间的关系,我这里画了一幅示意图,对照着这幅图,你再来理解上面的配置与执行步骤会容易许多:
![](https://static001.geekbang.org/resource/image/2c/1d/2c1125e3629da1c12db3a29da523231d.jpg?wh=1366x526)
### 配置Grafana
一旦成功启动Prometheus便会启动各个采集job从tcp server以及node-exporter中拉取度量数据并存储在其时序数据库中这个时候我们需要对Grafana进行一些简单配置才能让这些数据以图形化的方式展现出来。
我们首先需要为Grafana配置一个新的数据源data source在数据源选择页面我们选择Prometheus就像下图这样
![图片](https://static001.geekbang.org/resource/image/83/1f/83a422e1cf39e47a9600dc222f384a1f.png?wh=1920x454)
选择后在Prometheus数据源配置页面配置这个数据源的HTTP URL就可以了。如果你点击“Save & test”按钮后提示成功那么数据源就配置好了。
接下来我们再添加一个node-exporter仪表板dashboard把从node-exporter拉取的度量数据以图形化方式展示出来。这个时候我们不需要手工一个一个设置仪表板上的panelGrafana官方有现成的node-exporter仪表板可用我们只需要在grafana的import页面中输入相应的dashboard ID就可以导入相关仪表板的设置
![图片](https://static001.geekbang.org/resource/image/e4/e8/e483fec0e2a3cfbc258cd92817d820e8.png?wh=1592x1178)
这里我们使用的是ID为1860的node-exporter仪表板导入成功后进入这个仪表板页面等待一段时间后我们就可以看到类似下面的可视化结果
![图片](https://static001.geekbang.org/resource/image/5a/5c/5a1583feb00585b93eebb0d9b7e8995c.png?wh=1920x1052)
好了到这里node-exporter的度量数据已经可以以图形化的形式呈现在我们面前了那么我们的自定义协议的服务端的数据又如何采集与呈现呢我们继续向下看。
### 在服务端埋入度量数据采集点
前面说了,我们要建立服务端的性能基准,那么哪些度量数据能反映出服务端的性能指标呢?这里我们定义三个度量数据项:
* 当前已连接的客户端数量client\_connected
* 每秒接收消息请求的数量req\_recv\_rate
* 每秒发送消息响应的数量rsp\_send\_rate
那么如何在服务端的代码中埋入这三个度量数据项呢?
我们将上一讲的tcp-server-demo1项目拷贝一份形成tcp-server-demo2项目我们要在tcp-server-demo2项目中实现这三个度量数据项的采集。
我们在tcp-server-demo2下创建新的metrics包负责定义度量数据项metrics包的源码如下
```plain
// tcp-server-demo2/metrics/metrics.go
package metrics
import (
"fmt"
"net/http"
"github.com/prometheus/client_golang/prometheus"
"github.com/prometheus/client_golang/prometheus/promhttp"
)
var (
ClientConnected prometheus.Gauge
ReqRecvTotal prometheus.Counter
RspSendTotal prometheus.Counter
)
func init() {
ReqRecvTotal = prometheus.NewCounter(prometheus.CounterOpts{
Name: "tcp_server_demo2_req_recv_total",
})
RspSendTotal = prometheus.NewCounter(prometheus.CounterOpts{
Name: "tcp_server_demo2_rsp_send_total",
})
ClientConnected = prometheus.NewGauge(prometheus.GaugeOpts{
Name: "tcp_server_demo2_client_connected",
})
prometheus.MustRegister(ReqRecvTotal, RspSendTotal, ClientConnected)
// start the metrics server
metricsServer := &http.Server{
Addr: fmt.Sprintf(":%d", metricsHTTPPort),
}
mu := http.NewServeMux()
mu.Handle("/metrics", promhttp.Handler())
metricsServer.Handler = mu
go func() {
err := metricsServer.ListenAndServe()
if err != nil {
fmt.Println("prometheus-exporter http server start failed:", err)
}
}()
fmt.Println("metrics server start ok(*:8889)")
}
```
在这段代码中我们使用prometheus提供的go client包中的类型定义了三个度量数据项。其中ClientConnected的类型为prometheus.GaugeGauge是对一个数值的即时测量值它反映一个值的瞬时快照而ReqRecvTotal和RspSendTotal的类型都为prometheus.Counter。
Counter顾名思义就是一个计数器可以累加也可以减少。不过要想反映我们预期的每秒处理能力的指标我们还需要将这两个计数器与rate函数一起使用才行这个我们稍后再说。
我们在metrics包的init函数中启动了一个http server这个server监听8889端口还记得我们前面prometheus配置文件中tcp-server job采集的目标地址吗正是这个8889端口。也就是说Prometheus定期从8889端口拉取我们的度量数据项的值。
有了metrics包以及度量数据项后我们还需要将度量数据项埋到服务端的处理流程中我们来看对main包的改造
```plain
// tcp-server-demo2/cmd/server/main.go
func handleConn(c net.Conn) {
metrics.ClientConnected.Inc() // 连接建立ClientConnected加1
defer func() {
metrics.ClientConnected.Dec() // 连接断开ClientConnected减1
c.Close()
}()
frameCodec := frame.NewMyFrameCodec()
for {
// read from the connection
// decode the frame to get the payload
// the payload is undecoded packet
framePayload, err := frameCodec.Decode(c)
if err != nil {
fmt.Println("handleConn: frame decode error:", err)
return
}
metrics.ReqRecvTotal.Add(1) // 收到并解码一个消息请求ReqRecvTotal消息计数器加1
// do something with the packet
ackFramePayload, err := handlePacket(framePayload)
if err != nil {
fmt.Println("handleConn: handle packet error:", err)
return
}
// write ack frame to the connection
err = frameCodec.Encode(c, ackFramePayload)
if err != nil {
fmt.Println("handleConn: frame encode error:", err)
return
}
metrics.RspSendTotal.Add(1) // 返回响应后RspSendTotal消息计数器减1
}
}
```
你可以看到我们在每个连接的处理主函数handleConn中都埋入了各个度量数据项并在特定事件发生时修改度量数据的值。
服务端建立完度量数据项后我们还需要在Grafana中建立对应的仪表板来展示这些度量数据项这一次我们就需要手动创建仪表板tcp-server-demo并为仪表板手动添加panel了。
我们建立三个panelreq\_recv\_rate、rsp\_send\_rate和client\_connected如下图所示
![图片](https://static001.geekbang.org/resource/image/f1/25/f1e4bfd33a9499e82b00221ace8abc25.png?wh=1920x902)
client\_connected panel比较简单我们直接取tcp\_server\_demo2\_client\_connected这个注册到prometheus中的度量项的值就可以了。
而req\_recv\_rate和rsp\_send\_rate就要结合度量项的值与[rate函数](https://prometheus.io/docs/prometheus/latest/querying/functions/#rate)来实现。以req\_recv\_rate这个panel为例它的panel配置是这样
![图片](https://static001.geekbang.org/resource/image/02/0f/02736fe21512ab8ac983caaa73cc550f.png?wh=1920x1437)
我们看到图中的Metrics Browser后面的表达式是`rate(tcp_server_demo2_req_recv_total[15s])`这个表达式返回的是在15秒内测得的req\_recv\_total的每秒速率这恰恰是可以反映我们的服务端处理性能的指标。
好了到这里支持输出度量数据指标的服务端以及对应的grafana仪表板都准备好了。下面我们就来为服务端建立第一版的性能基准。
### 第一版性能基准
要建立性能基准我们还需要一个可以对服务端程序“施加压力”的客户端模拟器我们可以基于tcp-server-demo1/cmd/client实现这个模拟器。
新版模拟器的原理与tcp-server-demo1/cmd/client基本一致所以具体的改造过程我这里就不多说了新版模拟器的代码我放在了tcp-server-demo2/cmd/client下面你可以自行查看源码。
建立以及使用性能基准的前提,是**服务端的压测的硬件条件要尽量保持一致**以保证得到的结果受外界干扰较少性能基准才更有参考意义。我们在一个4核8G的Centos Linux主机上跑这个压力测试后续的压测也是在同样的条件下。
压测的步骤很简单首先在tcp-server-demo2下构建出server与client两个可执行程序。然后先启动server再启动client。运行几分钟后停掉程序就可以了这时我们在grafana的tcp-server的仪表板中就能看到类似下面的图形化数据展示了
![图片](https://static001.geekbang.org/resource/image/32/71/32596cd6cfe641330300bfe492f44771.png?wh=1920x929)
从这张图中我们大约看到服务端的处理性能大约在18.5w/秒左右,我们就将这个结果作为服务端的第一个性能基准。
## 尝试用pprof剖析
按照这一讲开头的Go应用性能优化循环的思路我们接下来就应该尝试对我们的服务端做性能剖析识别出瓶颈点。
Go是“自带电池”battery included的语言拥有着让其他主流语言羡慕的工具链Go同样也内置了对Go代码进行性能剖析的工具**pprof**。
pprof源自[Google Perf Tools工具套件](https://github.com/gperftools/gperftools)在Go发布早期就被集成到Go工具链中了所以pprof也是Gopher最常用的、对Go应用进行性能剖析的工具。这里我们也使用这一工具对我们的服务端程序进行剖析。
Go应用支持pprof性能剖析的方式有多种最受Gopher青睐的是通过导入`net/http/pprof`包的方式。我们改造一下tcp-server-demo2让它通过这种方式支持pprof性能剖析。
改造后的代码放在tcp-server-demo2-with-pprof目录下下面是支持pprof的main包的代码节选
```plain
// tcp-server-demo2-with-pprof/cmd/server/main.go
import (
... ...
"net/http"
_ "net/http/pprof"
... ...
)
... ...
func main() {
go func() {
http.ListenAndServe(":6060", nil)
}()
... ...
}
```
从这个代码变更可以看到我们只需要以空导入的方式导入net/http/pprof包并在一个单独的goroutine中启动一个标准的http服务就可以实现对pprof性能剖析的支持。pprof工具可以通过6060端口采样到我们的Go程序的运行时数据。
接下来我们就来进行性能剖析数据的采集。我们编译tcp-server-demo2-with-pprof目录下的server与client先后启动server与client让client对server保持持续的压力。
然后我们在自己的开发机上执行下面命令:
```plain
// 192.168.10.18为服务端的主机地址
$go tool pprof -http=:9090 http://192.168.10.18:6060/debug/pprof/profile
Fetching profile over HTTP from http://192.168.10.18:6060/debug/pprof/profile
Saved profile in /Users/tonybai/pprof/pprof.server.samples.cpu.004.pb.gz
Serving web UI on http://localhost:9090
```
go tool pprof命令默认会从http://192.168.10.18:6060/debug/pprof/profile服务上采集CPU类型的性能剖析数据然后打开本地浏览器默认显示如下页面
![图片](https://static001.geekbang.org/resource/image/0d/a8/0d5160c2cfc8dfc620d6a5290c077ea8.png?wh=1920x1179)
debug/pprof/profile提供的是CPU的性能采样数据。CPU类型采样数据是性能剖析中最常见的采样数据类型。
一旦启用CPU数据采样Go运行时会每隔一段短暂的时间10ms就中断一次由SIGPROF信号引发并记录当前所有goroutine的函数栈信息。它能帮助我们识别出代码关键路径上出现次数最多的函数而往往这个函数就是程序的一个瓶颈。上图我们沿着粗红线向下看我们会看到下面图中的信息
![图片](https://static001.geekbang.org/resource/image/b4/01/b47ffd738615a08595208a4e1afefa01.png?wh=1700x1634)
我们看到图中间的Syscall函数占据了一个最大的方框并用黑体标记了出来这就是我们程序的第一个瓶颈**花费太多时间在系统调用上了**。在向上寻找我们发现Syscall的调用者基本都是网络read和write导致的。
## 代码优化
好了,第一个瓶颈点已经找到!我们该进入优化循环的第三个环节:代码优化了。那么该如何优化代码呢?我们可以分为两个部分来看。
### 带缓存的网络I/O
为什么网络read和write导致的Syscall会那么多呢我们回顾一下第一版服务端的实现。
我们看到在handleConn函数中我们直接将net.Conn实例传给frame.Decode作为io.Reader参数的实参这样我们每次调用Read方法都是直接从net.Conn中读取数据而Read将转变为一次系统调用Syscall哪怕是仅仅读取一个字节也是如此。因此我们的优化目标是**降低net.Conn的Write和Read的频率**。
那么如何降低net.Conn的读写频率呢增加缓存不失为一个有效的方法。而且我们的服务端采用的是一个goroutine处理一个客户端连接的方式由于没有竞态这个模型更适合在读写net.Conn时使用带缓存的方式。
所以下面我们就来为tcp-server-demo2增加net.Conn的缓存读与缓存写。优化后的代码我放在了tcp-server-demo3下
```plain
// tcp-server-demo3/cmd/server/main.go
func handleConn(c net.Conn) {
metrics.ClientConnected.Inc()
defer func() {
metrics.ClientConnected.Dec()
c.Close()
}()
frameCodec := frame.NewMyFrameCodec()
rbuf := bufio.NewReader(c)
wbuf := bufio.NewWriter(c)
defer wbuf.Flush()
for {
// read from the connection
// decode the frame to get the payload
// the payload is undecoded packet
framePayload, err := frameCodec.Decode(rbuf)
if err != nil {
fmt.Println("handleConn: frame decode error:", err)
return
}
metrics.ReqRecvTotal.Add(1)
// do something with the packet
ackFramePayload, err := handlePacket(framePayload)
if err != nil {
fmt.Println("handleConn: handle packet error:", err)
return
}
// write ack frame to the connection
err = frameCodec.Encode(wbuf, ackFramePayload)
if err != nil {
fmt.Println("handleConn: frame encode error:", err)
return
}
metrics.RspSendTotal.Add(1)
}
}
```
tcp-server-demo3唯一的改动就是main包中的handleConn函数。在这个函数中我们新增了一个读缓存变量rbuf和一个写缓存变量wbuf我们用这两个变量替换掉传给frameCodec.Decode和frameCodec.Encode的net.Conn参数。
以rbuf为例我们来看看它是如何起到降低syscall调用频率的作用的。
将net.Conn改为rbuf后frameCodec.Decode中的每次网络读取实际调用的都是bufio.Reader的Read方法。bufio.Reader.Read方法内部每次从net.Conn尝试读取其内部缓存大小的数据而不是用户传入的希望读取的数据大小。这些数据缓存在内存中这样后续的Read就可以直接从内存中得到数据而不是每次都要从net.Conn读取从而降低Syscall调用的频率。
我们对优化后的tcp-server-demo3做一次压测看看它的处理性能到底有没有提升压测的步骤你可以参考前面的内容。压测后我们得到下面的结果
![图片](https://static001.geekbang.org/resource/image/5d/09/5dc6496e4ce66a55e22404679b5a1409.png?wh=1920x950)
从图中可以看到优化后的服务端的处理性能提升到27w/s左右相比于第一版性能基准(18.5w/s)性能提升了足有45%。
### 重用内存对象
前面这个带缓存的网络I/O是我们从CPU性能采样数据中找到的“瓶颈点”。不过在Go中还有另外一个十分重要的性能指标那就是堆内存对象的分配。
因为Go是带有垃圾回收GC的语言频繁的堆内存对象分配或分配较多都会给GC带去较大压力而GC的压力显然会转化为对CPU资源的消耗从而挤压处理正常业务逻辑的goroutine的CPU时间。
下面我们就来采集一下tcp-server-demo2-with-pprof目录下的server的内存分配采样数据看看有没有值得优化的点。
这次我们直接使用go tool pprof的命令行采集与交互模式。在启动server和client后我们手工执行下面命令进行内存分配采样数据的获取
```plain
$ go tool pprof http://192.168.10.18:6060/debug/pprof/allocs
Fetching profile over HTTP from http://192.168.10.18:6060/debug/pprof/allocs
Saved profile in /root/pprof/pprof.server.alloc_objects.alloc_space.inuse_objects.inuse_space.001.pb.gz
File: server
Type: alloc_space
Time: Jan 23, 2022 at 6:05pm (CST)
Entering interactive mode (type "help" for commands, "o" for options)
```
数据获取到后我们就可以使用go tool pprof提供的命令行交互指令来查看各个函数的堆内存对象的分配情况其中最常用的一个指令就是top执行top后我们得到如下结果
```plain
(pprof) top
Showing nodes accounting for 119.27MB, 97.93% of 121.79MB total
Dropped 31 nodes (cum <= 0.61MB)
Showing top 10 nodes out of 30
flat flat% sum% cum cum%
38MB 31.20% 31.20% 43.50MB 35.72% github.com/bigwhite/tcp-server-demo2/packet.Decode
28.50MB 23.40% 54.61% 28.50MB 23.40% github.com/bigwhite/tcp-server-demo2/frame.(*myFrameCodec).Decode
18MB 14.78% 69.39% 79MB 64.87% main.handlePacket
17.50MB 14.37% 83.76% 17.50MB 14.37% bytes.Join
9MB 7.39% 91.15% 9MB 7.39% encoding/binary.Write
5.50MB 4.52% 95.66% 5.50MB 4.52% github.com/bigwhite/tcp-server-demo2/packet.(*Submit).Decode (inline)
1.76MB 1.45% 97.11% 1.76MB 1.45% compress/flate.NewWriter
1MB 0.82% 97.93% 1MB 0.82% runtime.malg
0 0% 97.93% 1.76MB 1.45% bufio.(*Writer).Flush
0 0% 97.93% 1.76MB 1.45% compress/gzip.(*Writer).Write
```
top命令的输出结果默认按`flat(flat%)`列从大到小的顺序输出。`flat`列的值在不同采样类型下表示的含义略有不同。
在CPU类型采样数据下它表示函数自身代码在数据采样过程的执行时长在上面的堆内存分配类型采样数据下它表示在采用过程中某个函数中堆内存分配大小的和。而`flat%`列的值表示这个函数堆内存分配大小占堆内存总分配大小的比例。
从上面的输出结果来看packet.Decode函数排在第一位。那么现在我们就来深入探究一下Decode函数中究竟哪一行代码分配的堆内存量最大。我们使用list命令可以进一步进入Decode函数的源码中查看
```plain
(pprof) list packet.Decode
Total: 121.79MB
ROUTINE ======================== github.com/bigwhite/tcp-server-demo2/packet.Decode in /root/baim/tcp-server-demo2-with-pprof/packet/packet.go
38MB 43.50MB (flat, cum) 35.72% of Total
. . 75: case CommandConn:
. . 76: return nil, nil
. . 77: case CommandConnAck:
. . 78: return nil, nil
. . 79: case CommandSubmit:
38MB 38MB 80: s := Submit{}
. 5.50MB 81: err := s.Decode(pktBody)
. . 82: if err != nil {
. . 83: return nil, err
. . 84: }
. . 85: return &s, nil
. . 86: case CommandSubmitAck:
(pprof)
```
我们看到,`s := Submit{}`这一行是分配内存的“大户”每次服务端收到一个客户端submit请求时都会在堆上分配一块内存表示Submit类型的实例。
这个在程序关键路径上的堆内存对象分配会给GC带去压力我们要尽量避免或减小它的分配频度一个可行的办法是尽量重用对象。
在Go中一提到重用内存对象我们就会想到了**sync.Pool**。简单来说sync.Pool就是官方实现的一个可复用的内存对象池使用sync.Pool我们可以减少堆对象分配的频度进而降低给GC带去的压力。
我们继续在tcp-server-demo3的基础上使用sync.Pool进行堆内存对象分配的优化新版的代码放在了tcp-server-demo3-with-syncpool中。
新版代码相对于tcp-server-demo3有两处改动第一处是在packet.go中我们创建了一个SubmitPool变量它的类型为sync.Pool这就是我们的内存对象池池中的对象都是Submit。这样我们在packet.Decode中收到Submit类型请求时也不需要新分配一个Submit对象而是直接从SubmitPool代表的Pool池中取出一个复用。这些代码变更如下
```plain
// tcp-server-demo3-with-syncpool/packet/packet.go
var SubmitPool = sync.Pool{
New: func() interface{} {
return &Submit{}
},
}
func Decode(packet []byte) (Packet, error) {
commandID := packet[0]
pktBody := packet[1:]
switch commandID {
case CommandConn:
return nil, nil
case CommandConnAck:
return nil, nil
case CommandSubmit:
s := SubmitPool.Get().(*Submit) // 从SubmitPool池中获取一个Submit内存对象
err := s.Decode(pktBody)
if err != nil {
return nil, err
}
return s, nil
case CommandSubmitAck:
s := SubmitAck{}
err := s.Decode(pktBody)
if err != nil {
return nil, err
}
return &s, nil
default:
return nil, fmt.Errorf("unknown commandID [%d]", commandID)
}
}
```
第二处变更是在Submit对象用完后归还回Pool池最理想的“归还地点”是在main包的handlePacket函数中这里处理完Submit消息后Submit对象就没有什么用了于是我们在这里将其归还给Pool池代码如下
```plain
// tcp-server-demo3-with-syncpool/cmd/server/main.go
func handlePacket(framePayload []byte) (ackFramePayload []byte, err error) {
var p packet.Packet
p, err = packet.Decode(framePayload)
if err != nil {
fmt.Println("handleConn: packet decode error:", err)
return
}
switch p.(type) {
case *packet.Submit:
submit := p.(*packet.Submit)
submitAck := &packet.SubmitAck{
ID: submit.ID,
Result: 0,
}
packet.SubmitPool.Put(submit) // 将submit对象归还给Pool池
ackFramePayload, err = packet.Encode(submitAck)
if err != nil {
fmt.Println("handleConn: packet encode error:", err)
return nil, err
}
return ackFramePayload, nil
default:
return nil, fmt.Errorf("unknown packet type")
}
}
```
改完这两处后,我们的内存分配优化就完成了。
和前面一样我们构建一下tcp-server-demo3-with-syncpool目录下的服务端并使用客户端对其进行一次压测压测几分钟后我们就能看到如下的结果
![图片](https://static001.geekbang.org/resource/image/35/5b/35de98199d21418f3f2182a67a2a8a5b.png?wh=1920x936)
从采集的性能指标来看优化后的服务端的处理能力平均可以达到29.2w/s这相比于上一次优化后的27w/s又小幅提升了8%左右。
到这里,按照我们在这一讲开头处所讲的性能优化循环,我们已经完成了一轮优化了,并且取得了不错的效果,现在可以将最新的性能指标作为新一版的性能基准了。
至于是否要继续新一轮的优化,这就要看当前的性能是否能满足你的要求了。如果满足,就不需再进行新的优化,否则你还需要继续一轮或几轮优化活动,直到性能满足你的要求。
## 小结
好了,今天的课讲到这里就结束了,现在我们一起来回顾一下吧。
在这一讲中我们重点讲解了如何针对上一讲实现的第一版服务端进行优化。我们给出了Go程序优化的四步循环方法这四步依次是建立性能基准、性能剖析、代码优化和与性能基准比较确定优化效果。如果经过一轮优化Go应用的性能仍然无法达到你的要求那么还可以按这个循环进行多轮优化。
建立性能基准是整个优化过程的前提基准提供了性能优化的起点与参照物。而建立性能基准的前提又是建立观测设施。观测设施的建立方法有很多这里我们基于Prometheus+Grafana的组合实现了一个可视化的观测平台。基于这个平台我们为第一版服务端实现建立了性能基准。
另外剖析Go应用性能有很多工具而Gopher的最爱依然是Go原生提供的pprof我们可以以图形化的形式或命令行的方式收集和展示获取到的采样数据。针对我们的服务端程序我们进行了带缓冲的网络I/O以及重用内存对象的优化取得了很不错的效果。
## 思考题
这一讲中,虽然我们对第一版服务端实现实施了两个有效的优化,但这个程序依然有可优化的点,你不妨找找,看看还能在哪些点上小幅提升服务端的性能。
欢迎你把这节课分享给感兴趣的朋友。我是Tony Bai我们下节课见。
[项目源代码在这里!](https://github.com/bigwhite/publication/tree/master/column/timegeek/go-first-course/38)