You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

350 lines
18 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 29 | PV、PVC体系是不是多此一举从本地持久化卷谈起
你好我是张磊。今天我和你分享的主题是PV、PVC体系是不是多此一举从本地持久化卷谈起。
在上一篇文章中我为你详细讲解了PV、PVC持久化存储体系在Kubernetes项目中的设计和实现原理。而在文章最后的思考题中我为你留下了这样一个讨论话题像PV、PVC这样的用法是不是有“过度设计”的嫌疑
比如我们公司的运维人员可以像往常一样维护一套NFS或者Ceph服务器根本不必学习Kubernetes。而开发人员则完全可以靠“复制粘贴”的方式在Pod的YAML文件里填上Volumes字段而不需要去使用PV和PVC。
实际上如果只是为了职责划分PV、PVC体系确实不见得比直接在Pod里声明Volumes字段有什么优势。
不过,你有没有想过这样一个问题,如果[Kubernetes内置的20种持久化数据卷实现](https://kubernetes.io/docs/concepts/storage/persistent-volumes/#types-of-persistent-volumes),都没办法满足你的容器存储需求时,该怎么办?
这个情况乍一听起来有点不可思议。但实际上,凡是鼓捣过开源项目的读者应该都有所体会,“不能用”“不好用”“需要定制开发”,这才是落地开源基础设施项目的三大常态。
而在持久化存储领域,用户呼声最高的定制化需求,莫过于支持“本地”持久化存储了。
也就是说用户希望Kubernetes能够直接使用宿主机上的本地磁盘目录而不依赖于远程存储服务来提供“持久化”的容器Volume。
这样做的好处很明显由于这个Volume直接使用的是本地磁盘尤其是SSD盘它的读写性能相比于大多数远程存储来说要好得多。这个需求对本地物理服务器部署的私有Kubernetes集群来说非常常见。
所以Kubernetes在v1.10之后就逐渐依靠PV、PVC体系实现了这个特性。这个特性的名字叫作Local Persistent Volume。
不过,首先需要明确的是,**Local Persistent Volume并不适用于所有应用**。事实上它的适用范围非常固定比如高优先级的系统应用需要在多个不同节点上存储数据并且对I/O较为敏感。典型的应用包括分布式数据存储比如MongoDB、Cassandra等分布式文件系统比如GlusterFS、Ceph等以及需要在本地磁盘上进行大量数据缓存的分布式应用。
其次相比于正常的PV一旦这些节点宕机且不能恢复时Local Persistent Volume的数据就可能丢失。这就要求**使用Local Persistent Volume的应用必须具备数据备份和恢复的能力**,允许你把这些数据定时备份在其他位置。
接下来,我就为你深入讲解一下这个特性。
不难想象Local Persistent Volume的设计主要面临两个难点。
**第一个难点在于**如何把本地磁盘抽象成PV。
可能你会说Local Persistent Volume不就等同于hostPath加NodeAffinity吗
比如一个Pod可以声明使用类型为Local的PV而这个PV其实就是一个hostPath类型的Volume。如果这个hostPath对应的目录已经在节点A上被事先创建好了。那么我只需要再给这个Pod加上一个nodeAffinity=nodeA不就可以使用这个Volume了吗
事实上,**你绝不应该把一个宿主机上的目录当作PV使用**。这是因为这种本地目录的存储行为完全不可控它所在的磁盘随时都可能被应用写满甚至造成整个宿主机宕机。而且不同的本地目录之间也缺乏哪怕最基础的I/O隔离机制。
所以一个Local Persistent Volume对应的存储介质一定是一块额外挂载在宿主机的磁盘或者块设备“额外”的意思是它不应该是宿主机根目录所使用的主硬盘。这个原则我们可以称为“**一个PV一块盘**”。
**第二个难点在于**调度器如何保证Pod始终能被正确地调度到它所请求的Local Persistent Volume所在的节点上呢
造成这个问题的原因在于对于常规的PV来说Kubernetes都是先调度Pod到某个节点上然后再通过“两阶段处理”来“持久化”这台机器上的Volume目录进而完成Volume目录与容器的绑定挂载。
可是对于Local PV来说节点上可供使用的磁盘或者块设备必须是运维人员提前准备好的。它们在不同节点上的挂载情况可以完全不同甚至有的节点可以没这种磁盘。
所以这时候调度器就必须能够知道所有节点与Local Persistent Volume对应的磁盘的关联关系然后根据这个信息来调度Pod。
这个原则,我们可以称为“**在调度的时候考虑Volume分布**”。在Kubernetes的调度器里有一个叫作VolumeBindingChecker的过滤条件专门负责这个事情。在Kubernetes v1.11中,这个过滤条件已经默认开启了。
基于上述讲述在开始使用Local Persistent Volume之前你首先需要在集群里配置好磁盘或者块设备。在公有云上这个操作等同于给虚拟机额外挂载一个磁盘比如GCE的Local SSD类型的磁盘就是一个典型例子。
而在我们部署的私有环境中,你有两种办法来完成这个步骤。
* 第一种,当然就是给你的宿主机挂载并格式化一个可用的本地磁盘,这也是最常规的操作;
* 第二种对于实验环境你其实可以在宿主机上挂载几个RAM Disk内存盘来模拟本地磁盘。
接下来我会使用第二种方法在我们之前部署的Kubernetes集群上进行实践。
**首先**在名叫node-1的宿主机上创建一个挂载点比如/mnt/disks**然后**用几个RAM Disk来模拟本地磁盘如下所示
```
# 在node-1上执行
$ mkdir /mnt/disks
$ for vol in vol1 vol2 vol3; do
mkdir /mnt/disks/$vol
mount -t tmpfs $vol /mnt/disks/$vol
done
```
需要注意的是如果你希望其他节点也能支持Local Persistent Volume的话那就需要为它们也执行上述操作并且确保这些磁盘的名字vol1、vol2等都不重复。
接下来我们就可以为这些本地磁盘定义对应的PV了如下所示
```
apiVersion: v1
kind: PersistentVolume
metadata:
name: example-pv
spec:
capacity:
storage: 5Gi
volumeMode: Filesystem
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Delete
storageClassName: local-storage
local:
path: /mnt/disks/vol1
nodeAffinity:
required:
nodeSelectorTerms:
- matchExpressions:
- key: kubernetes.io/hostname
operator: In
values:
- node-1
```
可以看到这个PV的定义里local字段指定了它是一个Local Persistent Volume而path字段指定的正是这个PV对应的本地磁盘的路径/mnt/disks/vol1。
当然了这也就意味着如果Pod要想使用这个PV那它就必须运行在node-1上。所以在这个PV的定义里需要有一个nodeAffinity字段指定node-1这个节点的名字。这样调度器在调度Pod的时候就能够知道一个PV与节点的对应关系从而做出正确的选择。**这正是Kubernetes实现“在调度的时候就考虑Volume分布”的主要方法。**
**接下来**我们就可以使用kubect create来创建这个PV如下所示
```
$ kubectl create -f local-pv.yaml
persistentvolume/example-pv created
$ kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
example-pv 5Gi RWO Delete Available local-storage 16s
```
可以看到这个PV创建后进入了Available可用状态。
而正如我在上一篇文章里所建议的那样使用PV和PVC的最佳实践是你要创建一个StorageClass来描述这个PV如下所示
```
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
name: local-storage
provisioner: kubernetes.io/no-provisioner
volumeBindingMode: WaitForFirstConsumer
```
这个StorageClass的名字叫作local-storage。需要注意的是在它的provisioner字段我们指定的是no-provisioner。这是因为Local Persistent Volume目前尚不支持Dynamic Provisioning所以它没办法在用户创建PVC的时候就自动创建出对应的PV。也就是说我们前面创建PV的操作是不可以省略的。
与此同时这个StorageClass还定义了一个volumeBindingMode=WaitForFirstConsumer的属性。它是Local Persistent Volume里一个非常重要的特性**延迟绑定**。
我们知道当你提交了PV和PVC的YAML文件之后Kubernetes就会根据它们俩的属性以及它们指定的StorageClass来进行绑定。只有绑定成功后Pod才能通过声明这个PVC来使用对应的PV。
可是如果你使用的是Local Persistent Volume的话就会发现这个流程根本行不通。
比如现在你有一个Pod它声明使用的PVC叫作pvc-1。并且我们规定这个Pod只能运行在node-2上。
而在Kubernetes集群中有两个属性比如大小、读写权限相同的Local类型的PV。
其中第一个PV的名字叫作pv-1它对应的磁盘所在的节点是node-1。而第二个PV的名字叫作pv-2它对应的磁盘所在的节点是node-2。
假设现在Kubernetes的Volume控制循环里首先检查到了pvc-1和pv-1的属性是匹配的于是就将它们俩绑定在一起。
然后你用kubectl create创建了这个Pod。
这时候,问题就出现了。
调度器看到这个Pod所声明的pvc-1已经绑定了pv-1而pv-1所在的节点是node-1根据“调度器必须在调度的时候考虑Volume分布”的原则这个Pod自然会被调度到node-1上。
可是我们前面已经规定过这个Pod根本不允许运行在node-1上。所以。最后的结果就是这个Pod的调度必然会失败。
**这就是为什么在使用Local Persistent Volume的时候我们必须想办法推迟这个“绑定”操作。**
那么,具体推迟到什么时候呢?
**答案是:推迟到调度的时候。**
所以说StorageClass里的volumeBindingMode=WaitForFirstConsumer的含义就是告诉Kubernetes里的Volume控制循环“红娘”虽然你已经发现这个StorageClass关联的PVC与PV可以绑定在一起但请不要现在就执行绑定操作设置PVC的VolumeName字段
而要等到第一个声明使用该PVC的Pod出现在调度器之后调度器再综合考虑所有的调度规则当然也包括每个PV所在的节点位置来统一决定这个Pod声明的PVC到底应该跟哪个PV进行绑定。
这样在上面的例子里由于这个Pod不允许运行在pv-1所在的节点node-1所以它的PVC最后会跟pv-2绑定并且Pod也会被调度到node-2上。
所以通过这个延迟绑定机制原本实时发生的PVC和PV的绑定过程就被延迟到了Pod第一次调度的时候在调度器中进行从而保证了这个**绑定结果不会影响Pod的正常调度**。
当然在具体实现中调度器实际上维护了一个与Volume Controller类似的控制循环专门负责为那些声明了“延迟绑定”的PV和PVC进行绑定工作。
通过这样的设计这个额外的绑定操作并不会拖慢调度器的性能。而当一个Pod的PVC尚未完成绑定时调度器也不会等待而是会直接把这个Pod重新放回到待调度队列等到下一个调度周期再做处理。
在明白了这个机制之后我们就可以创建StorageClass了如下所示
```
$ kubectl create -f local-sc.yaml
storageclass.storage.k8s.io/local-storage created
```
接下来我们只需要定义一个非常普通的PVC就可以让Pod使用到上面定义好的Local Persistent Volume了如下所示
```
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: example-local-claim
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 5Gi
storageClassName: local-storage
```
可以看到这个PVC没有任何特别的地方。唯一需要注意的是它声明的storageClassName是local-storage。所以将来Kubernetes的Volume Controller看到这个PVC的时候不会为它进行绑定操作。
现在我们来创建这个PVC
```
$ kubectl create -f local-pvc.yaml
persistentvolumeclaim/example-local-claim created
$ kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
example-local-claim Pending local-storage 7s
```
可以看到尽管这个时候Kubernetes里已经存在了一个可以与PVC匹配的PV但这个PVC依然处于Pending状态也就是等待绑定的状态。
然后我们编写一个Pod来声明使用这个PVC如下所示
```
kind: Pod
apiVersion: v1
metadata:
name: example-pv-pod
spec:
volumes:
- name: example-pv-storage
persistentVolumeClaim:
claimName: example-local-claim
containers:
- name: example-pv-container
image: nginx
ports:
- containerPort: 80
name: "http-server"
volumeMounts:
- mountPath: "/usr/share/nginx/html"
name: example-pv-storage
```
这个Pod没有任何特别的地方你只需要注意它的volumes字段声明要使用前面定义的、名叫example-local-claim的PVC即可。
而我们一旦使用kubectl create创建这个Pod就会发现我们前面定义的PVC会立刻变成Bound状态与前面定义的PV绑定在了一起如下所示
```
$ kubectl create -f local-pod.yaml
pod/example-pv-pod created
$ kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
example-local-claim Bound example-pv 5Gi RWO local-storage 6h
```
也就是说在我们创建的Pod进入调度器之后“绑定”操作才开始进行。
这时候我们可以尝试在这个Pod的Volume目录里创建一个测试文件比如
```
$ kubectl exec -it example-pv-pod -- /bin/sh
# cd /usr/share/nginx/html
# touch test.txt
```
然后登录到node-1这台机器上查看一下它的 /mnt/disks/vol1目录下的内容你就可以看到刚刚创建的这个文件
```
# 在node-1上
$ ls /mnt/disks/vol1
test.txt
```
而如果你重新创建这个Pod的话就会发现我们之前创建的测试文件依然被保存在这个持久化Volume当中
```
$ kubectl delete -f local-pod.yaml
$ kubectl create -f local-pod.yaml
$ kubectl exec -it example-pv-pod -- /bin/sh
# ls /usr/share/nginx/html
# touch test.txt
```
这就说明像Kubernetes这样构建出来的、基于本地存储的Volume完全可以提供容器持久化存储的功能。所以像StatefulSet这样的有状态编排工具也完全可以通过声明Local类型的PV和PVC来管理应用的存储状态。
**需要注意的是我们上面手动创建PV的方式即Static的PV管理方式在删除PV时需要按如下流程执行操作**
1. 删除使用这个PV的Pod
2. 从宿主机移除本地磁盘比如umount它
3. 删除PVC
4. 删除PV。
如果不按照这个流程的话这个PV的删除就会失败。
当然由于上面这些创建PV和删除PV的操作比较繁琐Kubernetes其实提供了一个Static Provisioner来帮助你管理这些PV。
比如,我们现在的所有磁盘,都挂载在宿主机的/mnt/disks目录下。
那么当Static Provisioner启动后它就会通过DaemonSet自动检查每个宿主机的/mnt/disks目录。然后调用Kubernetes API为这些目录下面的每一个挂载创建一个对应的PV对象出来。这些自动创建的PV如下所示
```
$ kubectl get pv
NAME CAPACITY ACCESSMODES RECLAIMPOLICY STATUS CLAIM STORAGECLASS REASON AGE
local-pv-ce05be60 1024220Ki RWO Delete Available local-storage 26s
$ kubectl describe pv local-pv-ce05be60
Name: local-pv-ce05be60
...
StorageClass: local-storage
Status: Available
Claim:
Reclaim Policy: Delete
Access Modes: RWO
Capacity: 1024220Ki
NodeAffinity:
Required Terms:
Term 0: kubernetes.io/hostname in [node-1]
Message:
Source:
Type: LocalVolume (a persistent volume backed by local storage on a node)
Path: /mnt/disks/vol1
```
这个PV里的各种定义比如StorageClass的名字、本地磁盘挂载点的位置都可以通过provisioner的[配置文件指定](https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume/helm)。当然provisioner也会负责前面提到的PV的删除工作。
而这个provisioner本身其实也是一个我们前面提到过的[External Provisioner](https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume),它的部署方法,在[对应的文档里](https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume#option-1-using-the-local-volume-static-provisioner)有详细描述。这部分内容,就留给你课后自行探索了。
## 总结
在今天这篇文章中我为你详细介绍了Kubernetes里Local Persistent Volume的实现方式。
可以看到正是通过PV和PVC以及StorageClass这套存储体系这个后来新添加的持久化存储方案对Kubernetes已有用户的影响几乎可以忽略不计。作为用户你的Pod的YAML和PVC的YAML并没有任何特殊的改变这个特性所有的实现只会影响到PV的处理也就是由运维人员负责的那部分工作。
而这,正是这套存储体系带来的“解耦”的好处。
其实Kubernetes很多看起来比较“繁琐”的设计比如“声明式API”以及我今天讲解的“PV、PVC体系”的主要目的都是希望为开发者提供更多的“可扩展性”给使用者带来更多的“稳定性”和“安全感”。这两个能力的高低是衡量开源基础设施项目水平的重要标准。
## 思考题
正是由于需要使用“延迟绑定”这个特性Local Persistent Volume目前还不能支持Dynamic Provisioning。你是否能说出为什么“延迟绑定”会跟Dynamic Provisioning有冲突呢
感谢你的收听,欢迎你给我留言,也欢迎分享给更多的朋友一起阅读。