gitbook/深入剖析Kubernetes/docs/40466.md
2022-09-03 22:05:03 +08:00

26 KiB
Raw Permalink Blame History

15 | 深入解析Pod对象使用进阶

你好我是张磊。今天我和你分享的主题是深入解析Pod对象之使用进阶。

在上一篇文章中我深入解析了Pod的API对象讲解了Pod和Container的关系。

作为Kubernetes项目里最核心的编排对象Pod携带的信息非常丰富。其中资源定义比如CPU、内存等以及调度相关的字段我会在后面专门讲解调度器时再进行深入的分析。在本篇我们就先从一种特殊的Volume开始来帮助你更加深入地理解Pod对象各个重要字段的含义。

这种特殊的Volume叫作Projected Volume你可以把它翻译为“投射数据卷”。

备注Projected Volume是Kubernetes v1.11之后的新特性

这是什么意思呢?

在Kubernetes中有几种特殊的Volume它们存在的意义不是为了存放容器里的数据也不是用来进行容器和宿主机之间的数据交换。这些特殊Volume的作用是为容器提供预先定义好的数据。所以从容器的角度来看这些Volume里的信息就是仿佛是被Kubernetes“投射”Project进入容器当中的。这正是Projected Volume的含义。

到目前为止Kubernetes支持的Projected Volume一共有四种

  1. Secret

  2. ConfigMap

  3. Downward API

  4. ServiceAccountToken。

在今天这篇文章中我首先和你分享的是Secret。它的作用是帮你把Pod想要访问的加密数据存放到Etcd中。然后你就可以通过在Pod的容器里挂载Volume的方式访问到这些Secret里保存的信息了。

Secret最典型的使用场景莫过于存放数据库的Credential信息比如下面这个例子

apiVersion: v1
kind: Pod
metadata:
  name: test-projected-volume 
spec:
  containers:
  - name: test-secret-volume
    image: busybox
    args:
    - sleep
    - "86400"
    volumeMounts:
    - name: mysql-cred
      mountPath: "/projected-volume"
      readOnly: true
  volumes:
  - name: mysql-cred
    projected:
      sources:
      - secret:
          name: user
      - secret:
          name: pass

在这个Pod中我定义了一个简单的容器。它声明挂载的Volume并不是常见的emptyDir或者hostPath类型而是projected类型。而这个 Volume的数据来源sources则是名为user和pass的Secret对象分别对应的是数据库的用户名和密码。

这里用到的数据库的用户名、密码正是以Secret对象的方式交给Kubernetes保存的。完成这个操作的指令如下所示

$ cat ./username.txt
admin
$ cat ./password.txt
c1oudc0w!

$ kubectl create secret generic user --from-file=./username.txt
$ kubectl create secret generic pass --from-file=./password.txt

其中username.txt和password.txt文件里存放的就是用户名和密码而user和pass则是我为Secret对象指定的名字。而我想要查看这些Secret对象的话只要执行一条kubectl get命令就可以了

$ kubectl get secrets
NAME           TYPE                                DATA      AGE
user          Opaque                                1         51s
pass          Opaque                                1         51s

当然除了使用kubectl create secret指令外我也可以直接通过编写YAML文件的方式来创建这个Secret对象比如

apiVersion: v1
kind: Secret
metadata:
  name: mysecret
type: Opaque
data:
  user: YWRtaW4=
  pass: MWYyZDFlMmU2N2Rm

可以看到通过编写YAML文件创建出来的Secret对象只有一个。但它的data字段却以Key-Value的格式保存了两份Secret数据。其中“user”就是第一份数据的Key“pass”是第二份数据的Key。

需要注意的是Secret对象要求这些数据必须是经过Base64转码的以免出现明文密码的安全隐患。这个转码操作也很简单比如

$ echo -n 'admin' | base64
YWRtaW4=
$ echo -n '1f2d1e2e67df' | base64
MWYyZDFlMmU2N2Rm

这里需要注意的是像这样创建的Secret对象它里面的内容仅仅是经过了转码而并没有被加密。在真正的生产环境中你需要在Kubernetes中开启Secret的加密插件增强数据的安全性。关于开启Secret加密插件的内容我会在后续专门讲解Secret的时候再做进一步说明。

接下来我们尝试一下创建这个Pod

$ kubectl create -f test-projected-volume.yaml

当Pod变成Running状态之后我们再验证一下这些Secret对象是不是已经在容器里了

$ kubectl exec -it test-projected-volume -- /bin/sh
$ ls /projected-volume/
user
pass
$ cat /projected-volume/user
root
$ cat /projected-volume/pass
1f2d1e2e67df

从返回结果中我们可以看到保存在Etcd里的用户名和密码信息已经以文件的形式出现在了容器的Volume目录里。而这个文件的名字就是kubectl create secret指定的Key或者说是Secret对象的data字段指定的Key。

更重要的是像这样通过挂载方式进入到容器里的Secret一旦其对应的Etcd里的数据被更新这些Volume里的文件内容同样也会被更新。其实这是kubelet组件在定时维护这些Volume。

需要注意的是,这个更新可能会有一定的延时。所以在编写应用程序时,在发起数据库连接的代码处写好重试和超时的逻辑,绝对是个好习惯。

与Secret类似的是ConfigMap它与Secret的区别在于ConfigMap保存的是不需要加密的、应用所需的配置信息。而ConfigMap的用法几乎与Secret完全相同你可以使用kubectl create configmap从文件或者目录创建ConfigMap也可以直接编写ConfigMap对象的YAML文件。

比如一个Java应用所需的配置文件.properties文件就可以通过下面这样的方式保存在ConfigMap里

# .properties文件的内容
$ cat example/ui.properties
color.good=purple
color.bad=yellow
allow.textmode=true
how.nice.to.look=fairlyNice

# 从.properties文件创建ConfigMap
$ kubectl create configmap ui-config --from-file=example/ui.properties

# 查看这个ConfigMap里保存的信息(data)
$ kubectl get configmaps ui-config -o yaml
apiVersion: v1
data:
  ui.properties: |
    color.good=purple
    color.bad=yellow
    allow.textmode=true
    how.nice.to.look=fairlyNice
kind: ConfigMap
metadata:
  name: ui-config
  ...

备注kubectl get -o yaml这样的参数会将指定的Pod API对象以YAML的方式展示出来。

接下来是Downward API它的作用是让Pod里的容器能够直接获取到这个Pod API对象本身的信息。

举个例子:

apiVersion: v1
kind: Pod
metadata:
  name: test-downwardapi-volume
  labels:
    zone: us-est-coast
    cluster: test-cluster1
    rack: rack-22
spec:
  containers:
    - name: client-container
      image: k8s.gcr.io/busybox
      command: ["sh", "-c"]
      args:
      - while true; do
          if [[ -e /etc/podinfo/labels ]]; then
            echo -en '\n\n'; cat /etc/podinfo/labels; fi;
          sleep 5;
        done;
      volumeMounts:
        - name: podinfo
          mountPath: /etc/podinfo
          readOnly: false
  volumes:
    - name: podinfo
      projected:
        sources:
        - downwardAPI:
            items:
              - path: "labels"
                fieldRef:
                  fieldPath: metadata.labels

在这个Pod的YAML文件中我定义了一个简单的容器声明了一个projected类型的Volume。只不过这次Volume的数据来源变成了Downward API。而这个Downward API Volume则声明了要暴露Pod的metadata.labels信息给容器。

通过这样的声明方式当前Pod的Labels字段的值就会被Kubernetes自动挂载成为容器里的/etc/podinfo/labels文件。

而这个容器的启动命令,则是不断打印出/etc/podinfo/labels里的内容。所以当我创建了这个Pod之后就可以通过kubectl logs指令查看到这些Labels字段被打印出来如下所示

$ kubectl create -f dapi-volume.yaml
$ kubectl logs test-downwardapi-volume
cluster="test-cluster1"
rack="rack-22"
zone="us-est-coast"

目前Downward API支持的字段已经非常丰富了比如

1. 使用fieldRef可以声明使用:
spec.nodeName - 宿主机名字
status.hostIP - 宿主机IP
metadata.name - Pod的名字
metadata.namespace - Pod的Namespace
status.podIP - Pod的IP
spec.serviceAccountName - Pod的Service Account的名字
metadata.uid - Pod的UID
metadata.labels['<KEY>'] - 指定<KEY>的Label值
metadata.annotations['<KEY>'] - 指定<KEY>的Annotation值
metadata.labels - Pod的所有Label
metadata.annotations - Pod的所有Annotation

2. 使用resourceFieldRef可以声明使用:
容器的CPU limit
容器的CPU request
容器的memory limit
容器的memory request

上面这个列表的内容随着Kubernetes项目的发展肯定还会不断增加。所以这里列出来的信息仅供参考你在使用Downward API时还是要记得去查阅一下官方文档。

不过需要注意的是Downward API能够获取到的信息一定是Pod里的容器进程启动之前就能够确定下来的信息。而如果你想要获取Pod容器运行后才会出现的信息比如容器进程的PID那就肯定不能使用Downward API了而应该考虑在Pod里定义一个sidecar容器。

其实Secret、ConfigMap以及Downward API这三种Projected Volume定义的信息大多还可以通过环境变量的方式出现在容器里。但是通过环境变量获取这些信息的方式不具备自动更新的能力。所以一般情况下我都建议你使用Volume文件的方式获取这些信息。

在明白了Secret之后我再为你讲解Pod中一个与它密切相关的概念Service Account。

相信你一定有过这样的想法我现在有了一个Pod我能不能在这个Pod里安装一个Kubernetes的Client这样就可以从容器里直接访问并且操作这个Kubernetes的API了呢

这当然是可以的。

不过你首先要解决API Server的授权问题。

Service Account对象的作用就是Kubernetes系统内置的一种“服务账户”它是Kubernetes进行权限分配的对象。比如Service Account A可以只被允许对Kubernetes API进行GET操作而Service Account B则可以有Kubernetes API的所有操作权限。

像这样的Service Account的授权信息和文件实际上保存在它所绑定的一个特殊的Secret对象里的。这个特殊的Secret对象就叫作ServiceAccountToken。任何运行在Kubernetes集群上的应用都必须使用这个ServiceAccountToken里保存的授权信息也就是Token才可以合法地访问API Server。

所以说Kubernetes项目的Projected Volume其实只有三种因为第四种ServiceAccountToken只是一种特殊的Secret而已。

另外为了方便使用Kubernetes已经为你提供了一个默认“服务账户”default Service Account。并且任何一个运行在Kubernetes里的Pod都可以直接使用这个默认的Service Account而无需显示地声明挂载它。

这是如何做到的呢?

当然还是靠Projected Volume机制。

如果你查看一下任意一个运行在Kubernetes集群里的Pod就会发现每一个Pod都已经自动声明一个类型是Secret、名为default-token-xxxx的Volume然后 自动挂载在每个容器的一个固定目录上。比如:

$ kubectl describe pod nginx-deployment-5c678cfb6d-lg9lw
Containers:
...
  Mounts:
    /var/run/secrets/kubernetes.io/serviceaccount from default-token-s8rbq (ro)
Volumes:
  default-token-s8rbq:
  Type:       Secret (a volume populated by a Secret)
  SecretName:  default-token-s8rbq
  Optional:    false

这个Secret类型的Volume正是默认Service Account对应的ServiceAccountToken。所以说Kubernetes其实在每个Pod创建的时候自动在它的spec.volumes部分添加上了默认ServiceAccountToken的定义然后自动给每个容器加上了对应的volumeMounts字段。这个过程对于用户来说是完全透明的。

这样一旦Pod创建完成容器里的应用就可以直接从这个默认ServiceAccountToken的挂载目录里访问到授权信息和文件。这个容器内的路径在Kubernetes里是固定的/var/run/secrets/kubernetes.io/serviceaccount 而这个Secret类型的Volume里面的内容如下所示

$ ls /var/run/secrets/kubernetes.io/serviceaccount 
ca.crt namespace  token

所以你的应用程序只要直接加载这些授权文件就可以访问并操作Kubernetes API了。而且如果你使用的是Kubernetes官方的Client包k8s.io/client-go)的话,它还可以自动加载这个目录下的文件,你不需要做任何配置或者编码操作。

这种把Kubernetes客户端以容器的方式运行在集群里然后使用default Service Account自动授权的方式被称作“InClusterConfig”也是我最推荐的进行Kubernetes API编程的授权方式。

当然考虑到自动挂载默认ServiceAccountToken的潜在风险Kubernetes允许你设置默认不为Pod里的容器自动挂载这个Volume。

除了这个默认的Service Account外我们很多时候还需要创建一些我们自己定义的Service Account来对应不同的权限设置。这样我们的Pod里的容器就可以通过挂载这些Service Account对应的ServiceAccountToken来使用这些自定义的授权信息。在后面讲解为Kubernetes开发插件的时候我们将会实践到这个操作。

接下来我们再来看Pod的另一个重要的配置容器健康检查和恢复机制。

在Kubernetes中你可以为Pod里的容器定义一个健康检查“探针”Probe。这样kubelet就会根据这个Probe的返回值决定这个容器的状态而不是直接以容器镜像是否运行来自Docker返回的信息作为依据。这种机制是生产环境中保证应用健康存活的重要手段。

我们一起来看一个Kubernetes文档中的例子。

apiVersion: v1
kind: Pod
metadata:
  labels:
    test: liveness
  name: test-liveness-exec
spec:
  containers:
  - name: liveness
    image: busybox
    args:
    - /bin/sh
    - -c
    - touch /tmp/healthy; sleep 30; rm -rf /tmp/healthy; sleep 600
    livenessProbe:
      exec:
        command:
        - cat
        - /tmp/healthy
      initialDelaySeconds: 5
      periodSeconds: 5

在这个Pod中我们定义了一个有趣的容器。它在启动之后做的第一件事就是在/tmp目录下创建了一个healthy文件以此作为自己已经正常运行的标志。而30 s过后它会把这个文件删除掉。

与此同时我们定义了一个这样的livenessProbe健康检查。它的类型是exec这意味着它会在容器启动后在容器里面执行一条我们指定的命令比如“cat /tmp/healthy”。这时如果这个文件存在这条命令的返回值就是0Pod就会认为这个容器不仅已经启动而且是健康的。这个健康检查在容器启动5 s后开始执行initialDelaySeconds: 5每5 s执行一次periodSeconds: 5

现在,让我们来具体实践一下这个过程

首先创建这个Pod

$ kubectl create -f test-liveness-exec.yaml

然后查看这个Pod的状态

$ kubectl get pod
NAME                READY     STATUS    RESTARTS   AGE
test-liveness-exec   1/1       Running   0          10s

可以看到由于已经通过了健康检查这个Pod就进入了Running状态。

而30 s之后我们再查看一下Pod的Events

$ kubectl describe pod test-liveness-exec

你会发现这个Pod在Events报告了一个异常

FirstSeen LastSeen    Count   From            SubobjectPath           Type        Reason      Message
--------- --------    -----   ----            -------------           --------    ------      -------
2s        2s      1   {kubelet worker0}   spec.containers{liveness}   Warning     Unhealthy   Liveness probe failed: cat: can't open '/tmp/healthy': No such file or directory

显然,这个健康检查探查到/tmp/healthy已经不存在了所以它报告容器是不健康的。那么接下来会发生什么呢

我们不妨再次查看一下这个Pod的状态

$ kubectl get pod test-liveness-exec
NAME           READY     STATUS    RESTARTS   AGE
liveness-exec   1/1       Running   1          1m

这时我们发现Pod并没有进入Failed状态而是保持了Running状态。这是为什么呢

其实如果你注意到RESTARTS字段从0到1的变化就明白原因了这个异常的容器已经被Kubernetes重启了。在这个过程中Pod保持Running状态不变。

需要注意的是Kubernetes中并没有Docker的Stop语义。所以虽然是Restart重启但实际却是重新创建了容器。

这个功能就是Kubernetes里的Pod恢复机制也叫restartPolicy。它是Pod的Spec部分的一个标准字段pod.spec.restartPolicy默认值是Always任何时候这个容器发生了异常它一定会被重新创建。

但一定要强调的是Pod的恢复过程永远都是发生在当前节点上而不会跑到别的节点上去。事实上一旦一个Pod与一个节点Node绑定除非这个绑定发生了变化pod.spec.node字段被修改否则它永远都不会离开这个节点。这也就意味着如果这个宿主机宕机了这个Pod也不会主动迁移到其他节点上去。

而如果你想让Pod出现在其他的可用节点上就必须使用Deployment这样的“控制器”来管理Pod哪怕你只需要一个Pod副本。这就是我在第12篇文章《牛刀小试:我的第一个容器化应用》最后给你留的思考题的答案即一个单Pod的Deployment与一个Pod最主要的区别。

而作为用户你还可以通过设置restartPolicy改变Pod的恢复策略。除了Always它还有OnFailure和Never两种情况

  • Always在任何情况下只要容器不在运行状态就自动重启容器
  • OnFailure: 只在容器 异常时才自动重启容器;
  • Never: 从来不重启容器。

在实际使用时,我们需要根据应用运行的特性,合理设置这三种恢复策略。

比如一个Pod它只计算1+1=2计算完成输出结果后退出变成Succeeded状态。这时你如果再用restartPolicy=Always强制重启这个Pod的容器就没有任何意义了。

而如果你要关心这个容器退出后的上下文环境比如容器退出后的日志、文件和目录就需要将restartPolicy设置为Never。因为一旦容器被自动重新创建这些内容就有可能丢失掉了被垃圾回收了

值得一提的是Kubernetes的官方文档把restartPolicy和Pod里容器的状态以及Pod状态的对应关系总结了非常复杂的一大堆情况。实际上,你根本不需要死记硬背这些对应关系,只要记住如下两个基本的设计原理即可:

  1. 只要Pod的restartPolicy指定的策略允许重启异常的容器比如Always那么这个Pod就会保持Running状态并进行容器重启。否则Pod就会进入Failed状态 。

  2. 对于包含多个容器的Pod只有它里面所有的容器都进入异常状态后Pod才会进入Failed状态。在此之前Pod都是Running状态。此时Pod的READY字段会显示正常容器的个数比如

$ kubectl get pod test-liveness-exec
NAME           READY     STATUS    RESTARTS   AGE
liveness-exec   0/1       Running   1          1m

所以假如一个Pod里只有一个容器然后这个容器异常退出了。那么只有当restartPolicy=Never时这个Pod才会进入Failed状态。而其他情况下由于Kubernetes都可以重启这个容器所以Pod的状态保持Running不变。

而如果这个Pod有多个容器仅有一个容器异常退出它就始终保持Running状态哪怕即使restartPolicy=Never。只有当所有容器也异常退出之后这个Pod才会进入Failed状态。

其他情况,都可以以此类推出来。

现在我们一起回到前面提到的livenessProbe上来。

除了在容器中执行命令外livenessProbe也可以定义为发起HTTP或者TCP请求的方式定义格式如下

...
livenessProbe:
     httpGet:
       path: /healthz
       port: 8080
       httpHeaders:
       - name: X-Custom-Header
         value: Awesome
       initialDelaySeconds: 3
       periodSeconds: 3

    ...
    livenessProbe:
      tcpSocket:
        port: 8080
      initialDelaySeconds: 15
      periodSeconds: 20

所以你的Pod其实可以暴露一个健康检查URL比如/healthz或者直接让健康检查去检测应用的监听端口。这两种配置方法在Web服务类的应用中非常常用。

在Kubernetes的Pod中还有一个叫readinessProbe的字段。虽然它的用法与livenessProbe类似但作用却大不一样。readinessProbe检查结果的成功与否决定的这个Pod是不是能被通过Service的方式访问到而并不影响Pod的生命周期。这部分内容我会在讲解Service时重点介绍。

在讲解了这么多字段之后想必你对Pod对象的语义和描述能力已经有了一个初步的感觉。

这时你有没有产生这样一个想法Pod的字段这么多我又不可能全记住Kubernetes能不能自动给Pod填充某些字段呢

这个需求实际上非常实用。比如开发人员只需要提交一个基本的、非常简单的Pod YAMLKubernetes就可以自动给对应的Pod对象加上其他必要的信息比如labelsannotationsvolumes等等。而这些信息可以是运维人员事先定义好的。

这么一来开发人员编写Pod YAML的门槛就被大大降低了。

所以这个叫作PodPresetPod预设置的功能 已经出现在了v1.11版本的Kubernetes中。

举个例子,现在开发人员编写了如下一个 pod.yaml文件

apiVersion: v1
kind: Pod
metadata:
  name: website
  labels:
    app: website
    role: frontend
spec:
  containers:
    - name: website
      image: nginx
      ports:
        - containerPort: 80

作为Kubernetes的初学者你肯定眼前一亮这不就是我最擅长编写的、最简单的Pod嘛。没错这个YAML文件里的字段想必你现在闭着眼睛也能写出来。

可是如果运维人员看到了这个Pod他一定会连连摇头这种Pod在生产环境里根本不能用啊

所以这个时候运维人员就可以定义一个PodPreset对象。在这个对象中凡是他想在开发人员编写的Pod里追加的字段都可以预先定义好。比如这个preset.yaml

apiVersion: settings.k8s.io/v1alpha1
kind: PodPreset
metadata:
  name: allow-database
spec:
  selector:
    matchLabels:
      role: frontend
  env:
    - name: DB_PORT
      value: "6379"
  volumeMounts:
    - mountPath: /cache
      name: cache-volume
  volumes:
    - name: cache-volume
      emptyDir: {}

在这个PodPreset的定义中首先是一个selector。这就意味着后面这些追加的定义只会作用于selector所定义的、带有“role: frontend”标签的Pod对象这就可以防止“误伤”。

然后我们定义了一组Pod的Spec里的标准字段以及对应的值。比如env里定义了DB_PORT这个环境变量volumeMounts定义了容器Volume的挂载目录volumes定义了一个emptyDir的Volume。

接下来我们假定运维人员先创建了这个PodPreset然后开发人员才创建Pod

$ kubectl create -f preset.yaml
$ kubectl create -f pod.yaml

这时Pod运行起来之后我们查看一下这个Pod的API对象

$ kubectl get pod website -o yaml
apiVersion: v1
kind: Pod
metadata:
  name: website
  labels:
    app: website
    role: frontend
  annotations:
    podpreset.admission.kubernetes.io/podpreset-allow-database: "resource version"
spec:
  containers:
    - name: website
      image: nginx
      volumeMounts:
        - mountPath: /cache
          name: cache-volume
      ports:
        - containerPort: 80
      env:
        - name: DB_PORT
          value: "6379"
  volumes:
    - name: cache-volume
      emptyDir: {}

这个时候我们就可以清楚地看到这个Pod里多了新添加的labels、env、volumes和volumeMount的定义它们的配置跟PodPreset的内容一样。此外这个Pod还被自动加上了一个annotation表示这个Pod对象被PodPreset改动过。

需要说明的是,PodPreset里定义的内容只会在Pod API对象被创建之前追加在这个对象本身上而不会影响任何Pod的控制器的定义。

比如我们现在提交的是一个nginx-deployment那么这个Deployment对象本身是永远不会被PodPreset改变的被修改的只是这个Deployment创建出来的所有Pod。这一点请务必区分清楚。

这里有一个问题如果你定义了同时作用于一个Pod对象的多个PodPreset会发生什么呢

实际上Kubernetes项目会帮你合并Merge这两个PodPreset要做的修改。而如果它们要做的修改有冲突的话这些冲突字段就不会被修改。

总结

在今天这篇文章中我和你详细介绍了Pod对象更高阶的使用方法希望通过对这些实例的讲解你可以更深入地理解Pod API对象的各个字段。

而在学习这些字段的同时你还应该认真体会一下Kubernetes“一切皆对象”的设计思想比如应用是Pod对象应用的配置是ConfigMap对象应用要访问的密码则是Secret对象。

所以也就自然而然地有了PodPreset这样专门用来对Pod进行批量化、自动化修改的工具对象。在后面的内容中我会为你讲解更多的这种对象还会和你介绍Kubernetes项目如何围绕着这些对象进行容器编排。

在本专栏中Pod对象相关的知识点非常重要它是接下来Kubernetes能够描述和编排各种复杂应用的基石所在希望你能够继续多实践、多体会。

思考题

在没有Kubernetes的时候你是通过什么方法进行应用的健康检查的Kubernetes的livenessProbe和readinessProbe提供的几种探测机制是否能满足你的需求

感谢你的收听,欢迎你给我留言,也欢迎分享给更多的朋友一起阅读。