You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

15 KiB

34 | IstioService Mesh的代表产品

专栏上一期我们聊了Service Mesh并以Linkerd为例介绍了Service Mesh的架构。随着技术发展现在来看Linkerd可以说是第一代Service Mesh产品到了今天当我们再谈到Service Mesh时往往第一个想到的是[Istio](https://istio.io/)。为什么我认为Istio可以称得上是Service Mesh的代表产品呢在我看来主要有以下几个原因
  • 相比LinkerdIstio引入了Control Plane的理念通过Control Plane能带来强大的服务治理能力可以称得上是Linkerd的进化算是第二代的Service Mesh产品。

  • Istio默认的SideCar采用了Envoy它是用C++语言实现的在性能和资源消耗上要比采用Scala语言实现的Linkerd小这一点对于延迟敏感型和资源敏感型的服务来说尤其重要。

  • 有Google和IBM的背书尤其是在微服务容器化的大趋势下云原生应用越来越受欢迎而Google开源的Kubernetes可以说已经成为云原生应用默认采用的容器平台基于此Google可以将Kubernetes与Istio很自然的整合打造成云原生应用默认的服务治理方案。

现在我们一起走进Istio的架构看看它各部分的实现原理希望能让你有所收获。

Istio整体架构

如下图所示Istio的架构可以说由两部分组成分别是Proxy和Control Plane。

  • Proxy就是前面提到的SideCar与应用程序部署在同一个主机上应用程序之间的调用都通过Proxy来转发目前支持HTTP/1.1、HTTP/2、gRPC以及TCP请求。

  • Control Plane与Proxy通信来实现各种服务治理功能包括三个基本组件Pilot、Mixer以及Citadel。


(图片来源:https://istio.io/docs/concepts/what-is-istio/arch.svg

下面我来详细分解Istio架构看看每一个组件的作用和工作原理。

Proxy

Istio的Proxy采用的是EnvoyEnvoy是跟上一期提到的Linkerd是同一代的产品既要作为服务消费者端的正向代理又要作为服务提供者端的反向代理一般需要具备服务发现、服务注册、负载均衡、限流降级、超时熔断、动态路由、监控上报和日志推送等功能它主要包含以下几个特性

  • 性能损耗低。因为采用了C++语言实现Envoy能提供极高的吞吐量和极少的长尾延迟而且对系统的CPU和内存资源占用也不大所以跟业务进程部署在一起不会对业务进程造成影响。

  • 可扩展性高。Envoy提供了可插拔过滤器的能力用户可以开发定制过滤器以满足自己特定的需求。

  • 动态可配置。Envoy对外提供了统一的API包括CDS集群发现服务、RDS路由发现服务、LDS监听器发现服务、EDSEndPoint发现服务、HDS健康检查服务、ADS聚合发现服务等。通过调用这些API可以实现相应配置的动态变更而不需要重启Envoy。

Envoy是Istio中最基础的组件所有其他组件的功能都是通过调用Envoy提供的API在请求经过Envoy转发时由Envoy执行相关的控制逻辑来实现的。

Pilot

Pilot的作用是实现流量控制它通过向Envoy下发各种指令来实现流量控制它的架构如下图所示。从架构图里可以看出Pilot主要包含以下几个部分

  • Rules API对外封装统一的API供服务的开发者或者运维人员调用可以用于流量控制。

  • Envoy API对内封装统一的API供Envoy调用以获取注册信息、流量控制信息等。

  • 抽象模型层,对服务的注册信息、流量控制规则等进行抽象,使其描述与平台无关。

  • 平台适配层用于适配各个平台如Kubernetes、Mesos、Cloud Foundry等把平台特定的注册信息、资源信息等转换成抽象模型层定义的平台无关的描述。


(图片来源:https://istio.io/docs/concepts/traffic-management/PilotAdapters.svg

那么具体来讲Pilot是如何实现流量管理功能的呢

1.服务发现和负载均衡

就像下图所描述的那样服务B也就是服务提供者注册到对应平台的注册中心中去比如Kubernetes集群中的Pod启动时会注册到注册中心etcd中。然后服务A也就是服务消费者在调用服务B时请求会被Proxy拦截然后Proxy会调用Pilot查询可用的服务提供者节点再以某种负载均衡算法选择一个节点发起调用。

除此之外Proxy还会定期检查缓存的服务提供者节点的健康状况当某个节点连续多次健康检查失败就会被从Proxy从缓存的服务提供者节点列表中剔除。


(图片来源:https://istio.io/docs/concepts/traffic-management/LoadBalancing.svg

2.请求路由

Pilot可以对服务进行版本和环境的细分服务B包含两个版本v1.5和v2.0-alpha其中v1.5是生产环境运行的版本而v2.0-alpha是灰度环境运行的版本。当需要做A/B测试时希望灰度服务B的1%流量运行v2.0-alpha版本就可以通过调用Pilot提供的Rules APIPilot就会向Proxy下发路由规则Proxy在转发请求时就按照给定的路由规则把1%的流量转发给服务B的v2.0-alpha版本99%的流量转发给服务B的v1.5版本。


(图片来源:https://istio.io/docs/concepts/traffic-management/ServiceModel_Versions.svg

3.超时重试

缺省状态下Proxy转发HTTP请求时的超时是15s可以通过调用Pilot提供的Rules API来修改路由规则覆盖这个限制。比如下面这段路由规则表达的意思是ratings服务的超时时间是10s。

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: ratings
spec:
  hosts:
    - ratings
  http:
  - route:
    - destination:
        host: ratings
        subset: v1
    timeout: 10s

除此之外还可以通过修改路由规则来指定某些HTTP请求的超时重试次数比如下面这段路由规则表达的意思就是ratings服务的超时重试次数总共是3次每一次的超时时间是2s。

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: ratings
spec:
  hosts:
    - ratings
  http:
  - route:
    - destination:
        host: ratings
        subset: v1
    retries:
      attempts: 3
      perTryTimeout: 2s

4.故障注入

Istio还提供了故障注入的功能能在不杀死服务节点的情况下通过修改路由规则将特定的故障注入到网络中。它的原理是在TCP层制造数据包的延迟或者损坏从而模拟服务超时和调用失败的场景以此来观察应用是否健壮。比如下面这段路由规则的意思是对v1版本的ratings服务流量中的10%注入5s的延迟。

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: ratings
spec:
  hosts:
  - ratings
  http:
  - fault:
      delay:
        percent: 10
        fixedDelay: 5s
    route:
    - destination:
        host: ratings
        subset: v1

而下面这段路由规则意思是对v1版本的ratings服务流量中的10%注入HTTP 400的错误。

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: ratings
spec:
  hosts:
  - ratings
  http:
  - fault:
      abort:
        percent: 10
        httpStatus: 400
    route:
    - destination:
        host: ratings
        subset: v1

Mixer

Mixer的作用是实现策略控制和监控日志收集等功能实现方式是每一次Proxy转发的请求都要调用Mixer它的架构请见下图。而且Mixer的实现是可扩展的通过适配层来适配不同的后端平台这样的话Istio的其他部分就不需要关心各个基础设施比如日志系统、监控系统的实现细节。


(图片来源:https://istio.io/docs/concepts/policies-and-telemetry/topology-without-cache.svg

理论上每一次的服务调用Proxy都需要调用Mixer一方面检查调用的合法性一方面要上报服务的监控信息和日志信息所以这就要求Mixer必须是高可用和低延迟的那么Mixer是如何做到的呢下图是它的实现原理从图中你可以看到Mixer实现了两级的缓存结构

  • Proxy端的本地缓存。为了减少Proxy对Mixer的调用以尽量降低服务调用的延迟在Proxy这一端会有一层本地缓存但由于Proxy作为SideCar与每个服务实例部署在同一个节点上所以不能对服务节点有太多的内存消耗所以就限制了Proxy本地缓存的大小和命中率。

  • Mixer的本地缓存。Mixer是独立运行的所以可以在Mixer这一层使用大容量的本地缓存从而减少对后端基础设施的调用一方面可以减少延迟另一方面也可以最大限度减少后端基础设施故障给服务调用带来的影响。


(图片来源:https://istio.io/docs/concepts/policies-and-telemetry/topology-with-cache.svg

那么Mixer是如何实现策略控制和监控日志收集功能呢

1.策略控制

Istio支持两类的策略控制一类是对服务的调用进行速率限制一类是对服务的调用进行访问控制它们都是通过在Mixer中配置规则来实现的。具体来讲速率限制需要配置速率控制的yaml文件每一次Proxy转发请求前都会先调用MixerMixer就会根据这个yaml文件中的配置来对调用进行速率限制。比如下面这段配置表达的意思是服务默认访问的速率限制是每秒5000次除此之外还定义了两个特殊限制第一个是v3版本的reviews服务请求ratings服务的速率限制是每5秒1次第二个是其他服务请求ratings服务的速率限制是每10秒5次。

apiVersion: config.istio.io/v1alpha2
kind: memquota
metadata:
  name: handler
  namespace: istio-system
spec:
  quotas:
  - name: requestcount.quota.istio-system
    maxAmount: 5000
    validDuration: 1s
    overrides:
    - dimensions:
        destination: ratings
        source: reviews
        sourceVersion: v3
      maxAmount: 1
      validDuration: 5s
    - dimensions:
        destination: ratings
      maxAmount: 5
      validDuration: 10s

而访问控制需要配置访问控制的yaml文件每一次Proxy转发请求前都会先调用MixerMixer就会根据这个yaml文件中的配置来对调用进行访问控制。比如下面这段配置表达的意思是v3版本的reviews服务调用ratings服务就会被拒绝。

apiVersion: "config.istio.io/v1alpha2"
kind: rule
metadata:
  name: denyreviewsv3
spec:
  match: destination.labels["app"] == "ratings" && source.labels["app"]=="reviews" && source.labels["version"] == "v3"
  actions:
  - handler: denyreviewsv3handler.denier
    instances: [ denyreviewsv3request.checknothing ]

2.监控和日志收集

跟策略控制的实现原理类似Mixer的监控、日志收集功能也是通过配置监控yaml文件来实现的Proxy发起的每一次服务调用都会先调用Mixer把监控信息发给MixerMixer再根据配置的yaml文件来决定监控信息该发到哪。示例yaml文件可以参考这个链接

Citadel

Citadel的作用是保证服务之间访问的安全它的工作原理见下图可见实际的安全保障并不是Citadel独立完成的而是需要Proxy、Pilot以及Mixer的配合具体来讲

  • Citadel里存储了密钥和证书。

  • 通过Pilot把授权策略和安全命名信息分发给Proxy。

  • Proxy与Proxy之间的调用使用双向TLS认证来保证服务调用的安全。

  • 最后由Mixer来管理授权和审计。


(图片来源:https://istio.io/docs/concepts/security/architecture.svg

总结

今天我给你详细讲解了Istio的架构及其基本组件Proxy、Pilot、Mixer以及Citadel的工作原理从Istio的设计和实现原理可以看出它是采用模块化设计并且各个模块之间高度解耦Proxy专注于负责服务之间的通信Pilot专注于流量控制Mixer专注于策略控制以及监控日志功能而Citadel专注于安全。正是这种高度模块化的设计使得Istio的架构极具扩展性和适配性如果你想加强流量控制方面的功能可以在Pilot模块中定制开发自己的代码而不需要修改其他模块如果你想增加一种监控系统支持可以在Mixer模块中添加对这个监控系统的适配器就能接入Istio。除此之外虽然Istio由Google和IBM主导但也没有完全与Kubernetes平台绑定你也可以在Mesos或者AWS上运行Istio可见它的适配性极强这也是Istio的强大之处以至于它的竞争对手Linkerd也开始支持Istio作为可选的Proxy组件之一。

思考题

Mixer的一个功能是实现服务调用的日志收集假如某一个服务调用并发量很高而每一次调用都经过Proxy代理请求Mixer再由Mixer调用后端的日志系统的话整个链路的网络延迟就会对服务调用的性能影响很大你有什么优化建议吗

欢迎你在留言区写下自己的思考,与我一起讨论。


扩展阅读: