服务器之家:专注于服务器技术及软件下载分享
分类导航

云服务器|WEB服务器|FTP服务器|邮件服务器|虚拟主机|服务器安全|DNS服务器|服务器知识|Nginx|IIS|Tomcat|

服务器之家 - 服务器技术 - 服务器知识 - Kubernetes应用管理器OpenKruise

Kubernetes应用管理器OpenKruise

2020-12-26 00:04今日头条老实说运维 服务器知识

OpenKruise 是 Kubernetes 的一个标准扩展,它可以配合原生 Kubernetes 使用,并为管理应用容器、sidecar、镜像分发等方面提供更加强大和高效的能力。

 Kubernetes应用管理器OpenKruise

OpenKruise

OpenKruise 是 Kubernetes 的一个标准扩展,它可以配合原生 Kubernetes 使用,并为管理应用容器、sidecar、镜像分发等方面提供更加强大和高效的能力。

核心功能

原地升级

原地升级是一种可以避免删除、新建 Pod 的升级镜像能力。它比原生 Deployment/StatefulSet 的重建 Pod 升级更快、更高效,并且避免对 Pod 对其他不需要更新的容器造成干扰。

Sidecar 管理

支持在一个单独的 CR 中定义 sidecar 容器,OpenKruise 能够帮你把这些 Sidecar 容器注入到所有符合条件的 Pod 中。这个过程和 Istio 的注入很相似,但是你可以管理任意你关心的 Sidecar。

跨多可用区部署

定义一个跨多个可用区的全局 workload,容器,OpenKruise 会帮你在每个可用区创建一个对应的下属 workload。你可以统一管理他们的副本数、版本、甚至针对不同可用区采用不同的发布策略。

CRD 列表

  1. CloneSet 
  2. 提供更加高效、确定可控的应用管理和部署能力,支持优雅原地升级、指定删除、发布顺序可配置、并行/灰度发布等丰富的策略,可以满足更多样化的应用场景。 
  3.  
  4. Advanced StatefulSet 
  5. 基于原生 StatefulSet 之上的增强版本,默认行为与原生完全一致,在此之外提供了原地升级、并行发布(最大不可用)、发布暂停等功能。 
  6.  
  7. SidecarSet 
  8. 对 sidecar 容器做统一管理,在满足 selector 条件的 Pod 中注入指定的 sidecar 容器。 
  9.  
  10. UnitedDeployment 
  11. 通过多个 subset workload 将应用部署到多个可用区。 
  12.  
  13. BroadcastJob 
  14. 配置一个 job,在集群中所有满足条件的 Node 上都跑一个 Pod 任务。 
  15.  
  16. Advanced DaemonSet 
  17. 基于原生 DaemonSet 之上的增强版本,默认行为与原生一致,在此之外提供了灰度分批、按 Node label 选择、暂停、热升级等发布策略。 
  18.  
  19. AdvancedCronJob 
  20. 一个扩展的 CronJob 控制器,目前 template 模板支持配置使用 Job 或 BroadcastJob。 

以上在官方文档都有介绍,本文主要着重实战,先讲CloneSet,其他控制器后面会陆续更新。。。

部署Kruise到Kubernetes集群

这里使用helm来安装Kruise

1、现在kruise Chart

  1. wget https://github.com/openkruise/kruise/releases/download/v0.7.0/kruise-chart.tgz 
  2. tar -zxf kruise-chart.tgz 
  3. cd kruise 
  4. [root@ kruise]# ls -l 
  5. total 16 
  6. -rw-r--r-- 1 root root  311 Dec 20 15:09 Chart.yaml 
  7. -rw-r--r-- 1 root root 4052 Dec 20 15:09 README.md 
  8. drwxr-xr-x 2 root root 4096 Dec 23 10:18 templates 
  9. -rw-r--r-- 1 root root  659 Dec 20 15:09 values.yaml 

2、修改values.yaml,默认不用修改也行

3、执行部署

  1. [root@qd01-stop-k8s-master001 kruise]# kubectl create ns kruise 
  2. namespace/kruise created 
  3. [root@qd01-stop-k8s-master001 kruise]# helm install kruise -n kruise -f values.yaml  . 
  4. W1223 10:22:13.562088 1589994 warnings.go:67] apiextensions.k8s.io/v1beta1 CustomResourceDefinition is deprecated in v1.16+, unavailable in v1.22+; use apiextensions.k8s.io/v1 CustomResourceDefinition 
  5. 。。。。。。。 
  6. NAME: kruise 
  7. LAST DEPLOYED: Wed Dec 23 10:22:12 2020 
  8. NAMESPACE: kruise 
  9. STATUS: deployed 
  10. REVISION: 1 
  11. TEST SUITE: None 
  12. 这里会看到一堆的deprecated信息,因为新版的kubernetes对CRD的版本会淘汰,可以根据自己的集群版本修改CRD的API版本即可 

4、检查kruise部署状态

  1. [root@qd01-stop-k8s-master001 kruise]# helm ls -n kruise 
  2. NAME    NAMESPACE       REVISION        UPDATED                                 STATUS          CHART           APP VERSION 
  3. kruise  kruise          1               2020-12-23 10:22:12.963651877 +0800 CST deployed        kruise-0.7.0                
  4.  
  5. 可以看到,集群中有的kruise crd类型 
  6. [root@qd01-stop-k8s-master001 kruise]# kubectl get crd|grep  kruise 
  7. advancedcronjobs.apps.kruise.io                       2020-12-23T02:22:13Z 
  8. broadcastjobs.apps.kruise.io                          2020-12-23T02:22:13Z 
  9. clonesets.apps.kruise.io                              2020-12-23T02:22:13Z 
  10. daemonsets.apps.kruise.io                             2020-12-23T02:22:13Z 
  11. sidecarsets.apps.kruise.io                            2020-12-23T02:22:13Z 
  12. statefulsets.apps.kruise.io                           2020-12-23T02:22:13Z 
  13. uniteddeployments.apps.kruise.io                      2020-12-23T02:22:13Z 

下面我们开始来使用这些管理器

CloneSet

CloneSet 控制器提供了高效管理无状态应用的能力,它可以对标原生的 Deployment,但 CloneSet 提供了很多增强功能。

1、我们先创建一个简单的CloneSet,yaml如下

  1. apiVersion: apps.kruise.io/v1alpha1 
  2. kind: CloneSet 
  3. metadata: 
  4.   labels: 
  5.     app: nginx-alpine 
  6.   name: nginx-alpine 
  7. spec: 
  8.   replicas: 5 
  9.   selector: 
  10.     matchLabels: 
  11.       app: nginx-alpine 
  12.   template: 
  13.     metadata: 
  14.       labels: 
  15.         app: nginx-alpine 
  16.     spec: 
  17.       containers: 
  18.       - name: nginx 
  19.         image: nginx:alpine 

2、部署

  1. [root@qd01-stop-k8s-master001 demo]# kubectl apply -f  CloneSet.yaml 
  2. cloneset.apps.kruise.io/nginx-alpine created 
  3.  
  4. [root@qd01-stop-k8s-master001 demo]# kubectl get po |grep nginx 
  5. nginx-alpine-29g7n                          1/1     Running   0          45s 
  6. nginx-alpine-bvgqm                          1/1     Running   0          45s 
  7. nginx-alpine-q9tlw                          1/1     Running   0          45s 
  8. nginx-alpine-s2t46                          1/1     Running   0          44s 
  9. nginx-alpine-sslvf                          1/1     Running   0          44s 
  10. 从输出结果看,和原生的Deployment没有啥区别 
  11. #注意,这里如果get deployment是看不到nginx-alpine这个应用的,需要get cloneset才能看到 
  12. [root@qd01-stop-k8s-master001 demo]# kubectl get deployment 
  13. [root@qd01-stop-k8s-master001 demo]# kubectl get cloneset 
  14. NAME           DESIRED   UPDATED   UPDATED_READY   READY   TOTAL   AGE 
  15. nginx-alpine   5         5         5               5       5       2m16s 

CloneSet 允许用户配置 PVC 模板 volumeClaimTemplates,用来给每个 Pod 生成独享的 PVC,这是 Deployment 所不支持的。 如果用户没有指定这个模板,CloneSet 会创建不带 PVC 的 Pod。

3、现在来创建一个带有 PVC 模板的例子

  1. apiVersion: apps.kruise.io/v1alpha1 
  2. kind: CloneSet 
  3. metadata: 
  4.   labels: 
  5.     app: nginx-2 
  6.   name: nginx-2 
  7. spec: 
  8.   replicas: 5 
  9.   selector: 
  10.     matchLabels: 
  11.       app: nginx-2 
  12.   template: 
  13.     metadata: 
  14.       labels: 
  15.         app: nginx-2 
  16.     spec: 
  17.       containers: 
  18.       - name: nginx 
  19.         image: nginx:alpine 
  20.         volumeMounts: 
  21.         - name: data-vol 
  22.           mountPath: /usr/share/nginx/html 
  23.   volumeClaimTemplates: 
  24.     - metadata: 
  25.         name: rbd 
  26.       spec: 
  27.         accessModes: [ "ReadWriteOnce" ] 
  28.         storageClassName: rbd 
  29.         resources: 
  30.           requests: 
  31.             storage: 2Gi 

部署

  1. [root@qd01-stop-k8s-master001 demo]# kubectl apply -f  CloneSet.yaml 
  2. cloneset.apps.kruise.io/nginx-2 created 
  3. [root@qd01-stop-k8s-master001 demo]# kubectl get pv|grep data-vol 
  4. pvc-0fde19f3-ea4b-47e0-81be-a8e43812e47b   2Gi        RWO            Delete           Bound    default/data-vol-nginx-2-t55h8                  rbd                     83s 
  5. pvc-72accf10-57a6-4418-a1bc-c64633b84434   2Gi        RWO            Delete           Bound    default/data-vol-nginx-2-t49mk                  rbd                     82s 
  6. pvc-8fc8b9a5-afe8-446a-9190-08fcee0ec9f6   2Gi        RWO            Delete           Bound    default/data-vol-nginx-2-jw2zp                  rbd                     84s 
  7. pvc-c9fba396-e357-43e8-9510-616f698da765   2Gi        RWO            Delete           Bound    default/data-vol-nginx-2-b5fdd                  rbd                     84s 
  8. pvc-e5302eab-a9f2-4a71-a5a3-4cd43205e8a0   2Gi        RWO            Delete           Bound    default/data-vol-nginx-2-l54dz                  rbd                     84s 
  9. [root@qd01-stop-k8s-master001 demo]# kubectl get po|grep nginx 
  10. nginx-2-b5fdd                               1/1     Running   0          97s 
  11. nginx-2-jw2zp                               1/1     Running   0          97s 
  12. nginx-2-l54dz                               1/1     Running   0          97s 
  13. nginx-2-t49mk                               1/1     Running   0          96s 
  14. nginx-2-t55h8                               1/1     Running   0          96s 

从部署结果可以看到,每个pod都创建了一个PVC,这个是原生的Deployment不能实现的。

注意:

  1. 每个被自动创建的 PVC 会有一个 ownerReference 指向 CloneSet,因此 CloneSet 被删除时,它创建的所有 Pod 和 PVC 都会被删除。 
  2. 每个被 CloneSet 创建的 Pod 和 PVC,都会带一个 apps.kruise.io/cloneset-instance-id: xxx 的 label。关联的 Pod 和 PVC 会有相同的 instance-id,且它们的名字后缀都是这个 instance-id。 
  3. 如果一个 Pod 被 CloneSet controller 缩容删除时,这个 Pod 关联的 PVC 都会被一起删掉。 
  4. 如果一个 Pod 被外部直接调用删除或驱逐时,这个 Pod 关联的 PVC 还都存在;并且 CloneSet controller 发现数量不足重新扩容时,新扩出来的 Pod 会复用原 Pod 的 instance-id 并关联原来的 PVC。 
  5. 当 Pod 被重建升级时,关联的 PVC 会跟随 Pod 一起被删除、新建。 
  6. 当 Pod 被原地升级时,关联的 PVC 会持续使用。 

4、指定 Pod 缩容

当一个 CloneSet 被缩容时,有时候用户需要指定一些 Pod 来删除。这对于 StatefulSet 或者 Deployment 来说是无法实现的,因为 StatefulSet 要根据序号来删除 Pod,而 Deployment/ReplicaSet 目前只能根据控制器里定义的排序来删除。

CloneSet 允许用户在缩小 replicas 数量的同时,指定想要删除的 Pod 名字。

现在我们来修改上面例子的部署文件,指定删除nginx-2-t55h8这个Pod

  1. apiVersion: apps.kruise.io/v1alpha1 
  2. kind: CloneSet 
  3. metadata: 
  4.   labels: 
  5.     app: nginx-2 
  6.   name: nginx-2 
  7. spec: 
  8.   replicas: 4 
  9.   scaleStrategy: 
  10.     podsToDelete: 
  11.     - nginx-2-t55h8 

然后更新yaml文件

  1. [root@qd01-stop-k8s-master001 demo]# kubectl apply -f CloneSet.yaml 
  2. cloneset.apps.kruise.io/nginx-2 configured 
  3.  
  4. [root@qd01-stop-k8s-master001 demo]# kubectl get po|grep nginx 
  5. nginx-2-b5fdd                               1/1     Running   0          11m 
  6. nginx-2-jw2zp                               1/1     Running   0          11m 
  7. nginx-2-l54dz                               1/1     Running   0          11m 
  8. nginx-2-t49mk                               1/1     Running   0          11m 

现在看输入结果,已经没有nginx-2-t55h8这个Pod了

这个功能很实用,比如某台机器故障了,或者负载太高,你想删除指定的pod。

5、升级功能

  1. CloneSet 提供了和 Advanced StatefulSet 相同的 3 个升级方式,默认为 ReCreate: 
  2.  
  3. ReCreate: 控制器会删除旧 Pod 和它的 PVC,然后用新版本重新创建出来。 
  4. InPlaceIfPossible: 控制器会优先尝试原地升级 Pod,如果不行再采用重建升级。目前,只有修改 spec.template.metadata.* 和 spec.template.spec.containers[x].image 这些字段才可以走原地升级。 
  5. InPlaceOnly: 控制器只允许采用原地升级。因此,用户只能修改上一条中的限制字段,如果尝试修改其他字段会被 Kruise 拒绝。 

现在我们来尝试原地升级Pod功能,把nginx镜像由nginx:alpine 升级为 nginx:latest

首先修改yaml文件,这里只粘贴出文件的修改的部分

  1. apiVersion: apps.kruise.io/v1alpha1 
  2. kind: CloneSet 
  3. ... 
  4. spec: 
  5.   replicas: 4 
  6.   updateStrategy: 
  7.     type: InPlaceIfPossible 
  8.     inPlaceUpdateStrategy: 
  9.       gracePeriodSeconds: 10 
  10. ...... 
  11.     spec: 
  12.       containers: 
  13.       - name: nginx 
  14.         image: nginx 

执行升级

  1. [root@qd01-stop-k8s-master001 demo]# kubectl apply -f CloneSet.yaml 
  2. cloneset.apps.kruise.io/nginx-2 configured 
  3. 使用 kubectl describe查看升级过程 
  4. Events: 
  5.   Type     Reason                  Age                From                     Message 
  6.   ----     ------                  ----               ----                     ------- 
  7.   Warning  FailedScheduling        59m                default-scheduler        0/22 nodes are available: 22 pod has unbound immediate PersistentVolumeClaims. 
  8.   Warning  FailedScheduling        59m                default-scheduler        0/22 nodes are available: 22 pod has unbound immediate PersistentVolumeClaims. 
  9.   Warning  FailedScheduling        59m                default-scheduler        0/22 nodes are available: 22 pod has unbound immediate PersistentVolumeClaims. 
  10.   Normal   Scheduled               59m                default-scheduler        Successfully assigned default/nginx-2-l54dz to qd01-stop-k8s-node007.ps.easou.com 
  11.   Normal   SuccessfulAttachVolume  59m                attachdetach-controller  AttachVolume.Attach succeeded for volume "pvc-e5302eab-a9f2-4a71-a5a3-4cd43205e8a0" 
  12.   Normal   Pulling                 58m                kubelet                  Pulling image "nginx:alpine" 
  13.   Normal   Pulled                  58m                kubelet                  Successfully pulled image "nginx:alpine" in 6.230045975s 
  14.   Normal   Killing                 55s                kubelet                  Container nginx definition changed, will be restarted 
  15.   Normal   Pulling                 55s                kubelet                  Pulling image "nginx" 
  16.   Normal   Pulled                  26s                kubelet                  Successfully pulled image "nginx" in 29.136659264s 
  17.   Normal   Created                 23s (x2 over 58m)  kubelet                  Created container nginx 
  18.   Normal   Started                 23s (x2 over 58m)  kubelet                  Started container nginx 

从输出可以看到,Container nginx definition changed, will be restarted,Pod并没有删除在重建,而是在原来的基础上直接更新了镜像文件,并重启了服务。

原地升级减少了删除重建环节,节省了升级时间和资源调度频率。。。

6、Partition 分批灰度

Partition 的语义是 保留旧版本 Pod 的数量或百分比,默认为 0。这里的 partition 不表示任何 order 序号。

  1. 在发布过程中设置了 partition: 
  2.     如果是数字,控制器会将 (replicas - partition) 数量的 Pod 更新到最新版本。 
  3.     如果是百分比,控制器会将 (replicas * (100% - partition)) 数量的 Pod 更新到最新版本。 

现在我将上面的例子的 image 更新为 nginx:1.19.6-alpine 并且设置 partition=3

  1. kind: CloneSet 
  2. metadata: 
  3.   labels: 
  4.     app: nginx-2 
  5.   name: nginx-2 
  6. spec: 
  7.   replicas: 5 
  8.   updateStrategy: 
  9.     type: InPlaceIfPossible 
  10.     inPlaceUpdateStrategy: 
  11.       gracePeriodSeconds: 10 
  12.     partition: 3 
  13.   selector: 
  14.     matchLabels: 
  15.       app: nginx-2 
  16.   template: 
  17.     metadata: 
  18.       labels: 
  19.         app: nginx-2 
  20.     spec: 
  21.       containers: 
  22.       - name: nginx 
  23.         image: nginx:1.19.6-alpine 

查看结果

  1. Status: 
  2.   Available Replicas:      5 
  3.   Collision Count:         0 
  4.   Label Selector:          app=nginx-2 
  5.   Observed Generation:     6 
  6.   Ready Replicas:          5 
  7.   Replicas:                5 
  8.   Update Revision:         nginx-2-7b44cb9c8 
  9.   Updated Ready Replicas:  2 
  10.   Updated Replicas:        2 
  11. Events: 
  12.   Type    Reason                      Age    From                 Message 
  13.   ----    ------                      ----   ----                 ------- 
  14.   Normal  SuccessfulUpdatePodInPlace  45m    cloneset-controller  successfully update pod nginx-2-l54dz in-place(revision nginx-2-5879fd9f7) 
  15.   Normal  SuccessfulUpdatePodInPlace  44m    cloneset-controller  successfully update pod nginx-2-t49mk in-place(revision nginx-2-5879fd9f7) 
  16.   Normal  SuccessfulUpdatePodInPlace  43m    cloneset-controller  successfully update pod nginx-2-b5fdd in-place(revision nginx-2-5879fd9f7) 
  17.   Normal  SuccessfulUpdatePodInPlace  43m    cloneset-controller  successfully update pod nginx-2-jw2zp in-place(revision nginx-2-5879fd9f7) 
  18.   Normal  SuccessfulCreate            22m    cloneset-controller  succeed to create pod nginx-2-zpp8z 
  19.   Normal  SuccessfulUpdatePodInPlace  5m22s  cloneset-controller  successfully update pod nginx-2-zpp8z in-place(revision nginx-2-7b44cb9c8) 
  20.   Normal  SuccessfulUpdatePodInPlace  4m55s  cloneset-controller  successfully update pod nginx-2-jw2zp in-place(revision nginx-2-7b44cb9c8) 
  21.  
  22. [root@qd01-stop-k8s-master001 demo]# kubectl get pod -L controller-revision-hash 
  23. NAME                                        READY   STATUS    RESTARTS   AGE   CONTROLLER-REVISION-HASH 
  24. nginx-2-b5fdd                               1/1     Running   1          99m   nginx-2-5879fd9f7 
  25. nginx-2-jw2zp                               1/1     Running   2          99m   nginx-2-7b44cb9c8 
  26. nginx-2-l54dz                               1/1     Running   1          99m   nginx-2-5879fd9f7 
  27. nginx-2-t49mk                               1/1     Running   1          99m   nginx-2-5879fd9f7 
  28. nginx-2-zpp8z                               1/1     Running   1          19m   nginx-2-7b44cb9c8 

从输出信息我们可以看到,Update Revision已经更新为nginx-2-7b44cb9c8,而Pod中只有两个Pod升级了。

由于我们设置了 partition=3,控制器只升级了 2 个 Pod。

Partition 分批灰度功能完善了原生的Pod升级方式,使得升级能够进行更灵活,能够进行灰度上线。超赞。。。

7、最后再演示下发布暂停

用户可以通过设置 paused 为 true 暂停发布,不过控制器还是会做 replicas 数量管理:

  • 首先,我们将示例中image改为nginx:1.18.0 并设置副本数为10,修改后更新yaml,运行结果如下:
  1. [root@qd01-stop-k8s-master001 demo]#  kubectl get po -o=jsonpath='{range .items[*]}{"\n"}{.metadata.name}{":\t"}{range .spec.containers[*]}{.image}{", "}{end}{end}' |sort 
  2. nginx-2-7lzx9:  nginx:1.18.0,  
  3. nginx-2-b5fdd:  nginx:1.18.0,  
  4. nginx-2-jw2zp:  nginx:1.18.0,  
  5. nginx-2-l54dz:  nginx:1.18.0,  
  6. nginx-2-nknrt:  nginx:1.18.0, 
  7. nginx-2-rgmsc:  nginx:1.18.0, 
  8. nginx-2-rpr5z:  nginx:1.18.0, 
  9. nginx-2-t49mk:  nginx:1.18.0,  
  10. nginx-2-v2bpx:  nginx:1.18.0, 
  11. nginx-2-zpp8z:  nginx:1.18.0,  
  •  现在我们修改yaml文件,将image修改为nginx:alpine 执行更新,运行如下
  1. [root@qd01-stop-k8s-master001 demo]#  kubectl get po -o=jsonpath='{range .items[*]}{"\n"}{.metadata.name}{":\t"}{range .spec.containers[*]}{.image}{", "}{end}{end}' |sort 
  2. nginx-2-7lzx9:  nginx:1.18.0,  
  3. nginx-2-b5fdd:  nginx:1.18.0,  
  4. nginx-2-jw2zp:  nginx:1.18.0,  
  5. nginx-2-l54dz:  nginx:1.18.0,  
  6. nginx-2-nknrt:  nginx:alpine,  
  7. nginx-2-rgmsc:  nginx:alpine,  
  8. nginx-2-rpr5z:  nginx:alpine,  
  9. nginx-2-t49mk:  nginx:1.18.0,  
  10. nginx-2-v2bpx:  nginx:alpine,  
  11. nginx-2-zpp8z:  nginx:1.18.0,  
  •  现在看到,有4个pod的image已经更新为nginx:alpine 然后我们再次修改yaml文件,添加paused: true 
  1. spec: 
  2.   replicas: 10 
  3.   updateStrategy: 
  4.     paused: true 
  5.     type: InPlaceIfPossible 
  6.     inPlaceUpdateStrategy: 
  7.       gracePeriodSeconds: 10 
  •  再次执行apply,更新yaml,再次查看更新进度,发现pod并没有继续更新了,已经暂停升级image了 
  1. [root@qd01-stop-k8s-master001 demo]#  kubectl get po -o=jsonpath='{range .items[*]}{"\n"}{.metadata.name}{":\t"}{range .spec.containers[*]}{.image}{", "}{end}{end}' |sort 
  2. nginx-2-7lzx9:  nginx:1.18.0,  
  3. nginx-2-b5fdd:  nginx:1.18.0,  
  4. nginx-2-jw2zp:  nginx:1.18.0,  
  5. nginx-2-l54dz:  nginx:1.18.0,  
  6. nginx-2-nknrt:  nginx:alpine,  
  7. nginx-2-rgmsc:  nginx:alpine,  
  8. nginx-2-rpr5z:  nginx:alpine,  
  9. nginx-2-t49mk:  nginx:1.18.0,  
  10. nginx-2-v2bpx:  nginx:alpine,  
  11. nginx-2-zpp8z:  nginx:1.18.0,  
  •  最后把paused: true取消,再次apply yaml文件,升级会继续。。。 
  1. [root@qd01-stop-k8s-master001 demo]#  kubectl get po -o=jsonpath='{range .items[*]}{"\n"}{.metadata.name}{":\t"}{range .spec.containers[*]}{.image}{", "}{end}{end}' |sort 
  2. nginx-2-7lzx9:  nginx:alpine,  
  3. nginx-2-b5fdd:  nginx:alpine,  
  4. nginx-2-jw2zp:  nginx:alpine,  
  5. nginx-2-l54dz:  nginx:alpine,  
  6. nginx-2-nknrt:  nginx:alpine,  
  7. nginx-2-rgmsc:  nginx:alpine,  
  8. nginx-2-rpr5z:  nginx:alpine,  
  9. nginx-2-t49mk:  nginx:alpine,  
  10. nginx-2-v2bpx:  nginx:alpine,  
  11. nginx-2-zpp8z:  nginx:alpine,  

以上就是整个发布暂停的演示,这个功能好处就是;我们在升级的过程中可以随时中断升级。

除此之外,CloneSet还有很多特性,例如:MaxUnavailable 最大不可用数量、MaxSurge 最大弹性数量、升级顺序、打散策略、生命周期钩子等,鉴于文章篇幅,这些特性不再演示了,有需要的可以查看官方文档。

原文地址:https://www.toutiao.com/i6909374901640118788/

延伸 · 阅读

精彩推荐