kubernetes 控制器

1.基础

apiVersion: apps/v1
kind: Deployment
metadata:
  name: myapp-deploy
  namespace: default
spec:
  replicas: 2
  selector:
    matchLabels:
      app: myapp
      release: dev
  template:
    metadata:
      labels:
        app: myapp
        release: dev
    spec:
      containers:
      - name: myapp-rongqi
        image: ikubernetes/myapp:v1

2.滚动升级

vim de.yaml #修改yaml里的镜像版本

 apiVersion: apps/v1
kind: Deployment
metadata:
  name: myapp-deploy
  namespace: default
spec:
  replicas: 5
  selector:
    matchLabels:
      app: myapp
      release: dev
  strategy:
    rollingUpdate:
    #设置策略为滚动更新,还有一个重建更新,全部一起结束一起新建 不友好这里就不介绍了
      maxSurge: 1
      #最大可超出预设值1个容器
      maxUnavailable: 0
      #最大可有0个容器不可用 ,整体表示更新时可同时可有6个容器,必须保证有5个容器可用
  template:
    metadata:
      labels:
        app: myapp
        release: dev
    spec:
      containers:
      - name: myapp-rongqi
        image: ikubernetes/myapp:v1

kubectl apply -f de.yaml #用apply更新配置

[[email protected] ~]# kubectl get pod  -l app=myapp -w
NAME                            READY   STATUS    RESTARTS   AGE
myapp-deploy-576d479bcc-bt7hz   1/1     Running   0          47m
myapp-deploy-576d479bcc-bzqwv   1/1     Running   0          11m
myapp-deploy-576d479bcc-hf6kb   1/1     Running   0          47m
myapp-deploy-576d479bcc-hgb6w   1/1     Running   0          11m
myapp-deploy-576d479bcc-vztqp   1/1     Running   0          11m
myapp-deploy-7f969b64fb-2frdn   0/1     Pending   0          0s
myapp-deploy-576d479bcc-vztqp   1/1     Terminating   0          12m
myapp-deploy-7f969b64fb-6lhjw   0/1     Pending       0          0s
myapp-deploy-7f969b64fb-2frdn   0/1     Pending       0          0s
myapp-deploy-7f969b64fb-6lhjw   0/1     Pending       0          0s
myapp-deploy-7f969b64fb-5ms8f   0/1     Pending       0          0s
myapp-deploy-7f969b64fb-5ms8f   0/1     Pending       0          0s
myapp-deploy-7f969b64fb-6lhjw   0/1     ContainerCreating   0          1s
myapp-deploy-7f969b64fb-2frdn   0/1     ContainerCreating   0          1s
myapp-deploy-7f969b64fb-5ms8f   0/1     ContainerCreating   0          0s
myapp-deploy-7f969b64fb-2frdn   0/1     ContainerCreating   0          35s
myapp-deploy-7f969b64fb-5ms8f   0/1     ContainerCreating   0          35s
myapp-deploy-7f969b64fb-6lhjw   0/1     ContainerCreating   0          36s
myapp-deploy-576d479bcc-vztqp   0/1     Terminating         0          12m
myapp-deploy-576d479bcc-vztqp   0/1     Terminating         0          12m
myapp-deploy-576d479bcc-vztqp   0/1     Terminating         0          12m
myapp-deploy-7f969b64fb-5ms8f   1/1     Running             0          43s
myapp-deploy-7f969b64fb-2frdn   1/1     Running             0          47s
myapp-deploy-7f969b64fb-6lhjw   1/1     Running             0          51s
myapp-deploy-576d479bcc-hgb6w   1/1     Terminating         0          13m
myapp-deploy-576d479bcc-bzqwv   1/1     Terminating         0          13m
myapp-deploy-576d479bcc-bt7hz   1/1     Terminating         0          49m
myapp-deploy-7f969b64fb-gprvk   0/1     Pending             0          0s
myapp-deploy-7f969b64fb-fwdbr   0/1     Pending             0          0s
myapp-deploy-7f969b64fb-fwdbr   0/1     Pending             0          1s
myapp-deploy-7f969b64fb-gprvk   0/1     Pending             0          1s
myapp-deploy-7f969b64fb-fwdbr   0/1     ContainerCreating   0          1s
myapp-deploy-7f969b64fb-gprvk   0/1     ContainerCreating   0          1s
myapp-deploy-576d479bcc-hgb6w   0/1     Terminating         0          13m
myapp-deploy-576d479bcc-bzqwv   0/1     Terminating         0          13m
myapp-deploy-7f969b64fb-fwdbr   0/1     ContainerCreating   0          18s
myapp-deploy-7f969b64fb-gprvk   0/1     ContainerCreating   0          19s
myapp-deploy-576d479bcc-hgb6w   0/1     Terminating         0          13m
myapp-deploy-576d479bcc-bt7hz   0/1     Terminating         0          49m
myapp-deploy-576d479bcc-bzqwv   0/1     Terminating         0          13m
myapp-deploy-7f969b64fb-gprvk   1/1     Running             0          20s
myapp-deploy-7f969b64fb-fwdbr   1/1     Running             0          20s

kubectl get rs -o wide #使用命令查看

可以看到当前镜像版本已经换成了v2 且模板也变了,之前的v1版本还保这方便回滚,yaml文件内容修改一次就会当做一次更新,最后一串数字就是通过yaml文件计算出来的
注意: deployment的pod模板被更改时才会创建新的修订版本,例如更新模板标签或者容器镜像可以触发滚动更新, 其它操作例如扩展副本数将不会触发deployment的更新操作

金丝雀发布

kubectl set image deploy myapp-deploy myapp-rongqi=ikubernetes/myapp:v3 && kubectl rollout pause deploy myapp-deploy
#kubectl set image deploy "控制器Name" "容器name"=ikubernetes/myapp:v3 && kubectl rollout pause deploy "控制器Name"
#原理就是先升级一个容器的版本,执行pause 暂停升级任务,待升级的那个容器经过真实用户测试后无错后解除暂停

kubectl get rs -o wide #查看控制器能看到,有1个v3版,5个v2版本,出现6个的原因是我滚动策略定义了升级可允许存在6个
kubectl rollout resume deploy myapp-deploy
#解除暂停

#解除暂停后能看到,v2版本在一点点的关闭向v3版转移,最终v2全部关闭,v3版5个容器全部正常上线

回滚

 kubectl rollout history deployment/nginx-deployment
 #查看升级历史记录
 kubectl rollout history deployment/nginx-deployment --revision=2
 #查看某个升级历史记录的的详细信息
kubectl rollout undo deployment/nginx-deployment
#回滚到上一个版本
kubectl rollout undo deployment/nginx-deployment --to-revision=2
#回滚到指定版本

原文地址:https://blog.51cto.com/13620944/2459814

时间: 2024-08-01 08:20:57

kubernetes 控制器的相关文章

kubernetes控制器

一 概述 1 控制器的必要性 自主POD调度绑定至节点若主程序崩溃则节点kubelet能够自动重启容器,但若是非主进程崩溃类的容器kubelet无从感知.这便需要依赖于POD对象定义的存活探测,以便kubelet能够探知到此类故障,但若pod被删除或者工作节点自身发生故障(工作节点上都有kubelet,kubelet不可用,因此其健康状态便无法保证),则便需要控制器来处理相应的容器重启和配置. 2 常见的工作负载控制器 POD 控制器有master 的 kube-controller-manag

图解kubernetes控制器StatefulSet核心实现原理

StatefulSet是k8s中有状态应用管理的标准实现,今天就一起来了解下其背后设计的场景与原理,从而了解其适用范围与场景 1. 基础概念 首先介绍有状态应用里面的需要考虑的一些基础的事情,然后在下一章我们再去看statefulSet的关键实现 1.1 有状态与无状态 在日常开发的应用中,通常可以分为两大类:有状态与无状态,比如web服务通常都是无状态的,web应用数据主要来自后端存储.缓存等中间件,而本身并不保存数; 而诸如redis.es等其数据也是应用自身的一部分,由此可以看出有状态应用

如何在GO语言中使用Kubernetes API?

Rancher Labs首席软件工程师Alena Prokharchyk受邀在2017年12月6-8日的CNCF主办的Kubernetes领域顶级盛会KubeCon + CloudNativeCon 2017北美峰会上进行演讲,本文由演讲内容整理而成. 随着Kubernetes越来越受欢迎,围绕它的集成和监控服务的数量也在不断增长.Golang编写的所有此类服务的关键组件是kubernetes / client-go--一个用于与Kubernetes集群API通信的软件包.在本文中,我们将讨论c

亲历者说:Kubernetes API 与 Operator,不为人知的开发者战争

如果我问你,如何把一个 etcd 集群部署在 Google Cloud 或者阿里云上,你一定会不假思索的给出答案:当然是用 etcd Operator! 实际上,几乎在一夜之间,Kubernetes Operator 这个新生事物,就成了开发和部署分布式应用的一项事实标准.时至今日,无论是 etcd.TiDB.Redis,还是 Kafka.RocketMQ.Spark.TensorFlow,几乎每一个你能叫上名字来的分布式项目,都由官方维护着各自的 Kubernetes Operator.而 O

K8S 1.12大特性最快最深度解析:Kubernetes CSI Snapshot(上)

? 背景 许多存储系统提供了创建存储卷“快照”(snapshot)的能力,以防止数据丢失.快照可以替代传统的备份系统来备份和还原主要数据和关键数据.快照能够快速备份数据(例如,创建GCE PD快照仅需要几分之一秒), 并提供快速恢复时间目标(RTO)和恢复点目标(RPO).快照还可用于数据复制.分发和迁移. 早在kubernetes 1.8版本中,卷快照系统原型已经发布,其实现位于external-storage(https://github.com/kubernetes-incubator/e

从零开始入门 K8s| K8s 的应用编排与管理

作者 | 张振 阿里巴巴高级技术专家 一.资源元信息 1. Kubernetes 资源对象 我们知道,Kubernetes 的资源对象组成:主要包括了 Spec.Status 两部分.其中 Spec 部分用来描述期望的状态,Status 部分用来描述观测到的状态. 今天我们将为大家介绍 K8s 的另外一个部分,即元数据部分.该部分主要包括了用来识别资源的标签:Labels, 用来描述资源的注解:Annotations, 用来描述多个资源之间相互关系的 OwnerReference.这些元数据在

轻松部署calico

一.资源 官方文档 https://docs.projectcalico.org/v3.8/getting-started/kubernetes/installation/integration 二.Calico 部署注意事项 在使用 Calico 前当然最好撸一下官方文档,地址在这里 Calico 官方文档,其中部署前需要注意以下几点 官方文档中要求 kubelet 配置必须增加 --network-plugin=cni 选项 kube-proxy 组件必须采用 iptables proxy

[原创]边缘计算开源方案对比

通过分析对比EdgeX Foundry.K3S.KubeEdge.StarlingX和OpenEdge五个开源边缘计算框架的差异,推荐选择华为开源的KubeEdge边缘计算集群方案来自建边缘计算集群. 一.五个边缘计算开源框架的简介: 1)EdgeX Foundry      Linux基金组织的开源项目.偏重于端侧设备的管理,定位是通用工业IOT边缘计算通用框架,提供了一些设备接入.边缘数据传输等场景的实现,但不具备云上对边缘端的应用和设备的管控.云边协同等智能边缘系统的能力,架构组件之间依赖

Kubernetes之Pod控制器,ReplicaSet,Deployment,DaemonSet

目录 Kubernetes之Pod控制器,ReplicaSet,Deployment,DaemonSet ReplicaSet Deployment控制器 创建Deployment Deployment更新 Deployment扩容 金丝雀发布 Deployment回滚 DaemonSet 定义 DaemonSet演示 redis-filebeat DaemonSet的滚动更新 Kubernetes之Pod控制器,ReplicaSet,Deployment,DaemonSet Kubernete