kubernetes部署全生命周期实践(一)

kubernetes部署全生命周期实践(一)


- 1.部署应用
kubectl run kubernetes-bootcamp   --image=docker.io/jocatalin/kubernetes-bootcamp:v1   --port=8080
- 2.映射外部可以访问的端口

 kubectl expose deployment kubernetes-bootcamp   --type="NodePort"   --port 8080

- 3.查看服务
 kubectl get services

- 4.scale应用
    - 4.1查看副本数
 kubectl get deployments
    - 4.2 扩展副本数
 kubectl scale deployment kubernetes-bootcamp --replicas=3
    - 4.3 scale down 副本
 kubectl scale deployments/kubernetes-bootcamp --replicas=2

- 5.滚动更新
    - 5.1 升级
    kubectl set image deployment kubernetes-bootcamp kubernetes-bootcamp=jocatalin/kubernetes-bootcamp:v2
    - 5.2 回退
    kubectl rollout undo deployments/kubernetes-bootcamp

原文地址:http://blog.51cto.com/huwho/2342956

时间: 2024-10-08 23:34:53

kubernetes部署全生命周期实践(一)的相关文章

[转载]DevOps建立全生命周期管理

全生命周期管理(ALM)领域作为企业DevOps实践的总体支撑,应该说是DevOps领域中最为重要的实践领域,也是所有其他实践的基础设施.现在很多企业都非常重视CI/CD自动化工具的引入和推广,但是对ALM的建设的重视程度并不够.CI/CD的火爆很大程度上是被Docker和DevOps的热潮带动的,但CI/CD自动化只是提升团队效率的一个环节,如果没有ALM工具的支撑,CI/CD也只是空中楼阁,无法起到整体优化团队工作效率的作用,甚至局部的效率提高还会造成团队的不适应甚至抵触.如果管理者看不到自

Spark发行笔记8:解读Spark Streaming RDD的全生命周期

本节主要内容: 一.DStream与RDD关系的彻底的研究 二.StreamingRDD的生成彻底研究 Spark Streaming RDD思考三个关键的问题: RDD本身是基本对象,根据一定时间定时产生RDD的对象,随着时间的积累,不对其管理的话会导致内存会溢出,所以在BatchDuration时间内执行完RDD操作后,需对RDD进行管理. 1.DStream生成RDD的过程,DStream到底是怎么生成RDD的? 2.DStream和RDD到底什么关系? 3.运行之后怎么对RDD处理? 所

SView航天全生命周期解决方案

在产品的全生命周期管理中,越来越多环节需要产品的数据协同,在这其中以3D模型为数据基础,向各阶段人员提供一致的产品和项目信息,达到更好的沟通和协作,模拟真实性以便让各方更高效.更精确的生产制造. 需求描述? 卫星.运载火箭等航天器结构越来越复杂,三维设计模型越来越大,大模型的显示.浏览和使用越来越困难:? 现场人员在航天器操作和检验时浏览卫星模型和电子化表格记录非常不便,需要加强现场质量数据表格化记录的规范性.结合航天院所的实际应用,SView提供了从设计研发.工艺规划.生产制造.质量检验.维修

安全玻璃盒 IAST | 如何构建应用安全全生命周期解决方案——【DevSecOps】

为何需要建立DevSecOps? 1.1应用软件安全风险的影响面对当前万物智能互联.数字经济高速发展的大环境下,应用软件安全对于推动我国数字经济发展.维护社会稳定及国家安全都将起着至关重要的地位和作用.据Gartner报告显示:超过 80% 的网络***都发生在应用层,所披露的漏洞70%以上与应用安全有关,特别是SQL注入.XSS.CSRF.目录遍历等漏洞,所以应用安全将是安全保障的重中之重. 1.2安全需要前置当前以云计算.大数据及人工智能等为核心技术,构建了万物互联的数字智能世界,消除了原有

Spark Streaming源码解读之Receiver在Driver的精妙实现全生命周期彻底研究和思考

一:Receiver启动的方式设想 1. Spark Streaming通过Receiver持续不断的从外部数据源接收数据,并把数据汇报给Driver端,由此每个Batch Durations就可以根据汇报的数据生成不同的Job. 2. Receiver属于Spark Streaming应用程序启动阶段,那么我们找Receiver在哪里启动就应该去找Spark Streaming的启动. 3. Receivers和InputDStreams是一一对应的,默认情况下一般只有一个Receiver.

Spark 定制版:009~Spark Streaming源码解读之Receiver在Driver的精妙实现全生命周期彻底研究和思考

本讲内容: a. Receiver启动的方式设想 b. Receiver启动源码彻底分析 注:本讲内容基于Spark 1.6.1版本(在2016年5月来说是Spark最新版本)讲解. 上节回顾 上一讲中,我们给大家具体分析了RDD的物理生成和逻辑生成过程,彻底明白DStream和RDD之间的关系,及其内部其他有关类的具体依赖等信息: a. DStream是RDD的模板,其内部generatedRDDs 保存了每个BatchDuration时间生成的RDD对象实例.DStream的依赖构成了RDD

第9课:Spark Streaming源码解读之Receiver在Driver的精妙实现全生命周期彻底研究和思考

一:Receiver启动的方式设想 1. Spark Streaming通过Receiver持续不断的从外部数据源接收数据,并把数据汇报给Driver端,由此每个Batch Durations就可以根据汇报的数据生成不同的Job. 2. Receiver属于Spark Streaming应用程序启动阶段,那么我们找Receiver在哪里启动就应该去找Spark Streaming的启动. 3. Receivers和InputDStreams是一一对应的,默认情况下一般只有一个Receiver.

Spark发行版笔记10:Spark Streaming源码解读之流数据不断接收和全生命周期彻底研究和思考

本节的主要内容: 一.数据接受架构和设计模式 二.接受数据的源码解读 Spark Streaming不断持续的接收数据,具有Receiver的Spark 应用程序的考虑. Receiver和Driver在不同进程,Receiver接收数据后要不断给Deriver汇报. 因为Driver负责调度,Receiver接收的数据如果不汇报给Deriver,Deriver调度时不会把接收的数据计算入调度系统中(如:数据ID,Block分片). 思考Spark Streaming接收数据: 不断有循环器接收

全生命周期的思维方式

宇宙中任何事物,都具有从出生到死亡的过程,大到银河系的星球,小到地球上的微生物,无论其生命长短,都具有从出现到消亡的过程. 组织中的各种事物同样要经历从无到有,从有到无的发展过程.对于企业而言,其客户要经历考察期.形成期.稳定期和退化期四个阶段:企业的产品同样会经过投入期.成长期.成熟期和衰退期四个阶段:企业的设备资源会经过采购.使用.磨损.废弃等几个阶段:企业的员工会经过招募.入职.培训.提拔.解约等几个阶段:企业的信息系统会经过需求分析.架构设计.开发测试.上线运行.运维维护.下线退出等几个