K8S集群中使用Helm管理应用分发

本文介绍在k8s上部署和使用helm。Helm是Kubernetes的一个包管理工具,用来简化Kubernetes应用的部署和管理。可以把Helm比作CentOS的yum工具。 通过使用使用Helm可以管理Kubernetes manifest files、管理Helm安装包charts、基于chart的Kubernetes应用分发。

一、Helm的基本概念

Chart: 是helm的应用打包格式。Chart由一系列文件组成,这些文件类似rpm包

Chart目录结构:
1、chart.yaml
Yaml文件,用来描述chart的摘要信息

2、readme.md
Markdown格式的readme文件,此文件为可选

3、LICENSE
文本文件,描述chart的许可信息,此文件为可选

4、requirements.yaml
Yaml文件,用来描述chart的的依赖关系,在安装过程中,依赖的chart也会被一起安装

5、value.yaml
Yaml文件,chart支持在安装的时候做对配置参数做定制化配置,value.yaml文件为配置参数的默认值

6、templates目录
各类k8s资源的配置模板目录

二、安装Helm客户端

# cd /usr/local/src/
# # wget https://storage.googleapis.com/kubernetes-helm/helm-v2.8.2-linux-amd64.tar.gz
# tar -zxvpf helm-v2.8.2-linux-amd64.tar.gz
# mv linux-amd64/helm  /usr/local/sbin/helm
# helm version
Client: &version.Version{SemVer:"v2.8.2",
GitCommit:"a80231648a1473929271764b920a8e346f6de844", GitTreeState:"clean"}
rror: cannot connect to Tiller

三、安装Helm server端

# helm init --upgrade -i  registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.8.2   --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts

# helm  version
Client: &version.Version{SemVer:"v2.8.2",
GitCommit:"a80231648a1473929271764b920a8e346f6de844", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.8.2",
GitCommit:"a80231648a1473929271764b920a8e346f6de844", GitTreeState:"clean"}

# kubectl get pod -n kube-system -o wide
# kubectl get deployment tiller-deploy -n kube-system -o wide

四、使用Helm部署测试应用

# helm repo update
# helm repo list
# helm install stable/nginx-ingress 


出现Error: no available release name found提示是因为未配置rbac

# kubectl create serviceaccount --namespace kube-system tiller
# kubectl create clusterrolebinding tiller-cluster-rule  --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
# kubectl patch deploy --namespace kube-system tiller-deploy -p ‘{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}‘

# helm install stable/nginx-ingress 

# kubectl get pod
# kubectl get deployment
# kubectl get svc

五、删除已部署的应用

# helm  list
# helm delete invisible-greyhound
# kubectl get pod
# kubectl get deployment
# kubectl get svc

原文地址:http://blog.51cto.com/ylw6006/2136075

时间: 2024-10-29 17:34:38

K8S集群中使用Helm管理应用分发的相关文章

K8S集群中部署jenkins

本文介绍在k8s环境中进行jenkins server的部署和配置.Jenkins是一个开源的.功能强大的持续集成和持续构建工具,采用master和salve架构,我们通过将jenkins集成环境部署在k8s集群中,可以实现jenkins slave按需创建.动态的伸缩.同时也提供了在k8s环境中应用的持续部署解决方案. 一.准备docker镜像文件 1.编译jenkins server docker镜像,默认的jenkis镜像已包含jdk,版本为1.8.0_171 # cat dockerfi

【K8S学习笔记】Part2:获取K8S集群中运行的所有容器镜像

本文将介绍如何使用kubectl列举K8S集群中运行的Pod内的容器镜像. 注意:本文针对K8S的版本号为v1.9,其他版本可能会有少许不同. 0x00 准备工作 需要有一个K8S集群,并且配置好了kubectl命令行工具来与集群通信.如果未准备好集群,那么你可以使用Minikube创建一个K8S集群,或者你也可以使用下面K8S环境二者之一: Katacoda Play with Kubernetes 如果需要查看K8S版本信息,可以输入指令kubectl version. 在本练习中,我们将使

k8s集群中的存储持久化概述

存储分类:直连式存储,集中式共享存储,分布式存储文件存储,块存储,对象存储DAS,NAS,SANDAS属于直连式存储,将存储设备通过SCSI接口或者光纤通道直接和主板连接,不能实现数据共享NAS和SAN属于集中式共享存储NAS使用NFS和CIFS(原来叫SMB,微软的)协议SAN分为FC SAN和IP SANIP SAN使用iSCSI技术NFS实现linux之间共享,smaba基于CIFS协议,实现linux和windows之间文件共享ceph属于分布式共享系统 k8s集群中支持的持久存储主要包

同一k8s集群中多nginx ingress controller

同一k8s集群中多nginx ingress controller同一k8s集群中,若有多个项目(对应多个namespace)共用一个nginx ingress controller,因此任意注册到ingress的服务有变更都会导致controller配置重载,当更新频率越来越高时,此controller压力会越来越大,理想的解决方案就是每个namespace对应一个nginx ingress controller,各司其职. NGINX ingress controller提供了ingress

将 master 节点服务器从 k8s 集群中移除并重新加入

背景 1 台 master 加入集群后发现忘了修改主机名,而在 k8s 集群中修改节点主机名非常麻烦,不如将 master 退出集群改名并重新加入集群(前提是用的是高可用集群). 操作步骤 ssh 登录另外一台 master 节点将要改名的 master 节点移出集群. kubectl drain blog-k8s-n0 kubectl delete node blog-k8s-n0 登录已退出集群的 master 服务器重置 kubelet 配置并重新加入集群. kubeadm reset k

k8s集群中的rbac权限管理

启用RBAC,需要在 apiserver 中添加参数--authorization-mode=RBAC,如果使用的kubeadm安装的集群,1.6 版本以上的都默认开启了RBAC查看是否开启:$ cat /etc/kubernetes/manifests/kube-apiserver.yaml spec: containers: - command: - kube-apiserver - --advertise-address=192.168.1.243 - --allow-privileged

实操教程丨如何在K8S集群中部署Traefik Ingress Controller

注:本文使用的Traefik为1.x的版本 在生产环境中,我们常常需要控制来自互联网的外部进入集群中,而这恰巧是Ingress的职责. Ingress的主要目的是将HTTP和HTTPS从集群外部暴露给该集群中运行的服务.这与Ingress控制如何将外部流量路由到集群有异曲同工之妙.接下来,我们举一个实际的例子来更清楚的说明Ingress的概念. 首先,想象一下在你的Kubernetes集群中有若干个微服务(小型应用程序之间彼此通信).这些服务能够在集群内部被访问,但我们想让我们的用户从集群外部也

k8s集群中的EFK日志搜集系统

Kubernetes 集群本身不提供日志收集的解决方案,一般来说有主要的3种方案来做日志收集:1.在每个节点上运行一个 agent 来收集日志由于这种 agent 必须在每个节点上运行,所以直接使用 DaemonSet 控制器运行该应用程序即可这种方法也仅仅适用于收集输出到 stdout 和 stderr 的应用程序日志简单来说,本方式就是在每个node上各运行一个日志代理容器,对本节点/var/log和 /var/lib/docker/containers/两个目录下的日志进行采集2.在每个

使用nfs在k8s集群中实现持久化存储

准备NFS服务192.168.1.244$ yum -y install nfs-utils rpcbind$ systemctl start nfs-server rpcbind$ systemctl enable nfs-server rpcbind$ mkdir -p /data/k8s$ cd /data/k8s$ echo 11111111 > index.html$ vim /etc/exports/data/k8s *(rw,async,no_root_squash)$ syste