部署k8s ssl集群实践6:配置高可用kube-apiserver组件ha+keepalived

参考文档:
https://github.com/opsnull/follow-me-install-kubernetes-cluster
感谢作者的无私分享。
集群环境已搭建成功跑起来。
文章是部署过程中遇到的错误和详细操作步骤记录。如有需要对比参考,请按照顺序阅读和测试。

kubernetes master 节点运行如下组件:
kube-apiserver
kube-scheduler
kube-controller-manager
kube-scheduler 和 kube-controller-manager 可以以集群模式运行,通过 leader 选举产
生一个工作进程,其它进程处于阻塞模式。
对于 kube-apiserver,可以运行多个实例(本文档是 3 实例),但对其它组件需要提供统一的访问地址,该地址需要高可用。本文档使用 keepalived 和 haproxy 实现 kubeapiserver
VIP 高可用和负载均衡。

集群模式和ha+keepalived的主要区别是什么呢?
ha+keepalived配置vip,实现了api唯一的访问地址和负载均衡。
集群模式没有配置vip。

6.1
配置高可用组件

keepalived 提供 kube-apiserver 对外服务的 VIP;
haproxy 监听 VIP,后端连接所有 kube-apiserver 实例,提供健康检查和负载均衡
功能;
运行 keepalived 和 haproxy 的节点称为 LB 节点。由于 keepalived 是一主多备运行模
式,故至少两个 LB 节点。
本文档复用 master 节点的三台机器,haproxy 监听的端口(8443) 需要与 kube-apiserver
的端口 6443 不同,避免冲突。
keepalived 在运行过程中周期检查本机的 haproxy 进程状态,如果检测到 haproxy 进程
异常,则触发重新选主的过程,VIP 将飘移到新选出来的主节点,从而实现 VIP 的高可
用。
所有组件(如 kubeclt、apiserver、controller-manager、scheduler 等)都通过 VIP 和
haproxy 监听的 8443 端口访问 kube-apiserver 服务。

安装软件包(三节点都安装)
yum -y install keepalived haproxy

配置haproxy.cfg

[[email protected] haproxy]# cat haproxy.cfg |grep -v ^#
global
? ? log? ? ? ?? 127.0.0.1 local2
? ? chroot? ? ? /var/lib/haproxy
? ? pidfile? ?? /var/run/haproxy.pid
? ? maxconn? ?? 4000
? ? user? ? ? ? haproxy
? ? group? ? ?? haproxy
? ? daemon
? ? stats socket /var/lib/haproxy/stats
defaults
? ? mode? ? ? ? ? ? ? ? ?? tcp
? ? log? ? ? ? ? ? ? ? ? ?? global
? ? timeout connect? ? ? ?? 10s
? ? timeout client? ? ? ? ? 1m
? ? timeout server? ? ? ? ? 1m
? ? timeout check? ? ? ? ?? 10s
? ? maxconn? ? ? ? ? ? ? ?? 3000
frontend? ? ? ?? kube-api
bind? ? ? ? ? ? ? ? ? 0.0.0.0:8443
mode? ? ? ? ? ? ? ? tcp
log? ? ? ? ? ? ? ? ? ? ? ?? global
default_backend? ? ? ?? kube-master

backend? ? ? ?? kube-master
? ? balance? ?? source
? ? server? k8s-master 192.168.1.92:6443 check inter 2000 fall 2
? ? server? k8s-node1? 192.168.1.93:6443 check inter 2000 fall 2
? ? server? k8s-node2? 192.168.1.95:6443 check inter 2000 fall 2
listen stats
mode http
bind 0.0.0.0:1080
stats enable
stats hide-version
stats uri /haproxyadmin?stats
stats realm Haproxy\ Statistics
stats auth admin:admin
stats admin if TRUE
[[email protected] haproxy]#

拷贝到其他节点

[[email protected] haproxy]# scp haproxy.cfg [email protected]:/etc/haproxy/
haproxy.cfg? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 100% 1300? ?? 1.7MB/s?? 00:00? ?
[[email protected] haproxy]# scp haproxy.cfg [email protected]:/etc/haproxy/
haproxy.cfg? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 100% 1300? ?? 1.7MB/s?? 00:00? ?
[[email protected] haproxy]#

haproxy 在 1080 端口输出 status 信息;
haproxy 监听所有接口的 8443 端口,该端口与环境变量 ${KUBE_APISERVER} 指
定的端口必须一致;
server 字段列出所有 kube-apiserver 监听的 IP 和端口;

启动haproxy

[[email protected] haproxy]# systemctl status haproxy -l
● haproxy.service - HAProxy Load Balancer
?? Loaded: loaded (/usr/lib/systemd/system/haproxy.service; disabled; vendor preset: disabled)
?? Active: active (running) since 二 2018-08-21 17:15:40 CST; 2min 19s ago
Main PID: 7709 (haproxy-systemd)
? ? Tasks: 3
?? Memory: 1.7M
?? CGroup: /system.slice/haproxy.service
? ? ? ? ?? ├─7709 /usr/sbin/haproxy-systemd-wrapper -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid
? ? ? ? ?? ├─7710 /usr/sbin/haproxy -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid -Ds
? ? ? ? ?? └─7711 /usr/sbin/haproxy -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid -Ds

8月 21 17:15:40 k8s-master systemd[1]: Started HAProxy Load Balancer.
8月 21 17:15:40 k8s-master systemd[1]: Starting HAProxy Load Balancer...
8月 21 17:15:40 k8s-master haproxy-systemd-wrapper[7709]: haproxy-systemd-wrapper: executing /usr/sbin/haproxy -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid -Ds
[[email protected] haproxy]#

看看端口启动了吗

[[email protected] haproxy]# netstat -tnlp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address? ? ? ? ?? Foreign Address? ? ? ?? State? ? ?? PID/Program name? ?
tcp? ? ? ? 0? ? ? 0 192.168.1.92:2379? ? ?? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 2229/etcd? ? ? ? ??
tcp? ? ? ? 0? ? ? 0 127.0.0.1:2379? ? ? ? ? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 2229/etcd? ? ? ? ??
tcp? ? ? ? 0? ? ? 0 192.168.1.92:2380? ? ?? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 2229/etcd? ? ? ? ??
tcp? ? ? ? 0? ? ? 0 0.0.0.0:111? ? ? ? ? ?? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 749/rpcbind? ? ? ??
tcp? ? ? ? 0? ? ? 0 0.0.0.0:22? ? ? ? ? ? ? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 1034/sshd? ? ? ? ??
tcp? ? ? ? 0? ? ? 0 0.0.0.0:1080? ? ? ? ? ? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 7711/haproxy? ? ? ?
tcp? ? ? ? 0? ? ? 0 127.0.0.1:25? ? ? ? ? ? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 1238/master? ? ? ??
tcp? ? ? ? 0? ? ? 0 0.0.0.0:8443? ? ? ? ? ? 0.0.0.0:*? ? ? ? ? ? ?? LISTEN? ? ? 7711/haproxy? ? ? ?
tcp6? ? ?? 0? ? ? 0 :::111? ? ? ? ? ? ? ? ? :::*? ? ? ? ? ? ? ? ? ? LISTEN? ? ? 749/rpcbind? ? ? ??
tcp6? ? ?? 0? ? ? 0 :::22? ? ? ? ? ? ? ? ?? :::*? ? ? ? ? ? ? ? ? ? LISTEN? ? ? 1034/sshd? ? ? ? ??
tcp6? ? ?? 0? ? ? 0 ::1:25? ? ? ? ? ? ? ? ? :::*? ? ? ? ? ? ? ? ? ? LISTEN? ? ? 1238/master? ? ? ??
[[email protected] haproxy]#

6.2
配置keepalived

keepalived 是一主(master)多备(backup)运行模式,故有两种类型的配置文件。
master 配置文件只有一份,backup 配置文件视节点数目而定,对于本文档而言,规划
如下:

master: 192.168.1.92
backup:192.168.1.93,192.168.1.95

master 配置文件:

[[email protected] keepalived]# cat keepalived.conf
global_defs {?
? ? router_id NodeA?
}?

vrrp_script chk_haproxy {
? ? ? ? script "/etc/keepalived/check_haproxy.sh"
? ? ? ? interval 5
? ? ? ? weight 2
}

vrrp_instance VI_1 {?
? ? state MASTER? ? #设置为主服务器?
? ? interface ens192? #监测网络接口?
? ? virtual_router_id 51? #主、备必须一样?
? ? priority 100?? #(主、备机取不同的优先级,主机值较大,备份机值较小,值越大优先级越高)?
? ? advert_int 1?? #VRRP Multicast广播周期秒数?
? ? authentication {?
? ? auth_type PASS? #VRRP认证方式,主备必须一致?
? ? auth_pass 1111?? #(密码)?
}?
virtual_ipaddress {?
? ? 192.168.1.94/24? #VRRP HA虚拟地址?
}
? ? track_script { ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ? chk_haproxy
}
}
[[email protected] keepalived]#

backup配置文件
[[email protected] keepalived]# cat keepalived.conf
global_defs {?
? ? router_id NodeA?
}?

vrrp_script chk_haproxy {
? ? ? ? script "/etc/keepalived/check_haproxy.sh"
? ? ? ? interval 5
? ? ? ? weight 2
}
vrrp_instance VI_1 {?
? ? state BACKUP? ? #设置为主服务器?
? ? interface ens192? #监测网络接口?
? ? virtual_router_id 51? #主、备必须一样?
? ? priority 90?? #(主、备机取不同的优先级,主机值较大,备份机值较小,值越大优先级越高)?
? ? advert_int 1?? #VRRP Multicast广播周期秒数?
? ? authentication {?
? ? auth_type PASS? #VRRP认证方式,主备必须一致?
? ? auth_pass 1111?? #(密码)?
}?
virtual_ipaddress {?
? ? 192.168.1.94/24? #VRRP HA虚拟地址?
}
? ??track_script {
? ? ? ? chk_haproxy
}
}
[[email protected] keepalived]#

[[email protected] keepalived]# cat keepalived.conf
global_defs {?
? ? router_id NodeA?
}?

vrrp_script chk_haproxy {
? ? ? ? script "/etc/keepalived/check_haproxy.sh"
? ? ? ? interval 5
? ? ? ? weight 2
}
vrrp_instance VI_1 {?
? ? state BACKUP? ? #设置为主服务器?
? ? interface ens192? #监测网络接口?
? ? virtual_router_id 51? #主、备必须一样?
? ? priority 80?? #(主、备机取不同的优先级,主机值较大,备份机值较小,值越大优先级越高)?
? ? advert_int 1?? #VRRP Multicast广播周期秒数?
? ? authentication {?
? ? auth_type PASS? #VRRP认证方式,主备必须一致?
? ? auth_pass 1111?? #(密码)?
}?
virtual_ipaddress {?
? ? 192.168.1.94/24? #VRRP HA虚拟地址?
}
? ??track_script {
? ? ? ? chk_haproxy
}
}
[[email protected] keepalived]#

脚本文件

[[email protected] keepalived]# pwd ? ? ? ? ? ? ? ? ? ? ? ? ? ?##注意脚本存放的路径必须和keepalived配置的路径相同
/etc/keepalived
[[email protected] keepalived]# cat check_haproxy.sh
#!/bin/bash
A=`ps -C haproxy --no-header |wc -l`
if [ $A -eq 0 ];then
systemctl start haproxy.service
fi
sleep 3
if [ `ps -C haproxy --no-header |wc -l` -eq 0 ];then
pkill keepalived
fi
[[email protected] keepalived]#

keepalived测试成功

6.3
遇到的问题:
脚本不执行。
原因:
?##千万注意,track_script这组参数必须写在vip后面,不然脚本不会执行

原文地址:http://blog.51cto.com/goome/2164829

时间: 2024-08-26 15:54:02

部署k8s ssl集群实践6:配置高可用kube-apiserver组件ha+keepalived的相关文章

部署k8s ssl集群实践2:cfssl配置根证书和秘钥

参考文档:https://github.com/opsnull/follow-me-install-kubernetes-cluster感谢作者的无私分享.集群环境已搭建成功跑起来.文章是部署过程中遇到的错误和详细操作步骤记录.如有需要对比参考,请按照顺序阅读和测试. 2.1##安装CFSSL使用CloudFlare 的 PKI 工具集 cfssl 来生成 Certificate Authority (CA) 证书和秘钥文件,CA 是自签名的证书,用来签名后续创建的其它 TLS 证书 [[ema

部署k8s ssl集群实践1:基础环境准备

参考文档:https://github.com/opsnull/follow-me-install-kubernetes-cluster感谢作者的无私分享.集群环境已搭建成功跑起来.文章是部署过程中遇到的错误和详细操作步骤记录.如有需要对比参考,请按照顺序阅读和测试. 1.系统环境准备 三台虚机系统:CentOS Linux release 7.5.1804 (Core)主机名字和ip k8s-master 192.168.1.92 k8s-node1 ?192.168.1.93 k8s-nod

部署k8s ssl集群实践4:部署etcd集群

参考文档:https://github.com/opsnull/follow-me-install-kubernetes-cluster感谢作者的无私分享.集群环境已搭建成功跑起来.文章是部署过程中遇到的错误和详细操作步骤记录.如有需要对比参考,请按照顺序阅读和测试. 4.1下载和分发二进制安装包 [[email protected] kubernetes]# wget https://github.com/coreos/etcd/releases/download/v3.3.7/etcd-v3

部署k8s ssl集群实践3:部署kubectl命令工具行

参考文档:https://github.com/opsnull/follow-me-install-kubernetes-cluster感谢作者的无私分享.集群环境已搭建成功跑起来.文章是部署过程中遇到的错误和详细操作步骤记录.如有需要对比参考,请按照顺序阅读和测试. 3.1下载和分发 kubectl 二进制文件 [[email protected] kubernetes]# wget https://dl.k8s.io/v1.10.4/kubernetes-client-linux-amd64

部署k8s ssl集群实践14:work节点部署kube-proxy

二进制文件前面已经下载分发好. 6.1创建kube-proxy证书 创建证书签名请求 [[email protected] kube-proxy]# cat kube-proxy-csr.json { "CN": "system:kube-proxy", "key": { "algo": "rsa", "size": 2048 }, "names": [ { &quo

部署k8s ssl集群实践11:work节点配置flanneld

前面三节点flanneld已经部署好,只需要在新加节点部署flanneld即可 把flanneld执行文件copy到新加节点 [[email protected] ~]# scp [email protected]:/opt/k8s/bin/flanneld /opt/k8s/bin [email protected]'s password: flanneld? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

使用kubeadm部署k8s集群02-配置etcd高可用

使用kubeadm部署k8s集群02-配置etcd高可用 2018/1/4 配置 etcd 高可用 新建一个 2 节点的 etcd cluster 查看 etcd 的状态 迁移原来 master 节点上的 etcd 数据到上面新建的 etcd cluster 中 切换 kube-apiserver 使用新的 etcd endpoint 地址 清理掉原来的单节点 etcd 服务 重建一个 etcd 服务,加入新集群 部署新的 etcd 节点 更新另外2个节点的 etcd.yaml 配置 新建一个

Apache shiro集群实现 (六)分布式集群系统下的高可用session解决方案---Session共享

Apache shiro集群实现 (一) shiro入门介绍 Apache shiro集群实现 (二) shiro 的INI配置 Apache shiro集群实现 (三)shiro身份认证(Shiro Authentication) Apache shiro集群实现 (四)shiro授权(Authentication)--访问控制 Apache shiro集群实现 (五)分布式集群系统下的高可用session解决方案 Apache shiro集群实现 (六)分布式集群系统下的高可用session

分布式集群系统下的高可用session解决方案

目前,为了使web能适应大规模的访问,需要实现应用的集群部署. 而实现集群部署首先要解决session的统一,即需要实现session的共享机制. 目前,在集群系统下实现session统一的有如下几种方案: (1) 应用服务器间的session复制共享(如tomcat session共享) (2) 基于cache DB缓存的session共享 应用服务器间的session复制共享 session复制共享,主要是指集群环境下,多台应用服务器之间同步session,使session保持一致,对外透明