K8S集群安装 之 安装主控节点etcd服务

一、在根证书服务器上创建基于根证书的config配置文件

200 certs]# cd /opt/certs/
200 certs]# vi /opt/certs/ca-config.json

{
    "signing": {
        "default": {
            "expiry": "175200h"
        },
        "profiles": {
            "server": {
                "expiry": "175200h",
                "usages": [
                    "signing",
                    "key encipherment",
                    "server auth"
                ]
            },
            "client": {
                "expiry": "175200h",
                "usages": [
                    "signing",
                    "key encipherment",
                    "client auth"
                ]
            },
            "peer": {
                "expiry": "175200h",
                "usages": [
                    "signing",
                    "key encipherment",
                    "server auth",
                    "client auth"
                ]
            }
        }
    }
}

二、创建etcd自签证书签名请求csr的json配置文件

200 certs]# vi etcd-peer-csr.json
{
    "CN": "k8s-etcd",
    "hosts": [
        "10.3.153.212",
        "10.3.153.221",
        "10.3.153.222"
    ],
    "key": {
        "algo": "rsa",
        "size": 2048
    },
    "names": [
        {
            "C": "CN",
            "ST": "beijing",
            "L": "beijing",
            "O": "od",
            "OU": "ops"
        }
    ]
}
200 certs]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=peer etcd-peer-csr.json |cfssl-json -bare etcd-peer
[[email protected] certs]# ll | grep etcd-peer
-rw-r--r-- 1 root root 1062 Feb  1 00:19 etcd-peer.csr
-rw-r--r-- 1 root root  375 Feb  1 00:15 etcd-peer-csr.json
-rw------- 1 root root 1675 Feb  1 00:19 etcd-peer-key.pem    #证书私钥
-rw-r--r-- 1 root root 1428 Feb  1 00:19 etcd-peer.pem            #证书文件

三、分别在三台主机上安装etcd服务

# 212/221/222机器:
~]# mkdir /opt/src
~]# cd /opt/src/
src]# useradd -s /sbin/nologin -M etcd
src]# id etcd
# 到GitHub下载或者直接用我给得安装包 https://github.com/etcd-io/etcd/tags
src]# tar xf etcd-v3.1.20-linux-amd64.tar.gz -C /opt
opt]# mv etcd-v3.1.20-linux-amd64/ etcd-v3.1.20
opt]# ln -s /opt/etcd-v3.1.20/ /opt/etcd
opt]# cd etcd
~~~

~~~
# 212/221/222机器:
etcd]# mkdir -p /opt/etcd/certs /data/etcd /data/logs/etcd-server
etcd]# cd certs/
certs]# scp 10.3.153.200:/opt/certs/ca.pem .
# 输入200虚机密码
certs]# scp 10.3.153.200:/opt/certs/etcd-peer.pem .
certs]# scp 10.3.153.200:/opt/certs/etcd-peer-key.pem .
certs]# cd ..
etcd]# vi /opt/etcd/etcd-server-startup.sh
# 注意,如果是21机器,这下面得12都得改成21,initial-cluster则是全部机器都有,不需要改,一共5处
#!/bin/sh
./etcd --name etcd-server-7-12        --data-dir /data/etcd/etcd-server        --listen-peer-urls https://10.3.153.212:2380        --listen-client-urls https://10.3.153.212:2379,http://127.0.0.1:2379        --quota-backend-bytes 8000000000        --initial-advertise-peer-urls https://10.3.153.212:2380        --advertise-client-urls https://10.4.7.12:2379,http://127.0.0.1:2379        --initial-cluster  etcd-server-7-12=https://10.3.153.212:2380,etcd-server-7-21=https://10.3.153.221:2380,etcd-server-7-22=https://10.3.153.222:2380        --ca-file ./certs/ca.pem        --cert-file ./certs/etcd-peer.pem        --key-file ./certs/etcd-peer-key.pem        --client-cert-auth         --trusted-ca-file ./certs/ca.pem        --peer-ca-file ./certs/ca.pem        --peer-cert-file ./certs/etcd-peer.pem        --peer-key-file ./certs/etcd-peer-key.pem        --peer-client-cert-auth        --peer-trusted-ca-file ./certs/ca.pem        --log-output stdout

etcd]# chmod +x etcd-server-startup.sh
etcd]# chown -R etcd.etcd /opt/etcd-v3.1.20/
etcd]# chown -R etcd.etcd /data/etcd/
etcd]# chown -R etcd.etcd /data/logs/etcd-server/
~~~

~~~
# 212/221/222机器:
etcd]# yum install supervisor -y        #用于把服务以后台服务启动
etcd]# systemctl start supervisord
etcd]# systemctl enable supervisord
etcd]# vi /etc/supervisord.d/etcd-server.ini
# 注意修改下面得7-12,对应上机器,如21机器就是7-21,一共一处
[program:etcd-server-7-12]
command=/opt/etcd/etcd-server-startup.sh                        ; the program (relative uses PATH, can take args)
numprocs=1                                                      ; number of processes copies to start (def 1)
directory=/opt/etcd                                             ; directory to cwd to before exec (def no cwd)
autostart=true                                                  ; start at supervisord start (default: true)
autorestart=true                                                ; retstart at unexpected quit (default: true)
startsecs=30                                                    ; number of secs prog must stay running (def. 1)
startretries=3                                                  ; max # of serial start failures (default 3)
exitcodes=0,2                                                   ; ‘expected‘ exit codes for process (default 0,2)
stopsignal=QUIT                                                 ; signal used to kill process (default TERM)
stopwaitsecs=10                                                 ; max num secs to wait b4 SIGKILL (default 10)
user=etcd                                                       ; setuid to this UNIX account to run the program
redirect_stderr=true                                            ; redirect proc stderr to stdout (default false)
stdout_logfile=/data/logs/etcd-server/etcd.stdout.log           ; stdout log path, NONE for none; default AUTO
stdout_logfile_maxbytes=64MB                                    ; max # logfile bytes b4 rotation (default 50MB)
stdout_logfile_backups=4                                        ; # of stdout logfile backups (default 10)
stdout_capture_maxbytes=1MB                                     ; number of bytes in ‘capturemode‘ (default 0)
stdout_events_enabled=false                                     ; emit events on stdout writes (default false)

12 etcd]# supervisorctl update
# out:etcd-server-7-21: added process group
12 etcd]# supervisorctl status
# out: etcd-server-7-12                 RUNNING   pid 16582, uptime 0:00:59
12 etcd]# netstat -luntp|grep etcd
# 必须是监听了2379和2380这两个端口才算成功
12 etcd]# etcd-server-7-12: added process group
~~~

~~~
# 任意节点检测集群健康状态的两种方法
22 etcd]# ./etcdctl cluster-health
[[email protected] etcd]# ./etcdctl cluster-health
member 3657c30473e13ab3 is healthy: got healthy result from http://127.0.0.1:2379
member 6cbe98b6a135fd14 is healthy: got healthy result from http://127.0.0.1:2379
member b7ffbb00070336e7 is healthy: got healthy result from http://127.0.0.1:2379
cluster is healthy
22 etcd]# ./etcdctl member list
[[email protected] etcd]# ./etcdctl member list
3657c30473e13ab3: name=etcd-server-7-12 peerURLs=https://10.3.153.212:2380 clientURLs=http://127.0.0.1:2379,https://10.3.153.212:2379 isLeader=false
6cbe98b6a135fd14: name=etcd-server-7-21 peerURLs=https://10.3.153.221:2380 clientURLs=http://127.0.0.1:2379,https://10.3.153.221:2379 isLeader=false
b7ffbb00070336e7: name=etcd-server-7-22 peerURLs=https://10.3.153.222:2380 clientURLs=http://127.0.0.1:2379,https://10.3.153.222:2379 isLeader=true

原文地址:https://blog.51cto.com/12965094/2468880

时间: 2024-11-06 07:43:41

K8S集群安装 之 安装主控节点etcd服务的相关文章

k8s集群一键新加node节点脚本

继推出k8s集群一键升级脚本之后有不少小伙伴还有k8s在线扩容节点的需求,所以本次波哥就又写了一个扩充节点的脚本.明天有时间我再整理一下k8s部署集群脚本,目前是固定版本的,转化成部署任意版本的脚本或许更灵活一些.这样我们部署,升级,扩容三套脚本基本就能搞定k8s日常基础需求了.波哥也可以安心的写小程序后台了. 同样只要是你使用波哥的脚本部署的k8s集群都支持一键扩容哦! 脚本介绍: 跟以往一下我们有个base.config文件,修改上面的参数.这里我写好了自己的例子还有相关注释. 配置完毕后执

kubernetes系列03—kubeadm安装部署K8S集群

1.kubernetes安装介绍 1.1 K8S架构图 1.2 K8S搭建安装示意图 1.3 安装kubernetes方法 1.3.1 方法1:使用kubeadm 安装kubernetes(本文演示的就是此方法) 优点:你只要安装kubeadm即可:kubeadm会帮你自动部署安装K8S集群:如:初始化K8S集群.配置各个插件的证书认证.部署集群网络等.安装简易. 缺点:不是自己一步一步安装,可能对K8S的理解不会那么深:并且有那一部分有问题,自己不好修正. 1.3.2 方法2:二进制安装部署k

kubeadm部署高可用K8S集群(v1.14.0)

一. 集群规划 主机名 IP 角色 主要插件 VIP 172.16.1.10 实现master高可用和负载均衡 k8s-master01 172.16.1.11 master kube-apiserver.kube-controller.kube-scheduler.kubelet.kube-proxy.kube-flannel.etcd k8s-master02 172.16.1.12 master kube-apiserver.kube-controller.kube-scheduler.k

Kubernetes/3.使用Kubeadm部署k8s集群

使用Kubeadm部署k8s集群 kubeadm是一个提供了"kubeadm init"和"kubeadm join"最佳实践命令,且用于快速构建一个kubernetes集群的工具,你可以使用此工具快速构建一个kubernetes学习环境.通过本章节的学习,你将能够使用kubeadm工具,成功构建出一个基础的kubernetes集群环境. 环境准备 Hosts文件准备 Docker环境配置 其他准备工作 使用Kubeadm部署k8s集群 参考文档 备注 环境准备 i

搭建K8s集群[无需科学shangwang]

官网:https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/install-kubeadm/#installing-kubeadm-kubelet-and-kubectl GitHub:https://github.com/kubernetes/kubeadm 使用kubeadm搭建一个3台机器组成的k8s集群,1台master节点,2台worker节点 配置(官方配置要求): - One or more ma

还不会用 K8s 集群控制器?那你会用冰箱吗?(多图详解)

作者 | 阿里云售后技术专家?声东 导读:当我们尝试去理解 K8s 集群工作原理的时候,控制器(Controller)肯定是一个难点.这是因为控制器有很多,具体实现大相径庭:且控制器的实现用到了一些较为晦涩的机制,不易理解.但是,我们又不能绕过控制器,因为它是集群的"大脑".今天这篇文章,作者通过分析一个简易冰箱的设计过程,来帮助读者深入理解集群控制器的产生,功能以及实现方法. K8s 集群核心组件大图 下图是 K8s 集群的核心组件,包括数据库 etcd,调度器 Scheduler,

k8s集群之kubernetes-dashboard和kube-dns组件部署安装

说明 最好先部署kube-dns,有些组合服务直接主机用hostname解析,例如redis主从,heapster监控组件influxdb.grafana之间等. 参考文档 https://greatbsky.github.io/KubernetesDoc/kubernetes1.5.2/cn.html 安装集群文档见: http://jerrymin.blog.51cto.com/3002256/1898243 安装PODS文档见: http://jerrymin.blog.51cto.com

Centos 安装k8s 集群

本教程是在VM中搭建K8s 所以第一步骤先配置虚拟机的ip 和上网情况详细参考https://www.cnblogs.com/chongyao/p/9209527.html 开始搭建K8s集群 两台机器一台master 一台node master:192.168.211.150 node1: 192.168.211.151 master 和node 都需要进行的准备工作 #修改hostname #master 对应master node 对应node hostnamectl set-hostna

kubeadm快速安装k8s集群(1master+2node)

```本文档参考阿良老师的文档, 结合自己的问题,做了部分修改,如有侵权,联系删除! kubeadm是官方推出的安装k8s集群方式中的一种,另外一种是二进制安装 主要通过master端的kubeadm init 和node端的kubeadm join 一. 环境准备 部署K8s集群机器需要满足以下几个条件:使用VMware创建三台主机,要求如下:1.系统CentOS7.52.停掉swap,关闭防火墙和selinux3.机器之间相互可以ping通,且可以连接外部网络4.硬件预计需要内存2G加硬盘2