K8S单master部署一:环境规划、ETCD部署

实验环境规划


概述

使用VMwork虚拟机部署单master双node的小型集群,并且在master和node上都安装etcd来实现etcd集群。

软件采用版本

软件名称 版本
Linux系统 Linux version 4.8.5
Kubernetes 1.9
Docker Docker version 19.03.5
Etcd v3.3.10

服务器角色分配

角色 地址 安装组件
master 192.168.142.220 kube-apiserver kube-controller-manager kube-scheduler etcd
node1 192.168.142.136 kubelet kube-proxy docker flannel etcd
node2 192.168.142.132 kubelet kube-proxy docker flannel etcd

前期注意

所有实验虚拟机均已关闭selinux核心防护功能

建立工作目录用于存放二进制软件包

[[email protected] ~]# cd /
[[email protected] /]# mkdir k8s

安装ETCD数据库(三节点备份)

master端方面


下载ca证书创建、管理工具cfssl

[[email protected] k8s]# curl -L https://pkg.cfssl.org/R1.2/cfssl_linux-amd64 -o /usr/local/bin/cfssl
[[email protected] k8s]# curl -L https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64 -o /usr/local/bin/cfssljson
[[email protected] k8s]# curl -L https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64 -o /usr/local/bin/cfssl-certinfo
[[email protected] k8s]# chmod +x /usr/local/bin/cfssl /usr/local/bin/cfssljson /usr/local/bin/cfssl-certinfo

生成ca证书

//定义ca证书,生成ca证书配置文件
[[email protected] k8s]# cat > ca-config.json <<EOF
{
  "signing": {
    "default": {
      "expiry": "87600h"
    },
    "profiles": {
      "www": {
         "expiry": "87600h",
         "usages": [
            "signing",
            "key encipherment",
            "server auth",
            "client auth"
        ]
      }
    }
  }
}
EOF

//生成证书签名文件
[[email protected] k8s]# cat > ca-csr.json <<EOF
{
    "CN": "etcd CA",
    "key": {
        "algo": "rsa",
        "size": 2048
    },
    "names": [
        {
            "C": "CN",
            "L": "Beijing",
            "ST": "Beijing"
        }
    ]
}
EOF

//生成ca证书,ca.pem、ca-key.pem
[[email protected] k8s]# cfssl gencert -initca ca-csr.json | cfssljson -bare ca -

[[email protected] k8s]# ls
ca-config.json  ca-csr.json  ca.pem   ca.csr     ca-key.pem
“ca.pem”         //ca证书文件
“ca-key.pem”         //ca密钥证书文件

生成etcd各节点之间通信证书

(注意IP地址的变化)

//生成etcd节点之间的通信验证签名
//节点地址必须要更改
[[email protected] k8s]# cat > server-csr.json <<EOF
{
    "CN": "etcd",
    "hosts": [
    "192.168.142.220",
    "192.168.142.136",
    "192.168.142.132"
    ],
    "key": {
        "algo": "rsa",
        "size": 2048
    },
    "names": [
        {
            "C": "CN",
            "L": "BeiJing",
            "ST": "BeiJing"
        }
    ]
}
EOF

//生成ETCD通信证书,用于etcd之间通信验证
[[email protected] k8s]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=www server-csr.json | cfssljson -bare server

[[email protected] k8s]# ls
ca-config.json  ca-csr.json  ca.pem        server.csr       server-key.pem
ca.csr          ca-key.pem   etcd-cert.sh  server-csr.json  server.pem
“server.pem”&“server-key.pem”      //etcd之间通信的验证证书

配置etcd二进制文件包

//解压安装etcd
[[email protected] k8s]# tar zxf etcd-v3.3.10-linux-amd64.tar.gz

//建立存放etcd配置文件、命令、证书的目录
[[email protected] k8s]# mkdir -p /opt/etcd/{cfg,bin,ssl}
[[email protected] k8s]# ls /opt/etcd/
bin  cfg  ssl

//将etcd中的文件分门别类存放
[[email protected] k8s]# mv etcd-v3.3.10-linux-amd64/etcd /opt/etcd/bin/
[[email protected] k8s]# mv etcd-v3.3.10-linux-amd64/etcdctl /opt/etcd/bin/
[[email protected] k8s]# cp -p *.pem /opt/etcd/ssl/

//etcd命令文件
[[email protected] k8s]# ls /opt/etcd/bin/
etcd  etcdctl

//etcd证书
[[email protected] k8s]# ls /opt/etcd/ssl/
ca-key.pem  ca.pem  server-key.pem  server.pem

建立etcd配置文件

[[email protected] k8s]# cat <<EOF >/opt/etcd/cfg/etcd
//[Member]
ETCD_NAME="etcd01"
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="https://192.168.142.220:2380"
ETCD_LISTEN_CLIENT_URLS="https://192.168.142.220:2379"

//[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.142.220:2380"
ETCD_ADVERTISE_CLIENT_URLS="https://192.168.142.220:2379"
ETCD_INITIAL_CLUSTER="etcd01=https://192.168.142.220:2380,etcd02=https://192.168.142.136:2380,etcd03=https://192.168.142.132:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="new"
EOF

建立etcd启动脚本

[[email protected] k8s]# cat <<EOF >/usr/lib/systemd/system/etcd.service
[Unit]
Description=Etcd Server
After=network.target
After=network-online.target
Wants=network-online.target

[Service]
Type=notify
EnvironmentFile=/opt/etcd/cfg/etcd
ExecStart=/opt/etcd/bin/etcd --name=etcd01 --data-dir=\${ETCD_DATA_DIR} --listen-peer-urls=\${ETCD_LISTEN_PEER_URLS} --listen-client-urls=\${ETCD_LISTEN_CLIENT_URLS},http://127.0.0.1:2379 --advertise-client-urls=\${ETCD_ADVERTISE_CLIENT_URLS} --initial-advertise-peer-urls=\${ETCD_INITIAL_ADVERTISE_PEER_URLS} --initial-cluster=\${ETCD_INITIAL_CLUSTER} --initial-cluster-token=\${ETCD_INITIAL_CLUSTER_TOKEN} --initial-cluster-state=new --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --peer-cert-file=/opt/etcd/ssl/server.pem --peer-key-file=/opt/etcd/ssl/server-key.pem --trusted-ca-file=/opt/etcd/ssl/ca.pem --peer-trusted-ca-file=/opt/etcd/ssl/ca.pem
Restart=on-failure
LimitNOFILE=65536

[Install]
WantedBy=multi-user.target
EOF

推送证书、配置文件、启动脚本至node节点上

//将证书、配置文件推送至其它节点
[[email protected] ~]# scp -r /opt/etcd/ [email protected]:/opt/
[[email protected] ~]# scp -r /opt/etcd/ [email protected]:/opt/

//推送启动脚本
[[email protected] ~]# scp /usr/lib/systemd/system/etcd.service [email protected]:/usr/lib/systemd/system/
[[email protected] ~]# scp /usr/lib/systemd/system/etcd.service [email protected]:/usr/lib/systemd/system/

node端方面


更改各node节点收到的配置文件

node1

[[email protected] etcd]# vim /opt/etcd/cfg/etcd
//[Member]
ETCD_NAME="etcd02"                      //节点名称
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="https://192.168.142.136:2380"               //节点地址
ETCD_LISTEN_CLIENT_URLS="https://192.168.142.136:2379"               //节点地址

//[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.142.136:2380"               //节点地址
ETCD_ADVERTISE_CLIENT_URLS="https://192.168.142.136:2379"               //节点地址

node 2

[[email protected] ~]# vim /opt/etcd/cfg/etcd
//[Member]
ETCD_NAME="etcd03"
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="https://192.168.142.132:2380"                      //节点名称
ETCD_LISTEN_CLIENT_URLS="https://192.168.142.132:2379"                      //节点名称

//[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.142.132:2380"                      //节点名称
ETCD_ADVERTISE_CLIENT_URLS="https://192.168.142.132:2379"                      //节点名称

所有节点!!!!

开启服务

//各节点关防火墙
[[email protected] etcd]# systemctl stop firewalld.service
[[email protected] etcd]# setenforce 0
[[email protected] etcd]# systemctl disable firewalld.service

//开启etcd服务
[[email protected] etcd]# systemctl start etcd
[[email protected] etcd]# systemctl enable etcd

群集健康检查,查看群集成员

//群集各节点健康检查
[[email protected] ~]# /opt/etcd/bin/etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.142.220:2379,https://192.168.142.136:2379,https://192.168.142.132:2379" cluster-health

//查看etcd群集成员
[[email protected] ~]# /opt/etcd/bin/etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.142.220:2379,https://192.168.142.136:2379,https://192.168.142.132:2379" member list

未完待续~~~

原文地址:https://blog.51cto.com/14484404/2469221

时间: 2024-07-29 10:53:39

K8S单master部署一:环境规划、ETCD部署的相关文章

K8S单master部署三:APIserver+Controller-Manager+Schedul

以下所有操作均在master端进行 服务器角色分配 角色 地址 安装组件 master 192.168.142.220 kube-apiserver kube-controller-manager kube-scheduler etcd node1 192.168.142.136 kubelet kube-proxy docker flannel etcd node2 192.168.142.132 kubelet kube-proxy docker flannel etcd 一.APIserv

基于k8s集群部署prometheus监控etcd

目录 基于k8s集群部署prometheus监控etcd 1.背景和环境概述 2.修改prometheus配置 3.检查是否生效 4.配置grafana图形 基于k8s集群部署prometheus监控etcd 1.背景和环境概述 本文中涉及到的环境中.prometheus监控和grafana基本环境已部署好.etcd内置了metrics接口供收集数据,在etcd集群任意一台节点上可通过ip:2379/metrics检查是否能正常收集数据. curl -L http://localhost:237

k8s(1master+2node)+dashboard+heapster部署实践

1,环境安装的软件及版本 本次实践受限于电脑机器内存只能同时跑两台虚机,一台部署master和node,一台node linux:version centos7.1(最小化安装) docker:version 1.12.3 k8s:version 1.5.2(yum安装) 虚拟机安装成最小化,设置时间用网络时间,保证两个机器时间一致 mater--192.168.1.5 node--192.168.1.6 设置网络和防火墙,网络需要能访问外网,两台机器都要做 vi /etc/sysconfig/

02:Kubernetes集群部署——平台环境规划

1.官方提供的三种部署方式: minikube: Minikube是一个工具,可以在本地快速运行一个单点的Kubernetes,仅用于尝试Kubernetes或日常开发的用户使用. 部署地址:https://kubernetes.io/docs/setup/minikube/ kubeadm Kubeadm也是一个工具,提供kubeadm init和kubeadm join,用于快速部署Kubernetes集群. 部署地址:https://kubernetes.io/docs/reference

Kubernetes(k8s)生产级实践指南 从部署到核心应用

第1章 课程简介[学前须知]本章对这门课程进行说明,包括:课程整体设计思路.课程使用的技术介绍.课程的学习规划.高效学习的方式方法等. 第2章 kubernetes快速入门[k8s必知必会]本章中将从核心概念.架构设计.认证授权以及集群搭建方案对比几方面,带领大家快速掌握kubernetes的重要知识点,助力快速入门. 第3章 高可用集群搭建---kubeadm方式[集群落地方案1]本章中将讲解,如何使用kubeadm自动化的方式,搭建最新版本的kubernetes高可用集群.以三个master

K8s(Kubernetes)简介及安装部署

前言: k8s是Kubernetes的简称,因为K和S之间有8个字母,所以才会被称为k8s. k8s最初是在Google公司内部使用了10多年的技术,它的前身是叫做Borg(博格),直到2015年才被Google公司捐赠为开源项目. 如果之前我们有接触过OpenStack,那么应该知道管理VM虚拟机资源可以用OpenStack.那么管理容器所对应的开源平台是什么呢?k8s就是其中之一,在k8s之前也有很多容器管理平台,有docker自身的docker swarm,也有apache推出的Mesos

学习环境搭建&lt;一&gt;批量部署,无人值守,部署salt master/minion

%新人自学的,肯定有不对的地方,指出来大家共同学习% 准备: rhel-server-6.4-x86_64-dvd.iso salt.tar.gz 第一步: 准备一台服务器,用以管理其他服务器 system---→       rhel-server-6.4-x86_64-dvd.iso ip---→                20.10.10.111 hostname----→  admin.black.com 配置好yum源 mkdir /iso mount /dev/cdrom /is

Kubernetes二进制部署——UI界面的部署(4)

前言: 接上一篇负载均衡部署(3)部署UI界面 yaml下载:https://github.com/kubernetes/kubernetes/tree/master/cluster/addons/dashboard 部署环境 负载均衡Nginx1:192.168.13.128/24Nginx2:192.168.13.129/24Master节点master1:192.168.13.131/24 kube-apiserver kube-controller-manager kube-schedu

ubuntu k8s 单节点快速安装

ubuntu k8s 单节点快速安装 很早以前记录过 ubuntu 上 k8s 的单节点安装,现在更新一下 ubuntu 18.04 上 k8s 单节点的快速安装,方便参考. 安装过程 安装 docker curl -fsSL https://get.docker.com | sudo sh 使用 ubuntu 18.04,先使用 aliyun 的 k8s 源安装 kubeadm 和相关命令行工具 apt-get update && apt-get install -y apt-trans