k8s集群新增节点

节点为centos7.4

一、node节点基本环境配置

1、配置主机名

2、配置hosts文件(master和node相互解析)

3、时间同步

ntpdate pool.ntp.org

date

echo ‘*/10 * * * * /usr/sbin/ntpdate pool.ntp.org‘ >>/var/spool/cron/root

crontab -l

4、关闭防火墙和selinux

systemctl stop firewalld

systemctl disable firewalld

sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/‘ /etc/selinux/config

5、关闭swap

swapoff -a

echo "vm.swappiness=0" >> /etc/sysctl.conf

sysctl -pswapoff -a

6、修改内核参数

yum install -y bridge-utils.x86_64

modprobe bridge

modprobe br_netfilter

echo "net.bridge.bridge-nf-call-iptables=1" >> /etc/sysctl.conf

echo "net.bridge.bridge-nf-call-ip6tables=1" >> /etc/sysctl.conf

sysctl -p

二、设置yum源,安装docker和k8s相关组件

1、设置yum源

wget -O /etc/yum.repos.d/docker-ce.repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo

cat <<EOF > /etc/yum.repos.d/kubernetes.repoo

[kubernetes]

name=Kubernetes

baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/

enabled=1

gpgcheck=1

repo_gpgcheck=1

gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

EOF

2、安装

yum -y install docker-ce

以下两个,注意版本要和master端一致,可以去master看下

yum -y install kubelet-1.13.4-0.x86_64

yum -y install kubeadm-1.13.4-0.x86_64

systemctl enable kubelet

3、下载相关镜像

docker pull mirrorgooglecontainers/kube-proxy-amd64:v1.13.3

docker pull mirrorgooglecontainers/pause:3.1

docker tag docker.io/mirrorgooglecontainers/kube-proxy-amd64:v1.13.3 k8s.gcr.io/kube-proxy:v1.13.3

docker tag docker.io/mirrorgooglecontainers/pause:3.1  k8s.gcr.io/pause:3.1

三、加入k8s集群

1、master中的节点认证信息24小时会失效,可以重新生成(master端操作)

重新生成用于节点加入集群的认证命令

创建token

[[email protected] ~]# kubeadm token create

创建新的sha

[[email protected] ~]# openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der sha256 -hex | sed ‘s/^.* //‘

2、加入集群(node操作)

kubeadm join 172.16.20.102:6443 --token 【token】--discovery-token-ca-cert-hash sha256:【sha值】

四、如何删除节点(master端)

[[email protected] ~]# kubectl drain node03.linux.com --delete-local-data --force --ignore-daemonsets

[[email protected] ~]# kubectl delete node node03.linux.com

原文地址:https://www.cnblogs.com/chuangcc/p/10697394.html

时间: 2024-11-06 07:41:26

k8s集群新增节点的相关文章

redis 集群新增节点,slots槽分配,删除节点, [ERR] Calling MIGRATE ERR Syntax error, try CLIENT (LIST | KILL | GET...

redis reshard 重新分槽(slots) https://github.com/antirez/redis/issues/5029 redis 官方已确认该bug redis 集群重新(reshard)分片故障 [ERR] Calling MIGRATE ERR Syntax error, try CLIENT (LIST | KILL | GETNAME | SETNAME | PAUSE | REPLY) 错误背景描述 redis版本:4.0.1 ruby gem reids 版本

使用Kubeadm创建k8s集群之节点部署(三十一)

前言 本篇部署教程将讲述k8s集群的节点(master和工作节点)部署,请先按照上一篇教程完成节点的准备.本篇教程中的操作全部使用脚本完成,并且对于某些情况(比如镜像拉取问题)还提供了多种解决方案.不过基于部署环境和k8s的复杂性,我们需要对k8s集群部署过程中的一些步骤都有所了解,尤其是“kubeadm init”命令. 目录 主节点部署  Kubeadm以及相关工具包的安装 批量拉取k8s相关镜像 使用“kubeadm init”启动k8s主节点 启动k8s主节点 kubectl认证 安装f

Elastic search集群新增节点(同一集群,同一 物理机)

一开始,在电脑上同一个集群新增节点(node)怎么试也不成功,官网guide又语焉不详?集群健康值yellow(表示主分片全部可用,部分复制分片不可用).关于集群和多节点,有什么好处呢? 集群和多个节点,可以提高可用性,一个挂了,可从另外一个恢复,主节点挂了,会自动从剩余节点选举出一个主节点,并且当恢复主节点时,会自动拷贝主节点失效期间,新的更新数据:同时可以负载均衡,提高吞吐率(在多台物理机布置多个节点和集群的情况下) 最后,在stackoverflow上找到了答案.国内CSDN和博客园的方法

[转帖]k8s集群node节点一直NotReady, 且node节点(并非master)的kubelet报错:Unable to update cni config: No networks found in /etc/cni/net.d

k8s集群node节点一直NotReady, 且node节点(并非master)的kubelet报错:Unable to update cni config: No networks found in /etc/cni/net.d http://www.voidcn.com/article/p-wpuagtbj-byy.html ? 考虑到node节点的kubelet报错Unable to update cni config: No networks found in /etc/cni/net.

Spark集群新增节点方法

Spark集群处理能力不足需要扩容,如何在现有spark集群中新增新节点?本文以一个实例介绍如何给Spark集群新增一个节点. 1. 集群环境 现有Spark集群包括3台机器,用户名都是cdahdp,主目录/home/ap/cdahdp,配置是2C8G虚拟机,集群基于yarn架构. Master:128.196.54.112/W118PC01VM01 Slave1:128.196.54.113/W118PC02VM01 Slave2:128.196.54.114/W118PC03VM01 相关软

排查 k8s 集群 master 节点无法正常工作的问题

搭建的是 k8s 高可用集群,用了 3 台 master 节点,2 台 master 节点宕机后,仅剩的 1 台无法正常工作. 运行 kubectl get nodes 命令出现下面的错误 The connection to the server k8s-api:6443 was refused - did you specify the right host or port? 注:k8s-api 对应的就是这台 master 服务器的本机 IP 地址. 运行 netstat -lntp 命令发

RKE K8S 集群增删节点

rke 删除节点: 修改cluster.yal 将需要删除的节点配置删除,然后运行 [[email protected] rke]# more cluster.yml nodes: - address: 172.20.101.103 user: ptmind role: [controlplane,worker,etcd] - address: 172.20.101.104 user: ptmind role: [controlplane,worker,etcd] - address: 172.

k8s集群一键新加node节点脚本

继推出k8s集群一键升级脚本之后有不少小伙伴还有k8s在线扩容节点的需求,所以本次波哥就又写了一个扩充节点的脚本.明天有时间我再整理一下k8s部署集群脚本,目前是固定版本的,转化成部署任意版本的脚本或许更灵活一些.这样我们部署,升级,扩容三套脚本基本就能搞定k8s日常基础需求了.波哥也可以安心的写小程序后台了. 同样只要是你使用波哥的脚本部署的k8s集群都支持一键扩容哦! 脚本介绍: 跟以往一下我们有个base.config文件,修改上面的参数.这里我写好了自己的例子还有相关注释. 配置完毕后执

使用kubeadm部署k8s集群07-扩容kube-scheduler到3节点

使用kubeadm部署k8s集群07-扩容kube-scheduler到3节点 2018/1/4 扩容 kube-scheduler 到 3 节点 连接到本节点的 apiserver [[email protected] kube-controller-manager]# cat /etc/kubernetes/manifests/kube-scheduler.yaml |grep '/etc/kubernetes' --kubeconfig=/etc/kubernetes/scheduler.