基于 CentOS 7 搭建kubernetes集群

基于Centos7构建Kubernetes平台

一、实验环境

3台centos7的主机:

master  192.168.111.131部署etcd,kube-apiserver,kube-controller-manager,kube-scheduler 4个应用。

node01  192.168.111.130  部署docker,kubelet, kube-proxy  3个应用

node02  192.168.111.129  部署docker,kubelet, kube-proxy  3个应用

二、实验步骤

1. 修改主机名和ip,三个主机网卡均设置为桥接模式,能够联网。

2. 分别修改/etc/hosts文件:

Master配置

#vim   /etc/hosts

Node01

#scp  [email protected]:/etc/hosts   /etc/

Node02

#scp  [email protected]:/etc/hosts   /etc/

3. 三台均设置防火墙的默认区域为trusted。

4. 三台均关闭selinux.

5. 安装docker,并启动。因为master之后还需要做registry仓库,所以也需要安装docker.

#yum   install  -y  docker

6. 开启路由转发功能

7、实现node01和node02之间容器互通

1)node01和node02新建网桥,并固定网桥ip。

node01上操作:

删除网桥docker0,新建网桥kbr0:

新建网桥的配置文件:

新建路由文件:route-eth0,eth0为node1上的网卡名。

修改docker配置文件,添加-b=kbr0参数

reboot重启系统使网桥设置生效。

2)对node02做同样的设置:

新建网桥:

新建网桥配置文件:

#scp [email protected]:/etc/sysconfig/network-scripts/ifcfg-kbr0  /etc/sysconfig/network-scripts/

创建路由文件:

修改docker 配置文件:

#vim  /etc/sysconfig/docker

重启系统reboot.

3)系统启动之后,查看网卡信息和路由信息。

#ifconfig

4)验证两个宿主机间容器的互通性:

node01上运行一个容器:

node02上运行一个容器:

容器间互ping:

#docker   run   -it    docker.io/centos:centos6

# yum  install  -y  iputils        进入容器安装

#dcoker   run  -it    docker.io/centos:centos6

master上部署应用:

1、安装etcd.

查看etcd配置文件:

2、修改配置文件:

3、启动etcd服务:

查看服务端口号:

4、部署k8s-master组件(apiserver+controller-manager+scheduler)

安装软件:

#yum  install  -y  kubernetes-master

查看配置文件:

5、修改配置文件:

#vim   /etc/kubernetes/config

解释:

KUBE_LOGTOSTDERR  日志设置

KUBE_LOG_KEVEL     日志级别设置

KUBE_ALLOW_PRIV    是否允许运行特权容器

KUBE_MASTER       主节点的地址,主要为replication controller和scheduler及kubelet可以顺利找到apiserver

#vim  /etc/kubernetes/apiserver

KUBE_API_ADDRESS                   监听的接口,如果配置为127.0.0.1则只监听localhost,配置为0.0.0.0会监听所有接口,这里配置为0.0.0.0。

KUBE_API_PORT="--port=8080"           apiserver的监听端口,默认8080,不用修改。

KUBELET_PORT="--kubelet_port=10250"    kubelet监听的端口,默认10250,无需修改

KUBE_ETCD_SERVERS  //指定etcd节点的地址

KUBE_SERVICE_ADDRESSES               这个是设置今后运行Service所在的ip网段

KUBE_API_ARGS=”--secure-port=0”  默认是要求https安全通信,”--secure-port=0”则不要求https安全通信

注:这里需要注意原来KUBE_ADMISSION_CONTROL默认包含的要删掉,不然启动API server的时候会报错

6、启动服务:

查看服务端口:

部署node主机:

1、安装kubernetes-node软件:

#yum  install  -y  kubernetes-node

2、修改配置文件:

#vim  /etc/kubernetes/config

#vim  /etc/kubernetes/kubelet

配置项KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest"作用k8s创建pod的时候需要起一个基本容器,所以node节点要能连网。也可以自己搭建一个私有仓库,将pod-infrastructure:latest镜像上传到私有仓库中,修改此配置文件的地址就可以。

3、启动服务:

4、在node02主机上重复上面的操作。

5、在master上检查node 状态:

 建私有仓库

Kubernetes管理容器如果是第一次操作,可能会有一定的等待时间,这是因为第一次下载images需要一段时间。如果本地没有docker registry,要确保节点能访问互联网,所以我们可以搭建一个私有仓库,由私有仓库提供所需要的镜像,

本实验环境中用kubernetes同时作为registry。

1、导入镜像:

2、基于私有仓库镜像运行容器

3、本地访问私有仓库:

4、上传镜像到私有仓库

导入之后用到的镜像到本地

给基础镜像打个标签:

在三台主机上均修改docker 的配置文件,指定私有仓库的url.

重启docker服务:

上传镜像到私有仓库并查看:

测试,下载刚才上传的镜像:

部署web应用

1、为了部署pod的时候,下载镜像速度快点,把node节点主机配置文件中的pod镜像下载地址修改为本地私有仓库地址:

#vim  /etc/kubernetes/kubelet

#systemctl  restart  kubelet.service

2、创建apache-rc.yaml文件,根据文件内容创建rc和pod。

注意:必须按照此格式编写否则会报错

#kubectl  create  -f apache-rc.yaml

error: error validating "apache-rc.yaml": error validating data: found invalid field spec for v1.ReplicationControllerSpec; if you choose to ignore these errors, turn validation off with --validate=false

查看pods状态:

查看pods详细状态:

附:删除pod

kubectl delete pod podName

由于设置了两份副本,所以删除pod的时候,k8s会迅速起另外一个一模一样的pod以保持副本数量为2不变。

要彻底删除pod,只能删除创建它的replication controller

查看replication controller

kubectl get rc

删除replication controller

kubectl delete rc rcName

删除rc之后,其创建的pod会一并删除

3、部署节点内部可访问的apache service

Server的type有ClusterIP和 NodePort之分,缺省是ClusterIp,这种类型的service只能在集群内部访问

创建配置文件:

#vim  apache-service-clusterip.yaml

创建service:

查看service状态:

验证apache服务:(在node节点执行)

4、部署外部可访问的apache service

创建nodeport类型的service . 这种类型的Service在集群外部是可以访问

#vim  apache-nodeport-service.yaml

创建service:

查看service:

验证service的可访问性:

外部访问:

内部访问:

到此为止kubernetes 集群搭建完毕!!!

时间: 2024-11-10 11:52:28

基于 CentOS 7 搭建kubernetes集群的相关文章

rancher搭建kubernetes集群

实验环境: 利用rancher搭建kubernetes集群,及搭建和关联harbor私有镜像库. rancher:http://10.10.10.10:8888 kubernetes:10.10.10.10 harbor:10.10.10.100 images:10.10.10.100/test_nginx:latest app:nginx 实验目的: 一.实践docker:search pull.run.tag.build.push功能.了解参数含义 #docker search *image

阿里云ECS搭建Kubernetes集群踩坑记

阿里云ECS搭建Kubernetes集群踩坑记 [TOC] 1. 现有环境.资源 资源 数量 规格 EIP 1 5M带宽 ECS 3 2 vCPU 16 GB内存 100G硬盘 ECS 3 2 vCPU 16 GB内存 150G硬盘 SLB 2 私网slb.s1.small 2. 规划 坑: 上网问题,因为只有一个EIP,所有其它节点只能通过代理上网; 负载均衡问题,因为阿里不支持LVS,负载均衡TCP方式后端又不支持访问负载均衡,HTTP和HTTPS方式,只支持后端协议为HTTP; 为了避免上

基于docker环境搭建kafka集群(三台真机之间)

环境基于docker,三台物理主机192.168.0.27.192.168.0.28.192.168.0.29,每台主机部署一个zookeeper节点,一个kafka节点,共三个zookeeper节点,三个kafka节点,容器之间的网络采用host模式 1.拉取镜像 2.启动容器 step1. 创建配置文件zoo.cfg并替换容器内的该文件,不同的镜像有可能zoo.cfg位置不同 # The number of milliseconds of each tick tickTime=2000 #

基于Python+Django的Kubernetes集群管理平台

原文出自[听云技术博客]:http://blog.tingyun.com/web/article/detail/1345 时至今日,接触kubernetes也有一段时间了,而我们的大部分业务也已经稳定地运行在不同规模的kubernetes集群上,不得不说,无论是从应用部署.迭代,还是从资源调度管理等方面都有其难以言喻的优势,但是随着业务的不断增长,以及服务的多元化,容器的体量与管理的难度也随之增长. 浅述Kubernetes集群日常管理维护中的一些痛点: 1.较为庞大的集群规模及容器数量维护管理

基于zookeeper+leveldb搭建activemq集群--转载

原地址:http://www.open-open.com/lib/view/open1410569018211.html 自从activemq5.9.0开始,activemq的集群实现方式取消了传统的 Master-Slave方式,增加了基于zookeeper+leveldb的实现方式,其他两种方式:目录共享和数据库共享依然存在.本文主要阐述基 于zookeeper和leveldb搭建activemq集群,这里需要特别提醒,本文实现的集群仅提供主备功能,避免单点故障,没有负载均衡功能. 下面开始

基于zookeeper+leveldb搭建activemq集群

自从activemq5.9.0开始,activemq的集群实现方式取消了传统的Master-Slave方式,增加了基于zookeeper+leveldb的实现方式,其他两种方式:目录共享和数据库共享依然存在.本文主要阐述基于zookeeper和leveldb搭建activemq集群,这里需要特别提醒,本文实现的集群仅提供主备功能,避免单点故障,没有负载均衡功能. 下面开始我们的征途. 一.搭建zookeeper集群 关于搭建zookeeper集群的文章请参考:zookeeper的集群模式下的安装

kubeadm搭建kubernetes集群

一.环境准备首先我的三个ubuntu云主机的配置如下 cpu数量 内存 磁盘 Ubuntu 2 8G 20G 18.04LTS 而且能保证三台机器都能连接外网这里的所有命令都是在root用户下操作的二.安装 1.在所有的节点上安装Docker和kubeadm [email protected]:~# apt-get install curl -y [email protected]:~# curl -s https://packages.cloud.google.com/apt/doc/apt-

基于docker环境搭建redis-cluster集群(多台机器)

步骤与单机搭建redis集群相同 1.分别在两台机器创建 redis-cluster.tmpl creatRedisCluster.sh  creatDocker.sh(每天机器创建三个redis实例) 创建集群 ##进入某一个redis实例执行如下代码 /usr/local/bin/redis-cli --cluster create 宿主机1IP:7001 宿主机1IP:7002 宿主机1IP:7003 宿主机2IP:7001 宿主机2IP:7002 宿主机2IP:7003 --cluste

从centos7镜像到搭建kubernetes集群(kubeadm方式安装)

在网上看了不少关于Kubernetes的视频,虽然现在还未用上,但是也是时候总结记录一下,父亲常教我的一句话:学到手的东西总有一天会有用!我也相信在将来的某一天会用到现在所学的技术.废话不多扯了.... 一.前期准备 1.k8s-master01:master主服务器(存在单点故障) 2.k8s-node01.k8s-node02:2个工作节点 3.Harbor:私有仓库(简单记录搭建Harbor私服仓库) 4.Router:软路由(由于kubeadm是存放在谷歌云的,国内无法访问,K8S集群搭