kubernetes集群网络配置方案——flannel部署

部署环境:

CentOS Linux release 7.2 64位

10.10.0.103 node01

10.10.0.49 node02

安装过程:

# yum install flannel

# tar zxf flannel-v0.8.0-linux-amd64_.tar.gz

# cp flanneld /usr/bin/

# cp mk-docker-opts.sh /usr/bin/

编辑服务配置文件:

#cat /usr/lib/systemd/system/flanneld.service 
[Unit]
Description=flanneld overlay address etcd agent
After=network.target
Before=docker.service

[Service]
Type=notify
EnvironmentFile=/etc/sysconfig/flannel
ExecStart=/usr/bin/flanneld -etcd-endpoints=${FLANNEL_ETCD} $FLANNEL_OPTIONS

[Install]
RequiredBy=docker.service
WantedBy=multi-user.target

编辑配置文件:

#cat /etc/sysconfig/flannel 
FLANNEL_ETCD="http://10.10.0.103:2379,http://10.10.0.49:2379"
FLANNEL_ETCD_KEY="/coreos.com/network"

在etcd库中添加一条网络配置信息,flannel用来分配docker的虚拟ip地址段:

# etcdctl set /coreos.com/network/config

# etcdctl get /coreos.com/network/config

{ "Network": "10.1.0.0/16" }

# systemctl start flanneld

# mk-docker-ops.sh -i

# source /run/flannel/subnet.env

# ifconfig docker0 ${FLANNEL_SUBMENT}

#ifconfig   查看docker网卡ip

docker0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 10.1.8.1  netmask 255.255.255.0  broadcast 10.1.8.255
        ether 02:42:bf:cb:f1:ff  txqueuelen 0  (Ethernet)
        RX packets 40369  bytes 8671191 (8.2 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 40663  bytes 3818695 (3.6 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 10.10.0.103  netmask 255.255.0.0  broadcast 10.10.255.255
        ether 00:16:3e:08:93:f7  txqueuelen 1000  (Ethernet)
        RX packets 2033352  bytes 695497718 (663.2 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1378035  bytes 2166169069 (2.0 GiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

flannel0: flags=4305<UP,POINTOPOINT,RUNNING,NOARP,MULTICAST>  mtu 1472
        inet 10.1.8.0  netmask 255.255.0.0  destination 10.1.8.0
        unspec 00-00-00-00-00-00-00-00-00-00-00-00-00-00-00-00  txqueuelen 500  (UNSPEC)
        RX packets 6  bytes 504 (504.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 6  bytes 504 (504.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

另一个节点同样重复以上安装步骤。

时间: 2024-10-25 10:56:04

kubernetes集群网络配置方案——flannel部署的相关文章

Kubernetes: 集群网络配置 - flannel

参考: [ Kubernetes 权威指南 ] Kubernetes 集群搭建可以参考 [ Kubernetes : 多节点 k8s 集群搭建实践 ] 在多个 Node 组成的 Kubernetes 集群内, Kubernetes 本身不会对跨主机容器网络进行设置. flannel 就是解决跨主机容器间网络互通的需求. Kubernetes 集群架构 Server List 节点名称 节点 IP k8s-master 10.10.10.10 k8s-node1 10.10.10.11 k8s-n

机房4台服务器集群网络配置

主要目标: 可以通过内网系统访问楼下机房服务器集群,楼下机房只给一个可以访问外网的IP. 现有条件: 只有一根可以上外网的网线 一台交换机 4台高性能服务器,每台服务器有两个网口 主要网络架构设计: 一台服务器为master节点 另外三台服务器分别为slave1,slave2,slave3 四台服务器安装的操作系统皆为unbuntu server IP 分布: master节点eth0: 192.168.223.1 , eth1: 10.1.8.200 slave2节点eth0: 192.168

NAT下虚拟机集群网络配置

VMware 设置 物理机(宿主机)设置 虚拟机网卡设置 [[email protected] gongice]# ifconfig eth0 192.168.153.11 [[email protected] gongice]# ifconfig eth0 Link encap:Ethernet HWaddr 00:0C:29:2C:DF:3D inet addr:192.168.153.11 Bcast:192.168.153.255 Mask:255.255.255.0 inet6 add

Kubernetes 集群的两种部署过程(daemon部署和容器化部署)以及glusterfs的应用!

ClusterIp:通过VIP来访问, NodePort: 需要自己搭建负载据衡器 LoadBalancer:仅仅用于特定的云提供商 和 Google Container Engine https://www.nginx.com/blog/load-balancing-kubernetes-services-nginx-plus/ port:相当于服务端口(对及集群内客户访问) targetPort: 相当于pods端口 nodePort: 宿主机端口(也是服务端口,只不过是对集群外客户访问)

无交换机实现集群网络互联

分布式集群中对于高性能网络的需求日益增强,尤其是存储集群,对于数据交换的网络带宽.延迟等要求更高.而对于超小规模集群(三节点.四节点等),万兆交换机的使用严重地增加了TCO.这成为了一些小微型企业小规模集群建设的一个门槛.这里对无交换机实现集群网络互联进行了一些简单的探索. 一.网状拓扑结构在此种结构中,任意节点都是两两互联,任意两个节点都是直接通信,不用通过其他节点进行转发.每个节点都需要至少需要N-1个网络端口(N为结点数),例如3节点互联,每个节点就至少需要2个网络端口. 常规来说,当Li

shell 脚本实战笔记(7)--集群网络相关知识和环境搭建

前言: 对网络相关的知识, 做下笔记. 包括IP地址A/B/C的分类, 静态地址的配置/DNS配置, 以及网卡相关信息查看. *) A/B/C/D类网络地址的划分 IP地址=网络地址+主机地址 或 IP地址=主机地址+子网地址+主机地址 IPv4的地址划分, 可以分为5种类型, A/B/C/D/E类 A类地址: 由1字节的网络地址和3字节主机地址组成, 网络地址最高位必须是"0", 地址范围从1.0.0.0到126.0.0.0. A类网络有126个, 每个网络能容纳1亿多个主机. B类

Kubernetes 1.5 配置dns

Kubernetes 1.5 配置dns 在kubernetes1.2的时候,采用了skydns + kube2dns +etcd的方式来部署dns.而从1.3开始,则部署方式有了一点儿变化,将skydns和kube2dns封装到了一个容器镜像中,放弃了etcd,而将dns解析直接放入到了内存之中,同时引入了dnsmasq,进一步利用其缓存,具体的原理,请查阅相关文档.本篇文档,主要阐述新版的dns在kubernetes中的具体部署. 在Kubernetes的源码目录中,有个cluster/ad

tomcat集群配置方案对比

Tomcat集群配置方案大体上可以分为两种配置方案:共享Session型与不同享Session型.当然,其中各有千秋,如果不共享需要上层需要有一定结构进行一致化路由.何谓一致化路由,简单来讲,就是你上次怎么走路,这次还是怎么走,实现的方式有很多种,例如直接按照nginx进行来源或者目的ip进行相应的hash,dns进行地域划分等等,只要能保证上一次和下一次踏入的是"同一条河流"即可. 另一方面,如果不共享需要有一定机制进行共享Session机制,此时共享一般分为两种,找个第三方存储Se

Windows集群网络负载均衡

在接触负载均衡的时候,笔者先是在网络上进行负载均衡的搜索,弄清楚了到底什么是负载均衡,之后就发现,支持负载均衡的系统有很多.常用的是Windows,Linux这两大系统.那么网上的教程最多的也是关于LVS和win2003的配置操作.那么现在笔者,在此为大家主要介绍一下Windows负载均衡的特点. 通过使用由两台或多台计算机一起组成的集群,网络负载均衡使得Web服务器的可用性提高,可扩展性改善?Internet客户使用单一IP地址(或多宿主主机采用一套地址)访问集群?网络负载均衡集群与运行单一服