Docker - 用Flannel跨主机

试了下比较流行的几种SDN,感觉flannel还是比较好用,这里简单记录一下。

用的是virtualbox,3个机器,分别为:

  • genesis : inet 192.168.99.103/24 brd 192.168.99.255 scope global dynamic enp0s3
  • exodus : inet 192.168.99.105/24 brd 192.168.99.255 scope global dynamic enp0s3
  • leviticus : inet 192.168.99.106/24 brd 192.168.99.255 scope global dynamic enp0s3

虚机信息如下

[[email protected] yum.repos.d]# uname -mars
Linux localhost.localdomain 3.10.0-229.el7.x86_64 #1 SMP Fri Mar 6 11:36:42 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
[[email protected] yum.repos.d]# cat /etc/*-release
CentOS Linux release 7.3.1611 (Core)
NAME="CentOS Linux"
VERSION="7 (Core)"
ID="centos"
ID_LIKE="rhel fedora"
VERSION_ID="7"
PRETTY_NAME="CentOS Linux 7 (Core)"
ANSI_COLOR="0;31"
CPE_NAME="cpe:/o:centos:centos:7"
HOME_URL="https://www.centos.org/"
BUG_REPORT_URL="https://bugs.centos.org/"

CENTOS_MANTISBT_PROJECT="CentOS-7"
CENTOS_MANTISBT_PROJECT_VERSION="7"
REDHAT_SUPPORT_PRODUCT="centos"
REDHAT_SUPPORT_PRODUCT_VERSION="7"

CentOS Linux release 7.3.1611 (Core)
CentOS Linux release 7.3.1611 (Core)

[[email protected] yum.repos.d]# docker version
Client:
 Version:      1.12.5
 API version:  1.24
 Go version:   go1.6.4
 Git commit:   7392c3b
 Built:        Fri Dec 16 02:23:59 2016
 OS/Arch:      linux/amd64

随便选择两台机器run一下,在容器中ifconfig:

[[email protected] ~]# docker run -it busybox
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:AC:11:00:02
          inet addr:172.17.0.2  Bcast:0.0.0.0  Mask:255.255.0.0
          inet6 addr: fe80::42:acff:fe11:2/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:12 errors:0 dropped:0 overruns:0 frame:0
          TX packets:6 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:1016 (1016.0 B)  TX bytes:508 (508.0 B)

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)
    

发现参数完全相同,单纯bridge模式下并没有跨主机互通,而host模式是并不建议使用的。


install

yum install -y etcd flannel,如果没问题是再好不过了。
etcd 3.x支持--config-file参数,需要的话可以从源代码install(需要golang 1.6+)。

先从etcd开始,简单说就是"distributed key value store"。
etcd集群的3种方式:

  • static
  • etcd discovery
  • DNS discovery

DNS discovery主要是用srv record,这里先不搞DNS服务,下面对static和etcd discovery两种方式简单说明一下。

static

参数可以在启动时置顶,或者写到配置文件中,默认配置文件为/etc/etcd/etcd.conf

genesis的配置如下:

ETCD_NAME=genesis
ETCD_DATA_DIR="/var/lib/etcd/genesis"
ETCD_LISTEN_PEER_URLS="http://192.168.99.103:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.99.103:2379,http://127.0.0.1:2379"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.99.103:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.99.103:2379"
ETCD_INITIAL_CLUSTER_STATE="new"
ETCD_INITIAL_CLUSTER_TOKEN="etct-fantasy"
ETCD_INITIAL_CLUSTER="exodus=http://192.168.99.105:2380,genesis=http://192.168.99.103:2380"

exodus的配置如下:

ETCD_NAME=exodus
ETCD_DATA_DIR="/var/lib/etcd/exodus"
ETCD_LISTEN_PEER_URLS="http://192.168.99.105:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.99.105:2379,http://127.0.0.1:2379"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.99.105:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.99.105:2379"
ETCD_INITIAL_CLUSTER_STATE="new"
ETCD_INITIAL_CLUSTER_TOKEN="etct-fantasy"
ETCD_INITIAL_CLUSTER="exodus=http://192.168.99.105:2380,genesis=http://192.168.99.103:2380"

启动方式看自己喜好,如果打算用systemctl启动的话,注意/usr/lib/systemd/system/etcd.service中的内容可能不会如你所愿。

启动后,检查一下集群状态,顺便也看看有哪些成员:

[[email protected] etcd]# etcdctl cluster-health
member 7a4f27f78a05e755 is healthy: got healthy result from http://192.168.99.103:2379
failed to check the health of member 8e8718b335c6c9a2 on http://192.168.99.105:2379: Get http://192.168.99.105:2379/health: dial tcp 192.168.99.105:2379: i/o timeout
member 8e8718b335c6c9a2 is unreachable: [http://192.168.99.105:2379] are all unreachable
cluster is healthy

提示"member unreachable",看来是被exodus的防火墙拦住了,我们先粗暴一点。

[[email protected] etcd]# systemctl stop firewalld
[[email protected] etcd]# etcdctl cluster-health
member 7a4f27f78a05e755 is healthy: got healthy result from http://192.168.99.103:2379
member 8e8718b335c6c9a2 is healthy: got healthy result from http://192.168.99.105:2379
cluster is healthy

etcd discovery

当然,这样配置的前提是已经知道各个节点的信息。
但实际场景中可能无法预知各个member,所以我们需要让etcd自己去发现(discovery)。

首先,etcd提供了一个public discovery service - discovery.etcd.io,我们用它来生成一个discovery token,并在genesis创建目录:

[[email protected] etcd]# curl https://discovery.etcd.io/new?size=3
https://discovery.etcd.io/6321c0706046c91f2b2598206ffa3272
[[email protected] etcd]# etcdctl set /discovery/6321c0706046c91f2b2598206ffa3272/_config/size 3

修改exodus的配置,用discovery代替之前的cluster:

ETCD_NAME=exodus
ETCD_DATA_DIR="/var/lib/etcd/exodus"
ETCD_LISTEN_PEER_URLS="http://192.168.99.105:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.99.105:2379,http://127.0.0.1:2379"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.99.105:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.99.105:2379"
ETCD_DISCOVERY=http://192.168.99.103:2379/v2/keys/discovery/98a976dac265a218f1a1959eb8dde57f

如果启动后一直显示如下错误(参考: raft election):

rafthttp: the clock difference against peer ?????? is too high [??????s > 1s]

简单的解决方法是通过ntp:

[[email protected] etcd]yum install ntp -y
[[email protected] etcd]# systemctl enable ntpd
Created symlink from /etc/systemd/system/multi-user.target.wants/ntpd.service to /usr/lib/systemd/system/ntpd.service.
[[email protected] etcd]# systemctl start ntpd

flannel

set一个路径给flannel用:

etcdctl set /coreos.com/network/config ‘{ "Network": "10.1.0.0/16" }‘

systemctl start flanneld方式启动时,如果出现以下错误

network.go:53] Failed to retrieve network config: 100: Key not found (/coreos.net) [9]  

注意/etc/sysconfig/flanneld中的内容,FLANNEL_ETCD_PREFIX很可能是/atomic.io/network,将其改为/coreos.com/network
或者也可以通过-etcd-prefix指定。

启动成功后,查看subnet:

[[email protected] etcd]# etcdctl ls /coreos.com/network/subnets
/coreos.com/network/subnets/10.1.90.0-24
/coreos.com/network/subnets/10.1.30.0-24
/coreos.com/network/subnets/10.1.18.0-24

flannel启动成功后会生成/run/flannel/docker,内容如下:

DOCKER_OPT_BIP="--bip=10.1.30.1/24"
DOCKER_OPT_IPMASQ="--ip-masq=true"
DOCKER_OPT_MTU="--mtu=1450"
DOCKER_NETWORK_OPTIONS=" --bip=10.1.30.1/24 --ip-masq=true --mtu=1450 "

用以下方式启动docker:

[[email protected] etcd]# source /run/flannel/docker
[[email protected] etcd]# docker daemon ${DOCKER_NETWORK_OPTIONS} >> /dev/null 2>&1 &

/run/flannel/docker是怎么来的?
参考flanneld的两个启动参数,-subnet-dir-subnet-file

在genesis进入容器看看效果:

[[email protected] etcd]# docker run -it busybox
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:0A:01:5A:02
          inet addr:10.1.90.2  Bcast:0.0.0.0  Mask:255.255.255.0
          inet6 addr: fe80::42:aff:fe01:5a02/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1450  Metric:1
          RX packets:6 errors:0 dropped:0 overruns:0 frame:0
          TX packets:6 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:508 (508.0 B)  TX bytes:508 (508.0 B)

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)

在exodus也做类似操作,在exodus中ping一下10.1.90.2,发现是通的。
并在各自容器中也ping一下,检查是否跨主机互通。

时间: 2024-08-07 03:30:47

Docker - 用Flannel跨主机的相关文章

Docker容器的跨主机连接

Docker容器的跨主机连接 使用网桥实现跨主机容器连接 网络拓扑 网络连接使用的是Bridge 操作 修改/etc/network/interfaces文件,分配静态IP地址 1.auto br02.iface br0 inet static3.address 10.211.55.34.netmask 255.255.255.05.gateway 10.211.55.16.bridge_ports eth0 修改/etc/default/docker文件,限定分配IP地址段,防止冲突 1.-b

Docker容器的跨主机访问

Docker容器的跨主机访问 使用网桥实现跨网段访问 主机1 :192.168.22.101  主机2:192.168.22.102 安装网桥管理工具#sudo apt-get install bridge-until 配置网卡地址# sudo vim /etc/network/interfaces 配置其中一块网卡的网络参数,另一块网卡配置参数一样,这里不在演示 重新启动网卡 # sudo /etc/init.d/networking restart 查看网络配置,发现eth0已经没有地址而b

利用虚拟网桥实现Docker容器的跨主机访问

最近在研究Docker,Docker的网络配置是比较令人头疼的部分,尤其是跨主机的容器间通信,很多解决方案都比较复杂,这里,我只用虚拟网桥来实现Docker的跨主机访问,分享出来,希望对Docker学习的各位有一定的启发. 基本思想: 由于Docker容器通过docker0 网桥实现同一主机间中,容器的ip地址分配和访问,所以,如果希望Docker跨主机访问,最简单的方式就是将不同主机的docker0 设置为同一网段. 那么怎么实现跨主机呢?我这里将本机网卡也通过网桥来连接,那么,整体网络拓扑结

Cacilo实现Docker容器的跨主机连接

Cacilo // 1 #Cacilo的安装 2 #将可执行文件加到系统路径下即可 3 wget http://www.projectcalico.org/builds/calicoctl 4 chmod a+x calicoctl 5 cp calicoctl /usr/local/bin // #启动Etcd服务 见前面博客的各种启动Etcd服务的方法 #集群两个主机的IP:192.168.108.131 192.168.108.132 # //

Docker容器跨主机通信之:直接路由方式

概述 就目前Docker自身默认的网络来说,单台主机上的不同Docker容器可以借助docker0网桥直接通信,这没毛病,而不同主机上的Docker容器之间只能通过在主机上用映射端口的方法来进行通信,有时这种方式会很不方便,甚至达不到我们的要求,因此位于不同物理机上的Docker容器之间直接使用本身的IP地址进行通信很有必要.再者说,如果将Docker容器起在不同的物理主机上,我们不可避免的会遭遇到Docker容器的跨主机通信问题.本文就来尝试一下. 方案原理分析 由于使用容器的IP进行路由,就

如何实现跨主机之间docker容器通信问题

这里采用最原始的桥接模式来实现跨主机直接docker容器通信问题 一些常用命令 brctl show br0 brctl addbr br0 brctl addif br0 eth0 ifconfig br0 down 1.先安装brctl工具包 apt-get install bridge-utils 2.创建一个docker的桥接网络类型(ip填写和同主机网段的ip) docker network create --subnet=192.168.17.100/16 br0 这里我的宿主机ip

部署Flannel,实现跨主机Docker容器通信

flannel(flannel is a virtual network that attaches IP addresses to containers) 两个主机下的Docker容器之间是不互通的,通过部署flannel,对docker容器的ip进行规划,就能实现跨主机容器之间的通信. 官方文档:https://coreos.com/flannel/docs/latest/flannel-config.html 以下介绍Flannel的部署 机器配置如下 hostname ip 系统版本 e

docker之docker容器flannel模式多网段跨主机通信

一.简介flannel是为实现多网段通信的第三方的解决方案, 是 CoreOS 开发的容器网络解决方案.flannel 为每个 host 分配一个 subnet,容器从此 subnet 中分配 IP,这些 IP 可以在 host 间路由,容器间无需 NAT 和 port mapping 就可以跨主机通信.每个 subnet 都是从一个更大的 IP 池中划分的,flannel 会在每个主机上运行一个叫 flanneld 的 agent,其职责就是从池子中分配 subnet.为了在各个主机间共享信息

docker之docker容器flannel模式多网段跨主机通信所遇问题集

问题一:docker无法启动错误提示:[[email protected] docker.service.d]# systemctl status docker.service ● docker.service - Docker Application Container EngineLoaded: error (Reason: Invalid argument)Drop-In: /usr/lib/systemd/system/docker.service.d└─flannel.confActi