docker数据卷备份恢复以及配置桥接网络

笔记内容:docker数据卷备份恢复以及网络相关
笔记日期:2018-02-06

  • 25.9 数据卷备份恢复
  • 25.10 docker网络模式
  • 25.11 opration not permitted错误
  • 25.12 配置桥接网络

25.9 数据卷备份恢复

备份:

如果数据卷容器的共享目录已经挂载到了本地宿主机的磁盘上,那么就无需进行数据卷备份。没有进行挂载到本地,而是作为共享目录的数据卷容器,就得定期将数据卷进行一个备份,不然如果数据卷被删除的话,数据也会丢失。

假设数据卷容器共享的目录是data,由于是作为一个共享目录的数据卷容器,那么就会与普通容器进行目录的关联。这样我们可以在本地磁盘上创建一个backup目录,在新建容器的时候,把容器的backup目录映射到本地宿主机的backup目录上,之后需要备份data目录的数据时,只需要把data目录打包到backup目录下即可,这样就会写入到本地磁盘的backup中。

示意图:

实现如下:

1.在本地磁盘上创建一个backup目录:

mkdir /data/backup

2.新建容器,把容器的backup目录映射到本地宿主机的backup目录上,并将data目录打包到backup目录下:

docker run --volumes-from testvol -v  /data/backup/:/backup centos tar cvf  /backup/data.tar /data/

说明:首先我们需要使用testvol数据卷新开一个容器,同时我们还需要把本地的/backup/目录挂载到该容器的/backup下,这样在容器中/backup目录里面新建的文件,我们就可以直接在/data/backup/目录中看到了。 然后再把/data/目录下面的文件打包到成data.tar文件放到/backup目录下面,这样就实现了一个简单的备份。

恢复:

恢复则是反其道而行之,先新建一个数据卷容器,再新建一个新的容器并挂载该数据卷容器,然后再把打包的tar包解包。

1.新建数据卷容器:

docker run -itd -v /data/ --name testvol2 centos bash

2.挂载数据卷新建容器,并解包:

docker run --volumes-from testvol2  -v /data/backup/:/backup centos tar xf /backup/data.tar

25.10 docker网络模式

我们平时使用的VMware、VirtualBox等虚拟机软件,都有不同的网络模式,例如:NAT模式、桥接模式、仅主机模式等。而docker也是一种虚拟技术,所以自然也有不同的网络模式,docker有四种网络模式。

host模式,使用docker run时使用 --net=host 指定。docker使用的网络实际上和宿主机一样,在容器内看到的网卡ip是宿主机ip。

container模式,使用 --net=container:container_id/container_name 来指定。多个容器使用共同的网络,看到的ip是一样的。例如容器A和容器B使用共同的网络,那么它们两个看到的ip就是一样的。

none模式,使用 --net=none 指定,这种模式下,不会配置任何网络。

bridge模式,使用 --net=bridge 指定默认模式,不用指定默认就是这种网络模式。这种模式会为每个容器分配一个独立的Network Namespace。类似于vmware的nat网络模式。同一个宿主机上的所有容器会在同一个网段下,相互之间是可以通信的。



外部访问容器:

以上简单介绍了几种docker的网络模式,我们也知道docker模式使用的是bridge模式,可以与宿主机以及该宿主机上的其他容器进行通信。但是,如果想要在宿主机外部访问该容器,则是无法访问的。

解决这个问题的方法,就是我们可以将容器端口映射到宿主机上,那么访问宿主机的端口即可,下面我们来用一个小例子进行一个简单的演示:

1.进入到一个运行中的容器,或者从现有的镜像新建一个容器,进入容器后安装nginx,安装完后退出容器:

[[email protected] ~]# docker exec -it f7774d bash
[[email protected] /]# yum -y install epel-release
[[email protected] /]# yum -y install nginx
[[email protected] /]# exit

2.然后把该容器导成一个新的镜像,接着再使用新镜像创建容器,并指定端口映射:

[[email protected] ~]# docker commit -m "install nginx" -a "author" f7774d centos_with_nginx  # 导出为镜像
sha256:1c56209c7a2775755af07e6b8f6005aed2936e7922f381ee648582e696196901
[[email protected] ~]# docker images
REPOSITORY                    TAG                 IMAGE ID            CREATED             SIZE
centos_with_nginx             latest              1c56209c7a27        18 seconds ago      389MB
[[email protected] ~]# docker run -itd -p 8088:80 centos_with_nginx bash  # 创建容器时指定端口映射
6289ec878420dcd27218334fb7933216e8a04c2eff839ae699ae75e7c7625957
[[email protected] ~]# 

-p 可以指定端口映射,本例中将容器的80端口映射为本地的8088端口。


25.11 opration not permitted错误

以上我们已经完成了nginx的安装以及导出镜像,并且也创建好了容器。但是新建的容器,如果启动nginx或者httpd这类服务的时候会报如下错误:

Failed to get D-Bus connection: Operation not permitted

例如,我进入到刚刚创建的容器下启动nginx服务:

[[email protected] ~]# docker exec -it 6289ec8 bash
[[email protected] /]# systemctl start nginx
Failed to get D-Bus connection: Operation not permitted
[[email protected] /]# exit

如上,可以看到报错了。

这是因为dbus-daemon没有启动,解决该问题的方法如下:

启动容器时,要加上--privileged -e "container=docker" ,并且最后面的命令改为/usr/sbin/init

例如,我们删除之前的容器,重新创建:

[[email protected] ~]# docker rm -f 6289ec8  # 删除之前的容器
6289ec8
[[email protected] ~]# docker run -itd --privileged -e "container=docker" -p 8088:80 centos_with_nginx /usr/sbin/init
5814019a5395d165cbf77e1921936698b78a6d62abd94e7b4aa6d718ebecebee
[[email protected] ~]#
[[email protected] ~]# docker exec -it 5814019 bash
[[email protected] /]# systemctl start nginx  # 这时启动nginx就没有报错了
[[email protected] /]# ps aux |grep nginx
root         93  0.0  0.1 122928  2252 ?        Ss   18:33   0:00 nginx: master process /usr/sbin/nginx
nginx        94  0.0  0.1 123392  3136 ?        S    18:33   0:00 nginx: worker process
nginx        95  0.0  0.1 123392  3136 ?        S    18:33   0:00 nginx: worker process
nginx        96  0.0  0.1 123392  3140 ?        S    18:33   0:00 nginx: worker process
nginx        97  0.0  0.1 123392  3140 ?        S    18:33   0:00 nginx: worker process
root         99  0.0  0.0   9048   664 pts/1    S+   18:33   0:00 grep --color=auto nginx
[[email protected] /]# netstat -lntp |grep nginx
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      93/nginx: master pr
tcp6       0      0 :::80                   :::*                    LISTEN      93/nginx: master pr
[[email protected] /]# curl localhost

如上,可以看到,容器里的nginx已经启动了,并且也映射了本地宿主机的8088端口,那么我们来从浏览器上访问宿主机的8088端口,看看是否能访问到这个nginx服务:

没问题,从浏览器上访问成功。以上我们就解决了外部网络访问容器服务以及在容器内启动nginx服务报opration not permitted错误的问题。


25.12 配置桥接网络

为了使本地网络中的机器和Docker容器更方便的通信,我们经常会有将Docker容器配置到和主机同一网段的需求。这个需求其实很容易实现,我们只要将Docker容器和宿主机的网卡桥接起来,也就是需要配置一个桥接网络,然后再给Docker容器配上IP就可以了,实现步骤如下:

1.首先在宿主机上进入到网卡配置文件的目录下,并拷贝网卡配置文件:

[[email protected] ~]# cd /etc/sysconfig/network-scripts/
[[email protected] /etc/sysconfig/network-scripts]# cp ifcfg-eno16777728 ifcfg-br0

2.然后编辑网卡配置文件:

[[email protected] /etc/sysconfig/network-scripts]# vim ifcfg-br0
TYPE=Bridge  # 将Ethernet修改为Bridge,并将以下几个字段的值修改为br0
NAME=br0
DEVICE=br0

3.编辑宿主机的网卡配置文件,并重启网卡:

[[email protected] /etc/sysconfig/network-scripts]# vim ifcfg-eno16777728
# 将 UUID、DNS1、DNS2、IPADDR、PREFIX、GATEWAY 等字段都注释掉
BRIDGE=br0  # 然后在文件末尾加上这一句
[[email protected] /etc/sysconfig/network-scripts]# systemctl restart network

4.重启网卡成功后,使用ifconfig查看网卡信息如下:

[[email protected] ~]# ifconfig
br0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.77.130  netmask 255.255.255.0  broadcast 192.168.77.255
        inet6 fe80::20c:29ff:fef1:912c  prefixlen 64  scopeid 0x20<link>
        ether 00:0c:29:f1:91:2c  txqueuelen 0  (Ethernet)
        RX packets 661  bytes 111914 (109.2 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 177  bytes 26544 (25.9 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eno16777728: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        ether 00:0c:29:f1:91:2c  txqueuelen 1000  (Ethernet)
        RX packets 833  bytes 173138 (169.0 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 179  bytes 29840 (29.1 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 0  (Local Loopback)
        RX packets 5241  bytes 2612196 (2.4 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 5241  bytes 2612196 (2.4 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

[[email protected] ~]# 

如上,可以看到,br0已经被识别了,并且将原本是eno16777728网卡的ip分给了br0网卡,而且正常的情况下eno16777728是没有ip的。

5.安装pipwork工具:

[[email protected] ~]# git clone https://github.com/jpetazzo/pipework
[[email protected] ~]# cd pipework/
[[email protected] ~/pipework]# ls
docker-compose.yml  doctoc  LICENSE  pipework  pipework.spec  README.md
[[email protected] ~/pipework]# cp pipework /usr/local/bin/

6.开启一个容器,并进入到该容器中:

[[email protected] ~]# docker run -itd --net=none --name test_bridge_centos centos_with_nginx bash
9724781ac393a3c3caf0b92145aa442aac0009249dbf21619a9a40c4008ff6ab
[[email protected] ~]# docker exec -it 9724781 bash
[[email protected] /]# ifconfig  # 可以看到该容器中只有一个本地网卡
lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        loop  txqueuelen 0  (Local Loopback)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

[[email protected] /]# exit

7.使用pipework工具给这个容器分配ip:

# 192.168.77.125为容器的ip,@后面的ip为虚拟机的网关ip
[[email protected] ~]# pipework br0 test_bridge_centos 192.168.77.125/[email protected]
[[email protected] ~]# docker exec -it 9724781 bash
[[email protected] /]# ifconfig
eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.77.125  netmask 255.255.255.0  broadcast 192.168.77.255
        ether 5a:f0:c6:49:d4:27  txqueuelen 1000  (Ethernet)
        RX packets 36  bytes 7473 (7.2 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1  bytes 42 (42.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        loop  txqueuelen 0  (Local Loopback)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

[[email protected] /]# ping www.baidu.com  # 测试能否ping通外网
PING www.a.shifen.com (14.215.177.38) 56(84) bytes of data.
64 bytes from 14.215.177.38 (14.215.177.38): icmp_seq=1 ttl=128 time=13.9 ms
64 bytes from 14.215.177.38 (14.215.177.38): icmp_seq=2 ttl=128 time=10.2 ms
64 bytes from 14.215.177.38 (14.215.177.38): icmp_seq=3 ttl=128 time=10.3 ms
64 bytes from 14.215.177.38 (14.215.177.38): icmp_seq=4 ttl=128 time=10.2 ms
^C
--- www.a.shifen.com ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3004ms
rtt min/avg/max/mdev = 10.267/11.192/13.921/1.580 ms
[[email protected] /]# exit

如上,可以看到该容器已经被成功分配了我们指定的ip,并且也能正常ping通外网。

接着就是测试在外部能否ping通这个容器的ip,打开windows的cmd,执行以下命令:

C:\Users\zero>ping 192.168.77.125

正在 Ping 192.168.77.125 具有 32 字节的数据:
来自 192.168.77.125 的回复: 字节=32 时间<1ms TTL=64
来自 192.168.77.125 的回复: 字节=32 时间<1ms TTL=64
来自 192.168.77.125 的回复: 字节=32 时间<1ms TTL=64
来自 192.168.77.125 的回复: 字节=32 时间<1ms TTL=64

192.168.77.125 的 Ping 统计信息:
    数据包: 已发送 = 4,已接收 = 4,丢失 = 0 (0% 丢失),
往返行程的估计时间(以毫秒为单位):
    最短 = 0ms,最长 = 0ms,平均 = 0ms

C:\Users\zero>

输出结果如上,可以正常ping通。

小结:以上我们通过第三方的pipework工具实现了容器网络与宿主机网络的桥接,这种方式配置起来虽然稍微有些麻烦,但是方便于本地网络中的机器和Docker容器的通信。而docker自带的bridge模式,虽然在字面上是桥接,但是实际上更类似于nat模式,或者说就是nat模式,所以我们才需要使用pipework来实现桥接。

原文地址:http://blog.51cto.com/zero01/2069594

时间: 2024-10-11 04:39:50

docker数据卷备份恢复以及配置桥接网络的相关文章

Docker数据卷备份恢复、桥接网络设置

1.数据卷备份恢复 备份 mkdir /data/backup docker run --volumes-from testvol -v  /data/backup/:/backup centos tar cvf  /backup/data.tar /data/ 说明:首先我们需要使用testvol数据卷新开一个容器,同时我们还需要把本地的/vol_data_backup/目录挂载到该容器的/backup下, 这样在容器中/backup目录里面新建的文件,我们就可以直接在/data/backup

4.docker数据卷管理

生产过程中使用docker往往需要对数据进行持久化,或者需要在多个容器之间进行数据共享,因此就需要数据卷来做数据持久化 *数据卷:容器内数据直接映射到本地主机环境 数据卷的特性: 1)可以在容器之间共享和重用,容器间传递数据变得高效方便 2)对数据卷内数据的修改会立马生效,无论是容器内操作还是本地操作 3)对数据卷的更新不会影响镜像,解耦了应用和数据 4)卷会一直存在,直到没有容器使用,可以安全地卸载它 创建数据卷 docker run -it --name web -v ~/webapp:/w

docker数据卷应用场景

docker数据卷应用场景 在多个容器之间共享数据,多个容器可以同时以只读或者读写的方式挂载统一个数据卷,从而共享数据卷中的数据 当宿主机不能保证一定存在某一个目录或一些固定的文件路径时,使用数据卷可以规避这种限制带来的问题 当想把容器中的数据存储在宿主机之外的地方时,比如远程主机上和云存储上 当你需要把容器数据在不同宿主机之间备份.恢复或迁移时,数据卷是很好的选择 数据覆盖问题 如果挂载一个空的数据卷到容器中的一个非空目录中,那么这个目录下的文件会被复制到数据卷中 如果挂载一个非空的数据卷到容

Docker 数据卷与容器互联(3)

title: Docker 数据卷与容器互联(3) date: 2018-12-15 14:50:42 tags: Docker categories: Docker copyright: true --- Docker是基于Go语言实现的开源容器项目,Docker让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化.容器是完全使用沙箱机制,相互之间不会有任何接口,Docker诞生于2013年年初,最初发起者是dotCloud公司.

Docker 数据卷,数据卷容器详细介绍

Docker 数据卷,数据卷容器详细介绍 引子 有些时候,我们的服务运行时必不可少的会产生一些日志,或是我们需要把容器内的数据进行备份,甚至多个容器之间进行数据共享,这必然涉及容器的数据管理操作. 容器中管理数据主要有两种方式: 数据卷数据卷容器 数据卷是一个可供容器使用的特殊目录,它绕过文件系统,可以提供很多有用的特性: - 数据卷可以在容器之间共享和重用 - 对数据卷的修改会立马生效 - 对数据卷的更新,不会影响镜像 - 卷会一直存在,直到没有容器使用 #(类似linux下的挂载(mount

Docker学习笔记之docker数据卷

Docker数据卷数据卷是经过特殊设计的目录,可用绕过联合文件系统(UFS),为一个或多个容器提供访问 数据卷的特点:数据卷在容器启动时初始化,如果容器使用的镜像在挂载点包含了数据,这些数据会拷贝到新初始化的数据卷中数据卷可以在容器之间共享和重用可以对数据卷里的内容直接进行修改数据卷的变化不会影响镜像的更新卷会一直存在,即使挂载数据卷的容器已经被删除 为容器添加数据卷:docker run -v ~/container_data:/data -it centos /bin/bash:contai

docker配置桥接网络

Docker 是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化.容器是完全使用沙箱机制,相互之间不会有任何接口. Docker有4中网络模式,分别是bridge模式,host模式,container模式,none模式.其中bridge是默认的网络模式.此模式会为每一个docker容器分配一个Network Namespace,并将一个主机上的docker连接到一个虚拟网桥,一般是docker0.连在同一

docker(五)配置桥接网络

配置桥接网络 复制网卡配置文件ifcfg-ens33为ifcfg-br0,修改ifcfg-br0 [[email protected] ~]# cd /etc/sysconfig/network-scripts/ [[email protected] network-scripts]# cp ifcfg-ens33 ifcfg-br0 [[email protected] network-scripts]# vim ifcfg-br0 //修改TYPE,NAME,DEVICE 修改网卡配置文件

赋能云HBase备份恢复 百T级别数据量备份恢复支持

云HBase发布备份恢复功能,为用户数据保驾护航.对大多数公司来说数据的安全性以及可靠性是非常重要的,如何保障数据的安全以及数据的可靠是大多数数据库必须考虑的.2016 IDC的报告表示数据的备份(data-protection)和数据恢复(retention)是Nosql的最基础的需求之一. 为什么需要云HBase备份恢复???我们希望云HBase支持备份和恢复功能,主要原因: 用户直接访问操作数据库,可能存在安全风险:项目存在合规以及监管的强需求:对数据库恢复数据到任意时间点(归档到任意时间