Linux下Bond技术实现平衡负载

问题介绍

一般企业内用于提供NFS服务、samba服务或者vsftpd服务时,要求系统必须提供7*24小时的网络传输服务。它所能提供的最大网络传输速度为100MB/s,但是当访问的用户数量特别多时,服务器的访问压力非常大,网络传输速率特别慢。

解决方法

因此我们可以采用bond技术实现多网卡的负载均衡来保障网络的自动备援和负载均衡。以此保障实际运维工作中网络的可靠性、文件高速率传输性。

网卡绑定mode共有七种(0~6): bond0、bond1、bond2、bond3、bond4、bond5、bond6。
常见的网卡绑定驱动有以下三种模式:

  • mode0 平衡负载模式: 平时两块网卡工作,且自动备援,但需要在服务器本机网卡相连的交换机设备上进行端口聚合来支持绑定技术;
  • mode1 自动备援技术: 平时只有一块网卡工作,在它故障后自动替换为另外的网卡;
  • mode6 平衡负载模式: 平时两块网卡均工作,且自动备援,无须交换机设备提供辅助支持;

这里主要详细介绍下mode6网卡绑定驱动模式,因为该模式能够让两块网卡同时一起工作,当其中一块网卡出现故障后能自动备援,且无需交换机设备的支援,从而保障可靠的网络传输保障。

以下在VMware虚拟机下RHEL 7中进行网卡的bond技术绑定操作

  1. 在虚拟机系统中再添加一块网卡设备,并设置两块网卡都在同一个网络连接模式中,如下图所示,处于该模式的网卡设备才可以进行网卡的绑定,否则这两块网卡无法相互传送数据。


  2. 配置网卡设备的绑定参数,这里需要注意此时独立的网卡需要被配置成为一块“从属”的网卡,服务于“主”网卡,不应该再有自己的IP地址。在进行如下的初始化设备后,它们就可以支持网卡绑定了。
    cd /etc/sysconfig/network-scripts/               #进入网卡文件的目录下
vim ifcfg-eno16777728               #编辑网卡1配置文件

TYPE=Ethernet
BOOTPROTO=none
DEVICE=eno16777728
ONBOOT=yes
HWADDR=00:0C:29:E2:25:2D
USERCTL=no
MASTER=bond0
SLAVE=yes

 vim ifcfg-eno33554968               #编辑网卡2配置文件

TYPE=Ethernet
BOOTPROTO=none
DEVICE=eno33554968
ONBOOT=yes
HWADDR=00:0C:29:E2:25:2D
MASTER=bond0
SLAVE=yes

  1. 新建网卡设备文件ifcfg-bond0,并配置IP地址等信息,这样子当用户访问相应服务的时候,就是由这两块网卡设备在共同提供服务了。
vim ifcfg-bond0               #当前目录下新建ifcfg-bond0配置文件

TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
USERCTL=no
DEVICE=bond0
IPADDR=192.168.100.5
PREFIX=24
DNS=192.168.100.1
NM_CONTROLLED=no

  1. 修改网卡绑定驱动模式,这里我们使用mode6(平衡负载模式)
vim /etc/modprobe.d/bond.conf               #配置网卡绑定驱动的模式

alias bond0 bonding
options bond0 miimon=100 mode=6

  1. 重启网络服务,使配置生效

systemctl restart network

  1. 测试

原文地址:http://blog.51cto.com/10316297/2116352

时间: 2024-10-18 11:29:30

Linux下Bond技术实现平衡负载的相关文章

Linux下搭建一个nginx+2tomcat负载均衡环境

一.安装tomcat 1.将tomcat安装包上传到Linux下: 2.解压2个tomcat,并分别修改名称: 1).解压命令:unzip 2).修改用户名:mv 3.分别修改两个tomcat的端口号,修改文件: 第一台的端口号可以用默认的8080: 修改第二台的端口号: 4.启动两台tomcat,并在本地浏览器访问,看是否正常: 第一台: 第二台: 备注:如果两个Tomcat部署了同个项目,安装时可以选择同个数据库名称,这样两个服务就可以公用同个数据库 二,安装 1.安装编译工具及库文件 yu

Linux下bond双网卡绑定

bond,是一种双网卡绑定技术.即将多块物理网卡绑定成一个逻辑网卡,并实现网卡冗余.流量均衡等的一种可靠性强且高可用技术. 七种bond模式: 一.mod=0即banlance-rr(平衡轮循环策略) 特点:传输数据包的顺序是依次传输,第一个走eth0,第二个包走eth1--一直这样循环下去,直到传输完成.该模式提供负载均衡和容错能力. 假如当一个连接或会话的数据包从不同的接口发出,并经过不同的链路,客户端可能会出现数据包无序到达的情况,这样导致无序到达的数据需重新被发送,便会导致网络的吞吐量的

linux 下Haproxy实现简单四层负载均衡

HAProxy提供高可用性.负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费.快速并且可靠的一种解决方案. Haproxy的四层负载均衡搭建 主机规划: server 192.168.1.148  提供haproxy服务 后台  web1  192.168.1.150 web2  192.168.1.136 使用源码包安装 解压: tar -zxvf haproxy-1.4.24.tar.gz 进入到解压目录: cd  haproxy-1.4.24 编译: make TARGE

Linux 下 CPU 使用率与机器负载的关系与区别

原文链接:  http://blog.chinaunix.net/uid-28541347-id-4926054.html 当我们使用top命令查看系统的资源使用情况时会看到load average,如下图所示.它表示系统在1,5,15分钟的平均工作负载.那么什么事负载(load)呢?它和cpu的利用率又有什么关系呢? load average:系统平均负载是CPU的Load,它所包含的信息不是CPU的使用率状况,而是在一段时间内CPU正在处理以及等待CPU处理的进程数之和的统计信息,也就是CP

linux下:nginx+tomcat实现负载均衡

Nginx+tomcat+jdk+负载均衡配置 Nginx与tomcat都具有发布网页的功能,但是nginx只能发布HTML的静态网页,tomcat可以发布jsp的网页,并且nginx可以发布tomcat. 下载:jdk.xxxxxx.rpm   apache-tomcat-xxxxxxxxx.tar.gz   openssl.xxxxxx.tar.gz   zlib.xxxx.tar.gz   pcre.xxxx.tar.gz    Nginx.xxxxx.tar.gz 1.jdk安装配置 上

Linux 下Nginx 的安装及负载均衡的简单配置

这次发布程序需要均衡负载,网上看了一下这方便的东西,觉得很不错,学完之后做下总结,一遍后期用到. 1.安装nginx之前需要安装的两个依赖,pcre-x.x.x.tar.gz 和pcre-devel-x.x.x.rpm这两个包(具体这两个有什么用处也没仔细研究过,不安装确实再安装nginx时失败) 1.1安装1.安装pcre-x.x.x.tar tar zxvf pcre-x.x.x.tar.gz cd pcre-x.x.x ./configure make && make install

Linux下nginx+多个Tomcat负载均衡的实现

由于项目需要,共创建了10个Tomcat端,由nginx负责转发.9个Tomcat端口分别是8080,11000,12000,13000,14000,15000,16000,17000,18000,19000. nginx配置:upstream Tomcat { server xxx.xxx.xx.xxx:8080 server xxx.xxx.xx.xxx:11000 ...以此类推 } server配置: server{ if ( $uri = '/' ){ rewrite .* / bre

Linux 下 tomcat基于nginx做负载均衡

测试目的:在一台装有nginx服务器上访问nginx这台的ip地址,刷新一次就会显示后端三台不同的tomcat服务器的测试页. 测试环境:三台centos 6.8 一台 centos 7.3 软件版本: nginx 1.12.1 tomcat 8 软件部署的话 就不操作了 之前已经部署好了的,不会的话 看我之前的博客里都有. nginx 安装 http://dklwj.blog.51cto.com/9199080/1949570 tomcat 安装: http://dklwj.blog.51ct

Linux下双网卡绑定(bonding技术)

http://www.cnblogs.com/qmfsun/p/3810905.html Linux网卡绑定探析 2013-08-20 15:39:31 现在很多服务器都自带双千兆网口,利用网卡绑定既能增加网络带宽,同时又能做相应的冗余,目前应用于很多的场景.linux操作系统下自带的网卡绑定模式,Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个网络接口设置来使用,用于网络负载均衡及网络冗余.当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(win