ESXI服务器的四个网口负载均衡

什么是NIC Team(负载均衡)

NIC Team其实就是将多个物理网卡同时分配到相同的端口/端口组,目的是为了实现带宽聚合,负载均衡以及故障转移

配置NIC Team

一、选择一台ESXi主机,打开“管理”选项卡中的“网络”选项卡,然后选择“虚拟交换机”,在右侧栏中选中一台需要配置的交换机,单击“

二、为这台交换机增加多个网卡,并设置为“活动适配器”

三、单击“”编辑交换机的属性

四、安全选项

1、混杂模式

设置为接受,并且在虚拟机操作系统中将网卡设为混杂模式,则这台虚拟交换机就允许这块网卡接收到该端口\端口组所有活动VLAN的数据。反之,则只会接收到本虚拟机的数据,不会接收到其他数据。比如,端口扫描程序、入侵检测等系统都需要开启这项功能

2、MAC地址更改

设置为拒绝,则虚拟机在操作系统中将网卡的MAC地址更改为不同于.vmx配置文件中的MAC地址时,丢弃所有入站数据。反之,则会将数据接收到新的地址

3、伪传输:

设置为拒绝,任何出站数据的源MAC地址不同于.vmx配置文件中的源MAC地址时,则交换机会丢弃该出站的所有数据。反之不执行筛选,允许所有出站数据通过

五、流量调整选项

1、状态

是否启用输入流量调整或输出流量调整

2、平均带宽

允许每秒平均通过端口/端口组的带宽最大负载

3、峰值带宽

当端口/端口组发送和接收流量突发时,每秒钟允许通过的最大带宽。此选项是端口使用额外突发时所能使用的最大带宽

4、突发大小

在使用额外突发带宽时,可累积传输的最大字节数,使数据能以更高速度传输

六、成组和故障切换选项

1、负载均衡

(1)基于源虚拟端口的路由。当虚拟机打开电源并初次连接虚拟交换机时,虚拟交换机都会为虚拟机生成一个端口ID,然后虚拟交换机根据端口\端口组的物理网卡数量和每台虚拟机的端口ID计算其数据流量从哪个物理网卡通过。端口ID生成后是固定不变的,只有当删除、迁移、关闭虚拟机端口才会发生变化

比如:VM01、VM03、VM05流量转发至vmnic0,VM02、VM04、VM06流量转发至vmnic2

优点:

1)流量分布均匀

2)无需对物理交换机做任何配置

缺点:

1)单台虚拟机流量突发时,无法根据流量负载做负载均衡

2)虚拟机总带宽取决于虚拟交换机端口\端口组的总带宽

(2)基于源MAC哈希的路由。虚拟交换机根据端口\端口组的物理网卡数量和每台虚拟机的MAC地址计算其数据流量从哪个物理网卡通过

优点:

1)比基于源虚拟端口的路由,流量分布更加均匀,虚拟交换机会计算每个数据包的MAC地址

2)单台虚拟机的数据包会从同一个物理网卡通过,因为MAC地址是静态的,无论关闭、启动、迁移虚拟机MAC地址都不会发生变化

2)无需对物理交换机做任何配置

缺点:

1)虚机交换机资源消耗比基于源虚拟端口的路由大,因为虚拟交换机会计算每个数据包的MAC地址

2)其他缺点与基于源虚拟端口的路由类似

(3)基于IP哈希的路由。虚拟交换机可根据每个数据包的源和目的IP地址计算其数据流量从哪个物理网卡通过,只有这种方式,才能真正实现虚拟机流量的负载均衡,但需要在物理交换机上配置EtherChannel

注意:

1)只支持静态模式下的EtherChannel

2)标准虚拟交换机不支持LACP协议,只有vSphere Distributed Switch 5.1(分布式交换机)及更高版本或Cicso Nexus 1000V支持LACP协议

3)网络故障检测必须设置为“仅链路状态”

4)必须在物理交换机配置EtherChannel,否则会造成网络中断

5)物理网卡组必须全部设置为“活动适配器”,不能设置为“备用适配器”或“未使用适配器”

优点:

1)真正实现虚拟机流量的负载均衡

2)可实现更高的带宽吞吐

缺点:

1)虚拟交换机资源消耗与其他两种相比是最大的

2)必须在物理交换机上进行配置

(4)使用明确故障切换顺序。不具备任何负载均衡的功能,只有当“活动适配器”中没有任何可用的物理网卡时,自动使用“备用适配器”中的物理网卡

2、网络故障检测

(1)仅链路状态。只判断物理网卡的实际链路状态,如网线被拔出或物理交换机停止工作。如由STP生成树关闭的端口、配置错误的VLAN或拔出其他上联交换机导致网络故障时不会进行判断

(2)信标探测。ESXi主机每秒发送一次信标数据包,检测物理网卡是否存在链路故障,但这种方式要求网卡组中至少要有三块或以上的网卡,同时允许出现n-2个故障

3、通知交换机

如果选择“是”,当发生故障进行切换时,虚拟交换机会通过网络告知物理交换机进行更新MAC地址表,可以为故障切换或vMotion迁移时降低延迟时间,所以,这里强烈建议选择“是”。

注意:如果使用的Windows的NLB负载均衡的单播模式解决方案,此处必须选择“否”

4、故障恢复

如果选择“是”,当原发生故障的物理网卡恢复正常时,立即接替其位置的备用物理网卡

如果选择“否”,当原发生故障的物理网卡恢复正常时,不接替其位置的备用物理网卡,直到当前使用的物理网卡再次发生故障时,才进行接替其位置

时间: 2024-10-14 10:13:20

ESXI服务器的四个网口负载均衡的相关文章

Nginx服务器 之反向代理与负载均衡

一.反向代理 正向代理: 客户端要获取的资源就在服务器上,客户端请求的资源路径就是最终响应资源的服务器路径,这就是正向代理.正向代理的特点:就是我们明确知道要访问哪个网站地址. 反向代理: 客户端想获取服务器集群中(服务1,服务2,服务3 他们的资源相同)中的资源,但是客户端无法与该服务器集群建立连接,但我们可以与另一台服务器(代理服务器)建立连接且该服务器能获取服务器集群中的资源.这个时候客户端就可以通过请求代理服务器,获取想要的资源,但客户端并不知道给他资源的是哪个服务器.这种方式就是反向代

架构之路:nginx与IIS服务器搭建集群实现负载均衡(三)

参考网址:https://blog.csdn.net/zhanghan18333611647/article/details/50811980 [前言] 在<架构之路:nginx与IIS服务器搭建集群实现负载均衡(二)>中提到有好多有趣的地方,接下来就为大家一块儿讲讲在深入研究过程中遇到那些有趣的事情. ·实战之行--发现问题 ·探索之旅--寻出问题原因 ·解决之道--解决问题 [实战之行] 在<架构之路:nginx与IIS服务器搭建集群实现负载均衡(二)>中做了小Demo,当时做

【转】《从入门到精通云服务器》第七讲—负载均衡和CDN技术

在IDC知识中,我们常常会遇上负载均衡与CDN的概念而不知所云.第一讲[什么是云计算], 我们提到过负载均衡,仅给大家留下了印象.这次我们将深入浅出的讲讲到底什么是负载均衡与CDN技术.---互联网数据中心(Internet Data Center)简称IDC 负载均衡(load balance) BOSS一次给了小明好多项任务,小明发现怎么安排时间也做不完,于是乎他盯上了在旁边偷偷看电影的小强,小强突然觉得背后有一股凉气,一回头小明一脸坏笑看着他,“这几个任务交给你,晚上请你吃饭,要不然…嘿嘿

Web服务器Tomcat集群与负载均衡技术

我们曾经介绍过三种Tomcat集群方式的优缺点分析.本文将介绍Tomcat集群与负载均衡技术具体实施过程. 在进入集群系统架构探讨之前,先定义一些专门术语: 1. 集群(Cluster):是一组独立的计算机系统构成一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信.应用程序可以通过网络共享内存进行消息传送,实现分布式计算机. 2. 负载均衡(Load Balance):先得从集群讲起,集群就是一组连在一起的计算机,从外部看它是一个系统,各节点可以是不同的操作系统或不同硬件构成的计算机.如

架构之路:nginx与IIS服务器搭建集群实现负载均衡(二)

[前言] 在<架构之路:nginx与IIS服务器搭建集群实现负载均衡(一)>中小编简单的讲解了Nginx的原理!俗话说:光说不练假把式.接下来,小编就和大家一起来做个小Demo来体会一下Nginx的神奇之处. [准备工作] ·安装一款文本编辑器(这里以Notepad++为例) ·下载Nginx(这里以Nginx-1.4.7为例,其他版本操作相同) ·建两个简单网页:在文件夹test1新建一个html页内容为--我是Test1,在文件夹test2新建一个html页内容为--我是Test2) ·将

用nginx进行同一个服务器下多域名的负载均衡配置

Nginx进行http负载均衡的模块是upstream Upstream可以进行多个配置,这样的话可以灵活的配置站点,但是注意的是upstream后面的名字最好是配置成为域名,因为upstream是进行http访问的,一般的解析没有问题,但是如果是ajax的解析就会通过访问upstream后面的名字来进行访问了,这里要注意. 修改配置文件:conf/nginx.conf 配置文件代码 #需要进行负载均衡的站点 #其中server是其中负载均衡的一个节点www.aaa.com upstream w

从Exchange 通往Office 365系列(四)配置负载均衡

既然我们配置了两台CAS服务器,那么为的就是让这两台服务器能够提供负载均衡的服务,在Exchange 2013里配置负载均衡非常简单,因为没有了CAS Array的概念,在Exchange 2013里配置负载均衡完全是在图形化界面里完成的,而在Exchange 2010里可能还需要用Powershell来实现.好的,下边来看如何实验CAS服务器的负载均衡 1. 登陆CAS服务器,点击添加角色和功能 2.直接下一步 3.直接下一步 4.选择当前服务器 5.这里直接下一步 6.注意这里添加网络负载平

两台服务器如何互相做nginx负载均衡

环境介绍 192.168.127.131  nginx负载均衡 兼web服务器 192.168.127.130  nginx负载均衡 兼web服务器 每台服务器上面有两个web站点分别是 www.123.com www.hu.com 说明: 准备用dns轮询解析来实现负载均衡,并且在两台server上面还同时启用了Nginx负载均衡,两台服务器是互为负载.前提是两台web服务端的网站内容一致. 配置过程: 在130负载均衡上面的操作: 在 上面编辑一个配置文件 vi /usr/local/ngi

第四章 客户端负载均衡:Spring Cloud Ribbon

Spring Cloud R巾bon 是一个基于 HTTP 和 TCP 的客户端负载均衡工具,它基于 NetflixRibbon 实现. 通过 Spring Cloud 的封装, 可以让我们轻松地将面向服务的 REST 模板请求自动转换成客户端负载均衡的服务调用 客户端负载均衡 我们通常所说的负载均衡都指的是服务端负载均衡, 其中分为硬件负载均衡和软件负载均衡. 硬件负载均衡主要通过在服务器节点之间安装专门用于负载均衡的设备,比如 F5 等:而软件负载均衡则是通过在服务器上安装一些具有均衡负载功