Ubuntu 上ipvsadm负载均衡

Ubuntu 上ipvsadm负载均衡(DR模式,以22端口为例)

说明:3台服务器,ip分别为:10.0.1.2  10.0.1.3  10.0.1.4   虚拟ip:10.0.1.10

ipvsadm服务器(10.0.1.2)

$ sudo apt-get install ipvsadm

$ sudo ifconfig eth0:0 10.0.1.10 netmask 255.255.255.255 broadcast 10.0.1.10

$ sudo ip a (查看设置是否生效)

$ sudo route add -host 10.0.1.10 dev eth0:0

$ sudo route -n  (查看设置是否生效)

$ sudo ipvsadm -A -t 10.0.1.10:22 -s rr   (注rr为轮询模式)

$ sudo ipvsadm -a -t 10.0.1.10:22 -r 10.0.1.3:22 -g

$ sudo ipvsadm -a -t 10.0.1.10:22 -r 10.0.1.4:22 -g

$ sudo ipvsadm --save  (保存ipvsadm设置)

$ sudo ipvsadm -l (查看ipvsadm设置)

$ sudo ipvsadm -C  (清除ipvsadm设置)

ipvsadm客户端(10.0.1.3)

$ sudo ifconfig lo:0 10.0.1.10 netmask 255.255.255.255 broadcast 10.0.1.10

$ sudo ip a (查看设置是否生效)

$ sudo route add -host 10.0.1.10 dev lo:0

$ sudo route -n  (查看设置是否生效)

$ sudo echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore

$ sudo echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore

$ sudo echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce

$ sudo echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce

ipvsadm客户端(10.0.1.4)

$ sudo ifconfig lo:0 10.0.1.10 netmask 255.255.255.255 broadcast 10.0.1.10

$ sudo ip a (查看设置是否生效)

$ sudo route add -host 10.0.1.10 dev lo:0

$ sudo route -n  (查看设置是否生效)

$ sudo echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore

$ sudo echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore

$ sudo echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce

$ sudo echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce

验证:

putty或ssh 10.0.1.10  (第一次登录的是10.0.1.3,第二次登录的是10.0.1.4)

Ubuntu 上ipvsadm负载均衡

时间: 2024-09-30 10:40:35

Ubuntu 上ipvsadm负载均衡的相关文章

云计算之路-阿里云上:负载均衡从七层换成四层后的意外发现

阿里云的负载均衡产品叫SLB,七层负载均衡用的是LVS+Tengine,四层负载均衡用的是LVS. 昨天七层SLB出现了波动,我们后来改用了四层SLB. 使用后意外地发现,用户请求的响应内容TCP出包走的是云服务器的公网网卡. 之前用七层SLB时流量走的都是内网网卡,再加上RDS.Memcached也走的是内网网卡,于是网络负载都集中在一块内网网卡,内网网卡IO成为了瓶颈.而公网网卡却闲置着,我们之前也曾想过要是将一部分网络负载让公网网卡分担该多好啊. 我们用物理服务器的时候,会把Web服务器上

(转)ubuntu apache2 的负载均衡和反向代理

apache功能其实很是强大,最近一段时间研究了下apache的反向代理和负载均衡,反向代理网协的外网出口和我的博客出口就是通过apache的反向代理实现的,总结一下,重点说说负载均衡的配置. 首先说先实验环境吧 操作系统:DEBIAN 5.03(Ubuntu也可以同理配置) 一.安装apache加载模块 apt-get install apache2然后进入到apache的配置目录cd /etc/apache2apache的反向代理和负载均衡其实利用的都是反向代理的原理,至于什么叫做反向代理可

线上LVS负载均衡请求不转发案例简单解决分析一例

线上某架构组织结构基本如下: 基本架构描述: 前端采用的是lvs+keepalived做负载均衡和高可用,用来转发客户的请求给后端的业务服务器,也就是那4组nginx+tomcat业务服务器.说的更直白一些,那几台nginx+tomcat可以简答理解为lvs的客户端. 故障描述: 其中lvs转发到58.2.12.20这台服务器的时候, ActiveConn的值还有一些,InActConn几乎是没有数值的.为了这个问题纠结了好几天迟迟未能解决,由于刚到公司也不能不解决这些问题哦. 解决思路: 1)

云计算之路-阿里云上:负载均衡错误修改Cookie造成用户无法登录

最近陆续有用户反馈在我们网站上登录时遇到登录死循环问题.输入用户名与密码提交后,显示登录成功,但跳转到目标网址后(由于依然处于未登录状态)又跳转回登录页面,再次登录,再次这样...就这样一直循环,怎么也登录不进去. 排查了几天,从我们自身的角度实在找不到线索.昨天不得不把怀疑的目光转向阿里云负载均衡 —— 可能是负载均衡的某种网络问题造成浏览器没有接收到有效的登录Cookie,换个负载均衡试试.我们联系了持续被这个问题困扰的用户,得知她用的是联通的线路上网的,于是我们创建了新的负载均衡,将联通线

使用Nginx在自己的电脑上实现负载均衡

我其实早就想弄这个负载均衡了,但是总觉得这玩意肯定不简单,今天星期六闲着没事终于下定决心来搞一搞他了,但是没想到这玩意这么简单,真的是出乎我的意料的简单(我现在陪的是最简单的那种).额是没有我想象中的难. 再此记录一下防止以后忘了,在去到处的找. Nginx 好处,开源.简单.支持大部分平台 先从官网上下载压缩包  http://nginx.org/en/download.html 我用的是nginx-1.8.1 这个版本的 1.22MB(真小) 解压出来 到这问题来了,大概有两个问题 一.配置

Ubuntu上ipvsadm+keepalived

http://www.keepalived.org/software/keepalived-1.1.19.tar.gz MASTER服务器 keepalived部分: $ sudo apt-get install libpopt-dev $ sudo apt-get install daemon $ sudo tar zxfv keepalived-1.1.19.tar.gz $ cd keepalived-1.1.19 $ ./configure --prefix=/usr/local/kee

Web负载均衡(ipvsadm,DR模式)

Ubuntu 上ipvsadm负载均衡(DR模式,以80端口为例) 说明:3台服务器,ip分别为:10.0.1.2  10.0.1.3  10.0.1.4  虚拟ip:10.0.1.10 ipvsadm服务器(10.0.1.2) $ sudo apt-get install ipvsadm $ sudo ifconfig eth0:0 10.0.1.10 netmask 255.255.255.255 broadcast 10.0.1.10 $ sudo ip a (查看设置是否生效) $ su

Apache上配置反向代理以及负载均衡配置

之前一个项目需要在Apache上配置负载均衡,由于事情繁多,时间紧迫,没有时间去弄. 今天抽时间测试了一把,至少是可以进行代理了. 现将如何配置反向代理和负载均衡分别描述. 1.反向代理 步骤: (1)在Apache的配置文件httpd.conf中打开反向代理的模块 #----------------------------------------------- LoadModule proxy_module modules/mod_proxy.so LoadModule proxy_conne

WEB 集群与负载均衡(一)基本概念-上

Web集群是由多个同时运行同一个web应用的服务器组成,在外界看来就像一个服务器一样,这多台服务器共同来为客户提供更高性能的服务.集群更标准的定义是:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理,此单一系统为客户工作站提供高可靠性的服务.    而负载均衡的任务就是负责多个服务器之间(集群内)实现合理的任务分配,使这些服务器(集群)不会出现因某一台超负荷.而其他的服务器却没有充分发挥处理能力的情况.负载均衡有两个方面的含义:首先,把大量的并发访问或数据流量分担到多台节