Linux_lvs集群

一、集群基本概念
负载均衡(Load Balancer)群集
高可用(High Available)群集
高性能运算(High Performance Computer)群集

1、负载均衡(Load Balancer)群集

结构:调度器、服务器池、存储设备

工作模式:NAT、DR、TUN

二、搭建LVS-NAT集群

1、配置NFS

yum install nfs-utils portmap(rpcbind) -y

vim /etc/exports

/opt/wwwroot    192.168.100.0/24(ro)

service nfs restart

2、配置服务器节点

showmount -e 192.168.100.100

vim /etc/fstab

192.168.100.100:/opt/wwwroot    /var/www/html    nfs defaults    0 0

mount -a

service httpd start

3、配置调度服务器
modprobe ip_vs
cat /proc/net/ip_vs

vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
sysctl -p

iptables -t nat -A POSTROUTING -o eth1 -s 192.168.100.0/24 -j MASQUERADE

yum install ipvsadm-1.25-10.el6.i686.rpm -y

ipvsadm命令语法

ipvsadm -A -t 202.106.195.1:80 -s rr

-A:添加虚拟服务器
-t:指定VIP地址及端口
-s:指定调度算法
rr/wrr:轮询/加权轮询
lc/wlc:最少连接/加权最少连接

ipvsadm -a -t 202.106.195.1:80 -r 192.168.100.10:80 -m -w 1
ipvsadm -a -t 202.106.195.1:80 -r 192.168.100.20:80 -m -w 1

-a    添加真实服务器
-d    删除真实服务器
-r    指定真实服务器(Real Server)的地址
-m    使用NAT模式;-g、-i分别对应DR、TUN模式
-w    为节点服务器设置权重,默认为1

ipvsadm -d -t 202.106.195.1:80 -r 192.168.200.10:80

ipvsadm -Ln
ipvsadm -Lnc
-L    查看LVS群集方案
-n    以数字形式显示地址信息
-c    查看各节点的负载连接情况

service ipvsadm save
service ipvsadm start
chkconfig ipvsadm on

三、搭建LVS-DR集群

1、配置NFS

2、配置节点服务器

配置VIP

cp ifcfg-lo ifcfg-lo:0

vim ifcfg-lo:0

DEVICE=lo:0
IPADDR=202.106.195.111
NETMASK=255.255.255.255
#NETWORK=127.0.0.0
# If you‘re having problems with gated making 127.0.0.0/8 a martian,
# you can change this to something else (255.255.255.255, for example)
#BROADCAST=127.255.255.255
ONBOOT=yes
#NAME=loopback

VIP地址仅用于发送WEB响应数据包的源地址,不监听客户请求,由调度服务器监听和分发请求

vim /etc/rc.local

/sbin/route add -host 202.106.195.111 dev lo:0

将访问VIP的数据限制在本地避免通讯混乱

reboot

配置PROC参数

vim /etc/sysctl.conf

net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2

sysctl -p

调整LINUX内核ARP响应参数,阻止更新VIP的MAC地址,避免冲突

3、配置调度服务器

配置VIP

cp ifcfg-eth1 ifcfg-eth1:0

vim ifcfg-eth1:0

DEVICE="eth1:0"
IPADDR=202.106.195.111
PREFIX=24

reboot

配置PROC参数
vim /etc/sysctl.conf

net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
net.ipv4.conf.eth1.send_redirects = 0

调度服务器和节点服务器公用VIP,为避免ARP解析异常,关闭LINUX内核重定向参数响应

配置负载均衡策略

yum install ipvsadm-1.25-9.el6.i686.rpm -y

modprobo ip_vs     cat /proc/net/ip_vs

ipvsadm -A -t 202.106.195.111:80 -s rr
ipvsadm -a -t 202.106.195.111:80 -r 202.106.195.10 -g -w 1
ipvsadm -a -t 202.106.195.111:80 -r 202.106.195.20 -g -w 1

service ipvsadm save
service ipvsadm start
chkconfig ipvsadm on

时间: 2024-12-28 09:40:07

Linux_lvs集群的相关文章

部署AlwaysOn第一步:搭建Windows服务器故障转移集群

在Windows Server 2012 R2 DataCenter 环境中搭建集群之前,首先要对Windows服务器故障转移集群(Windows Server Failover Cluster,简称WSFC)有基本的了解.WSFC必须部署在域管理环境中,由多台服务器组成,每台服务器称作一个"结点"(Node),每个结点上都运行了Windows服务器故障转移集群服务,整个集群系统允许部分结点掉线.故障或损坏而不影响整个系统的正常运作.集群自动检测结点的健康状态,一旦活跃结点发生异常,变

MySQL集群(二)之主主复制

前面介绍了主从复制,这一篇我将介绍的是主主复制,其实听名字就可以知道,主主复制其实就是两台服务器互为主节点与从节点.接下来我将详细的给大家介绍,怎么去配置主主复制! 一.主从复制中的问题 1.1.从节点占用了主节点的自增id 环境: 主节点:zyhserver1=1.0.0.3 从节点:udzyh1=1.0.0.5 第一步:我们在主节点中创建一个数据库db_love_1,在创建一个表tb_love(里面有id自增和name属性). create database db_love_1; use d

MongoDB 搭建分片集群

在MongoDB(版本 3.2.9)中,分片是指将collection分散存储到不同的Server中,每个Server只存储collection的一部分,服务分片的所有服务器组成分片集群.分片集群(Sharded Clustered)的服务器分为三中类型:Router(mongos),Config Server 和 Shard(Replica Set 或 Standalone mongod).使用分片集群,不需要使用强大的计算机,就能存储更多的数据,处理更大的负载.分布式数据库系统的设计目的是:

Linux->ZooKeeper集群搭建

人,总免不了有心结,限制着自己,难以前行.对于ZooKeeper的理解,以及实践也拖了很久,今天用零散时间学习一下,补点干货. 一.简述 Zookeeper是Google的Chubby一个开源的实现,是高有效和可靠的协同工作系统,Zookeeper能够用来选举Leader(基于Fast Paxos协议),配置信息维护等,在一个分布式的环境中,需要一个Master实例或存储一些配置信息,确保文件写入的一致性等. ZooKeeper是一个分布式,开放源码的分布式应用程序协调服务,包含一个简单的原语集

linux集群下 solr集群搭建

首先介绍一下系统架构: * 这个图中代表的是三个solr实例,每个实例包括两个core,组成一个solrcloud * 索引集合包括两个 shard(shard1和shard2),shard1和shard2分别由三个core组成,其中一个L eader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每个shard上三个core的索引数据一致,解决高可用和高并发问题. * Collection在solrcloud集群中是一个索引结构,被划分为一个或多个

浪潮服务器向集群中添加esxi主机

软件环境:esxi6.0  vcenter6.0 硬件:浪潮服务器 hba卡 浪潮存储 博科san 要求:向目前集群中添加一台esxi主机 步骤:安装esxi6.0,配置bmc和网卡,光纤连接hba卡,注意:光纤方向,hba中发光的接到san不发光的口. 配置san交换机 配置浪潮存储 esxi中识别存储添加OK!

Linux集群架构介绍

▎根据功能划分为两大类: 高可用 负载均衡 高可用 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务. 实现高可用的开源软件有:heartbeat.keepalived等,其中heartbeat这款软件在CentOs6上面的bug略多,假如主服务器宕机,备用服务器不可以在短时间正常切换提供服务,而且长时间没有更新,所以不建议使用. 负载均衡 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分

Redis Cluster集群部署搭建

在Oracle的路上走了许多年,换换感觉,尝试一下新的知识,也是一个不错的感觉.Redis,一个超轻量化的内存数据库,只做一小块数据库功能实现,却非常优秀的一个产品.今天,就分享一下安装Redis集群的过程. 搭建redis集群,建议至少需要准备3台服务器,共搭建6个节点,3个master,3个slave,并且要求3个master节点不能全部跑到同一台服务器上,保证节点安全,3台服务器的配置相同,使用redistest账号搭建,对应的端口是7000/7001/7002端口 我的集群分配如下,每个

redis 集群

redis 集群 redis集群是redis提供分布式数据库方案, 集群通过分片(Sharding)来进行数据共享,并提供复制和故障转移功能. 节点 redis集群通常由多个节点(node)组成,在开始每个node 都是相互独立的. 要组建成真正可工作的集群,我们必须将各个独立的节点连接起来,构成一个包含多个节点的集群. 命令 cluster meet <ip> <port> 向一个node 发送命令 cluster meet,让节点与ip/port所指定的节点 进行握手(hand