在centos6系统上基于session绑定实现nat模型的lvs集群,并在RS上安装Discuz论坛

实验环境:四台虚拟机,安装的操作系统是CentOS6.5,各自的功能及IP地址如下:

Director:

eth0 192.168.2.1(作为VIP使用),eth1:10.0.0.1(作为DIP使用)

RS1:

eth0:10.0.0.2

RS2:

eth0:10.0.0.3

数据库服务器:安装的mariadb

eth0:10.0.0.4

拓扑图:

实验步骤:

一准备数据库服务器,安装mariadb,创建一个用于远程连接数据库的用户,创建一个数据库,用于两台RS服务器连接时使用,授权给该用户对应的数据库所有权限。

MariaDB [(none)]> CREATE USER [email protected]‘10.%.%.%‘ IDENTIFIED BY ‘cluster‘;
MariaDB [(none)]> CREATE DATABASE cluster;
MariaDB [(none)]> GRANT ALL ON cluster.* TO ‘cluster‘@‘10.%.%.%‘;
MariaDB [(none)]> FLUSH PRIVILEGES;

二、准备两台RS服务器,这两台RS服务器都要提供httpd服务。将Discuz论坛安装程序解压后的目录文件upload复制到/var/www/html/bbs目录下,复制到其中一台就可以,以RS1为例。使用系统自带的httpd

[[email protected] ~]# yum install -y php
[[email protected] ~]# yum install -y php-mysql
[[email protected] ~]# service httpd start
[[email protected] Discuz]# unzip Discuz_X2.5_SC_GBK.zip  #将解压出来的upload目录复制到/var/www/html目录下
[[email protected] Discuz]# cp upload/ /var/www/html/bbs
[[email protected] Discuz]# cp upload/ /var/www/html/bbs^C
[[email protected] Discuz]# cd /var/www/html/bbs
[[email protected] bbs]# chmod -R 777 config/ data/ uc_client/ uc_server/

在RS1和RS2上都安装xinetd并将rsync启动为服务,以便将/var/www/html目录的内容做到同时同步的效果,以达到两台服务器上内容一致。编辑/etc/rsyncd.conf文件,内容为:

# Global Settings
uid = nobody
gid = nobody
use chroot = no
max connections = 10
strict modes = yes
pid file = /var/run/rsyncd.pid
log file = /var/log/rsyncd.log
# Directory to be synced
[backup]
path = /var/www/html
ignore errors = yes
read only = no
write only = no
hosts allow = 10.0.0.0/8
hosts deny = *
list = true
uid = root
gid = root
auth users = backup_transfer
secrets file = /etc/rsyncd.passwd
[[email protected] ~]# echo "backup_transfer:redhat" > /etc/rsyncd.passwd  #这个文件用于认证另外一个节点推送数据时的用户身份。
backup_transfer:redhat
[[email protected] ~]# echo "redhat" > /etc/rsyncd.passwd2 #这个文件用于向对方节点推送时在脚本中指定密码文件,免去交互的过程。
[[email protected] ~]# chmod 600 /etc/rsyncd.passwd
[[email protected] ~]# chmod 600 /etc/rsyncd.passwd2
[[email protected] ~]# chkconfig rsync on
[[email protected] ~]# service xinetd start

提供脚本文件,以便在两台服务器中站点数据目录内的文件发生变化时,可以自动推送文件。脚本的内容为:

#!/bin/bash
#
/usr/local/bin/inotifywait -mrq --timefmt ‘%d/%m/%y %H:%M‘ --format ‘%T %w %w%f %e‘ -e modify,delete,create,attrib /var/www/html | while read file;
do
/usr/bin/rsync -vzrtopg --delete --progress /var/www/html/ [email protected]::backup --password-file=/etc/rsyncd.passwd2
echo "${files} was rsynced" >> /var/log/rsync.log 2>&1
done

脚本中定义的传送IP为对方服务器的IP地址,只需要修改这一点就可以,其他的配置可以完全一样,就不再重复。

另外可以在站点根目录下各添加index.html文件,简单的在文件中写入对应的主机名称,之后方便在测试的时候查看director在调度的时候调度请求到不同的主机的效果。

由于是在虚拟机中模拟实验,所以两台RS与Director之间的通信需要RS指向Director的DIP作为网关。

[[email protected] ~]# route add default gw 10.0.0.1 #两台RS上都要设置。

三、设置Director

Director上配置了两块网卡一个作为连接外网的网卡使用,即VIP:192.168.2.1,另外一块网卡作为内网的网关使用,IP地址为10.0.0.1,另外要打开IP地址转发功能,这样在模拟的实验环境中RS1和RS2才可以和192.168.2.1正常通信:

[[email protected] ~]# echo 1 > /proc/sys/net/ipv4/ip_forward
[[email protected] ~]# ipvsadm -A -t 192.168.2.1:80 -s rr   #定义集群服务
[[email protected] ~]# ipvsadm -a -t 192.168.2.1:80 -r 10.0.0.2 -m   #添加RS1
[[email protected] ~]# ipvsadm -a -t 192.168.2.1:80 -r 10.0.0.3 -m   #添加RS2

先在浏览器内测试默认主页的效果:

四、安装discuz,测试完毕后,先在集群服务中删除node2,在node1上安装Discuz论坛,删除的目的是为了安装过程中可以准确定位到node1上。在浏览器内输入192.168.2.1/bbs安装论坛,安装完毕后,再将node1在集群服务中添加进来。

#[[email protected] ~]# ipvsadm -d -t 192.168.2.1:80 -r 10.0.0.3

在node1上安装完discuz以后,启动rsync的脚本文件,然后向node2上同步数据文件,同样,node2上也启动脚本文件,以便以后有数据更新时向node1同步。

[[email protected] ~]# ./rsync.sh &

将node2添加进集群服务中,这样director可以调度用户请求到不同的RS上。

[[email protected] ~]# ipvsadm -a  -t 192.168.2.1:80 -r 10.0.0.3

因为会话信息是保存在服务器端的,而两台RS之间开启了双方Rsync同步,所以会话数据信息也会同步成一致的。

时间: 2024-10-25 11:55:22

在centos6系统上基于session绑定实现nat模型的lvs集群,并在RS上安装Discuz论坛的相关文章

基于Corosync + Pacemaker+DRBD实现MySQL高可用集群

前言 在众多的高可用集群解决方案中,除了Heartbeat之外,Corosync也能提供类似于Heartbeat一样的功能,而且目前RedHat官方提供的高可用集群解决方案的程序包都以Corosync为主,所以在未来的日子Corosync会逐渐取代Heartbeat.本文带来的是基于Corosync + Pacemaker+DRBD的MySQL高可用集群解决方案. 相关介绍 Corosync Corosync是从OpenAIS中分支出来的一个项目,它在传递信息的时候可以通过一个简单的配置文件来定

linux lvs集群nat模式(比上一篇的lvs nat实用)

这是一篇以apcache服务为例介绍lvs的nat模式配合keepalived实现的方案.实验拓扑图如下所示,虚线上面的大图可以看成是虚线下面"服务器群"的放大版: 本实验共用到4台linux虚拟服务器,其中两台rhel5.6作为主从HA(keepalived)服务器,另外两台rhel4.6模拟Apache服务器--用两台Apache服务器模拟多台Apache服务器. 实验原理是,用Apache服务器为代表模拟实际用到的服务器,用两台Apache模拟多台Apache,所有的Apache

基于heartbeat v1+ldirectord实现LVS集群高可用

前言 高可用集群,High Availability Cluster,简称HA Cluster,是指以减少服务中断时间为目的的服务器集群技术.通过上文可以看出,LVS集群本身并不能实现高可用,比如Director Server不能检测Real Server的健康度,一旦其中一台或全部Real Server宕机,Director Server还会继续转发请求,导致站点无法访问,同样,如果Director Server宕机站点就更不可能正常运转了.本文将讲解如何基于heartbeat v1实现LVS

Tomcat集群session复制,httpd/nginx反代Tomcat集群

   一个大型站点都会涉及到动态应用,动态应用都需要做会话保持,常见的会话保持方式就三种,一是session stick,二是session replication,三是session share,对于小型规模的tomcat集群,大多者会采用session replication方式,但阅读官方文档也好,查询大牛博客也罢,发现均有不准确之处,所以亲测成功实现之后得出如下文档,还望高人指点. 实验环境: 操作系统:CentOS 7.2 tomcat版本:tomcat-7.0.54(yum安装方式)

Mysql上的RAC:Percona XtraDB Cluster负载均衡集群安装部署手册

 Percona XtraDB Cluster安装部署手册 引言 编写目的 编写此文档,供PerconaXtraDB Cluster部署时使用. 预期读者 系统维护人员及实施人员. 编制依据及参考资料 目标 通过阅读该手册,让读者明确PerconaXtraDB Cluster的安装.配置和维护情况,为后续数据库运维工作提供指导. 应用部署方案 环境准备 服务器列表 序号 IP 用途 HOSTNAME 操作系统 1 192.168.0.7 Percona XtraDB Cluster RedHat

基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:3.安装Oracle RAC-3.6.集群管理命令

3.6. 集群管理命令 3.6.1. RAC的启动与关闭 oracle rac默认会开机自启动,如需维护时可使用以下命令: 关闭: crsctl stop cluster 停止本节点集群服务 crsctl stop cluster –all 停止所有节点服务 开启: crsctl start cluster 开启本节点集群服务 crsctl stop cluster –all 开启所有节点服务 注:以上命令需以 root用户执行 3.6.2.RAC检查运行状况 以grid 用户运行 [[emai

实战!基于lamp安装Discuz论坛-技术流ken

1.简介 我前面的博客已经详细介绍了lamp采用yum安装以及编译安装的方式,这篇博客将基于yum安装的lamp架构来实战安装Discuz论坛,你可以任选其一来完成. 2.系统环境 centos7.5 服务器IP:172.20.10.7/28 客户端IP:172.20.10.4/28 3.关闭安全服务 [[email protected] ~]# setenforce 0 4.安装lamp [[email protected] ~]# yum install httpd php php-mysq

Window Server 2019 配置篇(3)- 建立hyper-v集群并在其上运行win10 pro虚拟机

上次讲到我们的域里有了网关跟DHCP,这次我们要在域中建立hyper-v集群并在其上运行win10 pro虚拟机 那么什么是hyper-v集群呢? 就是两个及两个以上的运行hyper-v服务的服务器建立的可以进行故障转移的集群 除了这些,hyper-v上运行的虚拟机的虚拟盘也要运行在集群中iscsi的共享磁盘中,这样才能保证故障转移的可能性 那么话不多说,我们建立三个虚拟机: hyper-v-1 ip 192.168.10.30 hyper-v-2 ip 192.168.10.40 iscsi 

大型网站系统架构实践(六)深入探讨web应用集群Session保持

原理 在第三,四篇文章中讲到了会话保持的问题,而且还遗留了一个问题,就是会话保持存在单点故障, 当时的方案是cookie插入后缀,即haproxy指负责分发请求,应用服务自行保持用户会话,如果应 用服务器宕机,则session会丢失. 现在来温习下解决方案 方案1:session复制 原理 就是将1台服务器的session复制到其它所有的服务器上,这样无论访问哪台服务器,都会得到用户 的session 优点 不存在单点故障问题 缺点 当服务器的数量比较大时,session同步将会变得相当耗时 方