集群续1

5在集群上部署iscsi

给服务端redhat4配置一个iscsi共享

加一个磁盘

不要选现在分配所有磁盘空间哦。添加后会出现一个vdb

给新添加的磁盘创建分区

大小1G 类型8e

做一个iscsi共享磁盘,并启动iscsi target服务

服务端[[email protected] yum.repos.d]# yum install -y scsi*

[[email protected] yum.repos.d]# /etc/init.d/tgtd start

[[email protected] yum.repos.d]# vim /etc/tgt/targets.conf

36 # Sample target with one LUN only. Defaults to allow access for all initiators:

37

38 <target iqn.2016-10.com.example:server.share>

39 backing-store /dev/vda

40 initiator-address 172.25.38.10

41 initiator-address 172.25.38.11

42 </target>

43 用下面命令查看配置是否正确

[[email protected] yum.repos.d]# /etc/init.d/tgtd restart

客户端(redhat5,6,7)发现并连接服务端的共享设备

客户端 yum install iscsi* -y

[[email protected] ~]# iscsiadm -m discovery -t sendtargets -p 172.25.38.9

[[email protected] ~]# iscsiadm -m node -l

[[email protected] ~]# fdisk -l

用服务端共享出来的sda做一个分区(仅在redhat5上做)

使lvm支持集群

实际上是使:这里面的

用服务端共享出来的磁盘创建一个lvm(仅在redhat5上做)

[[email protected] yum.repos.d]# pvcreate /dev/vda

Physical volume "/dev/vda" successfully created

[[email protected] yum.repos.d]# pvs

PV VG Fmt Attr PSize PFree

/dev/sda2 vg_server lvm2 a-- 7.51g 0

/dev/vda lvm2 a-- 4.00g 4.00g

[[email protected] yum.repos.d]# vgcreate luu

Please enter a physical volume path

Run `vgcreate --help‘ for more information.

[[email protected] yum.repos.d]# vgcreate luu /dev/vda

Volume group "luu" successfully created

[[email protected] yum.repos.d]# vgs

VG #PV #LV #SN Attr VSize VFree

luu 1 0 0 wz--n- 4.00g 4.00g

vg_server 1 2 0 wz--n- 7.51g 0

[[email protected] yum.repos.d]# lvcreate -l +1023 -n luuu luu

Logical volume "luuu" created

[[email protected] yum.repos.d]# lvs

LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert

luuu luu -wi-a----- 4.00g

lv_root vg_server -wi-ao---- 6.71g

lv_swap vg_server -wi-ao---- 816.00m

[[email protected] yum.repos.d]# mkfs.ext4 /dev/luu/luuu

给之前的www服务添加文件系统

在任何一个加入www服务的节点上,停止www服务:

redhat2 和 redhat3 redhat4上运行了www所以,在任何一台机子上停止这个服务都行。

添加文件系统资源:

把文件系统资源添加到资源组中,也就是添加到刚才的服务中:

添加顺序是IP ADDRESS,

Filesystem ,

Script (httpd)

然后重启www服务,/dev/vgbai/lvbai 会被自动挂载到www服务正在运行的那个节点的/var/www/html上:

装了iscsi服务话,开机时一定要先启动服务端。不然客户端会一直尝试挂载远程的nfs...

上面是在selinux关了的情况下做的,很容易就把redhat1(luci端的)的/dev/vgbai/lvbai 挂载到了/var/www/html下。

如果是在selinux开着的情况下:

把www服务的文件系统换成gfs2

1.先释放以前的文件系统资源

① 停止服务:

在任意一个集群中的节点执行上面命令都行。

在Resource Groups里面把www和nfs服务的Filesystem资源都删了,然后提交

注意:要保证任何一个虚拟机的工作目录都没有在Filesystem资源的目录里面,就跟umount使要保证挂载点没有正在忙一样。

在Resource里面把文件系统资源也删除

1.创建gfs文件系统

② 把设备格式化成gfs2

ls /dev/vgbai/lvbai这一步在redhat2 3 4任何一个节点上执行都行。

-j 指定日志的份数,一般为节点数量+1

-J 指定每份日志的大小

可以看到J设置成功了

-p 锁协议名称

在redhat 2 3 4 上用blkid看到的 UUID都是一样的。

mount一下看看能否挂载:

可以看到文件系统的形式是 gfs2

顺便来创建一个文件吧:

在redhat2 redhat3 redhat4上设置开机自动挂载

扩展GFS的容量

1.扩展lv的容量

就是前面那个格式化为gfs2的lv,从500M扩展成了700M

其他节点会立马同步的:

1.扩展gfs2文件系统的容量,并增加日志数量

开始时总是报这个错误:

仔细读后,发现,gfs2扩展时,最少扩展249M. 而我只增加了200M的LVM来供他扩展。

其他虚拟机上是自动同步的,不用人工干预:

后拉添加的日志,默认是128M 6个日志公占了460多M 的空间。

后拉添加的日志,默认是128M 6个日志公占了460多M 的空间

如果gfs2down了,如何恢复里面的数据

1.停掉所有的服务:

现在运行着的服务有www

停掉这个服务:

然后leave cluster 然后delete

关闭必要的服务

[[email protected] ~]# /etc/init.d/modclusterd status

modclusterd (pid 1657) is running...

[[email protected] ~]# /etc/init.d/modclusterd stop

Shutting down Cluster Module - cluster monitor: [ OK ]

[[email protected] ~]# chkconfig modclusterd off

[[email protected] ~]# /etc/init.d/rgmanager status

rgmanager is stopped

[[email protected] ~]# chkconfig rgmanager off

[[email protected] ~]# lvs

Skipping clustered volume group vgbai

Skipping volume group vgbai

LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert

lv_root vg_foundation112 -wi-ao---- 6.71g

lv_swap vg_foundation112 -wi-ao---- 816.00m

[[email protected] ~]# lvm --disable-cluster

No such command. Try ‘help‘.

[[email protected] ~]# lvmconf --disable-cluster

[[email protected] ~]# /etc/init.d/clvmd reload

[[email protected] ~]# lvs

Skipping clustered volume group vgbai

Skipping volume group vgbai

LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert

lv_root vg_foundation112 -wi-ao---- 6.71g

lv_swap vg_foundation112 -wi-ao---- 816.00m

[[email protected] ~]# /etc/init.d/iscsi stop

Stopping iscsi: [ OK ]

[[email protected] ~]# iscsiadm -m node -o delete

[[email protected] ~]# chkconfig iscsi off

至此,集群就全部删除了

1.恢复数据:

之前已经把数据备份了。

现在再挂载然后恢复就好了。

[[email protected] ~]# mount -t gfs2 -o loop,lockproto=lock_nolock gfs2bai.img /mnt

[[email protected] ~]# df

Filesystem 1K-blocks Used Available Use% Mounted on

/dev/mapper/vg_foundation112-lv_root 6926264 1821952 4752468 28% /

tmpfs 375032 0 375032 0% /dev/shm

/dev/vda1 495844 33455 436789 8% /boot

/dev/loop0 767824 474200 293624 62% /mnt

[[email protected] ~]# cd /mnt/

[[email protected] mnt]# ls

index.html

[[email protected] mnt]# cat index.html

this is gfs2 filesystem <看,这就是我的数据>

HEARTBEAT心跳

本部分只用两个虚拟机就好了,redhat1 redhat2 和之前做的所有工作都没有关系了。是一个全新的知识。

如果两个主机上都有http服务,在这两个主机只见建立heartbeat的话。那如果一个机子的http down掉的话,heatbeat会自动把服务迁移到另外一台主机上。

但是heatbeat 不会把down掉的主机重启,也不会,,,,(忘了),比cman的功能要弱很多。

要保证火墙是关的,selinux 是关的

1.在redhat1 redhat2上装包

把selinux 关掉

1.配置

[[email protected] ~]# cd /etc/ha.d/

[[email protected] ha.d]# ls

harc rc.d README.config resource.d shellfuncs

[[email protected] ha.d]# rpm -q heartbeat -d

/usr/share/doc/heartbeat-3.0.4/AUTHORS

/usr/share/doc/heartbeat-3.0.4/COPYING

/usr/share/doc/heartbeat-3.0.4/COPYING.LGPL

/usr/share/doc/heartbeat-3.0.4/ChangeLog

/usr/share/doc/heartbeat-3.0.4/README

/usr/share/doc/heartbeat-3.0.4/apphbd.cf

/usr/share/doc/heartbeat-3.0.4/authkeys

/usr/share/doc/heartbeat-3.0.4/ha.cf

/usr/share/doc/heartbeat-3.0.4/haresources

/usr/share/man/man1/cl_status.1.gz

/usr/share/man/man1/hb_addnode.1.gz

/usr/share/man/man1/hb_delnode.1.gz

/usr/share/man/man1/hb_standby.1.gz

/usr/share/man/man1/hb_takeover.1.gz

/usr/share/man/man5/authkeys.5.gz

/usr/share/man/man5/ha.cf.5.gz

/usr/share/man/man8/apphbd.8.gz

/usr/share/man/man8/heartbeat.8.gz

[[email protected] ha.d]# ls

harc rc.d README.config resource.d shellfuncs

[[email protected] ha.d]# cp /usr/share/doc/heartbeat-3.0.4/{authkeys,ha.cf,haresources} /etc/ha.d/

[[email protected] ha.d]# cat ha.cf | grep -v ^#

debugfile /var/log/ha-debug

logfile /var/log/ha-log

logfacility local0

keepalive 2

deadtime 30

warntime 10

initdead 120

udpport 694

bcast eth0 # Linux

auto_failback on

watchdog /dev/watchdog

node redhat1.example.com 《主节点》

node redhat2.example.com 《从节点》

ping 172.25.11.254 《自己的网关地址》

respawn hacluster /usr/lib64/heartbeat/ipfail

apiauth ipfail gid=haclient uid=hacluster

[[email protected] ha.d]# cat authkeys | grep -v ^#

auth 1

1 crc

[[email protected] ha.d]# cat haresources | grep -v ^#

redhat1.example.com IPaddr::172.25.11.100/24/eth0 httpd

《这里是一个浮动IP 就是ping 不通的IP,没人用的》

[[email protected] ha.d]# modprobe softdog

以上配置两台节点都是一样一样的。直接copy过去就行。

1.实验结果:

可以直接在浏览器里面访问了。redhat1坏了之后,rehat2会顶上

时间: 2024-10-11 01:41:52

集群续1的相关文章

kafka入门:简介、使用场景、设计原理、主要配置及集群搭建(转)

问题导读: 1.zookeeper在kafka的作用是什么? 2.kafka中几乎不允许对消息进行"随机读写"的原因是什么? 3.kafka集群consumer和producer状态信息是如何保存的? 4.partitions设计的目的的根本原因是什么? 一.入门 1.简介 Kafka is a distributed,partitioned,replicated commit logservice.它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现.k

centos7搭建ELK Cluster集群日志分析平台(四):简单测试

续之前安装好的ELK集群 各主机:es-1 ~ es-3 :192.168.1.21/22/23 logstash: 192.168.1.24 kibana: 192.168.1.25 测试机:client: 192.168.1.26 在测试机上安装并启动filebeat 1. 下载filebeat  ~]# wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.4.0-linux-x86_64.tar.gz

centos7搭建ELK Cluster集群日志分析平台(三)

续  centos7搭建ELK Cluster集群日志分析平台(一) 续  centos7搭建ELK Cluster集群日志分析平台(二) 已经安装好elasticsearch 5.4集群和logstash 5.4 安装kibana步骤 1.下载安装Kibana  ~]#wget https://artifacts.elastic.co/downloads/kibana/kibana-5.4.0-x86_64.rpm 如果链接失效,官网下载:https://www.elastic.co/down

centos7搭建ELK Cluster集群日志分析平台(二)

续  centos7搭建ELK Cluster集群日志分析平台(一) 已经安装完Elasticsearch 5.4 集群. 安装Logstash步骤 1. 安装Java 8 官方说明:需要安装Java 8 ,不支持Java 9... //自行安装,略过 2. 安装Logstash 可以同elasticsearch一样建立repo文件通过yum安装,也可以去官网直接下载rpm包进行本地安装:   ~]# rpm -ivh logstash-5.4.0.rpm  //这里直接下载好进行本地安装 3.

Hadoop集群(第3期)_VSFTP安装配置

1.VSFTP简介 VSFTP是一个基于GPL发布的类Unix系统上使用的FTP服务器软件,它的全称是Very Secure FTP 从此名称可以看出来,编制者的初衷是代码的安全. 安全性是编写VSFTP的初衷,除了这与生俱来的安全特性以外,高速与高稳定性也是VSFTP的两个重要特点. 在速度方面,使用ASCII代码的模式下载数据时,VSFTP的速度是Wu-FTP的两倍,如果Linux主机使用2.4.*的内核,在千兆以太网上的下载速度可达86MB/S. 在稳定方面,VSFTP就更加的出色,VSF

Linux环境MySQL集群配置

一.介绍 ======== 这篇文档旨在介绍如何安装配置基于2台服务器的MySQL集群.并且实现任意一台服务器出现问题或宕机时MySQL依然能够继续运行. 注意! 虽 然这是基于2台服务器的MySQL集群,但也必须有额外的第三台服务器作为管理节点,但这台服务器可以在集群启动完成后关闭.同时需要注意的是并不推荐在 集群启动完成后关闭作为管理节点的服务器.尽管理论上可以建立基于只有2台服务器的MySQL集群,但是这样的架构,一旦一台服务器宕机之后集群就无法继 续正常工作了,这样也就失去了集群的意义了

[转载] 闲谈集群管理模式

原文: http://dockone.io/article/423 文章总结的非常好, 算是科普类文章, 不过一直有一个疑问, immutable servers如何解决频繁的本地小文件更新的问题? Docker很火很红,简直到了没有道理的地步了.Docker为什么这么红?因为它是一种可以用来掀桌子的技术.在部署自动化这条产业上的工人和机床制造商们,看家护院的 cmdb,分布式脚本执行等所谓核心技术即便不会变成明日黄花,也会沦为二流技术.仅仅把 Docker 当成一个轻量级 vmware 来使用

Hadoop集群中添加硬盘

Hadoop工作节点扩展硬盘空间 接到老板任务,Hadoop集群中硬盘空间不够用,要求加一台机器到Hadoop集群,并且每台机器在原有基础上加一块2T硬盘,老板给力啊,哈哈. 这些我把完成这项任务的步骤和我遇到的问题和解决方法总结一下,分享给大家. 1.    首先,介绍一下用到的基本命令和配置,如果本文的网友时间比较紧,可以直接跳过部分内容,直接看“2.   如何加载新硬盘”部分. (1)命令fdisk 语法: fdisk [-b sectorsize] device fdisk -l [-u

Memcached高可用方案收集(集群及分布式)

Memcached的集群方案有很多,不止magent一个,但是单靠集群软件去实现高可用感觉还是会缺少一步,最推荐的方案应该是软件加编码去实现高可用,至少能保证站点的99.5%的可运行行,以下是集群的方案收集: randy_shandong: memcached演练(1) 搭建memcached服务 memcached演练(2) 访问memcached服务 单台tomcat的session信息的2种持久化方式 memcached演练(3) 使用apache+搭建双节点tomcat集群 memcac