RedHat6.5 搭建glusterfs全过程

一,前言

再学习kvm过程中,老大要求我把数据磁盘和系统盘分开存储。因此,老大建议用glusterfs来做data 的存储。找了很多资料才搞完,看下面的操作吧。

二,安装部署。

通过很多资料发现,有linux系统是直接找到glusterfs的源代码的网站下载repo的文件后yum安装。开始的时候,我也这样搞,发现各种报错,各种依赖,让我烦不胜烦,但是,我还是决心用yum源进行安装,因为用yum源安装会省去很多事,例如:启动脚本,环境变量,等等。

安装开始:

找一个163的yum源:

[[email protected] vm-images]# cat /etc/yum.repos.d/99bill.repo

[base]

name=CentOS-yum

baseurl=http://mirrors.163.com/centos/6/os/x86_64/

gpgcheck=1

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6

<------------------------------------------->

安装一些依赖或者一些有用的软件:

yum -y install libibverbs librdmacm xfsprogs nfs-utils rpcbind libaio liblvm2app lvm2-devel

cd /etc/yum.repos.d/

获取glusterfs的源:

wget -P /etc/yum.repos.d  http://download.gluster.org/pub/gluster/glusterfs/3.7/LATEST/RHEL/glusterfs-epel.repo

mv 99bill.repo 99bill.repo.bak

yum clean all

cd /home/

安装EPEL源:

wget http://mirrors.sohu.com/fedora-epel/6/x86_64/epel-release-6-8.noarch.rpm

rpm -ivh epel-release-6-8.noarch.rpm

安装依赖包:

wget ftp://195.220.108.108/linux/epel/6/x86_64/userspace-rcu-0.7.7-1.el6.x86_64.rpm

rpm -ivh userspace-rcu-0.7.7-1.el6.x86_64.rpm

wget ftp://rpmfind.net/linux/fedora/linux/releases/24/Everything/x86_64/os/Packages/p/pyxattr-0.5.3-7.fc24.x86_64.rpm

rpm  -ivh pyxattr-0.5.3-7.fc24.x86_64.rpm --force --nodeps

wget ftp://ftp.pbone.net/mirror/ftp.pramberger.at/systems/linux/contrib/rhel6/archive/x86_64/python-argparse-1.3.0-1.el6.pp.noarch.rpm

rpm -ivh python-argparse-1.3.0-1.el6.pp.noarch.rpm

<-------------------------------------------------------->

安装glusterfs的软件

yum install -y  --skip-broken  glusterfs glusterfs-api glusterfs-cli glusterfs-client-xlators glusterfs-fuse glusterfs-libs glusterfs-server

启动:/etc/init.d/glusterd restart

<---------------------------------------------------->

三,使用glusterfs

现在用4台机器做glusterfs的服务器,因为,我将做一个分布复制条带卷!

分布复制条带卷的含义:把4台机器分成两份<AB,CD>,然后把数据复制成2份,分别发送到<AB><CD>中,AB与CD中的数据是相同的的。然后,在AB或者CD中,复制进去的数据,又会被切割成2份相同(差不多相同大小)的文件,存储到A机器,B机器 或者C机器,D机器中。

具体使用步骤:

[[email protected] vm-images]# cat /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.55.231 datastorage231

192.168.55.232 datastorage232

192.168.55.233 datastorage233

192.168.55.234 datastorage234

在每个机器中都添加上述的hostnmae对应的IP地址。

把服务器添加到存储池:

我是用datastorage231 这个机器上面进行操作的

gluster peer probe datastorage231  ==> 在这里会提示,在本机不用添加存储池的提示。

gluster peer probe datastorage232

gluster peer probe datastorage233

gluster peer probe datastorage234

创建分布复制条带卷的命令:

[[email protected] opt]# gluster volume create vm-images stripe 2 replica 2 transport tcp 192.168.55.231:/gfs_data/vm-images 192.168.55.232:/gfs_data/vm-images 192.168.55.233:/gfs_data/vm-images 192.168.55.234:/gfs_data/vm-images

volume create: vm-images: success: please start the volume to access data ==>提示成功

[[email protected] opt]# gluster volume info   ==> 查看创建的卷组信息

Volume Name: vm-images

Type: Striped-Replicate

Volume ID: e1dcf250-a1d4-47e8-8f43-328c14f2508c

Status: Created

Number of Bricks: 1 x 2 x 2 = 4

Transport-type: tcp

Bricks:

Brick1: 192.168.55.231:/gfs_data/vm-images

Brick2: 192.168.55.232:/gfs_data/vm-images

Brick3: 192.168.55.233:/gfs_data/vm-images

Brick4: 192.168.55.234:/gfs_data/vm-images

Options Reconfigured:

performance.readdir-ahead: on

[[email protected] opt]# gluster volume start  vm-images   ==>启动卷

volume start: vm-images: success

[[email protected] opt]# gluster volume status all

Status of volume: vm-images

Gluster process                             TCP Port  RDMA Port  Online  Pid

------------------------------------------------------------------------------

Brick 192.168.55.231:/gfs_data/vm-images    49152     0          Y       2533

Brick 192.168.55.232:/gfs_data/vm-images    49152     0          Y       3019

Brick 192.168.55.233:/gfs_data/vm-images    49152     0          Y       2987

Brick 192.168.55.234:/gfs_data/vm-images    49152     0          Y       2668

NFS Server on localhost                     2049      0          Y       2555

Self-heal Daemon on localhost               N/A       N/A        Y       2560

NFS Server on datastorage233                2049      0          Y       3009

Self-heal Daemon on datastorage233          N/A       N/A        Y       3015

NFS Server on datastorage234                2049      0          Y       2690

Self-heal Daemon on datastorage234          N/A       N/A        Y       2695

NFS Server on datastorage232                2049      0          Y       3041

Self-heal Daemon on datastorage232          N/A       N/A        Y       3046

Task Status of Volume vm-images

------------------------------------------------------------------------------

There are no active volume tasks

服务端基本的安装已经完成。

提示:增加pool后节点会自动创建gluster.info,文件中有唯一的UUID

/var/lib/glusterd/glusterd.info

节点状态不对时,可删除/var/lib/glusterd/目录中除了glusterd.info之外的所有目录文件,重启gluster服务

四,客户端使用

modprobe fuse

lsmod |grep fuse

dmesg | grep -i fuse

yum-y install openssh-server wget fuse fuse-libs openib libibverbs

yuminstall -y glusterfs  glusterfs-fuse

挂载卷:

mount -t glusterfs 192.168.55.231:/vm-images /rhel6_gfs_data/

备用服务器挂载:

you can specify the following options whenusing the mount -t glusterfs command. Note that you need to separate all optionswith commas.

backupvolfile-server=server-name

volfile-max-fetch-attempts=number ofattempts

log-level=loglevel

log-file=logfile

transport=transport-type

direct-io-mode=[enable|disable]

use-readdirp=[yes|no]

mount -t glusterfs -o backupvolfile-server=volfile_server2,use-readdirp=no,log-level=WARNING,log-file=/var/log/gluster.logserver1:/test-volume /mnt/glusterfs

mount -t glusterfs -obackupvolfile-server=192.168.55.233,use-readdirp=no,log-level=WARNING,log-file=/var/log/gluster.log192.168.55.231:/vm-images  /opt/gfs_temp

时间: 2024-11-03 22:11:35

RedHat6.5 搭建glusterfs全过程的相关文章

企业级开源邮件系统搭建的全过程

企业级开源邮件系统搭建的全过程: 前言:此过程为搭建企业用的邮件系统,在企业里邮件这种通信是必然存在的.当然可以选择微软的Exchange,但现在大部分企业线上跑的系统都是开源的,所以实现这种开源体系的邮件系统也是必然的. 好处:1.开源,就是意味着免费 2.自由,就是可以随意利用组件来实现想要的功能 3.方便,就是随便找台机器装个开源的linux就是部署 4.维护需要专门的人员(此为一点小弊端,不像购买微软的Exchange,可以买服务) 实现所需组件:Postfix+dovecot+Cyru

MySQL—MMM高可用群集的搭建(全过程,纯干货~~)

本篇文章主要介绍搭建MMM方案以及MMM架构的原理.MMM方案不适用对数据一致性要求很高的业务.下面一起来学习学习. 先来看看具体的架构拓扑,如下: 其中, 角色 Hosts IP地址 应用属性 VIP master1 master 192.168.142.135 write 192.168.142.188 master2 backup 192.168.142.132 write|read 192.168.142.188 slave1 slave 192.168.142.136 read 192

Centos 7搭建GlusterFS分布式文件系统群集

关于GlusterFS分布式文件系统工作原理及相关概述请参考博文:GlusterFS分布式文件系统概述 一.搭建GlusterFS分布式文件系统群集 此案例相关软件包请访问:https://pan.baidu.com/s/1xazQAkR2Lm31njwu88Z9qA 提取码:qdiy 环境如下: 服务器相关信息: 磁盘相关信息: 部署前准备工作:在所有节点上执行以下操作,添加30G新硬盘,通过fdisk分区.mkfs格式化,创建相应的挂载目录,并将格式化的磁盘挂载到相应的目录中.最后根据实际情

【云计算】Ubuntu14.04 搭建GlusterFS集群

1.修改 /etc/hosts 所有服务节点执行: 10.5.25.37 glusterfs-1-5-25-3710.5.25.38 glusterfs-2-5-25-38 2.开始安装 所有服务节点执行: apt-get install glusterfs-server -y service glusterfs-server start 3.创建集群节点 37上执行: gluster peer probe glusterfs-2-5-25-38 gluster peer status 38上执

Redhat6.5搭建ftp服务

FTP(File Transfer Protocol,文件传输协议)是典型的C/S结构的应用层协议,需要由服务端软件.客户端软件两个部分共同实现文件传输功能.FTP连接有两种模式:主动模式(服务器主动发起数据连接)和被动模式(服务器被动等待数据连接).下面我将在Redhat6.5中搭建ftp服务,包括匿名用户登录,普通用户身份验证登录,黑名单,虚拟用户登录,并在win7客户端进行登录验证1.在Linux中安装ftp软件包2.开启ftp服务3.此时便可以在win7中使用匿名用户ftp进行登录,无密

CentOS源码安装搭建LNMP全过程(包括nginx,mysql,php,svn)

服务器环境为:CentOS6.5 64位 目标:搭建LNMP(Linux + Nginx + MySQL + PHP +SVN),其中svn是用来代替ftp,方便开发中调试同步代码 相关目录:所有软件都安装到/www/目录下,在www目录下新建web文件夹作为网站的根路径,www目录下新建wwwsvn作为svn的仓库地址./www/software用来放nginx,mysql,php的安装包和源码.nginx运行分组和账户www:www 一,安装前的准备 yum -y install ntp m

RedHat6.2搭建FTP服务器

我的环境: A:Red Hat Enterprise 6.2 IP:192.168.16.12 此机作测试端 B:Red Hat Enterprise 6.2 IP:192.168.16.13 此机做FTP服务端 B机上搭建FTP服务器: 下载并安装vsftpd-2.2.2-6.el6_0.1.i686 [[email protected] ~]# rpm -ivh vsftpd-2.2.2-6.el6_0.1.i686.rpm 创建测试用户: [[email protected] ~]# us

centos7 搭建GlusterFS

实验需求: ·4台机器安装GlusterFS组成一个集群 ·客户端把docker registry存储到文件系统里 ·4个节点的硬盘空间不整合成一个硬盘空间,要求每个节点都存储一份,保证数据安全 环境规划 server node1:192.168.0.165  主机名:glusterfs1 node2:192.168.0.157  主机名:glusterfs2 node3:192.168.0.166  主机名:glusterfs3 node4:192.168.0.150  主机名:gluster

redhat6.5搭建nginx+tomcat负载均衡,memcached高速缓存

实验环境: redhat6.5版本虚拟机3台: server1 :172.25.44.10,内存1024M,CPU双核 server2:172.25.44.20,内存512M,CPU单核 server3:172.25.44.30,内存512M,CPU单核 这三台虚拟机iptables为关闭状态,selinux为disabled状态. apache和nginx的区别: nginx相对于apache的优点:轻量级,同样是web服务,nginx比apache占用更少的内存和资源.nginx处理请求是异