分布式文件系统mfs(moosefs)搭建与配置

一、MFS 特性:
1. Free(GPL)
2. 通用文件系统,不需要修改上层应用就可以使用
3. 可以在线扩容,体系架构可伸缩性极强。
4. 部署简单。
5. 高可用,可设置任意的文件冗余程度(提供比 raid1+0 更高的冗余级别,而绝对不会影响读或写的性能,只会加速)
6. 可回收在指定时间内删除的文件( “ 回收站 ” 提供的是系统级别的服务,不怕误操作了,提供类似 oralce 的闪回等高级 dbms 的即时回滚特性)
7. 提供 netapp,emc,ibm 等商业存储的 snapshot 特性。(可以对整个文件甚至在正在写入的文件创建文件的快照)
8. google filesystem 的一个 c 实现。
9. 提供 web gui 监控接口。
10. 提高随机读或写的效率。
11. 提高海量小文件的读写效率。
可能的瓶颈:
1. master 本身的性能瓶颈。mfs 系统 master 存在单点故障如何解决?

moosefs+drbd+heartbeat来保证 master 单点问题?不过在使用过程中不可能完全不关机和间歇性的网络中断!
2. 体系架构存储文件总数的可遇见的上限。(mfs 把文件系统的结构缓存到 master 的内存中,文件越多,master 的内存消耗越大,8g 对应 2500w 的文件数,2 亿文件就得 64GB 内存 )。
master 服务器 CPU 负载取决于操作的次数,内存的使用取决于文件和文件夹的个数。
二、MFS 文件系统结构:
包含 4 种角色:
管理服务器 managing server (master)
元数据日志服务器 Metalogger server(Metalogger)
数据存储服务器 data servers (chunkservers)
客户机挂载使用 client computers

各种角色作用:
1. 管理服务器:负责各个数据存储服务器的管理,文件读写调度,文件空间回收以及恢复,多节点拷
贝。
2. 元数据日志服务器: 负责备份 master 服务器的变化日志文件,文件类型为changelog_ml.*.mfs,以便于在 master server 出问题的时候接替其进行工作。
3. 数据存储服务器:负责连接管理服务器,听从管理服务器调度,提供存储空间,并为客户提供数据传输。
4. 客户端:通过 fuse 内核接口挂接远程管理服务器上所管理的数据存储服务器,看起来共享的文件系统和本地 unix 文件系统使用一样的效果。

原始的读/写速度很明显是主要取决于所使用的硬盘的性能、网络的容量和拓扑结构的,使用的硬
盘和网络的吞吐量越好,整个系统的性能也就会越好。

三、MFS部署:

实验环境: 172.25.44.1    server1.example.com    Master

172.25.44.2    server2.example.com    Chunkserver

172.25.44.3    server3.example.com    Chunkserver

172.25.44.4    server4.example.com    Client

iptables selinux disabled

(1)Master安装与配置:

 [[email protected] ~]# yum install -y rpm-build

    [[email protected] ~]# rpmbuild -tb moosefs-3.0.80-1.tar.gz
    error: File /root/moosefs-3.0.80.tar.gz: No such file or directory
    [[email protected] ~]# ln -s moosefs-3.0.80-1.tar.gz moosefs-3.0.80.tar.gz
    [[email protected] ~]# rpmbuild -tb moosefs-3.0.80.tar.gz

    error: Failed build dependencies:
    fuse-devel is needed by moosefs-3.0.80-1.x86_64
    zlib-devel is needed by moosefs-3.0.80-1.x86_64
    libpcap-devel is needed by moosefs-3.0.80-1.x86_64

注意:需要解决的依赖性有fuse-devel zlib-devel libpcap-devel gcc ,没有安装包的需要自己去官网下载。解决依赖性后执行:

 [[email protected] ~]# rpmbuild -tb moosefs-3.0.80.tar.gz     ##进行rpmbuild编译

 [[email protected] ~]# cd rpmbuild/RPMS/x86_64/

    [[email protected] x86_64]# yum install moosefs-cgi-3.0.80-1.x86_64.rpm moosefs-cgiserv-    3.0.80-1.x86_64.rpm moosefs-master-3.0.80-1.x86_64.rpm moosefs-cli-3.0.80-1.x86_64.rpm moosefs-netdump-3.0.80-1.x86_64.rpm -y

    [[email protected] x86_64]# rpm -ql moosefs-cgi
   
 /usr/share/doc/moosefs-cgi-3.0.80
    /usr/share/doc/moosefs-cgi-3.0.80/NEWS
    /usr/share/doc/moosefs-cgi-3.0.80/README
    /usr/share/mfscgi
    /usr/share/mfscgi/acidtab.js
    /usr/share/mfscgi/chart.cgi
    /usr/share/mfscgi/err.gif
    /usr/share/mfscgi/favicon.ico
    /usr/share/mfscgi/index.html
    /usr/share/mfscgi/logomini.png
    /usr/share/mfscgi/mfs.cgi
    /usr/share/mfscgi/mfs.css
    [[email protected] x86_64]# ll /usr/share/mfscgi/*.cgi
   
 -rwxr-xr-x 1 root root   2542 Sep 18 00:01 /usr/share/mfscgi/chart.cgi
    -rwxr-xr-x 1 root root 318727 Sep 18 00:01 /usr/share/mfscgi/mfs.cgi

注意:*.cgi要加执行权限

    启动服务:(注意:不是在/etc/init.d下启动)

    [[email protected] x86_64]# mfsmaster
    
open files limit has been set to: 16384
    working directory: /var/lib/mfs
    lockfile created and locked
    initializing mfsmaster modules ...
    exports file has been loaded
    topology file has been loaded
    loading metadata ...
    metadata file has been loaded
    no charts data file - initializing empty charts
    master <-> metaloggers module: listen on *:9419
    master <-> chunkservers module: listen on *:9420
    main master server module: listen on *:9421
    mfsmaster daemon initialized properly
    [[email protected] x86_64]# mfscgiserv
   
 lockfile created and locked
    starting simple cgi server (host: any , port: 9425 , rootpath: /usr/share/mfscgi)
    访问:

    访问172.25.44.1:9425

    

    加解析:

    

    再次访问:

    

    (2)Chunkserver设置:

        安装软件:

        

[[email protected] ~]# yum install -y *

修改配置文件:

[[email protected] ~]# vim /etc/mfs/mfshdd.cfg

[[email protected] ~]# mkdir /mnt/chunk1    #设置共享点

启动服务:

[[email protected] ~]# mfschunkserver
    open files limit has been set to: 16384
    working directory: /var/lib/mfs
    lockfile created and locked
    setting glibc malloc arena max to 8
    setting glibc malloc arena test to 1
    initializing mfschunkserver modules ...
    hdd space manager: can‘t create lock file ‘/mnt/chunk1/.lock‘: EACCES (Permission denied)
    hdd space manager: no hdd space defined in /etc/mfs/mfshdd.cfg file
    init: hdd space manager failed !!!
    error occurred during initialization - exiting

权限限制,在启动chunk server前,需确保用户mfs有权限读写将要被挂载的分区

[[email protected] ~]# chown mfs.mfs /mnt/chunk1/

[[email protected] ~]# mfschunkserver
    open files limit has been set to: 16384
    working directory: /var/lib/mfs
    lockfile created and locked
    setting glibc malloc arena max to 8
    setting glibc malloc arena test to 1
    initializing mfschunkserver modules ...
    hdd space manager: path to scan: /mnt/chunk1/
    hdd space manager: start background hdd scanning (searching for available chunks)
    main server module: listen on *:9422
    master connection module: can‘t resolve master host/port (mfsmaster:9420)
    init: master connection module failed !!!
    error occurred during initialization - exiting

修改解析(在Master后加上mfsmaster)
    

[[email protected] ~]# mfschunkserver
    open files limit has been set to: 16384
    working directory: /var/lib/mfs
    lockfile created and locked
    setting glibc malloc arena max to 8
    setting glibc malloc arena test to 1
    initializing mfschunkserver modules ...
    hdd space manager: path to scan: /mnt/chunk1/
    hdd space manager: start background hdd scanning (searching for available chunks)
    main server module: listen on *:9422
    no charts data file - initializing empty charts
    mfschunkserver daemon initialized properly
    在另外一个Chunkserver做相同的操作(只改变共享点/mnt/chunk2)

访问:

(3)Client端设置:

解析,在Master后面加上mfsmaster

[[email protected] ~]# yum install -y moosefs-client-3.0.80-1.x86_64.rpm

    [[email protected] ~]# vim /etc/mfs/mfsmount.cfg    #设置挂载点

/mnt/mfs

[[email protected] ~]# mkdir /mnt/mfs        #创建挂载点

 [[email protected] ~]# mfsmount         #挂载
    mfsmaster accepted connection with parameters: read-write,restricted_ip,admin ; root mapped to root:root
    [[email protected] ~]# df -h
    Filesystem                    Size  Used Avail Use% Mounted on
    /dev/mapper/VolGroup-lv_root  6.7G  880M  5.5G  14% /
    tmpfs                         499M     0  499M   0% /dev/shm
    /dev/sda1                     485M   33M  427M   8% /boot
    mfsmaster:9421                 13G  2.3G   11G  18% /mnt/mfs

刷新网页:

测试:

在/mnt/mfs创建两个目录,并设置其文件存储份数。

 [[email protected] ~]# cd /mnt/mfs/

    [[email protected] mfs]# mkdir dir1 dir2

设置文件存储份数,dir1为2,dir2为1

拷贝文件,查看信息:

关闭一个chunkserver(172.25.44.3)后,查看信息:

chunkserver重新启动后,恢复正常:

恢复垃圾箱文件:

误删:

 [[email protected] mfs]# rm -fr /mnt/mfs/dir2/fstab

    [[email protected] mfs]# mfsgettrashtime dir2    #查看垃圾箱中文件的保留时间
    dir2: 86400        ##86400s=1day
    [[email protected] mfs]# mkdir /mnt/mfsdeta    #创建目录

[[email protected] ~]# ll -d /mnt/mfsdeta/
    drwxr-xr-x 2 root root 4096 Sep 19 18:40 /mnt/mfsdeta/
    [[email protected] ~]# mfsmount -m /mnt/mfsdeta/    #挂载
    mfsmaster accepted connection with parameters: read-write,restricted_ip

        [[email protected] ~]# cd /mnt/mfsdeta/
    [[email protected] mfsdeta]# ls

    sustained  trash
    [[email protected] mfsdeta]# cd trash/

[[email protected] trash]# find -type f
    ./006/00000006|dir2|fstab
    [[email protected] trash]# mv ./006/00000006\|dir2\|fstab undel/    #恢复误删文件
    [[email protected] trash]# ls /mnt/mfs/dir2/
    fstab

时间: 2024-11-07 10:18:31

分布式文件系统mfs(moosefs)搭建与配置的相关文章

分布式文件系统MFS(moosefs)实现存储共享(一)

分布式文件系统MFS(moosefs)实现存储共享 作者:田逸([email protected]) from:[url]http://net.it168.com/a2009/0403/270/000000270867.shtml[/url] 由于用户数量的不断攀升,我对访问量大的应用实现了可扩展.高可靠的集群部署(即lvs+keepalived的方式),但仍然有用户反馈访问慢的问题.通过排查个服务器的情况,发现问题的根源在于共享存储服务器NFS.在我这个网络环境里,N个服务器通过nfs方式共享

分布式文件系统MFS(moosefs)实现存储共享(第二版)

作者:田逸([email protected]) 由于用户数量的不断攀升,我对访问量大的应用实现了可扩展.高可靠的集群部署(即lvs+keepalived的方式),但仍然有用户反馈访问慢的问题.通过排查个服务器的情况,发现问题的根源在于共享存储服务器NFS.在我这个网络环境里,N个服务器通过nfs方式共享一个服务器的存储空间,使得NFS服务器不堪重负.察看系统日志,全是nfs服务超时之类的报错.一般情况下,当nfs客户端数目较小的时候,NFS性能不会出现问题:一旦NFS服务器数目过多,并且是那种

centos7搭建分布式文件系统MFS

1.介绍 MooseFS是一个分布式存储的框架 2.准备工作 系统环境:centos7 MooseFS版本:moosefs-2.0.60-1.tar.gz 部署机器: mfsmaster:172.16.10.44 mfsMetalogger:172.16.10.45 mfschunkserver:172.16.10.45,172.16.10.46 mfsclient:172.16.10.43 //一下步骤master,chunk,client等都需要执行 安装依赖库 :yum -y instal

分布式文件系统MFS

目前常见的分布式文件系统有很多种,例如我之前一篇文章里面提到的Hadoop.FastDFS.Moosefs.PNFS(Parallel NFS).Lustre.TFS.GFS.HDFS等等一系列.在众多的分布式文件系统解决方案中,MFS是搭建比较简单.使用起来也不需要过多的修改web程序,非常方便. MooseFS(MFS)是一个分布式存储的框架,其具有如下特性: 1.Free(GPL) 2.通用文件系统,不需要修改上层应用就可以使用(那些需要专门api的dfs很麻烦). 3.可以在线扩容,体系

GlusterFS分布式文件系统的卷类型及配置详解

博文大纲:(一)GlusterFS相关概念.(二)GlusterFS各种卷类型的部署及客户端挂载使用.(三)GlusterFS维护命令. (一)GlusterFS相关概念: GlusterFS是一个开源的分布式文件系统,同时也是Scale-Out存储解决方案Gluster的核心,在存储数据方面有强大的横向扩展能力.GlusterFS主要由存储服务器.客户端及NFS/Samba存储网关(可选组件)组成.GlusterFS架构中最大的设计特点是没有元数据服务器组件,也就是说没有主/从服务器之分,每一

转载:分布式文件系统 - FastDFS 在 CentOS 下配置安装部署(2)

原文:http://blog.mayongfa.cn/193.html 一.安装 Nginx 和 fastdfs-nginx-module 安装 Nginx 请看:从零开始学 Java - CentOS 下安装 Nginx,其实我只想放这一句话.但想想我还是一步一步写详细吧. 1.下载 Nginx 和 fastdfs-nginx-module ,这里是通过wget下载(我喜欢这种方式). wget -c https://nginx.org/download/nginx-1.10.1.tar.gz

MooseFS分布式文件系统简单配置

MooseFS是一种分布式文件系统,MooseFS文件系统结构包括以下四种角色: 1.管理服务器managing server (master) 2.元数据日志服务器(备份服务器)Metalogger server(Metalogger) 3.数据存储服务器data servers (chunkservers) 4.客户机挂载使用client computers 1.管理服务器:负责各个数据存储服务器的管理,文件读写调度,文件空间回收以及恢复.多节点拷贝 2.元数据日志服务器(备份服务器): 负

linux mfs分布式文件系统

mosefs介绍: mooseFS(moose 驼鹿)是一款网络分布式文件系统.它把数据分散在多台服务器上,但对于用户来讲,看到的只是一个源.MFS也像其他类UNIX文件系统一样,包含了层级结构(目录树),存储着文件属性(权限.最后访问和修改时间),常见特殊的文件(块设备.字符设备.管道.套接字),符号链接,硬链接.MooseFS[MFS]是一个具有容错性的网络分布式文件系统.它把数据分散存放在多个物理服务器上,但呈现给用户的则是一个统一的资源当我们存储服务器的容量达到瓶颈之后,那我们就需要采用

MooseFS分布式文件系统+keepalived高可用+unison和intoify实时双击同步(一)

1.  分布式文件系统mfs(moose file system) 1.1.mfs文件系统的组成 1.元数据服务器.在整个体系中负责管理管理文件系统,目前MFS只支持一个元数据服务器master,这是一个单点故障,需要一个性能稳定的服务器来充当.希望今后MFS能支持多个master服务器,进一步提高系统的可靠性. 2.元数据日志服务器.备份master服务器的变化日志文件,文件类型为changelog_ml.*.mfs.当元数据服务器数据丢失或者损毁,可从日志服务器取得文件进行恢复. 3.数据存