分布式文件系统FastDFS集群部署

1、源码开放下载地址:https://github.com/happyfish100

早期源码开放下载地址:https://sourceforge.net/projects/fastdfs/files/ 
官网论坛:http://bbs.chinaunix.net/forum-240-1.html

2、系统架构如下

文件上传流程

1、client询问tracker上传到的storage,不需要附加参数; 
2、tracker返回一台可用的storage; 
3、client直接和storage通讯完成文件上传。

文件下载流程

1、client询问tracker下载文件的storage,参数为文件标识(组名和文件名); 
2、tracker返回一台可用的storage; 
3、client直接和storage通讯完成文件下载。

术语

FastDFS两个主要的角色:Tracker Server 和 Storage Server 
Tracker Server:跟踪服务器,主要负责调度storage节点与client通信,在访问上起负载均衡的作用,和记录storage节点的运行状态,是连接client和storage节点的枢纽。 
Storage Server:存储服务器,保存文件和文件的meta data(元数据) 
Group:文件组,也可以称为卷。同组内服务器上的文件是完全相同的,做集群时往往一个组会有多台服务器,上传一个文件到同组内的一台机器上后,FastDFS会将该文件即时同步到同组内的其它所有机器上,起到备份的作用。 
meta data:文件相关属性,键值对(Key Value Pair)方式,如:width=1024, height=768。

安装包: 
FastDFS_v5.08.tar.gz:FastDFS源码 
libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库) 
fastdfs-nginx-module-master.zip:storage节点http服务nginx模块 
nginx-1.10.0.tar.gz:Nginx安装包 
ngx_cache_purge-2.3.tar.gz:图片缓存清除Nginx模块(集群环境会用到)

环境规划如下   centos6.8系统

192.168.184.129   tracker+storage

192.168.184.130   tracker+storage

192.168.184.128   storage

所有tracker+storage节点操作

yum install make cmake gcc gcc-c++

安装libfastcommon
cd /server/toolsunzip libfastcommon-master.zip    cd libfastcommon-master
## 编译、安装
./make.sh
./make.sh install

安装fastdfs
cd /usr/local/src
tar -xzvf FastDFS_v5.08.tar.gzcd FastDFS./make.sh./make.sh install

配置tracker服务器
 cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf
vim /etc/fdfs/tracker.conf
# 修改的内容如下:
disabled=false              # 启用配置文件
port=22122                  # tracker服务器端口(默认22122)
base_path=/fastdfs/tracker  # 存储日志和数据的根目录
mkdir -p /fastdfs/tracker
 /etc/init.d/fdfs_trackerd start

配置storage服务器

 cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf
vi /etc/fdfs/storage.conf

# 修改的内容如下:
disabled=false                      # 启用配置文件
port=23000                          # storage服务端口
base_path=/fastdfs/storage          # 数据和日志文件存储根目录
store_path0=/fastdfs/storage        # 第一个存储目录
tracker_server=ip01:22122  # tracker服务器IP和端口
http.server_port=8888               # http访问文件的端口
mkdir -p /fastdfs/storage

/etc/init.d/fdfs_storaged start

初次启动,会在/fastdfs/storage目录下生成logs、data两个目录。

文件上传测试

cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
vim /etc/fdfs/client.conf
# 修改以下配置,其它保持默认
base_path=/fastdfs/tracker
tracker_server=ip01:22122

[[email protected] ~]#
[[email protected] ~]# /usr/bin/fdfs_upload_file /etc/fdfs/client.conf 0.jpg
group1/M00/00/00/wKi4gVsHdDeADS_oAACTVCrH_oM617.jpg

返回文件id  group1/M00/00/00/wKi4gVsHdDeADS_oAACTVCrH_oM617.jpg  说明上传成功

在所有storage节点上面安装  fastdfs-nginx-module

fastdfs-nginx-module 作用说明
FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入 文件复制,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 ip01,上传成功后文件 ID 已经返回给客户端。
此时 FastDFS 存储集群机制会将这个文件同步到同组存储 ip02,在文件还 没有复制完成的情况下,客户端如果用这个文件 ID 在 ip02 上取文件,就会出现文件无法访问的 错误。
而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的 文件无法访问错误。(解压后的 fastdfs-nginx-module 在 nginx 安装时使用)

cd /server/tools
tar -xzvf fastdfs-nginx-module_v1.16.tar.gz
 cd fastdfs-nginx-module/src
 vi config

CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/"

修改为:

CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"

安装nginx

useradd -s /sbin/nologin -M nginx

./configure --prefix=/application/nginx-1.10.0 --user=nginx --group=nginx --add-module=/server/tools/fastdfs-nginx-module/src/ --add-module=/server/tools/ngx_cache_purge-2.3 --with-http_stub_status_module --with-http_ssl_module

make && make install

复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改

cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/

vi /etc/fdfs/mod_fastdfs.conf

connect_timeout=10

     base_path=/tmp

     tracker_server=ip01:22122

     storage_server_port=23000

     group_name=group1

     url_have_group_name = true

     store_path0=/fastdfs/storage

cd /server/tools/FastDFS/conf

cp http.conf mime.types /etc/fdfs/

在/fastdfs/storage 文件存储目录下创建软连接,将其链接到实际存放数据的目录

ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00

配置nginx

worker_processes 1;

events {

worker_connections 1024;

}

http {

include mime.types;

default_type application/octet-stream;

sendfile on;

keepalive_timeout 65;

server {

listen 8888;

server_name localhost;

location ~/group([0-9])/M00 {

ngx_fastdfs_module;

}

error_page 500 502 503 504 /50x.html;

location = /50x.html {

root html;

}

}

}

A、8888 端口值是要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应, 因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。
 B、Storage 对应有多个 group 的情况下,访问路径带 group 名,如/group1/M00/00/00/xxx, 对应的 Nginx 配置为:

     location ~/group([0-9])/M00 {
         ngx_fastdfs_module;
}

通过浏览器访问 测试http://192.168.184.129:8888/group1/M00/00/00/wKi4gFsHczWACyrMAAQFTByqKqE017.jpghttp://192.168.184.130:8888/group1/M00/00/00/wKi4gFsHczWACyrMAAQFTByqKqE017.jpg

访问出现一样的结果,说明集群正常



原文地址:https://www.cnblogs.com/hellojackyleon/p/9087498.html

时间: 2024-10-08 00:20:31

分布式文件系统FastDFS集群部署的相关文章

FastDFS 集群部署

FastDFS 集群部署 官网https://github.com/happyfish100 FastDFS是一款开源的高性能分布式文件系统(DFS).主要功能:文件存储,文件同步和文件访问,以及高容量和负载平衡.主要解决了海量数据存储问题,特别适合以中小文件(建议范围:4KB < file_size < 500MB)为载体的在线服务. FastDFS系统有三个角色:跟踪服务器(Tracker Server).存储服务器(Storage Server)和客户端(Clinet). Tracker

FastDFS集群部署

之前介绍过关于FastDFS单机部署,详见博文:FastDFS+Nginx(单点部署)事例 下面来玩下FastDFS集群部署,实现高可用(HA) 服务器规划: 跟踪服务器1[主机](Tracker Server):10.100.139.121 跟踪服务器2[备机](Tracker Server):10.100.138.180 存储服务器1(Storage Server):10.100.139.121 存储服务器2(Storage Server):10.100.138.180 存储服务器3(Sto

深入浅出分布式文件系统MogileFS集群

    一,简介    MogileFS是一款开源的分布式文件存储系统,由LiveJournal旗下的Danga Interactive公司开发.Danga团队开发了包括 Memcached.MogileFS.Perlbal 等多个知名的开源项目.目前MogileFS的日益成熟使用此解决方法的公司越来越多,例如日本的又拍.digg.中国的豆瓣.1号店.大众点评.搜狗和安居客等,分别为所在的组织或公司管理着海量的图片.和传统网络存储不一样的是分布式文件系统是将数据分散存储至多台服务器上,而网络文件

solr 集群(SolrCloud 分布式集群部署步骤)

SolrCloud 分布式集群部署步骤 安装软件包准备 apache-tomcat-7.0.54 jdk1.7 solr-4.8.1 zookeeper-3.4.5 注:以上软件都是基于 Linux 环境的 64位 软件,以上软件请到各自的官网下载. 服务器准备 为搭建这个集群,准备三台服务器,分别为 192.168.0.2 -- master 角色192.168.0.3 -- slave 角色192.168.0.4 -- slave 角色 搭建基础环境 安装 jdk1.7 - 这个大家都会安装

solrCloud 4.9 分布式集群部署及注意事项

环境搭建 一.zookeeper 参考:http://blog.chinaunix.net/uid-25135004-id-4214399.html 现有4台机器 10.14.2.201 10.14.2.202 10.14.2.203 10.14.2.204 安装zookeeper集群 在所有机器上进行 1.下载安装包解压 tar xvf zookeeper-3.4.5.tar.gz -C /export/ cd /export/ ln -s zookeeper-3.4.5 zookeeper

超详细从零记录Hadoop2.7.3完全分布式集群部署过程

超详细从零记录Ubuntu16.04.1 3台服务器上Hadoop2.7.3完全分布式集群部署过程.包含,Ubuntu服务器创建.远程工具连接配置.Ubuntu服务器配置.Hadoop文件配置.Hadoop格式化.启动.(首更时间2016年10月27日) 主机名/hostname IP 角色 hadoop1 192.168.193.131 ResourceManager/NameNode/SecondaryNameNode hadoop2 192.168.193.132 NodeManager/

分布式rabbitmq集群部署

分布式rabbitmq集群部署本次部署使用的三台centos服务器安装的erlang 版本为 21.0.4安装的rabbitmq版本为3.7.8-rc.2在三台服务器中分别安装rabbitmq-serverrabbitmq通信是建立在erlang环境中 所以需要先安装erlang环境 因为国外的erlang官方地址中中国不能直接访问,所以我们使用第三方包https://github.com/rabbitmq/erlang-rpm 安装说明地址 修改系统repo包文件修改repo# In /etc

Hadoop及Zookeeper+HBase完全分布式集群部署

Hadoop及HBase集群部署 一. 集群环境 系统版本 虚拟机:内存 16G CPU 双核心 系统: CentOS-7 64位 系统下载地址: http://124.202.164.6/files/417500000AB646E7/mirrors.163.com/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1708.iso 软件版本 hadoop-2.8.1.tar.gz hbase-1.3.1-bin.tar.gz zookeeper-3.4.10.t

基于winserver的Apollo配置中心分布式&amp;集群部署实践(正确部署姿势)

前言 前几天对Apollo配置中心的demo进行一个部署试用,现公司已决定使用,这两天进行分布式部署的时候,每一步都踩着坑过来的.因此写文档与需要的朋友分享. 此篇文章不代表官方部署流程,只是自己的部署的实践方式,屏蔽了一些官方的多余的部署讲解.如果有问题还请到Apollo的wiki文档进行查看:https://github.com/ctripcorp/apollo/wiki/%E5%88%86%E5%B8%83%E5%BC%8F%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D