在rhel7中的ceph存储集群搭建的具体步骤

ceph是一种可以提供存储集群服务的软件

它可以实现将主机做成存储集群,并提供分布式文件存储的功能
ceph服务可以提供三种存储方式:
    1.块存储
    2.对象存储
    2.文件系统存储

这里我将介绍如何使用ceph搭建一个存储集群:

环境介绍:

    node1 node2 node3 这三台主机作为存储集群服务器,分别都有3块10G的硬盘,并且我会将node1及作为存储服务器也作为管理主机(管理存储服务器的服务器)
    将client作为访问的客户端
    node1 node2 node3这第三台服务器要配置NTP同步服务,同步client的NTP服务,分别配置yum源以及node1免密以及/etc/hosts文件

1.环境配置,这里部分简单的就省略了:

(1)配置/etc/hosts文件,实现本机的域名解析

[[email protected] ~]# cat /etc/hosts      #切忌不要将本机的回环地址删了,只需要添加命令即可,不要删东西
    192.168.4.50 client
    192.168.4.51 node1
    192.168.4.52 node2
    192.168.4.53 node3

为了方便要保证node2 node3 这两台主机上的/etc/hosts文件都是有这些命令的
(2)在node1管理主机上配置免密操作:

[[email protected] ~]# ssh-keygen -N ‘‘ -f /root/.ssh/id_rsa
[[email protected] ~]# ssh-copy-id node1
[[email protected] ~]# ssh-copy-id node2
[[email protected] ~]# ssh-copy-id node3
[[email protected] ~]# ssh-copy-id client

(3)拷贝yum源为其他主机,保证每个主机上的yum源都有需要安装的软件包

[[email protected] ~]# scp /etc/yum.repos.d/ceph.repo node2
[[email protected] ~]# scp /etc/yum.repos.d/ceph.repo node3
[[email protected] ~]# scp /etc/yum.repos.d/ceph.repo client

2.在node1管理主机上创建存储集群的功能目录以及配置集群

(1)在node1上安装提供存储集群服务的软件包 ceph-deploy.noarch

 [[email protected] ~]# yum -y install ceph-deploy.noarch

(2)在node1管理主机上创建一个自定义目录ceph-cluster

        [[email protected] ~]# mkdir ceph-cluster
        [[email protected] ~]# cd ceph-cluster

(3)指定node1 node2 node3为存储集群服务器,创建存储集群服务器

        [[email protected] ceph-cluster]# ceph-deploy new node1 node2 node3     #这里耐心等待,会花一段时间

(4)为所有的存储集群服务器安装ceph-deploy工具

        [[email protected] ceph-cluster]# ceph-deploy install node1 node2 node3

(5)为所有集群初始化monitor这个监控程序

        [[email protected] ceph-cluster]# ceph-deploy mon create-initial

(6)为node1 node2 node3将/dev/vdb分两个区,作为/dev/vdc /dev/vdd这两块磁盘的日志盘

        [[email protected] ceph-cluster]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
        [[email protected] ceph-cluster]# parted /dev/vdc mkpart primary 50% 100%
        [[email protected] ~]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
        [[email protected] ~]# parted /dev/vdc mkpart primary 50% 100%
        [[email protected] ~]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
        [[email protected] ~]# parted /dev/vdc mkpart primary 50% 100%

(7)为日志盘设置归属,保证ceph用户后续存放日志才有权限

        [[email protected] ceph-cluster]# chown ceph:ceph /dev/vdc*
        [[email protected] ~]# chown ceph:ceph /dev/vdc*       #这些是临时设置,要想重启也有效需要写到/etc/rc.local文件下并且服务x权限
        [[email protected] ~]# chown ceph:ceph /dev/vdc*
            永久设置:以node2为例
                [[email protected] ~]# echo "chown ceph:ceph /dev/vdc*" >> /etc/rc.local
                [[email protected] ~]# chmod +x /etc/rc.local

(8)在node1管理主机上格式化所有需要共享的磁盘/dev/vdb /dev/vdd #这些都是在node1管理主机上操作的

        [[email protected] ceph-cluster]# ceph-deploy disk zap node1:vdb node1:vdd
        [[email protected] ceph-cluster]# ceph-deploy disk zap node2:vdb node2:vdd
        [[email protected] ceph-cluster]# ceph-deploy disk zap node3:vdb node3:vdd

(9)创建osd磁盘,这些也都是在管理主机上做就可以了

        [[email protected] ceph-cluster]# ceph-deploy osd create node1:vdb:/dev/vdc1 node1:vdd:/dev/vdc2
        [[email protected] ceph-cluster]# ceph-deploy osd create node2:vdb:/dev/vdc1 node2:vdd:/dev/vdc2
        [[email protected] ceph-cluster]# ceph-deploy osd create node3:vdb:/dev/vdc1 node3:vdd:/dev/vdc2

3.ceph存储集群就搭建好了,这里使用ceph -s命令检查状态,只有是OK才是正常的

        [[email protected] ceph-cluster]# ceph -s
        cluster e9877c9f-d0ca-40c6-9af4-19c5c9dea10c
        health HEALTH_OK
        .......
        [[email protected] ceph-cluster]# ceph osd lspools                 #创建存储集群后默认会为我们自动创建一个存储池
        0 rbd,

原文地址:http://blog.51cto.com/14011875/2299519

时间: 2024-08-29 12:25:10

在rhel7中的ceph存储集群搭建的具体步骤的相关文章

Ceph 存储集群 - 搭建存储集群

一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192.168.0.131 mon.node1 ceph节点,监控节点 node2 192.168.0.132 osd.0 ceph节点,OSD节点 node3 192.168.0.133 o

基于redhat7.3 ceph对象存储集群搭建+owncloud S3接口整合生产实践

一.环境准备 安装redhat7.3虚拟机四台 在四台装好的虚拟机上分别加一块100G的硬盘.如图所示: 3.在每个节点上配置主机名 4.集群配置信息如下 admin-node node1 node2 node3 192.168.42.110 192.168.42.111 192.168.42.112 192.168.42.113 deploy.osd*1 mon*1.osd*1. rgw*1.mds*1 mon*1.osd*1 mon*1.osd*1 5.各节点配置yum源 #需要在每个主机上

Centos6.5下Ceph存储集群的搭建

简单介绍 Ceph的部署模式下主要包含以下几个类型的节点 ? Ceph OSDs: A Ceph OSD 进程主要用来存储数据,处理数据的replication,恢复,填充,调整资源组合以及通过检查其他OSD进程的心跳信息提供一些监控信息给Ceph Monitors . 当Ceph Storage Cluster 要准备2份数据备份时,要求至少有2个Ceph OSD进程的状态是active+clean状态 (Ceph 默认会提供两份数据备份). ? Monitors: Ceph Monitor

CentOS7/RHEL7 pacemaker+corosync高可用集群搭建

目录 一.集群信息... 4 二.集群搭建... 4 1.制作软件源... 4 2.主机基础配置... 5 3.集群基础环境准备... 7 4.集群资源准备... 9 5.资源配置... 11 6.constraint配置... 12 7.stonith配置... 13 8.集群功能验证... 14 三.集群常用命令及作用... 17 1.验证群集安装... 17 2.查看群集资源... 17 3.使用群集脚本... 17 4.STONITH 设备操作... 17 5.查看群集配置... 17

分布式架构中一致性解决方案——Zookeeper集群搭建

当我们的项目在不知不觉中做大了之后,各种问题就出来了,真jb头疼,比如性能,业务系统的并行计算的一致性协调问题,比如分布式架构的事务问题, 我们需要多台机器共同commit事务,经典的案例当然是银行转账,支付宝转账这种,如果是一台机器的话,这个还是很方便的,windows中自带了一个事务协 调器mstsc,但是呢,你那种很大很牛逼的项目不可能全是windows服务器,对吧,有些人为了解决这个问题,会采用2pc,3pc这种算法,或者是paxos的思 想进行分布式下的一致性处理,当然在这个世界上,真

Ceph 存储集群-低级运维

低级集群运维包括启动.停止.重启集群内的某个具体守护进程:更改某守护进程或子系统配置:增加或拆除守护进程.低级运维还经常遇到扩展.缩减 Ceph 集群,以及更换老旧.或损坏的硬件. 一.增加/删除 OSD 如果您的集群已经在运行,你可以在运行时添加或删除 OSD . 增加 OSD 你迟早要扩容集群, Ceph 允许在运行时增加 OSD .在 Ceph 里,一个 OSD 一般是一个 ceph-osd 守护进程,它运行在硬盘之上,如果你有多个硬盘,可以给每个硬盘启动一个 ceph-osd 守护进程.

ceph存储集群实战(4)——ceph存储配置(映射RBD镜像到客户端)

块设备(rbd)     1.块设备可以应用为:         1.作为额外的磁盘使用         2.可以作为裸设备使用         3.可以格式化成文件系统,然后挂载给虚拟机或者物理服务器使用          2.创建块设备(可以在任意一台ceph节点上创建)     下面的命令创建一个名为ceph-client1-rbd1.大小为10G的RBD设备     [[email protected] ~]# rbd create ceph-client1-rbd1 --size 10

Ceph 存储集群4-运维:

一.高级运维 高级集群操作主要包括用 ceph 服务管理脚本启动.停止.重启集群,和集群健康状态检查.监控和操作集群. 操纵集群 运行 Ceph 每次用命令启动.重启.停止Ceph 守护进程(或整个集群)时,你必须指定至少一个选项和一个命令,还可能要指定守护进程类型或具体例程. {commandline} [options] [commands] [daemons] ceph 命令的选项包括:

Ceph 集群搭建

Ceph 存储集群 - 搭建存储集群 2019年8月1日 16:12 Ceph 存储集群 - 搭建存储集群 目录 一.准备机器 二.ceph节点安装 三.搭建集群 四.扩展集群(扩容) 一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192