ceph集群搭建

一、安装前准备:

1.系统:Centos7.4 x64

[[email protected]de1 ~]# cat /etc/redhat-release
CentOS Linux release 7.4.1708 (Core)

2.主机:


主机名


地址


角色


ceph-node1


10.0.70.40


Deploy、mon1、osd*2


ceph-node2


10.0.70.41


mon1、osd*2


ceph-node3


10.0.70.42


mon1、osd*2

3.三台主机,每台主机有两个磁盘(磁盘大于100G)

[[email protected] ~]# lsblk
NAME        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
fd0           2:0    1     4K  0 disk
sda           8:0    0  1000G  0 disk
├─sda1        8:1    0     1G  0 part /boot
└─sda2        8:2    0   999G  0 part
├─cl-root 253:0    0    50G  0 lvm  /
├─cl-swap 253:1    0   7.9G  0 lvm  [SWAP]
└─cl-home 253:2    0 941.1G  0 lvm  /home
sdb           8:16   0  1000G  0 disk
sdc           8:32   0  1000G  0 disk

域名解析

ssh-keygen       #配置ceph-1到其他ceph节点的无密码访问
ssh-copy-id [email protected]
ssh-copy-id [email protected]
ssh-copy-id [email protected]
vim /etc/hosts    #拷贝解析到所有站点
10.0.70.40 ceph-node1
10.0.70.41 ceph-node2
10.0.70.42 ceph-node3
scp /etc/hosts [email protected]:/etc/
scp /etc/hosts [email protected]:/etc/

yum源配置

yum clean all
rm -rf /etc/yum.repos.d/*.repo
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
sed -i ‘/aliyuncs/d‘ /etc/yum.repos.d/CentOS-Base.repo
sed -i ‘/aliyuncs/d‘ /etc/yum.repos.d/epel.repo
sed -i ‘s/$releasever/7/g‘ /etc/yum.repos.d/CentOS-Base.repo
vim /etc/yum.repos.d/ceph.repo
[ceph]
name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86_64/
gpgcheck=0
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/
gpgcheck=0
scp /etc/yum.repos.d/ceph.repo [email protected]:/etc/yum.repos.d/     #拷贝镜像到所有站点
scp /etc/yum.repos.d/ceph.repo [email protected]:/etc/yum.repos.d/
yum install hdparm  ceph ceph-radosgw rdate  -y    #安装ceph客户端(所有节点)
hdparm -W 0 /dev/sda      #关闭写缓存
rdate -s time-a.nist.gov        #同步时间
echo rdate -s time-a.nist.gov >> /etc/rc.d/rc.local
chmod +x /etc/rc.d/rc.local

二、集群部署

1.管理节点部署

yum install ceph-deploy -y
mkdir ~/cluster                     #创建my-cluster目录存放配置文件与秘钥
cd  ~/cluster                   #每次执行ceph-deploy命令最好都在这目录下执行
ceph-deploy new ceph-node1 ceph-node2 ceph-node3   #以node1为MON创建ceph.conf文件与秘钥
echo "osd_pool_default_size" = 2 >> ~/cluster/ceph.conf    #设置默认的副本数
echo public_network=10.0.70.20/24 >> ~/cluster/ceph.conf       #根据自己的IP配置向ceph.conf中添加public_network
echo mon_clock_drift_allowed = 2 >> ~/cluster/ceph.conf    #增大mon之间时差允许范围
cat  ~/cluster/ceph.conf
osd_pool_default_size = 2
public_network=10.0.70.20/24
mon_clock_drift_allowed = 2

开始部署monitor

ceph-deploy mon create-initial

开始部署OSD:

ceph-deploy --overwrite-conf osd prepare ceph-node1:/dev/sdb ceph-node1:/dev/sdc ceph-node2:/dev/sdb ceph-node2:/dev/sdc  ceph-node3:/dev/sdb ceph-node3:/dev/sdc   --zap-disk
ceph-deploy --overwrite-conf osd activate ceph-node1:/dev/sdb1 ceph-node1:/dev/sdc1  ceph-node2:/dev/sdb1 ceph-node2:/dev/sdc1  ceph-node3:/dev/sdb1 ceph-node3:/dev/sdc1


查看集群状态

[[email protected] cluster]# ceph -s
cluster 466e0a3e-f351-46f3-94a2-5ea976c26fd8
health HEALTH_WARN
15 pgs peering
2 pgs stuck unclean
too few PGs per OSD (21 < min 30)
monmap e1: 3 mons at {ceph-node1=10.0.70.40:6789/0,ceph-node2=10.0.70.41:6789/0,ceph-node3=10.0.70.42:6789/0}
election epoch 4, quorum 0,1,2 ceph-node1,ceph-node2,ceph-node3
osdmap e47: 6 osds: 6 up, 6 in; 9 remapped pgs
flags sortbitwise,require_jewel_osds
pgmap v125: 64 pgs, 1 pools, 0 bytes data, 0 objects
203 MB used, 5966 GB / 5967 GB avail
49 active+clean
9 remapped+peering
6 peering

查看OSD

[[email protected] cluster]# ceph osd tree
ID WEIGHT  TYPE NAME           UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 5.82715 root default
-2 1.94238     host ceph-node1
0 0.97119         osd.0            up  1.00000          1.00000
1 0.97119         osd.1            up  1.00000          1.00000
-3 1.94238     host ceph-node2
2 0.97119         osd.2            up  1.00000          1.00000
3 0.97119         osd.3            up  1.00000          1.00000
-4 1.94238     host ceph-node3
4 0.97119         osd.4            up  1.00000          1.00000
5 0.97119         osd.5            up  1.00000          1.00000

问题1:

[ceph-1][ERROR ] admin_socket: exception getting command descriptions: [Errno 2] No such file or directory

[ceph_deploy.mon][WARNIN] mon.ceph-1 monitor is not yet in quorum, tries left: 5

[ceph_deploy.mon][WARNIN] waiting 5 seconds before retrying

解决:

主机名和hosts对应即可

时间: 2024-10-10 05:51:08

ceph集群搭建的相关文章

Ceph 集群搭建

Ceph 存储集群 - 搭建存储集群 2019年8月1日 16:12 Ceph 存储集群 - 搭建存储集群 目录 一.准备机器 二.ceph节点安装 三.搭建集群 四.扩展集群(扩容) 一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192

Openstack之Ceph集群操作

Oepnstack之CEPH系列是根据Ceph Cookbook整理的笔记,分为以下几个部分: 1. <Ceph简介> 2. <Ceph集群操作> 3. <Ceph块设备管理与Openstack配置> 4. <深入Ceph> 5. <ceph优化与性能测试> **注意:此文对应ceph版本为10.1.2** ~~~bash #ceph -v ceph version 10.1.2(4a2a6f72640d6b74a3bbd92798bb913ed

基于redhat7.3 ceph对象存储集群搭建+owncloud S3接口整合生产实践

一.环境准备 安装redhat7.3虚拟机四台 在四台装好的虚拟机上分别加一块100G的硬盘.如图所示: 3.在每个节点上配置主机名 4.集群配置信息如下 admin-node node1 node2 node3 192.168.42.110 192.168.42.111 192.168.42.112 192.168.42.113 deploy.osd*1 mon*1.osd*1. rgw*1.mds*1 mon*1.osd*1 mon*1.osd*1 5.各节点配置yum源 #需要在每个主机上

Centos7-单台物理机搭建ceph集群

学习ceph时,看到crush规则的时候,crush策略最小为osd,但是这个osd定义的是真实的osd还是指单块磁盘?为了验证一下,自己用测试机模拟了一下单台机器使用一块磁盘搭建ceph. 配置ceph源,这里使用的阿里云的源 # yum install --nogpgcheck -y epel-release # rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 # vim /etc/yum.repos.d/ceph.repo [Ceph] n

Ceph部署(一)集群搭建

背景 Ceph简单介绍 Ceph是一个分布式存储,能够提供对象存储.块存储和文件存储,当中对象存储和块存储能够非常好地和各大云平台集成. 一个Ceph集群中有Monitor节点.MDS节点(可选,用于文件存储).至少两个OSD守护进程. Ceph OSD:OSD守护进程,用于存储数据.处理数据拷贝.恢复.回滚.均衡.并通过心跳程序向Monitor提供部分监控信息. 一个Ceph集群中至少须要两个OSD守护进程. Monitor:维护集群的状态映射信息,包含monitor.OSD.Placemen

Ceph 存储集群 - 搭建存储集群

一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192.168.0.131 mon.node1 ceph节点,监控节点 node2 192.168.0.132 osd.0 ceph节点,OSD节点 node3 192.168.0.133 o

【Ceph】手动搭建ceph集群

手动部署Ceph集群 3台ceph机器 hostname IP mon_id 磁盘快 journal Ceph1 192.168.1.1 0 /dev/sdb2 /dev/sdb1 Ceph2 192.168.1.2 1 /dev/sdb2 /dev/sdb1 Ceph3 192.168.1.3 2 /dev/sdb2 /dev/sdb1 下载部署所需要的ceph集群的rpm包ceph-mon ceph-common fcgi ceph-base ceph-selinux ceph-mgr ce

搭建ceph集群(单节点)

https://blog.csdn.net/Greenchess/article/details/77525786 软件环境: - Centos7 x64 CEPH版本 : - ceph-deploy v1.5.37 - ceph version 10.2.9 步骤1.修改主机名(即节点名) 1) sed -i ‘/HOSTNAME/d’ /etc/sysconfig/network echo “HOSTNAME=主机名” >> /etc/sysconfig/network cat /etc/

基于centos7.3安装部署jewel版本ceph集群实战演练

一.环境准备 安装centos7.3虚拟机三台 由于官网源与网盘下载速度都非常的慢,所以给大家提供了国内的搜狐镜像源:http://mirrors.sohu.com/centos/7.3.1611/isos/x86_64/CentOS-7-x86_64-DVD-1611.iso 在三台装好的虚拟机上分别加三块100G的硬盘.如图所示: 3.配置ip ceph-1 ceph-2 ceph-3 192.168.42.200 192.168.42.201 192.168.42.203 修改可参照下面的