ceph部署手册

CentOS7.2部署Luminous版Ceph-12.2.0

在CentOS7.2上安装部署Luminous版Ceph-12.2.0。由于ceph的Luminous版本默认使用bluestore作为后端存储类型,也新增了mgr功能,所以使用ceph-deploy的1.5.38版本来部署集群、创建MON、OSD、MGR等。

环境

每台主机

  • CentOS Linux release 7.2.1511 (Core) Mini版
  • 两个100G的磁盘做OSD

1

2

3

4

5

6

7

8

9

10

11

12

13


[[email protected] ~]# cat /etc/redhat-release

CentOS Linux release 7.2.1511 (Core)

[[email protected] ~]# lsblk

NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

sr0              11:0    1 1024M  0 rom

xvda            202:0    0   10G  0 disk

├─xvda1         202:1    0  500M  0 part /boot

└─xvda2         202:2    0  9.5G  0 part

├─centos-root 253:0    0  8.5G  0 lvm  /

└─centos-swap 253:1    0    1G  0 lvm  [SWAP]

xvdb            202:16   0  100G  0 disk

xvdc            202:32   0  100G  0 disk

主机node232作为管理节点,部署ceph-deploy。三台主机配置如下


主机


IP


安装组件


node232


192.168.217.232


ceph-deploy、mon、osd、mgr、ntp


node233


192.168.217.233


mon、osd、ntpdate


node234


192.168.217.234


mon、osd、ntpdate

设置无密登录

Yum源配置

下载阿里云的base源

Wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

下载阿里云的epel源

wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo

修改里面的系统版本为7.3.1611,当前用的CentOS7.2.1511版本的yum源已经清空了

[[email protected] ~]# sed -i ‘/aliyuncs/d‘ /etc/yum.repos.d/CentOS-Base.repo

[[email protected] ~]# sed -i ‘/aliyuncs/d‘ /etc/yum.repos.d/epel.repo

#[[email protected] ~]# sed -i ‘s/$releasever/7.3.1611/g‘ /etc/yum.repos.d/CentOS-Base.repo

[ceph]
name=ceph
baseurl=http://mirrors.163.com/ceph/rpm-luminous/el7/x86_64/gpgcheck=0
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.163.com/ceph/rpm-luminous/el7/noarch/
gpgcheck=0

yum makecache

http://download.ceph.com/ ceph官方yum源

安装ceph

下载ceph的相关rpm到本地


1


[[email protected] ~]# yum install --downloadonly --downloaddir=/tmp/ceph ceph

在每台主机上安装ceph


1


[[email protected] ~]# yum localinstall -C -y --disablerepo=* /tmp/ceph/*.rpm

安装成功,查看ceph版本


1

2


[[email protected] ~]# ceph -v

ceph version 12.2.0 (32ce2a3ae5239ee33d6150705cdb24d43bab910c) luminous (rc)

部署ceph

在管理节点node232上执行。

安装ceph-deploy

下载ceph-deploy-1.5.38

[[email protected] ~]# yum install --downloadonly --downloaddir=/tmp/ceph-deploy/ ceph-deploy

yum localinstall -C -y --disablerepo=* /tmp/ceph-deploy/*.rpm

安装成功,查看ceph-deploy版本


1

2


[[email protected] ~]# ceph-deploy --version

1.5.38

部署集群

创建部署目录,部署集群

[[email protected] ~]# mkdir ceph-cluster

[[email protected] ~]# cd ceph-cluster

[[email protected] ceph-cluster]# ceph-deploy new node232 node233 node234

加入监控节点

部署mon


1


[[email protected] ceph-cluster]# ceph-deploy mon create-initial

初始化监控节点

执行ceph -s会出错,是由于缺少/etc/ceph/ceph.client.admin.keyring文件


1

2

3

4

5


[[email protected] ceph-cluster]# ceph -s

2017-09-13 12:12:18.772214 7f3d3fc3f700 -1 auth: unable to find a keyring on /etc/ceph/ceph.client.admin.keyring,/etc/ceph/ceph.keyring,/etc/ceph/keyring,/etc/ceph/keyring.bin,: (2) No such file or directory

2017-09-13 12:12:18.772260 7f3d3fc3f700 -1 monclient: ERROR: missing keyring, cannot use cephx for authentication

2017-09-13 12:12:18.772263 7f3d3fc3f700  0 librados: client.admin initialization error (2) No such file or directory

[errno 2] error connecting to the cluster

手工复制ceph-cluster目录下ceph.client.admin.keyring文件到/etc/ceph/目录下或者执行 ceph-deploy admin命令自动复制ceph.client.admin.keyring文件

[[email protected] ceph-cluster]# ceph-deploy admin node232 node233 node234

查看集群


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15


[[email protected] ceph-cluster]# ceph -s

cluster:

id:     988e29ea-8b2c-4fa7-a808-e199f2e6a334

health: HEALTH_OK

services:

mon: 3 daemons, quorum node232,node233,node234

mgr: no daemons active

osd: 0 osds: 0 up, 0 in

data:

pools:   0 pools, 0 pgs

objects: 0 objects, 0 bytes

usage:   0 kB used, 0 kB / 0 kB avail

pgs:

创建osd


1


[[email protected] ceph-cluster]# ceph-deploy --overwrite-conf osd prepare node232:/dev/xvdb node232:/dev/xvdc node233:/dev/xvdb node233:/dev/xvdc node234:/dev/xvdb node234:/dev/xvdc --zap-disk

激活osd

[[email protected] ceph-cluster]# ceph-deploy --overwrite-conf osd activate node232:/dev/xvdb1 node232:/dev/xvdc1 node233:/dev/xvdb1 node233:/dev/xvdc1 node234:/dev/xvdb1 node234:/dev/xvdc1

查看集群


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16


[[email protected] ceph-cluster]# ceph -s

cluster:

id:     988e29ea-8b2c-4fa7-a808-e199f2e6a334

health: HEALTH_WARN

no active mgr

services:

mon: 3 daemons, quorum node232,node233,node234

mgr: no daemons active

osd: 6 osds: 6 up, 6 in

data:

pools:   0 pools, 0 pgs

objects: 0 objects, 0 bytes

usage:   0 kB used, 0 kB / 0 kB avail

pgs:

配置mgr

在node232上创建名称为foo的mgr服务


1


[[email protected] ceph-cluster]# ceph-deploy mgr create node232:foo

启用dashboard


1


[[email protected] ceph-cluster]# ceph mgr module enable dashboard

通过 http://192.168.217.232:7000 访问dashboard

dashboard的port默认为7000,可以执行ceph config-key set mgr/dashboard/server_port $PORT修改port。
也可以执行ceph config-key set mgr/dashboard/server_addr $IP指定dashboard的访问IP。

原文地址:https://www.cnblogs.com/mylovelulu/p/9298231.html

时间: 2024-11-07 01:00:28

ceph部署手册的相关文章

OpenStack Kilo版加CEPH部署手册

OpenStack Kilo版加CEPH部署手册 作者: yz联系方式: QQ: 949587200日期: 2015-7-13版本: Kilo 转载地址: http://mp.weixin.qq.com/s__biz=MzAxOTAzMDEwMA==&mid=209225237&idx=1&sn=357afdabafc03e8fb75eb4e1fb9d4bf9&scene=5&ptlang=2052&ADUIN=724042315&ADSESSION

Ceph部署(二)RGW搭建

背景 Ceph RGW简介 Ceph RGW基于librados,是为应用提供RESTful类型的对象存储接口.RGW提供两种类型的接口: 1) S3:兼容Amazon S3RESTful API: 2) Swift:兼容OpenStack Swift API. S3和Swift API共享同一个命名空间,所以可以使用两种API访问相同的数据. 环境规划 如上篇文章<Ceph部署(一)集群搭建>所述:4台服务器:1台作为Monitor,1台作为OSD RGW,还有两台作为OSD.ps:我们不搭

ceph部署一(预检与安装规划)

测试规划: 节点名称 系统发行版 IP 地址 部署进程 系统盘 数据盘/日志盘 普通账户 ceph1 ubuntu14.04 eth0 192.168.89.10 外网    eth1 10.0.0.10 ceph集群网 1MON+1MDS+2OSD.Ceph 部署工具 /dev/vda 20G /dev/vdb 200G 数据盘     /dev/vdc 100G 日志盘 toby ceph2 ubuntu14.04 eth0 192.168.89.11 外网    eth1 10.0.0.1

System Center 2016 Data Protection Manager 部署手册

1. 环境描述 活动目录服务器 计算机名:SH-DC-01 Active Directory:365vCloud.net IP地址:192.168.100.2/24 操作系统:Windows Server 2016 中文标准版 已安装角色:ADDS活动目录服务 SCDPM服务器 计算机名:SH-SCDPM-01 Active Directory:365vCloud.net IP地址:192.168.100.7/24 操作系统:Windows Server 2016 中文标准版 已安装角色:无 2

System Center Configuration Manager,Version1606 部署手册

1. 环境描述 活动目录服务器 计算机名:SH-DC-01 所在域名或工作组名称:365vCloud.net IP地址:192.168.100.2/24 操作系统:Windows Server 2016 中文标准版 已安装角色:ADDS活动目录服务 SCCM中心站点服务器(CAS) 计算机名:SH-SCCM-01 所在域名或工作组名称:365vCloud.net IP地址:192.168.100.4/24 操作系统:Windows Server 2016 中文标准版 已安装角色:无 SCCM主站

storm集群部署手册

一.  准备 1.  硬件 三台装好RHEL6.7_x64的x86服务器,机器名如下 storm01 storm02 storm03 2.  软件 jdk-7u80-linux-x64.rpm apache-storm-1.0.1.zip 3.  zookeeper storm需用到zookeeper,开始安装前先安装好zookeeper,参照zookeeper集群部署手册 4.  Python storm需用到python,一般Linux都有python,这里需要python 2.6.6,如没

Mysql上的RAC:Percona XtraDB Cluster负载均衡集群安装部署手册

 Percona XtraDB Cluster安装部署手册 引言 编写目的 编写此文档,供PerconaXtraDB Cluster部署时使用. 预期读者 系统维护人员及实施人员. 编制依据及参考资料 目标 通过阅读该手册,让读者明确PerconaXtraDB Cluster的安装.配置和维护情况,为后续数据库运维工作提供指导. 应用部署方案 环境准备 服务器列表 序号 IP 用途 HOSTNAME 操作系统 1 192.168.0.7 Percona XtraDB Cluster RedHat

LVS+MYCAT+读写分离+MYSQL主备同步部署手册

LVS+MYCAT+读写分离+MYSQL主备同步部署手册 1          配置MYSQL主备同步…. 2 1.1       测试环境… 2 1.2       配置主数据库… 2 1.2.1         编辑my.cnf文件… 2 1.2.2         重启数据库… 2 1.3       锁定主数据库DDL操作… 2 1.4       主备已有数据同步… 2 1.5       停止从服务… 3 1.6       配置备用数据库… 3 1.6.1         编辑my

Ceph部署

Centos7下 ceph部署: 1.  首先获得相应的部署资源,多台主机或相应数量的虚拟机资源 示例: Ip                                      hostname                             节点 10.10.21.54                        admin                                   部署管理节点 10.10.21.55