Cent OS7安装部署Ceph J版本

安装Cent OS7 系统安装步骤略过

拓扑连接:

一、安装前准备工作

1、 修改主机名;将主机名更改为上图中对应的主机名。

[[email protected] ~]# vim /etc/hostname

2、 更新主机上的hosts文件,将主机名与如下IP进行解析。

192.168.100.128 ceph-node1

192.168.100.129 ceph-node2

192.168.100.130 ceph-node3

192.168.100.131 ceph-node4

[[email protected] ~]# vim /etc/hosts

3、 生成root SSH密钥;将SSH密钥复制到ceph-node2和ceph-node3、ceph-node4之上。这样就能实现节点间免密登录。

[[email protected] ~]# ssh-keygen //一路回车即可
[[email protected] ~]# ssh-copy-id [email protected]

[[email protected] ~]# ssh-copy-id [email protected]

[[email protected] ~]# ssh-copy-id [email protected]

要实现所有节点免密登录,就需要在每个节点上都操作一遍。

4、 配置防火墙;(实验环境下关掉省事,生产环境建议按需开放端口)

粗暴解决:

[[email protected] ~]# systemctl stop firewalld.service //停止防火墙
[[email protected] ~]# systemctl disable firewalld.service //禁止防火墙开机启动

放开相应端口:

[

[email protected] ~]# firewall-cmd --zone=public --add-port=6789/tcp --permanent
[[email protected] ~]# firewall-cmd --zone=public --add-port=6800-7100/tcp --permanent 
[[email protected] ~]# firewall-cmd --reload

在其他所有节点都执行以上命令。

[[email protected] ~]# firewall-cmd --zone=public --list-all

5、 在所有节点禁用SELINUX

[

[email protected] ~]# setenforce 0
[[email protected] ~]# sed -i s‘/SELINUX.*=.*enforcing/SELINUX=disable‘/g /etc/selinux/config
[[email protected] ~]# cat /etc/selinux/config | grep -i =disable

6、 所有节点安装并配置NTP

[[email protected] ~]# yum install ntp ntpdate –y
[[email protected] ~]# vim /etc/ntp.conf

[[email protected] ~]# systemctl restart ntpdate
[[email protected] ~]# [[email protected] ~]# ceph -s
[[email protected] ~]# systemctl enable ntpd
[[email protected] ~]# systemctl enable ntpdate

7、 替换所有节点CentOS国内源添加国内Ceph安装源和更新yum

替换CentOS国内源:

[[email protected] yum.repos.d]# rm -rf *
[[email protected] yum.repos.d]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
[[email protected] yum.repos.d]# yum clean all && yum makecache

添加Ceph国内安装源

[[email protected] ~]# rpm -Uvh http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/ceph-release-1-1.el7.noarch.rpm
[[email protected] yum.repos.d]#vim ceph.repo

[Ceph]
name=Ceph packages for $basearch
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/$basearch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=http://mirrors.aliyun.com/ceph/keys/release.asc
[Ceph-noarch]
name=Ceph noarch packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=http://mirrors.aliyun.com/ceph/keys/release.asc
[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=http://mirrors.aliyun.com/ceph/keys/release.asc

[[email protected] ~]#yum update –y

二、开始安装Ceph

使用ceph-deploy工具在所有节点安装并配置Ceph;ceph-deploy是用来方便的配置管理Ceph存储集群。

1、 在ceph-node1上安装ceph-deploy

[[email protected] ~]# yum install ceph-deploy –y

2、 创建一个ceph 目录;并用ceph-deploy创建一个Ceph集群

[[email protected] ~]# mkdir /etc/ceph ; cd /etc/ceph
[[email protected] ceph]# ceph-deploy new ceph-node1

通过ceph-deploy的子命令 new能部署一个默认的新集群,同时它能生成集群配置文件和密钥文件。

在/etc/ceph下用ls命令可以看见相关文件:

[[email protected] ceph]# pwd
/etc/ceph
[[email protected] ceph]# ls

3、 使用ceph-deploy在所有节点上安装ceph

[[email protected] ceph]# ceph-deploy install ceph-node1 ceph-node2 ceph-node3 ceph-node4

Ceph-deploy工具首先会安装相关依赖包;等待命令执行成功;如果中途报错终止,可以重新执行上面命令继续安装。

安装完成后在所有节点上查看Ceph版本及健康情况:

[[email protected] ~]# ceph -v

ceph version 10.2.3 (ecc23778eb545d8dd55e2e4735b53cc93f92e65b)

4、 在ceph-node1上创建一个Monitor

[[email protected] ceph]# ceph-deploy mon create-initial

创建成功之后,可以查看一下Ceph的健康状况,通过ceph –s命令可以发现目前集群还不是正常的。

5、 在Ceph-node1上创建OSD

(1)列出该节点上所有可用的磁盘

[[email protected] ceph]# ceph-deploy disk list ceph-node1

选择上面列出的磁盘作为OSD,除操作系统磁盘除外,一般操作系统盘为sda

(2)通过命令清除分区及磁盘内容

[[email protected] ceph]# ceph-deploy disk zap ceph-node1:/dev/sdb ceph-node1:/dev/sdc ceph-node1:/dev/sdd

(3)创建OSD;osd create命令会将选择的磁盘用XFS文件系统格式化磁盘,然后激活磁盘分区。

[[email protected] ceph]# ceph-deploy osd create ceph-node1:/dev/sdb ceph-node1:/dev/sdc ceph-node1:/dev/sdd

(4)创建OSD之后可以查看此时的集群的状态,这里主要看添加的OSD是否up;集群状态目前还是处于不正常的状态,还需要进一步配置才能使之正常。

[[email protected] ceph]# ceph -s

[[email protected] ~]# lsblk

三、扩展ceph集群

通过上面的安装过程,已经在ceph-node1节点上运行Ceph集群,目前它有1个Mon和3个OSD;接下将通过扩展集群的方式把剩下的所有节点全部加入Ceph集群,届时将会有3个Mon、12个OSD

在一个Ceph集群中至少有一个Monitor集群才能运行,但为了集群的高可用,一般情况下Ceph集群中3至5个Monitor,因在Ceph集群中必须依赖多于奇数个的Monitor来形成仲裁,在集群中Ceph会使用Paxos算法来确保仲裁的一致性。

(1) 在ceph配置文件中添加Public网络;使用vim对/etc/ceph/ceph.conf进行编辑

[[email protected] ceph]# vim ceph.conf

(2) 再创建2个Monitor

[[email protected] ceph]# ceph-deploy mon create ceph-node2 ceph-node3

将2个新的Monitor成功加入后,查看一下当前集群状态以及Monitor状态:

[[email protected] ~]# ceph –s

[[email protected] ~]# ceph mon stat

通过执行命令发行当前集群依然不是一个正常的状态,是因为除了node1节点配置了OSD其他节点磁盘均没有加入到ceph集群中,默认情况下数据会在集群中被复制三次,并放到不同节点上的不同OSD之上。

(3) 将剩余节点磁盘全部加入ceph集群

列出剩余节点所有可用磁盘:

[[email protected] ceph]# ceph-deploy disk list ceph-node2 ceph-node3 ceph-node4

清除节点磁盘分区及信息:

[[email protected] ceph]# ceph-deploy disk zap ceph-node2:/dev/sdb ceph-node2:/dev/sdc ceph-node2:/dev/sdd
[[email protected] ceph]# ceph-deploy disk zap ceph-node3:/dev/sdb ceph-node3:/dev/sdc ceph-node3:/dev/sdd 
[[email protected] ceph]# ceph-deploy disk zap ceph-node4:/dev/sdb ceph-node4:/dev/sdc ceph-node4:/dev/sdd

将剩余节点磁盘创建OSD

[[email protected] ceph]# ceph-deploy osd create ceph-node2:/dev/sdb ceph-node2:/dev/sdc ceph-node2:/dev/sdd 
[[email protected] ceph]# ceph-deploy osd create ceph-node3:/dev/sdb ceph-node3:/dev/sdc ceph-node3:/dev/sdd
[[email protected] ceph]# ceph-deploy osd create ceph-node4:/dev/sdb ceph-node4:/dev/sdc ceph-node4:/dev/sdd

将其所有剩余节点磁盘全部成功加入ceph集群之后执行命令进行检查OSD数量及状态:

[[email protected] ~]# ceph –s

[[email protected] ~]# ceph osd tree

(4)在对ceph集群添加了很多个OSD之后,还需要对pg_num和pgp_num值进行设定。这也就是为啥集群添加了多个OSD集群依然处于不正常状态的根本原因。

[[email protected] ceph]# ceph osd pool set rbd pg_num 256

[[email protected] ~]# ceph –s

四、常用运维命令

1、 检查ceph集群健康状态

[[email protected] ~]# ceph –s
[[email protected] ~]# ceph status
[[email protected] ~]# ceph health
[[email protected] ~]# ceph health detail //查看健康状况细节情况;当集群健康状况出现异常时该命令十分管用

2、 观察集群实时情况

[[email protected] ~]# ceph -w //可以看见实时读写IO情况,但不能作为性能参考指标

3、 查看Ceph Moniter仲裁状态

[[email protected] ceph]# ceph quorum_status -f json-pretty

命令参数:

[Contacting monitor, timeout after 5 seconds]

quorum_status report status of monitor quorum

[-f {json,json-pretty,xml,xml-pretty,plain}]

4、导出Ceph集群Monitor信息

[[email protected] ceph]# ceph mon dump

5、查看ceph集群空间使用状况

[[email protected] ~]# ceph df

6、 查看Monitor、OSD、PG组状态

Monitor状态:

[[email protected] ~]# ceph mon stat

OSD状态:

[[email protected] ~]# ceph osd stat

[[email protected] ~]# ceph osd tree //
用这个命令可以看到详细的OSD状态,排错比较常用

PG状态:

[[email protected] ~]# ceph pg stat

7、 列出PG详情

[[email protected] ~]# ceph pg dump

8、 列出集群中的存储池

[[email protected] ~]# ceph osd lspools

9、 列出集群认证密钥

[[email protected] ~]# ceph auth list

时间: 2024-08-24 09:23:55

Cent OS7安装部署Ceph J版本的相关文章

Ubuntu安装部署Ceph J版本

安装Ubuntu系统安装步骤略过 拓扑连接: 一.安装前准备工作 1.修改主机名:将主机名更改为上图中对应的主机名. [[email protected] ~]# vim /etc/hostname 2.更新主机上的hosts文件,将主机名与如下IP进行解析. 192.168.100.128 ceph-node1 192.168.100.129 ceph-node2 192.168.100.130 ceph-node3 192.168.100.131 ceph-node4 [[email pro

一次在CentOS7上安装部署Zabbix3.0版本及快速进行基本配置的实例

Zabbix3.0的安装.部署.配置,必须基于LAMP环境或是是LNMP环境. 关于LAMP环境的简单快速搭建,见博客:http://afterdawn.blog.51cto.com/7503144/1923139 注意:以下步骤都是在LAMP配置之后进行的. 本文不会再对zabbix-server和zabbix-agent理论知识再进行介绍,建议看完http://afterdawn.blog.51cto.com/7503144/1922502再进行zabbix实战. Zabbix3.0对软硬件

Linux:多Tomcat服务, 统一安装部署 unifyDeploy0.2版本发布

下载地址:  unifyDeploy0.1版本  unifyDeploy0.2版本 1       引言 基于JAVA开发项目,随着服务的越来越多,配置文件更是眼花缭乱,每次不知道因为配置问题浪费多少时间,更不知道因为配置问题出过多少问题.多台服务器来回切换,如果服务需要依赖,启动更是问题. 1.1 目的 一次修改,统一安装:操作简单,实用高效. 1.2 范围 本项目使用范围包括: 基于JAVA开发项目 项目相关服务繁多 服务启动有依赖关系 1.3 读者 本需求规格说明书的阅读者或其他文档干系人

check_MK安装部署(nagios4版本)

概述: 操作系统版本:CentOS release 6.3 (Final) 64位 nagios版本:Nagios Core 4.0.6 pnp4nagios版本:pnp4nagios-0.6.22 mk-livestatus版本:mk-livestatus-1.2.5i5p2 check_mk版本:check_mk-1.2.5i5p2 python版本:Python-2.7.8 httpd是rpm安装的,版本为: httpd-2.2.15-30.el6.centos.x86_64 httpd-

安装部署Ceph Calamari

根据http://ovirt-china.org/mediawiki/index.php/%E5%AE%89%E8%A3%85%E9%83%A8%E7%BD%B2Ceph_Calamari 原文如下: Calamari是管理和监控Ceph集群的工具,并且提供REST api. 建议的部署平台是ubuntu,本文使用CentOS 6.5. 安装部署 获取calamari相关代码 # git clone https://github.com/ceph/calamari.git # git clone

CentOS 7.2 安装部署 Ceph 及添加 PG

前期准备:准备三台CentOS 7.2系统,每台机器三块硬盘,关闭selinux,关闭iptables,做好时间同步,做好本地域名解析,并对每台机器做互信.192.168.10.101 ceph-node1192.168.10.22 ceph-node2192.168.10.33 ceph-node3每台机器上有三个osd,整个集群共九个osd. 在每台机器上 /etc/yum.repos.d/目录下创建 ceph.repo然后写入以下内容 [Ceph]name=Ceph packages fo

centos7下安装部署tensorflow GPU 版本

系统环境:centos7 1. 安装 Python 2.7 # yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gcc gcc-c++ make # download and extract Python 2.7 su hdfs cd  ~/Downloads curl -O https://www.python.org/ftp/pytho

hadoop入门(3)——hadoop2.0理论基础:安装部署方法

一.hadoop2.0安装部署流程         1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费)         2.使用RPM包安装部署:Apache hadoop不支持.HDP与CDH提供         3.使用jar包安装部署:各版本均提供.(初期为了理解hadoop,建议使用这种方式)         部署流程:                 准备硬件(Linux操作系统)                 准备软件安装包,并安装基础软件

QuartzDesk(Lite Edition)安装部署和使用小结

一.环境要求 Oracle Java (JDK) 6, 7, 8 apache-Tomcat 6.x or 7.x mysql5.6+ 二.安装部署QuartzDesk 1. 版本说明 QuartzDesk共有三种版本:Lite Edition/Standard Edition/Enterprise Edition,其中Lite Edition是免费版,Standard Edition/Enterprise Edition是商用版. 免费版只有部分监控功能,商用版的功能比较全.各版本的安装步骤和