Ceph入门----CentOS7部署ceph三节点分布式存储系统

1.Ceph集群环境

使用3台虚拟机,包括其中1个admin节点,三台虚拟机同时承担3个monitor节点和3个osd节点

操作系统采用CentOS Minimal 7 下载地址:http://124.205.69.134/files/4128000005F9FCB3/mirrors.zju.edu.cn/centos/7.4.1708/isos/x86_64/CentOS-7-x86_64-Minimal-1708.iso

2. 前提准备所有的主机都进行

# hostnamectl set-hostname ceph1 \\修改主机名

# vi /etc/sysconfig/network-scripts/ifcfg-ens32  或者 nmtui  \\配置IP地址

# systemctl restart network \\重启网络服务

\\ 由于安装的CentOS Minimal版,tab键无法补全命令参数,建议执行一条命令,老鸟可以忽略

#yum -y install bash-completion.noarch

# date  \\查看系统时间,保证各系统的时间一致

#echo ‘192.168.59.131  ceph1‘ >> /etc/hosts \\修改hosts文件,添加所有服务器的映射

#setenforce 0     \\关闭selinux

#sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/g‘ /etc/selinux/config  \\修改配置文件,使关闭selinux永久生效

#firewall-cmd --zone=public --add-port=6789/tcp --permanent

#firewall-cmd --zone=public --add-port=6800-7100/tcp --permanent  \\ 添加防火墙策略

#firewall-cmd --reload    \\使其防火墙策略生效

#ssh-keygen   \\生成SSH密钥

#ssh-copy-id [email protected]    \\需各服务器之间进行拷贝

3. 开始进行ceph-deploy的部署,部署其中一台机器即可

# vi /etc/yum.repos.d/ceph.repo    \\新增ceph yum源,输入以下内容

[ceph-noarch]

name=Ceph noarch packages

baseurl=http://download.ceph.com/rpm-luminous/el7/noarch

enabled=1

gpgcheck=1

type=rpm-md

gpgkey=https://download.ceph.com/keys/release.asc

#yum update  && reboot    \\更并重启系统

#yum install ceph-deploy -y    \\安装ceph-deploy

a. 此处出现错误

Downloading packages:

(1/4): python-backports-ssl_match_hostname-3.4.0.2-4.el7.noarch.rpm    |  12 kB  00:00:00

(2/4): python-backports-1.0-8.el7.x86_64.rpm      | 5.8 kB  00:00:02

ceph-deploy-1.5.38-0.noarch.rp FAILED         ]  90 kB/s | 298 kB  00:00:04 ETA

http://download.ceph.com/rpm-luminous/el7/noarch/ceph-deploy-1.5.38-0.noarch.rpm: [Errno -1] Package does not match intended download. Suggestion: run yum --enablerepo=ceph-noarch clean metadata

Trying other mirror.

(3/4): python-setuptools-0.9.8-7.el7.noarch.rpm         | 397 kB  00:00:05

Error downloading packages:

ceph-deploy-1.5.38-0.noarch: [Errno 256] No more mirrors to try.

处理方法如下:

#rpm -ivh http://download.ceph.com/rpm-luminous/el7/noarch/ceph-deploy-1.5.38-0.noarch.rpm

b. 此处出现错误:

Retrieving http://download.ceph.com/rpm-luminous/el7/noarch/ceph-deploy-1.5.38-0.noarch.rpm

warning: /var/tmp/rpm-tmp.gyId2U: Header V4 RSA/SHA256 Signature, key ID 460f3994: NOKEY

error: Failed dependencies:

python-distribute is needed by ceph-deploy-1.5.38-0.noarch

处理方法:

# yum install python-distribute -y

再次执行

#rpm -ivh http://download.ceph.com/rpm-luminous/el7/noarch/ceph-deploy-1.5.38-0.noarch.rpm

4. 部署monitor服务

#mkdir ~/ceph-cluster  && cd ~/ceph-cluster  \\新建集群配置目录

#ceph-deploy new ceph1 ceph2 ceph3    \\部署完后生产3个文件,一个Ceph配置文件、一个monitor密钥环和一个日志文件

#ls -l

-rw-r--r-- 1 root root    266 Sep 19 16:41 ceph.conf

-rw-r--r-- 1 root root 172037 Sep 19 16:32 ceph-deploy-ceph.log

-rw------- 1 root root     73 Sep 19 11:03 ceph.mon.keyring

#ceph-deploy mon create-initial    \\初始化群集

5. 安装ceph

#ceph-deploy install ceph1 ceph2 ceph3    \\在ceph1 ceph2 ceph3上安装ceph

a. 此处出现错误

[ceph1][DEBUG ] Retrieving https://download.ceph.com/rpm-jewel/el7/noarch/ceph-release-1-0.el7.noarch.rpm

[ceph1][WARNIN] warning: /etc/yum.repos.d/ceph.repo created as /etc/yum.repos.d/ceph.repo.rpmnew

[ceph1][DEBUG ] Preparing...                          ########################################

[ceph1][DEBUG ] Updating / installing...

[ceph1][DEBUG ] ceph-release-1-1.el7                  ########################################

[ceph1][WARNIN] ensuring that /etc/yum.repos.d/ceph.repo contains a high priority

[ceph_deploy][ERROR ] RuntimeError: NoSectionError: No section: ‘ceph‘

处理方式:

# yum remove ceph-release -y

再次执行#ceph-deploy install ceph1 ceph2 ceph3

6.    创建OSD

# ceph-deploy disk list ceph{1,2,3}   \\列出各服务器磁盘

# ceph-deploy --overwrite-conf osd prepare ceph1:sdc:/dev/sdb  ceph2:sdc:/dev/sdb  ceph3:sdc:/dev/sdb        \\准备磁盘 sdb 作为journal盘,sdc作为数据盘

# ceph-deploy osd activate ceph1:sdc:/dev/sdb  ceph2:sdc:/dev/sdb  ceph3:sdc:/dev/sdb    \\激活osd

此处出现一个错误,没有从网上查到解决方式,请高手赐教,此处的错误没有影响ceph的部署,通过命令已显示磁盘已成功mount

[ceph1][WARNIN] ceph_disk.main.FilesystemTypeError: Cannot discover filesystem type: device /dev/sdc: Line is truncated:

[ceph1][ERROR ] RuntimeError: command returned non-zero exit status: 1

[ceph_deploy][ERROR ] RuntimeError: Failed to execute command: /usr/sbin/ceph-disk -v activate --mark-init systemd --mount /dev/sdc

# lsblk

NAME        MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

sda           8:0    0   20G  0 disk

├─sda1        8:1    0    1G  0 part /boot

└─sda2        8:2    0   19G  0 part

├─cl-root 253:0    0   18G  0 lvm  /

└─cl-swap 253:1    0    1G  0 lvm  [SWAP]

sdb           8:16   0   30G  0 disk

└─sdb1        8:17   0    5G  0 part

sdc           8:32   0   40G  0 disk

└─sdc1        8:33   0   40G  0 part /var/lib/ceph/osd/ceph-0

sr0          11:0    1  680M  0 rom

rbd0        252:0    0    1G  0 disk /root/rbddir

7. 部署成功

# ceph -s

cluster e508bdeb-b986-4ee8-82c6-c25397a5f1eb

health HEALTH_OK

monmap e2: 3 mons at{ceph1=192.168.59.131:6789/0,ceph2=192.168.59.132:6789/0,ceph3=192.168.59.133:6789/0}

election epoch 10, quorum 0,1,2 ceph1,ceph2,ceph3

osdmap e55: 3 osds: 3 up, 3 in

flags sortbitwise,require_jewel_osds

pgmap v13638: 384 pgs, 5 pools, 386 MB data, 125 objects

1250 MB used, 118 GB / 119 GB avail

384 active+clean

铸剑团队签名:

【总监】十二春秋之,[email protected];

【Master】戈稻不苍,[email protected];

【Java开发】雨鸶,[email protected];思齐骏惠,[email protected];小王子,[email protected];巡山小钻风,[email protected];

【VS开发】豆点,[email protected];

【系统测试】土镜问道,[email protected];尘子与自由,[email protected];

【大数据】沙漠绿洲,[email protected];张三省,[email protected];

【网络】夜孤星,[email protected];

【系统运营】三石头,[email protected];平凡怪咖,[email protected];

【容灾备份】秋天的雨,[email protected];

【安全】保密,你懂的。

原创作者:三石头

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

时间: 2024-10-05 13:41:36

Ceph入门----CentOS7部署ceph三节点分布式存储系统的相关文章

centos7部署ceph集群(正确)

环境介绍 主机名 系统 ip地址 ceph版本 ceph-node1 CentOS Linux release 7.2.1511 192.168.1.120 jewel ceph-node2 CentOS Linux release 7.2.1511 192.168.1.121 jewel ceph-node3 CentOS Linux release 7.2.1511 192.168.1.128 jewel 准备工作 ◆ 1-7在三台ceph节点上都需要进行操作 ◆ 8只在ceph1操作即可

Centos6.10搭建Hadoop三节点分布式

(一)安装JDK 1. 下载JDK,解压到相应的路径 2.  修改 /etc/profile 文件(文本末尾添加),保存 sudo vi /etc/profile # 配置 JAVA_HOME export JAVA_HOME=/home/komean/workspace/JDK/jdk1.8.0_181 export CLASSPATH=.:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar # 设置PATH export PATH=${JAV

Ceph 13.2.8 三节点部署

bs-k8s-ceph 20.0.0.208 eth010.0.0.208 eth1 mon osd mgr deploy 2c2g sdb sdc sdd 各20G bs-hk-hk01 20.0.0.206 eth010.0.0.206 eth1 mon osd mgr 2c2g sdb sdc sdd 各20G bs-hk-hk02 20.0.0.207 eth010.0.0.207 eth0 mon osd mgr 2c2g sdb sdc sdd 各20G bs-k8s-node01

centos7快速部署ceph

1.机器: 10.39.3.22-26 2.优化 tcp参数优化 ntp时间同步配置 requiretty准备 执行命令visudo修改suoders文件: 1. 注释Defaults requiretty Defaults requiretty修改为 #Defaults requiretty, 表示不需要控制终端. 否则会出现sudo: sorry, you must have a tty to run sudo 2. 增加行 Defaults visiblepw 否则会出现 sudo: no

Centos7.4部署ceph块设备

在部署块设备前必须保证Ceph存储集群处于active+clean状态. 一. 环境准备 IP 主机名 角色 10.10.10.20 admin-node ceph-deploy 10.10.10.24 ceph-client client 二.  安装CEPH 在管理节点上,通过 ceph-deploy 把 Ceph 安装到 ceph-client 节点. [[email protected] ceph]# ceph-deploy install ceph-client 在管理节点上,用 ce

部署mimic版本的Ceph分布式存储系统

1.简介 Ceph: 开源的分布式存储系统.主要分为对象存储.块设备存储.文件系统服务.Ceph核心组件包括:Ceph OSDs.Monitors.Managers.MDSs.Ceph存储集群至少需要一个Ceph Monitor,Ceph Manager和Ceph OSD(对象存储守护进程).运行Ceph Filesystem客户端时也需要Ceph元数据服务器( Metadata Server ). Ceph OSDs: Ceph OSD 守护进程(ceph-osd)的功能是存储数据,处理数据的

ceph详细安装部署教程(多监控节点)

一.前期准备安装ceph-deploy工具 所有的服务器都是用root用户登录的 1.安装环境 系统centos-6.5 设备:1台admin-node (ceph-ploy)  1台 monistor 2台 osd 2.关闭所有节点的防火墙及关闭selinux,重启机器. service iptables stop sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config chkconfig iptables off 3.编辑adm

Ceph学习之路(三)Ceph luminous版本部署

1.配置ceph.repo并安装批量管理工具ceph-deploy [[email protected] ~]# vim /etc/yum.repos.d/ceph.repo [ceph] name=Ceph packages for $basearch baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/$basearch enabled=1 gpgcheck=1 priority=1 type=rpm-md gpgkey=https

Hadoop 完全分布式部署(三节点)

用来测试,我在VMware下用Centos7搭起一个三节点的Hadoop完全分布式集群.其中NameNode和DataNode在同一台机器上,如果有条件建议大家把NameNode单独放在一台机器上,因为NameNode是集群的核心承载压力是很大的.hadoop版本:Hadoop-2.7.4: hadoopo1 hadoopo2 hadoopo3 Namenode ResourceManage SecondaryNamenode Datanode Datanode Datanode NodeMan