搭建ceph集群(单节点)

https://blog.csdn.net/Greenchess/article/details/77525786

软件环境:
- Centos7 x64
CEPH版本 :
- ceph-deploy v1.5.37
- ceph version 10.2.9

步骤1.修改主机名(即节点名)
1)
sed -i ‘/HOSTNAME/d’ /etc/sysconfig/network
echo “HOSTNAME=主机名” >> /etc/sysconfig/network
cat /etc/sysconfig/network
2)
echo “IP地址 主机名” >> /etc/hosts
cat /etc/hosts
3)
hostname cydb
hostname -f
重启

步骤2.配置SSH
ssh-keygen -t rsa -P ” -f ~/.ssh/id_rsa(-t rsa用RSA加密,-P ‘’空密码,-f保存密码的位置)
ssh-copy-id [email protected]主机名

步骤3.配置firewall
(开启6789端口给MON,6800-7100端口给OSD)
firewall-cmd –zone=public –add-port=6789/tcp –permanent
firewall-cmd –zone=public –add-port=6800-7100/tcp –permanent
firewall-cmd –reload
firewall-cmd –zone=public –list-all

步骤4.关闭selinux
setenforce 0
sed -i s’/SELINUX.*=.*enforcing/SELINUX=disabled’/g /etc/selinux/config
cat /etc/selinux/config
可看到SELINUX=disabled

步骤5.
yum install -y https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm

步骤6.添加ceph.repo文件(把软件包源加入软件仓库)
sudo vim /etc/yum.repos.d/ceph.repo
写入
[ceph-noarch]
name=Ceph noarch packages
baseurl=https://download.ceph.com/rpm-jewel/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc

步骤7 安装ceph-deploy(要更新软件库)
sudo yum update
sudo yum install ceph-deploy
检查是否安装成功:ceph-deploy –help

步骤8.部署cluster(集群)
mkdir /opt/ceph-cluster
cd /opt/ceph-cluster
ceph-deploy new 节点名
(这时可以ls一下当前目录,会有一个ceph配置文件、一个monitor密钥环。一个日志文件。)
echo “osd crush chooseleaf type = 0” >> ceph.conf
echo “osd pool default size = 1” >> ceph.conf
echo “osd journal size = 100” >> ceph.conf
cat ceph.conf

步骤9.安装ceph
修改ceph源(外国的源总是timeout)
export CEPH_DEPLOY_REPO_URL=http://mirrors.163.com/ceph/rpm-jewel/el7
export CEPH_DEPLOY_GPG_URL=http://mirrors.163.com/ceph/keys/release.asc
安装ceph
ceph-deploy install 节点名
报错则运行yum remove -y ceph-release之后重新安装ceph
检查是否安装成功:ceph –version

步骤10.部署Monitor
ceph-deploy mon create-initial
检查集群状态:ceph -s
(显示现在是HEALTH_ERR不健康状态)

步骤11.部署两个OSD
1)准备两个块设备(可以是硬盘也可以是LVM卷),这里我们使用LVM(逻辑卷)
dd if=/dev/zero of=ceph-volumes.img bs=1M count=8192 oflag=direct
sgdisk -g –clear ceph-volumes.img
sudo vgcreate ceph-volumes $(sudo losetup –show -f ceph-volumes.img)
sudo lvcreate -L2G -nceph0 ceph-volumes
sudo lvcreate -L2G -nceph1 ceph-volumes
sudo mkfs.xfs -f /dev/ceph-volumes/ceph0
sudo mkfs.xfs -f /dev/ceph-volumes/ceph1
mkdir -p /srv/ceph/{osd0,osd1,mon0,mds0}
sudo mount /dev/ceph-volumes/ceph0 /srv/ceph/osd0
sudo mount /dev/ceph-volumes/ceph1 /srv/ceph/osd1
创建了两个虚拟磁盘ceph0和ceph1并分别挂载到/srv/ceph/osd0和/srv/ceph/osd1目录下
2)挂载两个OSD
ceph-deploy osd prepare monster:/srv/ceph/osd0
ceph-deploy osd prepare monster:/srv/ceph/osd1
3)激活两个OSD
ceph-deploy osd activate monster:/srv/ceph/osd0
ceph-deploy osd activate monster:/srv/ceph/osd1
报错:RuntimeError: Failed to execute command: ceph-disk -v activate –mark-init upstart –mount /srv/ceph/osd0
解决:使用命令 sudo chown ceph:ceph /srv/ceph/osd0,然后重新激活

步骤12.复制admin密钥到其他节点
ceph-deploy admin monster

验证:
ceph的安装状态:ceph -s
ceph集群健康状态:ceph -w
ceph monitor仲裁状态:ceph quorum_status –format json-pretty
ceph mon stat
ceph osd stat
ceph osd tree(显示crush图)
ceph pg stat
ceph auth list(集群的认证密码)

如果碰到麻烦,要从头再来,可以用下列命令清楚配置:
ceph-deploy purgedata {ceph-node} [{ceph-node}]
ceph-deploy forgetkeys
用下列命令可以连 Ceph 安装包一起清除:
ceph-deploy purge {ceph-node} [{ceph-node}]
之后必须重新安装 Ceph

参考文章:http://www.cnblogs.com/YaoDD/p/5217578.htmlUbuntu 14.04 单机安装 CEPH

最后附上一个ceph入门很好的博客地址,讲的都是重点,清楚易懂:
http://www.cnblogs.com/bodhitree/p/4831626.html
还有一个主要讲crush算法的:
http://www.cnblogs.com/chenxianpao/p/5568207.html
---------------------
作者:Green77
来源:CSDN
原文:https://blog.csdn.net/Greenchess/article/details/77525786
版权声明:本文为博主原创文章,转载请附上博文链接!

原文地址:https://www.cnblogs.com/wangmo/p/11093169.html

时间: 2024-11-10 13:05:04

搭建ceph集群(单节点)的相关文章

Centos7-单台物理机搭建ceph集群

学习ceph时,看到crush规则的时候,crush策略最小为osd,但是这个osd定义的是真实的osd还是指单块磁盘?为了验证一下,自己用测试机模拟了一下单台机器使用一块磁盘搭建ceph. 配置ceph源,这里使用的阿里云的源 # yum install --nogpgcheck -y epel-release # rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 # vim /etc/yum.repos.d/ceph.repo [Ceph] n

【Ceph】手动搭建ceph集群

手动部署Ceph集群 3台ceph机器 hostname IP mon_id 磁盘快 journal Ceph1 192.168.1.1 0 /dev/sdb2 /dev/sdb1 Ceph2 192.168.1.2 1 /dev/sdb2 /dev/sdb1 Ceph3 192.168.1.3 2 /dev/sdb2 /dev/sdb1 下载部署所需要的ceph集群的rpm包ceph-mon ceph-common fcgi ceph-base ceph-selinux ceph-mgr ce

【Zookeeper】Zookeeper集群单节点提供服务

以下只在特殊情况下使用,不要用在生产环境. 一.问题背景 公司的产品使用Zookeeper做为集群支持,但是客户在验收的时候提出了一个很为难人的要求,那就是3台集群服务,停止2台以后,还要求我们的应用能提供服务,这就有点难为人了. 因为用过Zookeeper的人都知道,Zookeeper的leader的选举需要大多数同意,也就是说三台机器的Zookeeper集群那么选举leader就需要两台,如果只剩下一台Zookeeper那么是无法完成leader选举的,也就是说Zookeeper将不能对外提

使用telegraf+influxdb+grafana监控ceph集群

telegraf是一个收集监控项的agent,有支持收集多种数据的插件比如ceph,apache,docker,haproxy,system等,同时有支持多种输出的插件比如influxdb,graphite等. influxdb是时序数据库,多用于监控场景 grafana是很棒的绘图工具 这三者的结合有三个主要过程: 1.安装在ceph集群所有节点(包括mon和osd节点)上的telegraf通过ceph_input插件收集ceph集群信息,这里踩了两个坑,ceph_input插件报了两个错,一

ceph分布式存储实战(1)——ceph集群测试主机规划

主机规划 节点 磁盘(4块) 网卡(2块) mem/cpu OS HostName 节点1 os-ceph-node1/10G 私Eth0:dhcp 1G/1 CentOS Linux release   7.3.1611 (Core)_X64 ceph-node1 ceph-node1-osd1/10G 外Eth1:192.168.89.101 ceph-node1-osd2/10G ceph-node1-osd3/10G 节点2 os-ceph-node2/10G 私Eth0:dhcp 1G

Ceph 集群搭建

Ceph 存储集群 - 搭建存储集群 2019年8月1日 16:12 Ceph 存储集群 - 搭建存储集群 目录 一.准备机器 二.ceph节点安装 三.搭建集群 四.扩展集群(扩容) 一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192

MySQL MGR集群单主模式的自动搭建和自动化故障修复

/*the waiting game:尽管人生如此艰难,不要放弃:不要妥协:不要失去希望*/ 随着MySQL MGR的版本的升级以及技术成熟,在把MHA拉下神坛之后, MGR越来越成为MySQL高可用的首选方案.MGR的搭建并不算很复杂,但是有一系列手工操作步骤,为了简便MGR的搭建和故障诊断,这里完成了一个自动化的脚本,来实现MGR的自动化搭建,自动化故障诊断以及修复. MGR自动化搭建为了简便起见,这里以单机多实例的模式进行测试,先装好三个MySQL实例,端口号分别是7001,7002,70

Ceph 存储集群 - 搭建存储集群

一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192.168.0.131 mon.node1 ceph节点,监控节点 node2 192.168.0.132 osd.0 ceph节点,OSD节点 node3 192.168.0.133 o

用Docker在一台笔记本电脑上搭建一个具有10个节点7种角色的Hadoop集群(下)-搭建Hadoop集群

上篇:用Docker在一台笔记本电脑上搭建一个具有10个节点7种角色的Hadoop集群(上)-快速上手Docker 上篇介绍了快速上手Docker部分,下面接着介绍搭建Hadoop集群部分. 六.搭建Hadoop伪分布模式 我们先用前面创建的这个容器来搭建Hadoop伪分布模式做测试,测试成功后再搭建完全分布式集群. 1.SSH这个centos容器可以看做是一个非常精简的系统,很多功能没有,需要自己安装.Hadoop需要SSH,但容器没有自带,需要我们安装.①安装SSH # yum -y ins