CentOS7 Ceph RBD CephFS 存储

Ceph RBD  CephFS 存储

环境准备: (这里只做基础测试, ceph-manager , ceph-mon, ceph-osd 一共三台)

10.6.0.140 = ceph-manager

10.6.0.187 = ceph-mon-1

10.6.0.188 = ceph-osd-1

10.6.0.94 = node-94

注: ceph 对时间要求很严格, 一定要同步所有的服务器时间

一、在 manager 上面修改 /etc/hosts :

10.6.0.187 ceph-mon-1
10.6.0.188 ceph-osd-1
10.6.0.94 node-94

二、并修改各服务器上面的 hostname (说明:ceph-deploy工具都是通过主机名与其他节点通信)

hostnamectl --static set-hostname ceph-manager
hostnamectl --static set-hostname ceph-mon-1
hostnamectl --static set-hostname ceph-osd-1
hostnamectl --static set-hostname node-94

三、配置manager节点与其他节点ssh key 访问

[[email protected] ~]# ssh-keygen

将key 发送到各节点中

[[email protected] ~]#ssh-copy-id ceph-mon-1
[[email protected] ~]#ssh-copy-id ceph-osd-1

四、在manager节点安装 ceph-deploy

[[email protected] ~]#yum -y install centos-release-ceph
[[email protected] ~]#yum makecache
[[email protected] ~]#yum -y install ceph-deploy ntpdate

在其他各节点安装 ceph 的yum源

[[email protected] ~]# yum -y install centos-release-ceph
[[email protected] ~]# yum makecache

[[email protected] ~]# yum -y install centos-release-ceph
[[email protected] ~]# yum makecache

五、配置ceph集群

创建ceph 目录
[[email protected] ~]#mkdir -p /etc/ceph
[[email protected] ~]#cd /etc/ceph

创建监控节点:
[[email protected] /etc/ceph]#ceph-deploy new ceph-mon-1

执行完毕会生成 ceph.conf ceph.log ceph.mon.keyring 三个文件

编辑 ceph.conf 增加 osd 节点数量
在最后增加:
osd pool default size = 1

使用ceph-deploy在所有机器安装ceph

[[email protected] /etc/ceph]# ceph-deploy install ceph-manager ceph-mon-1 ceph-osd-1

如果出现错误,也可以到各节点中直接 yum -y install ceph ceph-radosgw 进行安装

初始化监控节点

[[email protected] /etc/ceph]# ceph-deploy mon create-initial

osd 节点创建存储空间

[[email protected] ~]# mkdir -p /opt/osd1

在管理节点上启动 并 激活 osd 进程

[[email protected] ~]# ceph-deploy osd prepare ceph-osd-1:/opt/osd1
[[email protected] ~]# ceph-deploy osd activate ceph-osd-1:/opt/osd1

把管理节点的配置文件与keyring同步至其它节点

[[email protected] ~]# ceph-deploy admin ceph-mon-1 ceph-osd-1

查看集群健康状态 (HEALTH_OK 表示OK)

[[email protected] ~]# ceph health
HEALTH_OK

客户端 挂载: ceph 有多种挂载方式, rbd 块设备映射, cephfs 挂载 等

注:
在生产环境中,客户端应该对应pool的权限,而不是admin 权限

[[email protected] ~]# ssh-copy-id node-94

客户端安装ceph
[[email protected] ~]# ceph-deploy install node-94

或者 登陆 node-94 执行 yum -y install ceph ceph-radosgw

如果ssh 非22端口,会报错 可使用 scp 传

scp -P端口 ceph.conf node-94:/etc/ceph/
scp -P端口 ceph.client.admin.keyring node-94:/etc/ceph/

创建一个pool
[[email protected] ~]# ceph osd pool create press 100
pool ‘press‘ created

设置pool 的pgp_num
[[email protected] ~]# ceph osd pool set press pgp_num 100

查看创建的pool
[[email protected] ~]# ceph osd lspools
0 rbd,1 press,

设置副本数为2 (osd 必须要大于或者等于副本数,否则报错, 千万注意)
[[email protected] ~]# ceph osd pool set press size 2

创建一个100G 名为 image 镜像
[[email protected] ~]# rbd create -p press --size 100000 image

查看一下镜像:
[[email protected] ~]# rbd -p press info image
rbd image ‘image‘:
size 100000 MB in 25000 objects
order 22 (4096 kB objects)
block_name_prefix: rb.0.104b.74b0dc51
format: 1

客户端块存储挂载:
在node-94 上面 map 镜像
[[email protected] ~]# rbd -p press map image
/dev/rbd0

格式化 image
[[email protected] ~]# mkfs.xfs /dev/rbd0

创建挂载目录
[[email protected] ~]# mkdir /opt/rbd

挂载 rbd
[[email protected] ~]# mount /dev/rbd0 /opt/rbd

[[email protected] ~]# time dd if=/dev/zero of=haha bs=1M count=1000

取消 map 镜像
[[email protected] ~]# umount /opt/rbd
[[email protected] ~]# rbd unmap /dev/rbd0

客户端 cephFS 文件系统 (cephFS 必须要有2个osd 才能运行,请注意):

使用 cephFS 集群中必须有 mds 服务

创建 mds 服务 (由于机器有限就在 mon 的服务器上面 创建 mds 服务)
[[email protected] ~]# ceph-deploy mds create ceph-mon-1

创建2个pool 做为文件系统的data 与 metadata

[[email protected] ~]# ceph osd pool create cephfs_data 99
pool ‘cephfs_data‘ created

[[email protected] ~]# ceph osd pool create cephfs_metadata 99
pool ‘cephfs_metadata‘ created

创建 文件系统:
[[email protected] ~]# ceph fs new jicki cephfs_metadata cephfs_data
new fs with metadata pool 6 and data pool 5

查看所有文件系统:
[[email protected] ~]# ceph fs ls
name: jicki, metadata pool: cephfs_metadata, data pools: [cephfs_data ]

删除一个文件系统
[[email protected] ~]# ceph fs rm jicki --yes-i-really-mean-it

客户端挂载 cephFS

安装 ceph-fuse:
[[email protected] ~]# yum install ceph-fuse -y

创建挂载目录:
[[email protected] ~]# mkdir -p /opt/jicki
[[email protected] ~]# ceph-fuse /opt/jicki
[[email protected] ~]# df -h|grep ceph
ceph-fuse 1.6T 25G 1.6T 2% /opt/jicki

时间: 2024-09-29 09:39:07

CentOS7 Ceph RBD CephFS 存储的相关文章

Ceph RBD CephFS 存储

Ceph RBD  CephFS 存储 环境准备: (这里只做基础测试, ceph-manager , ceph-mon, ceph-osd 一共三台) 10.6.0.140 = ceph-manager 10.6.0.187 = ceph-mon-1 10.6.0.188 = ceph-osd-1 10.6.0.94 = node-94 注: ceph 对时间要求很严格, 一定要同步所有的服务器时间 一.在 manager 上面修改 /etc/hosts : 10.6.0.187 ceph-m

ceph rbd块存储挂载及文件存储建立

一.rbd块存储挂载 1 创建一个OSD pool # ceph osd pool create rbd1 128 查询存储空间使用 # ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 480GiB 474GiB 6.12GiB 1.28 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS volumes 1 134B 0 150GiB 5 vms 2 0B 0 150GiB 0 images 3 0B 0 150G

kubernetes挂载ceph rbd和cephfs的方法

[toc] k8s挂载Ceph RBD k8s挂载Ceph RBD有两种方式,一种是传统的PV&PVC的方式,也就是说需要管理员先预先创建好相关PV和PVC,然后对应的deployment或者replication来挂载PVC使用.而在k8s 1.4以后,kubernetes提供了一种更加方便的动态创建PV的方式,即StorageClass.使用StorageClass时无需预先创建固定大小的PV来等待使用者创建PVC使用,而是直接创建PVC即可使用. 需要说明的是,要想让k8s的node节点执

SUSE CaaS Platform 4 - Ceph RBD 作为 Pod 存储卷

网络存储卷系列文章 (1)SUSE CaaS Platform 4 - 简介 (2)SUSE CaaS Platform 4 - 安装部署 (3)SUSE CaaS Platform 4 - 安装技巧 (4)SUSE CaaS Platform 4 - Ceph RBD 作为 Pod 存储卷 (5)SUSE CaaS Platform 4 - 使用 Ceph RBD 作为持久存储(静态) (6)SUSE CaaS Platform 4 - 使用 Ceph RBD 作为持久存储(动态) RBD存储

Rancher(2),K8S持久性存储Ceph RBD搭建及配置

1.配置host,安装ntp(非必须)2.配置免密ssh3.配置ceph,yum源 vim /etc/yum.repo.d/ceph.cepo [ceph] name=ceph baseurl=http://mirrors.cloud.tencent.com/ceph/rpm-luminous/el7/x86_64/ gpgcheck=0 priority=1 [ceph-noarch] name=cephnoarch baseurl=http://mirrors.cloud.tencent.c

kubeadm k8s配置 ceph rbd存储 类型storageClass

k8s的storageclass,实现pvc的动态创建,绑定 首先安装ceph参考https://blog.csdn.net/qq_42006894/article/details/88424199 1.部署rbd-provisionergit clone https://github.com/kubernetes-incubator/external-storage.gitcd external-storage/ceph/rbd/deployNAMESPACE=cephsed -r -i "s

理解 OpenStack + Ceph (3):Ceph RBD 接口和工具 [Ceph RBD API and Tools]

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 与 OpenStack 集成的实现 (4)TBD Ceph 作为一个统一的分布式存储,其一大特色是提供了丰富的编程接口.我们来看看下面这张经典的图: 其中,librados 是 Ceph 的基础接口,其它的接口比如 RADOSGW, RBD 和 CephFS 都是基于 librados 实现的.本文试着分析下 Ceph 的各种接口库和常用的工具.

ceph(2)--Ceph RBD 接口和工具

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和逻辑结构 (4)Ceph 的基础数据结构 (5)Ceph 与 OpenStack 集成的实现 (6)QEMU-KVM 和 Ceph RBD 的 缓存机制总结 (7)Ceph 的基本操作和常见故障排除方法 (8)关于Ceph PGs Ceph 作为一个统一的分布式存储,其一大特色是提供了丰富的编程接口.我们来看看下面这张经典的图: 其中,li

QEMU-KVM 和 Ceph RBD 的 缓存机制总结

QEMU-KVM 的缓存机制的概念很多,Linux/KVM I/O 软件栈的层次也很多,网上介绍其缓存机制的文章很多.边学习变总结一下.本文结合 Ceph 在 QEMU/KVM 虚机中的使用,总结一下两者结合时缓存的各种选项和原理. 1. QEMU/KVM 缓存机制 先以客户机(Guest OS) 中的应用写本地磁盘为例进行介绍.客户机的本地磁盘,其实是 KVM 主机上的一个镜像文件虚拟出来的,因此,客户机中的应用写其本地磁盘,其实就是写到KVM主机的本地文件内,这些文件是保存在 KVM 主机本