Ceph 知识摘录(块存储操作-1)

Ceph块存储操作

1、创建Ceph块设备
#rbd create rbd1 --size 1024 -p compute

2、列出创建的块image
#rbd ls -p compute

3、检查块image的细节
#rbd --image rbd1 info -p compute

4、映射块设备到client
#rbd feature disable rbd1 -p compute exclusive-lock object-map fast-diff deep-flatten
#rbd map --image rbd1 -p compute
/dev/rbd0

5、检查被映射的设备
#rbd showmapped

6、使用这个块设备
fdisk -l /dev/rbd0
mkfs.xfs /dev/rbd0
mkdir /mnt/ceph-disk1
mount /dev/rbd0 /mnt/ceph-disk1
df -h /mnt/ceph-disk1

原文地址:https://www.cnblogs.com/weichao01/p/9521026.html

时间: 2024-11-01 15:50:48

Ceph 知识摘录(块存储操作-1)的相关文章

Ceph 知识摘录(内部组件流程)

RADOS可靠.自动.分布式对象存储系统 RADOS作用1.Rados是Ceph集群基础,Ceph存储系统核心,Ceph中一切都是以对象形式存储,Rados就是负责存储这些对象,无需考虑数据啥类型2.确保数据的一致性和可靠性3.负责数据的复制.故障检测和恢复4.负责数据在集群节点之间的迁移和再均衡5.Ceph所有优秀特性都是rados提供的,如:分布式对象存储.高可用性.高可靠性.没有单点故障.自我修复.自我管理6.Rados就是ceph集群中的大脑,负责决策.调度等工作 OSD对象存储设备 O

Ceph 知识摘录(Crush算法、PG/PGP)

Crush算法1.Crush的目的      优化分配数据,高效的重组数据,灵活的约束对象副本放置,硬件故障时候最大化保证数据安全 2.流程        Ceph 架构中,Ceph客户端是直接读写存放在OSD上的RADOS Object,因此,Ceph需要走完(Pool, Object) → (Pool, PG) → OSD set → OSD/Disk 完整的链路,才能让Ceph client知道目标数据 object的具体位置在哪里.        数据写入时,文件被切分成object,o

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配

Ceph块存储介绍

1.块存储是什么? 块存储简称(RADOS Block Device),是一种有序的字节序块,也是Ceph三大存储类型中最为常用的存储方式,Ceph的块存储时基于RADOS的,因此它也借助RADOS的快照,复制和一致性等特性提供了快照,克隆和备份等操作.Ceph的块设备值一种精简置备模式,可以拓展块存储的大小且存储的数据以条带化的方式存储到Ceph集群中的多个OSD中. 2.访问块存储的方式 访问块存储的方式有两种,分别是KRBD的方式和librbd的方式. 2.1KRBD方式 KRBD是Ker

ceph rbd块存储挂载及文件存储建立

一.rbd块存储挂载 1 创建一个OSD pool # ceph osd pool create rbd1 128 查询存储空间使用 # ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 480GiB 474GiB 6.12GiB 1.28 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS volumes 1 134B 0 150GiB 5 vms 2 0B 0 150GiB 0 images 3 0B 0 150G

探索 OpenStack 之(9):深入块存储服务Cinder (Part 1)

继研究了Neutron之后,继续Nova的外围研究之旅.本站是研究块存储服务Cinder. 0.验证环境 环境包括: 1.一个controller节点,运行nova-api, nova-scheduler, cinder-api, cinder-scheduler, mysql, rabbitmq 2.一个Nova compute节点,运行一个虚机 3.三个cinder volume节点,每个节点使用LVMISCSIDriver来使用本地存储 4. 创建一个volume type,设置 volu

【恒天云技术分享系列10】OpenStack块存储技术

原文:http://www.hengtianyun.com/download-show-id-101.html 块存储,简单来说就是提供了块设备存储的接口.用户需要把块存储卷附加到虚拟机(或者裸机)上后才可以与其交互.这些卷都是持久的,它们可以被从运行实例上解除或者重新附加而数据保持完整不变.OpenStack 中的实例是不能持久化的,需要挂载 volume,在 volume 中实现持久化.Cinder 就是提供对 volume 实际需要的存储块单元的实现管理功能. 1.单机块存储 1.1 LV

OpenStack —— 块存储服务Cinder(六)

一.Cinder介绍 Cinder(Block Storage service)提供对volume从创建到删除整个生命周期的管理,从instance的角度看,挂载的每一个volume都是一块硬盘. OpenStack早起版本使用nova-volume为云平台虚拟机提供持久性块存储.从F版本后,就把最为Nova组成部分的nova-volume分离了出来,形成了独立的Cinder组件. 二.Cinder主要组件 1.cinder-api 负责接收和处理外界的API请求,通过消息队列服务调用cinde

Rancher如何对接Ceph-RBD块存储

概要 演示环境说明 整个测试环境由以下2台本地虚拟机组成,相关信息说明如下: 引言 Librbd(RBD)是Ceph提供的块存储库,其利用Rados提供的API实现对卷的管理和操作.就目前而言,在Ceph支持的三种接口Posix(CephFS).块存储(Librbd)和对象存储(RadosGW)接口中,块存储是目前最稳定且达到生产环境要求的接口.Ceph 块设备是精简配置的.大小可调且将数据条带化存储到集群内多个OSD .Ceph 块设备利用 RADOS 的多种能力,如快照.复制和一致性.Cep