ceph存储扩容(新盘新建存储池)

1、换上新盘后先使用命令做raid
2、ceph创建新存储池(注:需要在存储安装完成后操作)
2.1修改/etc/ceph/ceph查看是否关闭自动生成crushmap

若已经关闭,则无需其他操作;
若没有关闭,关闭后需重启ceph的服务使其生效
[[email protected] ~]# systemctl restart ceph.target
2.2新建目录扩区当前集群应用的crushmap
[[email protected] ~]# mkdir /root/cluster/
[[email protected] ~]# cd /root/cluster/
[[email protected] cluster]# ceph osd getcrushmap -o crush.map
2.3反编译crush.map,并另存为为crush1.map
[[email protected] cluster]# crushtool -d crush.map -o crush1.map
2.4vim编辑crush1.map,新建存储池(建一个空池)

编辑新建桶的信息:host——rack——room——datacenter——root(建桶时不加盘符)

编辑rule规则

2.5编译crush1.map,另存为crush2.map
[[email protected] cluster]# crushtool -c crush1.map -o crush2.map
2.6将crush2.map应用到集群中
[[email protected] cluster]# ceph osd setcrushmap -i crush2.map
3、新建ceph存储池
[[email protected] cluster]# ceph osd pool create poolname pg_num
[[email protected] cluster]# ceph osd pool set poolname crush_ruleset 2(要和crushmap里一致)
注:poolname:自定义存储池名称;
pg_num取值如下:

或者通过[[email protected] cluster]# ceph osd dump | grep size来进行参考
4.配置cinder多后端存储(注:需要在平台部署完成后操作)(在控制节点配置)
4.1修改 /etc/cinder/cinder.conf配置文件,
[[email protected] cluster]# vi /etc/cinder/cinder.conf
添加新存储池类型,此处以saspool为例;

添加新存储池字段,以saspool为例

4.2重启cinder服务
[[email protected] cluster]# systemctl restart openstack-cinder-*
5、创建新存储saspool的cinder卷类型
[[email protected] cluster]# cinder type-create saspool
6、查看是否创建成功

7、创建成功后设置卷类型的key键值
[[email protected] cluster]# cinder type-key saspool或id set volume_backend_name=saspool
8、再次重启cinder服务
[[email protected] cluster]# systemctl restart openstack-cinder-*
9、查看是否设置成功

至此ceph创建新存储池已经与cinder绑定多后端以完成,接下在就是添加新的osd至ceph集群中



10、现在新osd所在节点lsblk查看盘符

11、使用ceph-disk zap 初始化已经识别的硬盘(都要初始化)

12、使用ceph-disk prepare对初始化过的硬盘做预处理

13、预处理完成后lsblk检查是否以挂载

14、使用ceph-disk activate对预处理过的硬盘做激活处理
[[email protected] ~]# ceph-disk activate /dev/sdh
15、检查ceph集群状态以及osd情况

16、获取当前集群应用的crushmap,并另存为crush.map
[[email protected] cluster]# ceph osd getcrushmap -o crush.map
17、反编译crush.map,并另存为crush1.map
[[email protected] cluster]# crushtool -d crush.map -o crush1.map
2.4vim编辑crush1.map,新建存储池
此时进行添加设备,修改权重值等信息;
18、编译crush1.map,另存为crush2.map
[[email protected] cluster]# crushtool -c crush1.map -o crush2.map
19、将crush2.map应用到集群中
[[email protected] cluster]# ceph osd setcrushmap -i crush2.map
20、检查集群状态以及osd情况
21、前往平台测试即可



ceph存储扩容(新盘新建存储池)

原文地址:http://blog.51cto.com/13589513/2316264

时间: 2024-10-09 15:26:42

ceph存储扩容(新盘新建存储池)的相关文章

EXSI虚拟机存储扩容

公司有一台NDS服务器用的是Red Hat linux6的bind9.7提供内网DNS查询及转发缓存服务.之前是部署在一台IBM3610服务器的VMware Workstation上面后面迁移到一台IBM3650的EXSI5.0主机上面,最近发现磁盘不够用了,如是乎想扩展虚拟机的磁盘容量. 这里总结一下有两种方法: 虚拟机里面添加一块新的虚拟磁盘,然后进入系统分区格式化. (在win系列的系统下建议这种方式) 用命令行实用程序 vmkfstools 允许您扩展或扩大 ESX 主机虚拟磁盘的大小.

在 CentOS 7.0 上安装配置 Ceph 存储

来自: https://linux.cn/article-6624-1.html Ceph 是一个将数据存储在单一分布式计算机集群上的开源软件平台.当你计划构建一个云时,你首先需要决定如何实现你的存储.开源的 Ceph 是红帽原生技术之一,它基于称为 RADOS 的对象存储系统,用一组网关 API 表示块.文件.和对象模式中的数据.由于它自身开源的特性,这种便携存储平台能在公有云和私有云上安装和使用.Ceph 集群的拓扑结构是按照备份和信息分布设计的,这种内在设计能提供数据完整性.它的设计目标就

Openstack 之使用外部ceph存储

  上面左边是我的个人微信,如需进一步沟通,请加微信.  右边是我的公众号"Openstack私有云",如有兴趣,请关注. 继上篇<Ceph 之 块设备.文件系统.对象存储的使用>,可以独立于openstack单独部署一套ceph集群,给openstack使用,这样openstack本身部署的时候不要启用ceph,在使用块设备的相关组建上配置使用外部ceph集群,可以有更灵活的架构选择,比如虚拟机nova块设备使用一个快速固态硬盘存储池,cinder-backup卷备份使用

阿里云云盘扩容数据盘_Linux

随着业务的增长,您的数据盘容量可能无法满足数据存储的需要,这时您可以使用 磁盘扩容 功能扩容数据盘.   说明 挂载在实例上的数据盘,只有当实例处于 运行中 (Running) 或 已停止(Stopped) 状态时才可以扩容.扩容这种数据盘需要在控制台上重启实例后才能使扩容后的容量生效,而重启实例会停止实例,中断您的业务,所以请您谨慎操作. 建议在扩容数据盘之前手动创建快照,以备份数据. 无论数据盘的状态是 待挂载 还是 使用中,都可以执行磁盘扩容操作. 包年包月实例如果做过 续费降配 操作,当

在rhel7中的ceph存储集群搭建的具体步骤

ceph是一种可以提供存储集群服务的软件 它可以实现将主机做成存储集群,并提供分布式文件存储的功能 ceph服务可以提供三种存储方式: 1.块存储 2.对象存储 2.文件系统存储 这里我将介绍如何使用ceph搭建一个存储集群: 环境介绍: node1 node2 node3 这三台主机作为存储集群服务器,分别都有3块10G的硬盘,并且我会将node1及作为存储服务器也作为管理主机(管理存储服务器的服务器) 将client作为访问的客户端 node1 node2 node3这第三台服务器要配置NT

2个Kubernetes使用同一个Ceph存储达到Kubernetes间持久化数据迁移

2个Kubernetes使用同一个Ceph存储达到Kubernetes间持久化数据迁移 [TOC] 当前最新Kubernetes稳定版为1.14.现在为止,还没有不同Kubernetes间持久化存储迁移的方案.但根据Kubernetes pv/pvc绑定流程和原理,只要 "存储"-->"PV"-->"PVC" 的绑定关系相同,即可保证不同间Kubernetes可挂载相同的存储,并且里面是相同数据. 1. 环境 原来我的Kubernet

分布式Ceph存储集群集换硬件(磁盘)设备

先上几张图展示下目前Ceph存储的大体情况,模拟更换服务器CLIENT3上数据硬盘,ceph存储设备已经有存放数据,观察更换过程及恢复变化.[[email protected] ~]# systemctl stop [email protected][[email protected] ~]# umount /var/lib/ceph/osd/ceph-2 [[email protected] ~]# ceph osd out osd.2[[email protected] ~]# ceph a

Ceph 存储集群 - 搭建存储集群

一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192.168.0.131 mon.node1 ceph节点,监控节点 node2 192.168.0.132 osd.0 ceph节点,OSD节点 node3 192.168.0.133 o

C++学习笔记之由文本文件读取数据到vector模板建立的二维数组 并存储为新的文本文件

阅读本文可首先参考: C++学习笔记之输入.输出和文件 测试数据: 1 /*读取txt文件到二维数组*/ 2 #include <iostream> 3 #include <fstream> 4 #include <vector> 5 #include <string> 6 7 using namespace std; 8 9 typedef vector< vector<int> > D2array; //二维数组 10 typed