ceph增加osd流程

假如需要新增一个主机名:osd4 ip:192.168.0.110的OSD1.在osd4创建挂载目录及放置配置文件的目录    ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机)    mkdir /ceph/osd.4     mkdir /etc/ceph  2.在osd4上格式化ext4的sda3分区,挂载分区。    mkfs.ext4 /dev/sda3    mount -o user_xattr /dev/sda3 /ceph/osd.43.将mon主机的id_dsa.pub拷至osd4主机,实现免密码访问    scp /root/.ssh/id_dsa.pub 192.168.0.110:/root/.ssh/id_dsa.pub102    ssh 192.168.0.110    cd /root/.ssh    cat id_dsa.pub102 > authorized_keys4.在mon主机上修改ceph.conf配置文件    vi /etc/ceph/ceph.conf    [osd.4]       host = osd4       deves = /dev/sda35.复制修改后的ceph.conf文件至每一个MDS和OSD节点并复制一份至/usrlocal/etc/ceph/    scp /etc/ceph/ceph.conf 192.168.0.110:/etc/ceph/  (这里只写这一个,不要忘记同步其他节点的配置文件)6.创建osd    ceph osd create osd.47.加载OSD数据目录    ssh 192.168.0.110    ceph-osd -i osd.4 --mkfs --mkkey下面更新crushmap后,新增的osd就可以存放数据了。8.创建当前正在使用的crushmap    ceph osd getcrushmap -o map   (map 是自定义的一个名称,下面需要用到这个名称)9.反编译后导出crushmap    crushtool -d map -o /root/map.txt (map.txt是导出的文件名)10.修改map.txt
时间: 2024-10-08 09:02:20

ceph增加osd流程的相关文章

SUSE Ceph 增加节点、减少节点、 删除OSD磁盘等操作 - Storage6

一.测试环境描述 之前我们已快速部署好一套Ceph集群(3节点),现要测试在现有集群中在线方式增加节点 如下表中可以看到增加节点node004具体配置 主机名 Public网络 管理网络 集群网络 说明 admin 192.168.2.39 172.200.50.39 --- 管理节点 node001 192.168.2.40 172.200.50.40 192.168.3.40 MON,OSD node002 192.168.2.41 172.200.50.41 192.168.3.41 MO

ceph摘掉osd节点

1.关闭ceph osd进程 service ceph stop osd 2.让ceph集群中的数据进行平衡 3.等所有的pg都达到active+clean平衡度时删除osd节点 删除前ceph集群状态 [[email protected] ~]# ceph osd tree # id    weight  type name       up/down reweight -1      4       root default -2      1               host os-n

CEPH之osd批量创建

一直出差都没时间写了... 今天创建150个osd,发现手动写ceph.conf有点头大,研究了下vim的递增功能. 很简单就是一条命令: :let i=0|g/REG/s//\=i/|let i=i+1 它可以匹配你文本中的REG,然后按照你i+n,每次递增加+n 上面这条命令的作用就是,查找文本中的REG字符,然后从第一个开始替换成0,然后依次+1 这样在ceph.conf中,我们可以首先复制出来150个[osd.gggg],然后在使用上面的命令来递增,同时vim还支持ctrl+A来对数字+

Ceph的osd节点问题

背景ceph的整体读写性能下降 经查看 ceph osd perf 有一块osd延迟较大在200多ms以上 决定剔除后 整体性能恢复 说明osd的一个节点问题有时会影响整体ceph的性能 ceph --admin-daemon /var/run/ceph/ceph-osd.135.asok perf dump | more"WBThrottle": {"bytes_dirtied": 13333504,"bytes_wb": 0,"io

ceph 指定OSD创建pool

https://my.oschina.net/wangzilong/blog/1549690 ceph集群中允许使用混合类型的磁盘,比如一部分磁盘是SSD,一部分是STAT.如果针对某些业务小高速磁盘SSD,某些业务需要STAT,在创建资源池的时候可以指定创建在某些OSD上. 基本步骤有8步: 当前只有STAT没有SSD,但是不影响实验结果. 1    获取crush map [[email protected] getcrushmap]# ceph osd getcrushmap -o /op

ceph 删除osd的一些问题

1.删除osd删除创建的osd.数据和日志在同一个磁盘上的osd将osd.0踢出集群,执行ceph osd out 0停止此osd进程,执行systemctl stop [email protected] 然后执行:ceph osd crush remove osd.0,此时osd.0已经不再osd tree中了 执行ceph auth del osd.0 和 ceph osd rm 0, 此时删除成功但是原来的数据和日志目录还在,也就是数据还在 此时我们将/dev/sdd磁盘umount,然后

常见问题汇总(2)

关于存储的一些问题 Ceph增加osd的方法 如果在部署环境前无法识别硬盘,但是环境又要求存储必须为ceph,可以用如下方法: 部署模式按ceph走,在磁盘划分的时候根据实际情况划分 环境部署成功且各组件正常工作,这时候到相应的节点查看部署前未被识别的硬盘是否被识 别(注:不要对识别的新硬盘进行分区格式化!!!)如果有,请按如下方法进行ceph 的osd的增加: 1:首先查看当前环境的ceph环境 ceph osd tree node-xxx osd.4  up 记住相应节点的当前有几个osd,

Ceph源码解析:读写流程

一.OSD模块简介 1.1 消息封装:在OSD上发送和接收信息. cluster_messenger -与其它OSDs和monitors沟通 client_messenger -与客户端沟通 1.2 消息调度: Dispatcher类,主要负责消息分类 1.3 工作队列: 1.3.1 OpWQ: 处理ops(从客户端)和sub ops(从其他的OSD).运行在op_tp线程池. 1.3.2 PeeringWQ: 处理peering任务,运行在op_tp线程池. 1.3.3 CommandWQ:处

ceph集群osd故障修复实例演示

集群安装方式:1: ceph-deploy 方式安装ceph集群,模拟osd磁盘损坏: 分别采用如下两种方式修复: 1:使用ceph-deploy 方式修复故障osd: 2:手动修复故障osd: #######使用ceph-deploy方式修复过程演示######## 1:停止osd/etc/init.d/ceph stop osd.3 2:查看osd磁盘挂载情况:[[email protected] ceph]# lsblk NAME   MAJ:MIN RM  SIZE RO TYPE MO