ceph journal操作

查询ceph journal的地方

ceph --admin-daemon /var/run/ceph/ceph-osd.0.asok config show | grep osd_journal

"osd_journal": "\/var\/lib\/ceph\/osd\/ceph-0\/journal",
"osd_journal_size": "5120",

时间: 2024-10-13 16:31:37

ceph journal操作的相关文章

ceph简单操作

上篇,我们介绍了使用ceph-deploy去部署ceph集群,下面我们简单介绍下ceph 操作. 块设备使用(rbd) a. 创建用户id与keyring ceph auth get-or-create client.node01 osd 'allow *'  mon 'allow *' > node01.keyring b. 复制keyring到node01 scp node01.keyring [email protected]:/root/ c.创建镜像 apt-get install c

(转)Ceph常规操作及常见问题梳理

Ceph集群管理 1 每次用命令启动.重启.停止Ceph守护进程(或整个集群)时,必须指定至少一个选项和一个命令,还可能要指定守护进程类型或具体例程. **命令格式如 1 {commandline} [options] [commands] [daemons] 常用的commandline为"ceph",对应的options如下表: 对应的commands如下表: 能指定的daemons(守护进程)类型包括mon,osd及mds. 通过SysVinit机制运行ceph: 1 在 Cen

2.ceph高级操作

本节内容如下: 增加监控节点 增加 osd节点 移除osd节点 1:增加监控节点 这里我们采用上回的环境,增加监控节点非常简单 我们先将监控节点环境准备好: 将hosts文件及主机名改好,然后更新deploy节点的hosts文件 在部署节点 cd first-ceph/ ceph-deploy new mon2 mon3   //这里只指哪些节点将成为监控节点 或者直接编辑配置文件vim ceph.conf... mon_host = 10.0.0.25 10.0.0.26 10.0.0.27m

ceph节点journal盘更换

zabbix监控报警一台ceph节点journal盘写入寿命已经达到96%以上,根据intel官方说法写入寿命达到设置值将会无法正常写入.PercentageUsed : 97 [[email protected] ~]# isdct show -sensor PowerOnHours : 0x021B5 EraseFailCount : 0 EndToEndErrorDetectionCount : 0 ReliabilityDegraded : False AvailableSpare :

ceph工作原理和安装

一.概述 Ceph是一个分布式存储系统,诞生于2004年,最早致力于开发下一代高性能分布式文件系统的项目.随着云计算的发展,ceph乘上了OpenStack的春风,进而成为了开源社区受关注较高的项目之一.Ceph有以下优势: 1. CRUSH算法 Crush算法是ceph的两大创新之一,简单来说,ceph摒弃了传统的集中式存储元数据寻址的方案,转而使用CRUSH算法完成数据的寻址操作.CRUSH在一致性哈希基础上很好的考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房.机架感知等.C

Ceph 单/多节点 安装小结 power by CentOS 6.x

概述 Docs : http://docs.ceph.com/docs Ceph是一个分布式文件系统,在维持POSIX兼容性的同时加入了复制和容错功能.Ceph最大的特点是分布式的元数据服务器,通过CRUSH(Controlled Replication Under Scalable Hashing)这种拟算法来分配文件的location.Ceph的核心是RADOS(ReliableAutonomic Distributed Object Store),一个对象集群存储,本身提供对象的高可用.错

​CentOS 6.5 安装 CEPH

CentOS 6.5 安装 CEPH 一.介绍 Ceph是一个 Linux PB 级分布式文件系统. 二.实验环境节点    IP    主机名    系统版本MON    10.57.1.110    Ceph-mon0    CentOS 6.5 x64MDS    10.57.1.110    Ceph-mds0    CentOS 6.5 x64OSD0    10.57.1.111    Ceph-osd0    CentOS 6.5 x64OSD1    10.57.1.111  

Ceph:一种可扩展,高性能的分布式文件系统

摘要 我们开发了 Ceph,一种分布式文件系统.该文件系统提供极佳的性能,可靠性以及扩展性.通过专为不可靠的对象存储设备(Object Storage Device,OSDs)所组成的异构.动态集群而设计的准随机数据分配算法(CRUSH),利用其替代文件分配表,Ceph 将数据与元数据进行了最大程度地分离.通过将数据分布,失效检测恢复指定给运行特殊本地对象文件系统的半自动化的OSDs的方式来使设备具备智能性.而动态的分布式元数据集群,为各种通用目以及科学计算文件系统工作负载提供了无逢自适应,且高

Centos6.5下Ceph存储集群的搭建

简单介绍 Ceph的部署模式下主要包含以下几个类型的节点 ? Ceph OSDs: A Ceph OSD 进程主要用来存储数据,处理数据的replication,恢复,填充,调整资源组合以及通过检查其他OSD进程的心跳信息提供一些监控信息给Ceph Monitors . 当Ceph Storage Cluster 要准备2份数据备份时,要求至少有2个Ceph OSD进程的状态是active+clean状态 (Ceph 默认会提供两份数据备份). ? Monitors: Ceph Monitor