Fedora 19使用ceph-deploy部署ceph时的几个大坑

最近用一组Fedora 19的虚拟机部署了一下ceph 0.81

由于ceph有了简化的部署工具ceph-deploy,看起来部署是个相当简单的过程,理论上应该就是下面几步:

0. 实验环境下,删除所有iptables规则以及在所有机器间建立ssh信任,添加ceph的yum repo

  1. ceph-deploy new MON OSD1 OSD2 OSD3
  2. ceph-deploy install MON OSD1 OSD2 OSD3
  3. ceph-deploy mon create-initial MON
  4. ceph-deploy gatherkeys MON OSD1 OSD2 OSD3
  5. ceph-deploy osd prepare OSD1:/dir OSD2:/dir OSD3:/dir
  6. ceph-deploy osd activate OSD1:/dir OSD2:/dir OSD3:/dir

就这么简单就应该好了吧? 本人在实际操作中发现需要做如下补充:

  1. fedora 19需要安装几个ceph需要的软件包(为什么ceph-deploy不能自己检测一下?): redhat-lsb,leveldb需要升级到1.12,osd节点直接用块设备的需要安装hdparm。
  2. 在第五步osd prepare之前,需要手动拷贝从mon节点bootstrap_osd到osd节点,完整路径我现在忘了...
  3. osd activate之前,osd节点上要手动创建 /var/lib/ceph/osd空目录。

祝大家玩的顺手,玩的愉快

时间: 2024-10-10 13:39:30

Fedora 19使用ceph-deploy部署ceph时的几个大坑的相关文章

使用docker 模式 用ceph/daemon部署 ceph

获取ceph image docker pull  ceph/daemon 准备硬盘 mkfs.xfs /dev/vdb1 mkdir -p /opt/ceph/osd/vdb mount -o defaults,noatime,nodiratime,noexec,nodev,nobarrier  /dev/vdb1 /opt/ceph/osd/vdb 部署mon docker run -d     --name mon0     -e MON_NAME=mon0     -e MON_IP=1

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配

003 ansible部署ceph集群

介绍:在上一次的deploy部署ceph,虽然出了结果,最后的结果并没有满足最初的目的,现在尝试使用ansible部署一遍,看是否会有问题 一.环境准备 ceph1充当部署节点,ceph2,ceph3,ceph4充当ceph集群节点 IP 主机名 节点 系统 172.25.250.10 ceph1 ceph-ansible Red Hat release 7.4 172.25.250.11 ceph2 mon.mgr.osd Red Hat release 7.4 172.25.250.12 c

CEPH快速部署(Centos7+Jewel)

ceph介绍 Ceph是统一存储系统,支持三种接口. Object:有原生的API,而且也兼容Swift和S3的API Block:支持精简配置.快照.克隆 File:Posix接口,支持快照 Ceph也是分布式存储系统,它的特点是: 高扩展性:使用普通x86服务器,支持10~1000台服务器,支持TB到PB级的扩展. 高可靠性:没有单点故障,多数据副本,自动管理,自动修复. 高性能:数据分布均衡,并行化度高.对于objects storage和block storage,不需要元数据服务器.

Ceph 之 使用ceph-deploy部署ceph集群

  上面左边是我的个人微信,如需进一步沟通,请加微信.  右边是我的公众号"Openstack私有云",如有兴趣,请关注. 环境: 系统centos7.4 ceph版本 ceph version 10.2.10 测试服务器为kvm虚拟机(openstack虚拟机) 本篇文章是记录下自己的部署过程,服务器使用kvm虚拟机,只测试功能,服务器分配如下 节点 服务 cluster network ceph-1(admin-node) osd.{1,2,},mon.ceph-1 eth0:19

开源实践分享:Ceph bluestore部署实践

Ceph bluestore部署 首先为大家分享Ceph bluestore具体该如何部署,使用环境如下? 单节点? CentOS 7.4? 使用 ceph-deploy 进行部署准备 centos 7.4 系统的机器,并配置好 ssh 的无密码登录. 安装 ceph-deployyum install?https://download.ceph.com/rpm-luminous/el7/noarch/ceph-deploy-2.0.0-0.noarch.rpm数据 ceph 安装包mkdir

部署Ceph集群--jluocc

一 前言 分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式 1,什么是Ceph?Ceph:是一个 Linux PB 级分布式文件系统特点:具有高扩展,高可用,高性能的特点可以提供对象存储,块存储,文件存储可以提供PB级别的存储空间(PB->TB->GB)帮助文档:http://docs.ceph.org/start/intro中文文档:http://docs.

centos7快速部署ceph

1.机器: 10.39.3.22-26 2.优化 tcp参数优化 ntp时间同步配置 requiretty准备 执行命令visudo修改suoders文件: 1. 注释Defaults requiretty Defaults requiretty修改为 #Defaults requiretty, 表示不需要控制终端. 否则会出现sudo: sorry, you must have a tty to run sudo 2. 增加行 Defaults visiblepw 否则会出现 sudo: no

kolla 部署 ceph

一.环境准备 1.节点准备 server 组件 disk deploy 安装kolla,用于部署 100G,osd node0 ceph,osd 100G,osd node1 ceph,osd 100G,osd node2 ceph,osd 100G,osd 2.软件版本 kolla newton ceph Jewel 3.配置主名 192.168.56.103 node0 192.168.56.104 node1 192.168.56.105 node2 4.准备image 参看:kolla