使用docker 模式 用ceph/daemon部署 ceph

获取ceph image

docker pull  ceph/daemon

准备硬盘

mkfs.xfs /dev/vdb1
mkdir -p /opt/ceph/osd/vdb
mount -o defaults,noatime,nodiratime,noexec,nodev,nobarrier  /dev/vdb1 /opt/ceph/osd/vdb

部署mon

docker run -d     --name mon0     -e MON_NAME=mon0     -e MON_IP=10.111.252.165     -e CEPH_PUBLIC_NETWORK=10.111.252.128/25     -e CEPH_CLUSTER_NETWORK=192.168.10.128/25     --net=host     -v /etc/ceph:/etc/ceph     -v /var/lib/ceph/:/var/lib/ceph/     -v /etc/localtime:/etc/localtime:ro     ceph/daemon mon

编辑ceph.conf

[global]
fsid = 41cbd215-1c41-4a30-abd6-c597375f8930
mon initial members = mon0
mon host = 10.111.252.165

auth cluster required = cephx
auth service required = cephx
auth client required = cephx

public network = 10.111.252.128/25
cluster network = 192.168.10.128/25

osd journal size = 100

osd pool default size = 3
osd pool default min size = 2
osd crush update on start  = false
[mon]
    mon initial members = mon0
    mon host = 10.111.252.165
[mon.mon0]
    host = mon0
    mon addr = 10.111.252.165:6789
[client]
    rbd default format = 2

docker restart mon0

部署osd

docker run -d        --name=osdvdb        --net=host        -v /etc/ceph:/etc/ceph        -v /var/lib/ceph/:/var/lib/ceph/        -v /opt/ceph/osd/vdb:/var/lib/ceph/osd        -e OSD_TYPE=directory        -v /etc/localtime:/etc/localtime:ro        ceph/daemon osd

复制/etc/ceph到其余节点,在其余节点上部署osd

scp -r /etc/ceph [email protected]:/etc/
scp -r /var/lib/ceph [email protected]:/var/lib/

ssh 10.111.252.222 rm -rf /var/lib/ceph/mon/
ssh 10.111.252.222 rm -rf /var/lib/ceph/osd/

scp -r /etc/ceph [email protected]:/etc/
scp -r /var/lib/ceph [email protected]:/var/lib/

ssh 10.111.252.231 rm -rf /var/lib/ceph/mon/
ssh 10.111.252.231 rm -rf /var/lib/ceph/osd/

mkfs.xfs /dev/vdb1
mkdir -p /opt/ceph/osd/vdb
mount -o defaults,noatime,nodiratime,noexec,nodev,nobarrier        /dev/vdb1  /opt/ceph/osd/vdb
docker run -d        --name=osdvdb        --net=host        -v /etc/ceph:/etc/ceph        -v /var/lib/ceph/:/var/lib/ceph/        -v /opt/ceph/osd/vdb:/var/lib/ceph/osd        -e OSD_TYPE=directory        -v /etc/localtime:/etc/localtime:ro        ceph/daemon osd

查看ceph状态

ceph -s
    cluster b448ce73-47eb-4a77-9a62-48ac7abc3218
     health HEALTH_OK
     monmap e1: 1 mons at {mon0=10.111.252.165:6789/0}
            election epoch 4, quorum 0 mon0
     osdmap e18: 3 osds: 3 up, 3 in
            flags sortbitwise
      pgmap v49: 64 pgs, 1 pools, 0 bytes data, 0 objects
            401 MB used, 149 GB / 149 GB avail
                  64 active+clean
时间: 2024-08-09 02:19:52

使用docker 模式 用ceph/daemon部署 ceph的相关文章

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配

Ubuntu 16.04下使用docker部署ceph集群

ceph集群docker部署 通过docker可以快速部署小规模Ceph集群的流程,可用于开发测试. 以下的安装流程是通过linux shell来执行的:假设你只有一台机器,装了linux(如Ubuntu)系统和docker环境,那么可以参考以下步骤安装Ceph: # 要用root用户创建, 或有sudo权限 # 注: 建议使用这个docker镜像源:https://registry.docker-cn.com # 1. 修改docker镜像源 cat > /etc/docker/daemon.

redhat7.1部署ceph

参考资料 http://docs.ceph.org.cn/rados/operations/add-or-rm-osds/#id12 https://www.redhat.com 命令 1.  所有节点上,防火墙,selinux等关掉,配置hostname与hosts文件,ntp同步;确保网络可达 setenforce 0 vim /etc/selinux/config  #将selinux改成disable systemctl stop firewalld systemctl disable

kolla 部署 ceph

一.环境准备 1.节点准备 server 组件 disk deploy 安装kolla,用于部署 100G,osd node0 ceph,osd 100G,osd node1 ceph,osd 100G,osd node2 ceph,osd 100G,osd 2.软件版本 kolla newton ceph Jewel 3.配置主名 192.168.56.103 node0 192.168.56.104 node1 192.168.56.105 node2 4.准备image 参看:kolla

部署Ceph集群--jluocc

一 前言 分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式 1,什么是Ceph?Ceph:是一个 Linux PB 级分布式文件系统特点:具有高扩展,高可用,高性能的特点可以提供对象存储,块存储,文件存储可以提供PB级别的存储空间(PB->TB->GB)帮助文档:http://docs.ceph.org/start/intro中文文档:http://docs.

007 Ceph手动部署单节点

前面已经介绍了Ceph的自动部署,本次介绍一下关于手动部署Ceph节点操作 一.环境准备 一台虚拟机部署单节点Ceph集群 IP:172.25.250.14 内核: Red Hat Enterprise Linux Server release 7.4 (Maipo) 磁盘:/dev/vab,/dev/vac,/dev/vad 二.部署mon 2.1 安装Ceph软件包 [root@cepe5 ~]#  yum install -y ceph-common ceph-mon ceph-mgr c

CEPH快速部署(Centos7+Jewel)

ceph介绍 Ceph是统一存储系统,支持三种接口. Object:有原生的API,而且也兼容Swift和S3的API Block:支持精简配置.快照.克隆 File:Posix接口,支持快照 Ceph也是分布式存储系统,它的特点是: 高扩展性:使用普通x86服务器,支持10~1000台服务器,支持TB到PB级的扩展. 高可靠性:没有单点故障,多数据副本,自动管理,自动修复. 高性能:数据分布均衡,并行化度高.对于objects storage和block storage,不需要元数据服务器.

centos7快速部署ceph

1.机器: 10.39.3.22-26 2.优化 tcp参数优化 ntp时间同步配置 requiretty准备 执行命令visudo修改suoders文件: 1. 注释Defaults requiretty Defaults requiretty修改为 #Defaults requiretty, 表示不需要控制终端. 否则会出现sudo: sorry, you must have a tty to run sudo 2. 增加行 Defaults visiblepw 否则会出现 sudo: no

centos6.4 ceph安装部署之ceph object storage

preface: ceph-deploy does not provide a rapid installation for Ceph Object Storage install Configuration ceph object storage gateway 1,install ceph object storage gateway multiple regions and zones ins synchronization agent 安装apache fastcgi for cento