ceph安装

网络配置

10.0.0.100      cephdeploy

10.0.0.110cephmon1

10.0.0.120cephmon2

10.0.0.130cephosd1

10.0.0.140cephosd2

10.0.0.150cephosd3

添加release 和ceph包

wget -q -O- ‘https://download.ceph.com/keys/release.asc‘ | sudo apt-key add -

echo deb http://download.ceph.com/debian-hammer/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list

安装deploy

sudo apt-get update && sudo apt-get install ceph-deploy

安装ntp和openssh

sudo apt-get install ntp

sudo apt-get install openssh-server

创建用户

注:{username} 自定义 ,不要用ceph这个来创建用户,ceph用于启动进程,如使用会导致安装失败

ssh [email protected]

sudo useradd -d /home/{username}  -m {username}

sudo passwd {username}

确保各 Ceph 节点上新创建的用户都有 sudo 权限。

echo "{username} ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/{username}

sudo chmod 0440 /etc/sudoers.d/{username}

允许无密码 SSH 登录

ssh-keygen

ssh-copy-id {username}@cephmon1

ssh-copy-id {username}@cephmon2

ssh-copy-id {username}@cephosd1

ssh-copy-id {username}@cephosd2

ssh-copy-id {username}@cephosd3

编辑 ~/.ssh/config

写入如下内容

Host cephmon1

Hostname cephmon1

User  {username}

Host cephmon2

Hostname cephmon2

User {username}

Host cephosd1

Hostname cephosd1

User {username}

Host cephosd2

Hostname cephosd2

User {username}

Host cephosd3

Hostname cephosd3

User {username}

mkdir my-cluster

cd my-cluster

安装失败使用

ceph-deploy purgedata {ceph-node} [{ceph-node}]

ceph-deploy forgetkeys

ceph-deploy purge {ceph-node} [{ceph-node}]

创建集群

ceph-deploy new  cephmon1

设置副本个数为2,编辑ceph.conf

osd pool default size = 2

pg 个数

osd pool default pg num = 128

osd pool default pgp num = 128

安装ceph在各节点上

ceph-deploy install  cephmon1 cephmon2 cephosd1 cephosd2 cephosd3

配置初始 monitor(s)、并收集所有密钥:

ceph-deploy mon create-initial

完成上述操作后,当前目录里应该会出现这些密钥环:

{cluster-name}.client.admin.keyring

{cluster-name}.bootstrap-osd.keyring

{cluster-name}.bootstrap-mds.keyring

{cluster-name}.bootstrap-rgw.keyring

添加osd  在osd节点上

ssh cephosd1

mkfs.xfs /dev/sdb /dev/sdc

exit

ssh cephosd2

mkfs.xfs /dev/sdb /dev/sdc

exit

ssh cephosd3

mkfs.xfs /dev/sdb /dev/sdc

exit

准备osd

ceph-deploy osd prepare  cephosd1:/dev/sdb  cephosd1:/dev/sdc

cephosd2:/dev/sdb  cephosd2:/dev/sdc cephosd3:/dev/sdb cephosd3:/dev/sdc

激活 OSD

ceph-deploy osd activate cephosd1:/dev/sdb1  cephosd1:/dev/sdc1

cephosd2:/dev/sdb1  cephosd2:/dev/sdc1 cephosd3:/dev/sdb1 cephosd3:/dev/sdc1

用 ceph-deploy 把配置文件和 admin 密钥拷贝到管理节点和 Ceph 节点,这样你每次执行 Ceph 命令行时就无需指定 monitor 地址和 ceph.client.admin.keyring 了

ceph-deploy admin cephmon1 cephmon2 cephosd1 cephosd2 cephosd3

或者

ceph-deploy --overwrite-conf admin cephdeploy cephmon1 cephmon2 cephosd1 cephosd2 cephosd3

在每个节点上执行

sudo chmod +r /etc/ceph/ceph.client.admin.keyring

检查集群的健康状况

ceph health

ceph status

ceph osd stat

ceph osd dump

ceph mon dump

ceph quorum_status

ceph mds stat

ceph mds dump

或者 ceph -w

ceph -s

设置pg个数

ceph osd pool set rbd pg_num 128

ceph osd pool set rbd pgp_num 128

重启ceph服务

restart ceph-all

restart ceph-mon-all

restart ceph-osd-all

restart ceph mon  <cephserver-id>

restart ceph osd id=<id>

查看osd

ceph osd tree

rbd挂载方式

创建pool

rados mkpool cinder

创建一个200G的存储盘

rbd create cinder --size 10240 -p cinder

执行挂载

sudo rbd map cinder --pool cinder

如果觉得太小,可以重新调整rbd卷大小

rbd resize --size 20480 cinder -p cinder

blockdev --getsize64   /dev/rbd0

resize2fs /dev/rbd0

查看

rbd showmapped

rbd --pool rbd ls

格式化

mkfs.ext4 /dev/rbd0

挂载

mkdir /cinder

mount /dev/rbd0 /cinder

cephfs挂载,不需要安装cephclient

ceph osd pool create cephfs_data 10

ceph osd pool create cephfs_metadata 10

ceph fs new leadorfs  cephfs_metadata cephfs_data

ceph mds stat

查看ceph.client.admin.keyring,读取secret

执行挂载

mount -t ceph 10.0.0.110:6789:/ /cinder/ -v -o name=admin,secret=AQCdcz1Xykm5FxAAS1o66IMWJas+Uih5ShTijw==

添加新的osd

ceph-deploy osd prepare   [{ceph-node}]

ceph-deploy osd activate    [{ceph-node}]

添加元数据服务器

ceph-deploy mds create cephmon1

新加mon

ceph-deploy mon add  cephmon2

添加完需要同步配置文件

ceph-deploy --overwrite-conf admin    [{ceph-node}]

时间: 2024-09-28 08:17:19

ceph安装的相关文章

calamari + ceph + saltstack 安装部署

准备工作 1.基础环境 ceph-admin ceph-mon  为同一台服务器 ceph-osd1 为一台服务器 ceph-osd2 为另一台服务器 2.关闭防火墙 # systemctl stop firewalld.service # systemctl disable firewalld.service 3.关闭Selinux # sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config # setenforce

ceph详细安装部署教程(多监控节点)

一.前期准备安装ceph-deploy工具 所有的服务器都是用root用户登录的 1.安装环境 系统centos-6.5 设备:1台admin-node (ceph-ploy)  1台 monistor 2台 osd 2.关闭所有节点的防火墙及关闭selinux,重启机器. service iptables stop sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config chkconfig iptables off 3.编辑adm

架构设计:系统存储(27)——分布式文件系统Ceph(安装)

1. 概述 从本篇文章开始介绍一款现在非常火的分布式文件系统Ceph,包括这款文件系统的安装.基本使用场景.常用管理命令和重要工作原理.特别是讨论了PaxOS算法的基本理后,就更容易理解Ceph分布式文件系统中各种角色的工作原理. 2. Ceph的安装部署 本文将介绍Ceph分布式文件系统如何在CentOS 7.X版本上一步一步完成安装,使读者在阅读过程中了解Ceph有哪些重要的子系统/工作模块,以及它们是如何关联工作的.请注意Ceph在Ubuntu等Linux操作系统上的安装过程和注意点大致相

ceph&lt;一&gt;安装

1.介绍 Ceph是一种为优秀的性能.可靠性和可扩展性而设计的统一的.分布式的存储系统.同时提供对象存储.块存储和文件系统存储三种功能,以便在满足不同应用需求的前提下简化部署和运维. 2.安装准备 注意:以下命令在粘贴复制的时候可能会出现字符格式的问题,若命令提示找不到命令,可手动输入,有其他错误可在网上搜寻解决办法或回复评论. 安装系统为centos 7 准备5台主机(虚拟主机或者实体机都可,ip为操作机器的ip地址) 172.18.16.200      用作管理节点admin-node 1

1.ceph的安装

以下内容根据自己安装过程整理而出--- 刘福 为了简化安装这里我们采用ceph-deploy的安装方式 1:环境准备    互信    host文件    时间同步    epel.ceph yum源    osd节点各挂载一块硬盘不做分区及格式化操作 这里我们用到四台主机操作系统是Centos6.5,其中一台做deploy一台做监控节点master其它做OSD节点. 2:基础准备这里采用ceph-deploy的方法优点就是快缺点是对搭建具体细节不很了解建议将安装过程保存下来仔细看输出信息. 2

VSM(Virtual Storage Manager For Ceph)安装教程

转载注明出处,陈小跑 http://www.cnblogs.com/chenxianpao/p/5770271.html 一.安装环境 OS:CentOS7.2 VSM:v2.1 released 二.安装说明 VSM系统分两个角色,一个是vsm-controller,另外一个是vsm-agent.vsm-agent部署在ceph节点上,vsm-controller部署在单独的任意节点.vsm-controller应该也可以部署在ceph节点上,没尝试过. VSM有两种包.一种是released

ceph存储安装配置

1.修改yum源: 1.安装yum源:sudo yum install -y https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm 2.新建/etc/yum.repos.d/ceph.repo文件:[ceph-noarch] name=Ceph noarch packages baseurl=https://download.ceph.com/rpm/el7/noarch enabled=1 gpgcheck

ceph离线安装与日常简单维护

1           环境介绍 主机名 系统 版本 角色 IP ceph1 RHEL7.3_64bit jewel admin/mon1 10.10.64.130 ceph2 RHEL7.3_64bit jewel mon2 10.10.64.131 ceph3 RHEL7.3_64bit jewel mon3 10.10.64.132 ceph4 RHEL7.3_64bit jewel osd1 10.10.64.133 ceph5 RHEL7.3_64bit jewel osd2 10.1

ceph简易安装

一.部署准备:(1)所有ceph集群节点(包括客户端)设置静态域名解析:[[email protected] ~]# cat /etc/hosts127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4::1 localhost localhost.localdomain localhost6 localhost6.localdomain6192.168.126.6 zxw6192.168.126.7

Ceph radosgw 安装配置

Ceph radosgw对象存储的接口,研究配置了许久,现分享如下.首先配置radosgw的前提,是你已经成功的配置好了Ceph集群,通过ceph –s 查看ceph集群,处于health状态.在这里,ceph集群的auth的配置为none,所以有关auth的部分,也就是访问权限相关的keying部分的配置在这里省略. 1)创建rgw相关的pool ceph osd pool create .rgw 128 128 ceph osd pool create .rgw.root 128 128 c