ceph的基本安装

一、基本环境介绍:

本文采用ceph-deploy工具进行ceph安装,ceph-deploy可以单独作为一个admin节点,也可以装在任意node节点上。

系统环境如下:

1、  系统采用redhat-6.5x86_64 basic_server安装,总共3个节点,ntp时间同步

2、  关闭selinux,用epel及ceph官方源,版本为0.86

3、  3个节点已做互信,并配置host,每个节点上有3个磁盘做osd

4、  升级内核为3.18,并从新内核启动。

二、安装步骤:

1、  每个node上设置iptables规则或关闭iptables(eth0指ceph网络所在的网卡名称)

iptables -A INPUT -i eth0 -p tcp -s0.0.0.0/0 --dport 6789 -j ACCEPT
iptables -A INPUT -i eth0 -m multiport -ptcp -s 0.0.0.0/0 --dports 6800:7300 -j ACCEPT
service iptables save

2、  格式化、挂载osd

yum -y install xfsprogs
mkfs.xfs /dev/sdb
mkdir /osd{0..2}
#blkid 查看sdb的UUID
echo ‘UUID=89048e27-ff01-4365-a103-22e95fb2cc93/osd0 xfs    noatime,nobarrier,nodiratime    00‘ >> /etc/fstab

一个磁盘对应一个osd,每个节点都创建osd0、osd1、osd2目录,对应的磁盘挂载相应目录即可。

3、安装ceph部署工具

#mkdir ceph  #最好创建一个目录,因为安装ceph过程中,会在安装目录生成一些文件                   
#cd ceph
#yum -y install ceph-deploy

4、创建mon

ceph-deploy new node1 nod2 node3 #这个命令其实就是仅仅生成了ceph.conf和ceph.mon.keyring 文件
vim ceph.conf 追加以下内容(根据需求更改)
debug_ms = 0
mon_clock_drift_allowed = 1
osd_pool_default_size = 2    #副本数量
osd_pool_default_min_size = 1
osd_pool_default_pg_num = 128  #pg数量
osd_pool_default_pgp_num = 128
osd_crush_chooseleaf_type = 0
debug_auth = 0/0
debug_optracker = 0/0
debug_monc = 0/0
debug_crush = 0/0
debug_buffer = 0/0
debug_tp = 0/0
debug_journaler = 0/0
debug_journal = 0/0
debug_lockdep = 0/0
debug_objclass = 0/0
debug_perfcounter = 0/0
debug_timer = 0/0
debug_filestore = 0/0
debug_context = 0/0
debug_finisher = 0/0
debug_heartbeatmap = 0/0
debug_asok = 0/0
debug_throttle = 0/0
debug_osd = 0/0
debug_rgw = 0/0
debug_mon = 0/0
osd_max_backfills = 4
filestore_split_multiple = 8
filestore_fd_cache_size = 1024
filestore_queue_committing_max_bytes =1048576000
filestore_queue_max_ops = 500000
filestore_queue_max_bytes = 1048576000
filestore_queue_committing_max_ops = 500000
osd_max_pg_log_entries = 100000
osd_mon_heartbeat_interval = 30 #Performance tuning filestore
osd_mount_options_xfs =rw,noatime,logbsize=256k,delaylog
#osd_journal_size = 20480  日志大小,不指定,默认是5G
osd_op_log_threshold = 50
osd_min_pg_log_entries = 30000
osd_recovery_op_priority = 1
osd_mkfs_options_xfs = -f -i size=2048
osd_mkfs_type = xfs
osd_journal =/var/lib/ceph/osd/$cluster-$id/journal
journal_queue_max_ops = 500000
journal_max_write_bytes = 1048576000
journal_max_write_entries = 100000
journal_queue_max_bytes = 1048576000
objecter_infilght_op_bytes = 1048576000
objecter_inflight_ops = 819200
ms_dispatch_throttle_bytes = 1048576000
sd_data = /var/lib/ceph/osd/$cluster-$id
merge_threshold = 40
backfills = 1
mon_osd_min_down_reporters = 13
mon_osd_down_out_interval = 600
rbd_cache_max_dirty_object = 0
rbd_cache_target_dirty = 235544320
rbd_cache_writethrough_until_flush = false
rbd_cache_size = 335544320
rbd_cache_max_dirty = 335544320
rbd_cache_max_dirty_age = 60
rbd_cache = false

5、安装ceph

#On All nodes to Install

yum -y install ceph

admin节点上执行:

ceph-deploy mon create node1 node2 node3
ceph-deploy gatherkeys node1  #从moniter节点获得keys,用来管理节点

6、创建激活osd

ceph-deploy osd prepare node1:/osd0node1:/osd1 node1:/osd2 node2:/osd0 node2:/osd1 node2:/osd2 node3:/osd0node3:/osd1 node3:/osd2
ceph-deploy osd activate node1:/osd0node1:/osd1 node1:/osd2 node2:/osd0 node2:/osd1 node2:/osd2 node3:/osd0node3:/osd1 node3:/osd2
 
ceph-deploy admin node1 node2 node3   #从admin节点复制配置文件及key到node
chmod +r/etc/ceph/ceph.client.admin.keyring (所有节点为该文件添加读权限)

也可以创建相关的pool

ceph osd pool create volumes 128
ceph osd pool create images 128
ceph osd pool create vms 128
ceph osd pool create backups 128

时间: 2024-12-12 13:13:25

ceph的基本安装的相关文章

ceph 源码安装 configure: error: "Can't find boost spirit headers"

问题:configure: error: "Can't find boost spirit headers" 解决: 下载boost_1_70_0, 链接地址:https://www.boost.org/users/history/version_1_70_0.html 编译: sudo tar -xf Boost_1_70_0.tar.bz2 cd Boost_1_70_0 sudo ./booststrap.sh --prefix=/usr/local/lib/boost ./b2

ceph 自动化自动化安装

1.基础环境介绍  Ubuntu 12.04.5 openssh  都需要默认安装 源节点 ceph 0.80.4  ceph-admin管理和客户端节点,ceph01,ceph02,ceph03集群节点,  网络万兆:192.168.100.11 集群节点硬盘需要3个.以上是基础配置 2.利用ice安装Calamari-server.ceph-deploy部署3节点Ceph环境,因为离线安装,所以/etc/apt/sources.list备份. 配好hostname. 每个节点需要写ceph-

Ceph集群安装

1.环境说明 2.    安装步骤 2.1 ceph模块安装(各节点都需要安装) yum installceph-deploy ceph python-ceph nodejs-argparse redhat-lsb xfsdump qemu-kvmqemu-kvm-tools qemu-img qemu-guest-agent libvirt –y 2.2 生成fsid [[email protected] ~]# uuidgen 2.3 ceph配置(在bgw-os-node151上执行) [

企业私有云之共享存储ceph在centos7安装与应用

构建云设施,存储是一个重要组件,所以本文主要介绍一下我这里如何使用ceph的. 云软件选择openstack,版本是Mitaka,部署系统是centos 7.1,ceph版本是10.2.2. 选择ceph的原因是,免费.开源.支持多,并且市面上大部分都是选择ceph做云存储. 另外本文是参考了http://www.vpsee.com/2015/07/install-ceph-on-centos-7/ 目录 一.ceph安装 二.openstack里应用ceph集群 三.glance应用ceph

Ceph对象存储安装部署及验证

今天来玩下Ceph的对象存储,之前一直觉得对象存储对于玩OpenStack的我来说用不到,但随着越来越多的海量文件的需求,不得不促使我们来学习对象存储.所谓活到老学到老,尤其是我们搞IT的,每天都得学习新技术. 首先呢就是部署一套Ceph环境,这里就不再赘述了,网上好多安装文档,都比较清晰了. 重点说下RGW部分 安装完集群之后 ceph-deploy install --rgw devin-ceph1    #因为是测试所以只用一个rgw 然后创建RGW实例 ceph-deploy rgw c

ceph 文件系统的安装

yum install -y wget wget https://pypi.python.org/packages/source/p/pip/pip-1.5.6.tar.gz#md5=01026f87978932060cc86c1dc527903e tar zxvf pip-1.5.6.tar.gz cd pip-1.5.6 python setup.py build python setup.py install ssh-keygen #############################

Ceph安装QEMU报错:User requested feature rados block device configure was not able to find it

CentOS6.3中,要想使用Ceph的block device,需要安装更高版本的QEMU. 安装好ceph后,安装qemu-1.5.2 # tar -xjvf qemu-1.5.2.tar.bz2 # cd qemu-1.5.2 # ./configure --enable-rbd 一定要加上--enable-rbd选项,这样qemu才能支持rbd协议. 这一步可能会报错: ERROR: User requested feature rados block device configure

ceph详细安装部署教程(多监控节点)

一.前期准备安装ceph-deploy工具 所有的服务器都是用root用户登录的 1.安装环境 系统centos-6.5 设备:1台admin-node (ceph-ploy)  1台 monistor 2台 osd 2.关闭所有节点的防火墙及关闭selinux,重启机器. service iptables stop sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config chkconfig iptables off 3.编辑adm

使用ceph-deploy安装部署线上ceph分布式存储集群(centos6.6)

一:CEPH简介 OSDs: Ceph的OSD守护进程(OSD)存储数据,处理数据复制,恢复,回填,重新调整,并通过检查其它Ceph OSD守护程序作为一个心跳 向Ceph的监视器报告一些检测信息.Ceph的存储集群需要至少2个OSD守护进程来保持一个 active + clean状态.(Ceph默认制作2个备份,但你可以调整它) Monitors:Ceph的监控保持集群状态映射,包括OSD(守护进程)映射,分组(PG)映射,和CRUSH映射. Ceph 保持一个在Ceph监视器, Ceph O