redhat7.1部署ceph

参考资料

http://docs.ceph.org.cn/rados/operations/add-or-rm-osds/#id12

https://www.redhat.com

命令

1.  所有节点上,防火墙,selinux等关掉,配置hostname与hosts文件,ntp同步;确保网络可达

setenforce 0

vim /etc/selinux/config  #将selinux改成disable

systemctl stop firewalld

systemctl disable firewalld

hostnamectl set-hostname ceph1

vim /etc/hosts

192.168.10.100 ceph1

crontab –e

*/3 * * * * /usr/bin/ntpdate 0.rhel.pool.ntp.org

2.       在mon上,配置monitor(监控群集的)

ssh-keygen         #创建公钥

ssh-copy-id [email protected]    #将公钥发给ceph集群的所有节点

yum install -y ceph-deploy   #安装ceph-deploy工具自动部署ceph

mkdir /usr/local/ceph-cluster   #新建一个部署ceph的目录

cd /usr/local/ceph-cluster/     #进入目录

ceph-deploy new hrr_ceph        #新建一个ceph集群名字为hrr_ceph

ceph-deploy install ceph1 ceph2 ceph3--no-adjust-repos #在这个集群的主机安装ceph包

yum install -y ceph-mon #安装mon的包,如果用官方的yum,这不用装

ceph-deploy mon create ceph1 #创建monitor角色

ceph-deploy gatherkeys ceph   #收集密钥

#进入ceph部署的目录

[[email protected] ceph-cluster]# vim ceph.conf

public_network=172.25.2.0/24   #公共网络(心跳,用户访问)

cluster_network=172.24.2.0/24   #集群网络(osd之间复制)

osd_journal_size=1000

3.       在集群中的node(节点)都安装osd的包

yum install -y ceph-osd   #安装osd的包,如果用官方的yum,这不用装

#将一个磁盘配置为osd

fdisk /dev/vdb        #分区

mkfs -t xfs /dev/vdb1  #格式化

mkdir /mnt/osd       #创建挂载点

echo "/dev/vdb1 /mnt/osd xfs defaults0 0" >> /etc/fstab    #开机自动挂载

mount -a  #挂载

df -TH    #查看挂载

4.       集群中的node(节点),创建osd

ceph-deploy --overwrite-confosd prepare ceph:/mnt/osd  #加为osd

ceph-deploy --overwrite-conf osd activate ceph:/mnt/osd  #激活osd

ceph -s   # -s, --status表show cluster status 查看ceph集群的状态

实验

1.实验环境介绍

使用的笔记本配置:联想(i5的CPU,16G的内存,固态硬盘)

使用的虚拟化环境:12.0.0build-2985596

虚拟机配置:

内存2GB

CPU 2核

硬盘(SCSI) 20G(2块,系统盘和osd)

DVD光盘 rhel-server-7.1-x86_64-dvd.iso

网上 2块(桥接用于public network, host-only用于gluster network)

2.网络配置

由于虚拟机的ntp服务器使用的是互联网的,而本人所在的wifi环境网段为192.168.10.0,所以将虚拟机的网卡1桥接到无线网卡并配置为DHCP模式(配置DHCP的好处防止IP冲突)。也就是说public network使用192.168.10.0/24这个网段

gluster network使用vmware的host-only网卡的网络,这里也将它配置成DHCP,就需要开启vmware里的网络配置的DHCP功能。这里将glusternetwork配置成192.168.33.0/24这个网段。

在vmware界面>编辑>虚拟网络编辑器

3.装系统,打快照,克隆

操作系统使用7.1的,最小化安装

装完系统后做基本的配置:

克隆后可能有些虚拟机网卡会有问题,将网卡文件删除,再通过mac地址新建网卡文件:

nmcli connection add type ethernet  con-name eth0 ifname eth0 mac00:0c:29:71:b5:dd

4.执行上面的命令

时间: 2024-08-06 11:22:05

redhat7.1部署ceph的相关文章

kolla 部署 ceph

一.环境准备 1.节点准备 server 组件 disk deploy 安装kolla,用于部署 100G,osd node0 ceph,osd 100G,osd node1 ceph,osd 100G,osd node2 ceph,osd 100G,osd 2.软件版本 kolla newton ceph Jewel 3.配置主名 192.168.56.103 node0 192.168.56.104 node1 192.168.56.105 node2 4.准备image 参看:kolla

部署CEPH集群

什么是CEPH组件 ceph-topo Ceph的底层是RADOS,它的意思是"A reliable, autonomous, distributed object storage". RADOS由两个组件组成: OSD: Object Storage Device,提供存储资源.Monitor:维护整个Ceph集群的全局状态.RADOS具有很强的扩展性和可编程性,Ceph基于RADOS开发了Object Storage.Block Storage.FileSystem.Ceph另外两

部署Ceph集群--jluocc

一 前言 分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式 1,什么是Ceph?Ceph:是一个 Linux PB 级分布式文件系统特点:具有高扩展,高可用,高性能的特点可以提供对象存储,块存储,文件存储可以提供PB级别的存储空间(PB->TB->GB)帮助文档:http://docs.ceph.org/start/intro中文文档:http://docs.

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配

003 ansible部署ceph集群

介绍:在上一次的deploy部署ceph,虽然出了结果,最后的结果并没有满足最初的目的,现在尝试使用ansible部署一遍,看是否会有问题 一.环境准备 ceph1充当部署节点,ceph2,ceph3,ceph4充当ceph集群节点 IP 主机名 节点 系统 172.25.250.10 ceph1 ceph-ansible Red Hat release 7.4 172.25.250.11 ceph2 mon.mgr.osd Red Hat release 7.4 172.25.250.12 c

Ubuntu 16.04下使用docker部署ceph集群

ceph集群docker部署 通过docker可以快速部署小规模Ceph集群的流程,可用于开发测试. 以下的安装流程是通过linux shell来执行的:假设你只有一台机器,装了linux(如Ubuntu)系统和docker环境,那么可以参考以下步骤安装Ceph: # 要用root用户创建, 或有sudo权限 # 注: 建议使用这个docker镜像源:https://registry.docker-cn.com # 1. 修改docker镜像源 cat > /etc/docker/daemon.

使用docker 模式 用ceph/daemon部署 ceph

获取ceph image docker pull  ceph/daemon 准备硬盘 mkfs.xfs /dev/vdb1 mkdir -p /opt/ceph/osd/vdb mount -o defaults,noatime,nodiratime,noexec,nodev,nobarrier  /dev/vdb1 /opt/ceph/osd/vdb 部署mon docker run -d     --name mon0     -e MON_NAME=mon0     -e MON_IP=1

centos7快速部署ceph

1.机器: 10.39.3.22-26 2.优化 tcp参数优化 ntp时间同步配置 requiretty准备 执行命令visudo修改suoders文件: 1. 注释Defaults requiretty Defaults requiretty修改为 #Defaults requiretty, 表示不需要控制终端. 否则会出现sudo: sorry, you must have a tty to run sudo 2. 增加行 Defaults visiblepw 否则会出现 sudo: no

Fedora 19使用ceph-deploy部署ceph时的几个大坑

最近用一组Fedora 19的虚拟机部署了一下ceph 0.81 由于ceph有了简化的部署工具ceph-deploy,看起来部署是个相当简单的过程,理论上应该就是下面几步: 0. 实验环境下,删除所有iptables规则以及在所有机器间建立ssh信任,添加ceph的yum repo ceph-deploy new MON OSD1 OSD2 OSD3 ceph-deploy install MON OSD1 OSD2 OSD3 ceph-deploy mon create-initial MO