Ubuntu 14.04 部署 CEPH集群

注:下文的所有操作都在admin节点进行

1、准备三台虚拟机,其中一台作为admin节点,另外两台作为osd节点,并相应地用hostname命令将主机名修改为admin,osd0,osd1,最后修改/etc/hosts文件如下所示

127.0.0.1       localhost
10.10.102.85    admin
10.10.102.86    osd0
10.10.102.87    osd1

2、配置免密码访问

ssh-keygen        //一直按回车即可,产生公钥私钥对
ssh-copy-id -i /root/.ssh/id_rsa.pub osd0  //将本地公钥复制到osd0机器上,实现免密码访问
ssh-copy-id -i /root/.ssh/id_rsa.pub osd1

3、安装ceph-deploy

apt-get install ceph-deploy

4、创建集群目录并进入

mkdir my-cluster
cd my-cluster

5、创建集群,会在当前目录下看到ceph.conf ceph.log ceph.mon.keyring三个文件

ceph-deploy new admin

6、安装CEPH

ceph-deploy install admin osd0 osd1

  但是使用这条命令的时候总是特别慢,而且会出问题,我总是在每个节点apt-get install ceph的.....

7、加一个Ceph集群监视器,在admin节点创建即可

ceph-deploy mon create admin

  

8、收集秘钥,目录下会多出ceph.bootstrap-mds.keyring  ceph.client.admin.keyring  ceph.client.admin.keyring这几个文件

 ceph-deploy gatherkeys admin

  

9、增加2个OSD,为了快速安装,为每个Ceph OS守护进程使用单个目录而非单个磁盘

ssh osd0
sudo mkdir /tmp/osd0
exit

ssh osd1
sudo mkdir /tmp/osd1
exit

  

10、准备osd

ceph-deploy osd prepare osd0:/tmp/osd0 osd1:/tmp/osd1

  

11、激活osd

ceph-deploy osd activate osd0:/tmp/osd0 osd1:/tmp/osd1

  

12、将配置文件和管理密钥复制到管理节点和Ceph节点,下次再使用ceph命令界面时就无需指定集群监视器地址,执行命令时也无需每次都指定ceph.client.admin.keyring

ceph-deploy admin osd0 osd1

  

13、检查集群健康状况

ceph health

  但是这时返回的不是健康状态,而是HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean,这时再另外添加一个osd节点即可

14、扩展集群,在admin节点添加一个osd,然后ceph health就能返回HEALTH_OK的状态了

mkdir /tmp/osd2
ceph-deploy osd prepare admin:/tmp/osd2
ceph-deploy osd activate admin:/tmp/osd2

  

时间: 2024-10-24 08:50:10

Ubuntu 14.04 部署 CEPH集群的相关文章

部署Ceph集群--jluocc

一 前言 分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式 1,什么是Ceph?Ceph:是一个 Linux PB 级分布式文件系统特点:具有高扩展,高可用,高性能的特点可以提供对象存储,块存储,文件存储可以提供PB级别的存储空间(PB->TB->GB)帮助文档:http://docs.ceph.org/start/intro中文文档:http://docs.

部署CEPH集群

什么是CEPH组件 ceph-topo Ceph的底层是RADOS,它的意思是"A reliable, autonomous, distributed object storage". RADOS由两个组件组成: OSD: Object Storage Device,提供存储资源.Monitor:维护整个Ceph集群的全局状态.RADOS具有很强的扩展性和可编程性,Ceph基于RADOS开发了Object Storage.Block Storage.FileSystem.Ceph另外两

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配

003 ansible部署ceph集群

介绍:在上一次的deploy部署ceph,虽然出了结果,最后的结果并没有满足最初的目的,现在尝试使用ansible部署一遍,看是否会有问题 一.环境准备 ceph1充当部署节点,ceph2,ceph3,ceph4充当ceph集群节点 IP 主机名 节点 系统 172.25.250.10 ceph1 ceph-ansible Red Hat release 7.4 172.25.250.11 ceph2 mon.mgr.osd Red Hat release 7.4 172.25.250.12 c

Ubuntu 16.04下使用docker部署ceph集群

ceph集群docker部署 通过docker可以快速部署小规模Ceph集群的流程,可用于开发测试. 以下的安装流程是通过linux shell来执行的:假设你只有一台机器,装了linux(如Ubuntu)系统和docker环境,那么可以参考以下步骤安装Ceph: # 要用root用户创建, 或有sudo权限 # 注: 建议使用这个docker镜像源:https://registry.docker-cn.com # 1. 修改docker镜像源 cat > /etc/docker/daemon.

Ceph 之 使用ceph-deploy部署ceph集群

  上面左边是我的个人微信,如需进一步沟通,请加微信.  右边是我的公众号"Openstack私有云",如有兴趣,请关注. 环境: 系统centos7.4 ceph版本 ceph version 10.2.10 测试服务器为kvm虚拟机(openstack虚拟机) 本篇文章是记录下自己的部署过程,服务器使用kvm虚拟机,只测试功能,服务器分配如下 节点 服务 cluster network ceph-1(admin-node) osd.{1,2,},mon.ceph-1 eth0:19

22_2020年最新部署Ceph集群 Ceph块存储

1. 下载ceph nautilus 版本yum源   地址:https://mirrors.aliyun.com/ceph/rpm-nautilus/el7/   下载三个文件夹里对应 14.2.6-0.el7 的 rpm      aarch64/    14-Jan-2020 23:20      noarch/     14-Jan-2020 23:21      x86_64/     14-Jan-2020 23:241.1 下载aarch64文件夹对应版本的rpm文件:(物理机)]

centos7部署ceph集群(正确)

环境介绍 主机名 系统 ip地址 ceph版本 ceph-node1 CentOS Linux release 7.2.1511 192.168.1.120 jewel ceph-node2 CentOS Linux release 7.2.1511 192.168.1.121 jewel ceph-node3 CentOS Linux release 7.2.1511 192.168.1.128 jewel 准备工作 ◆ 1-7在三台ceph节点上都需要进行操作 ◆ 8只在ceph1操作即可

CEPH的基本概念及通过Ceph-Deploy快速部署CEPH集群

基础概念 **OSD**:Object Storage Device,主要用于存储数据,处理数据,,恢复,回不,平衡数据,并提供数据给monitor. **Monitor**:Ceph监视器,主要用于集群健康状态维护,提供策略,包含Monitor Map ,OSD Map,PG ma和CRUSH MAP **MSD**:Cpeh Metadata Server,主要保存ceph文件系统的元数据,快存储,对象存储不需要MSD. Ceph的架构核心组件RADOS,如架构图 RADOS:具备自我修复的