22_2020年最新部署Ceph集群 Ceph块存储

1. 下载ceph nautilus 版本yum源
   地址:https://mirrors.aliyun.com/ceph/rpm-nautilus/el7/
   下载三个文件夹里对应 14.2.6-0.el7 的 rpm
      aarch64/    14-Jan-2020 23:20
      noarch/     14-Jan-2020 23:21
      x86_64/     14-Jan-2020 23:24
1.1 下载aarch64文件夹对应版本的rpm文件:(物理机)
]# mkdir rpm
]# cd rpm/
rpm]# vim aarch64.txt
注意:用鼠标全选复制网页:
     "https://mirrors.aliyun.com/ceph/rpm-nautilus/el7/aarch64/"
      上面所有的文字粘贴到aarch.txt
如下图:

1.2 编写脚本:
rpm]# cat get.sh
#!/bin/bash
rpm_file=/root/rpm/$1.txt
rpm_netaddr=https://mirrors.aliyun.com/ceph/rpm-nautilus/el7/$1
for i in `cat $rpm_file`
do
    if [[ $i =~ rpm ]] && [[ $i =~ 14.2.6-0 ]]
    then
        wget $rpm_netaddr/$i
    fi
done

1.3 执行脚本,下载rpm文件:
rpm]# bash get.sh aarch64
查看:
rpm]# ls
aarch64.txt                                    libradospp-devel-14.2.6-0.el7.aarch64.rpm
ceph-14.2.6-0.el7.aarch64.rpm                  libradosstriper1-14.2.6-0.el7.aarch64.rpm
ceph-base-14.2.6-0.el7.aarch64.rpm             libradosstriper-devel-14.2.6-0.el7.aarch64.rpm
ceph-common-14.2.6-0.el7.aarch64.rpm           librbd1-14.2.6-0.el7.aarch64.rpm
ceph-debuginfo-14.2.6-0.el7.aarch64.rpm        librbd-devel-14.2.6-0.el7.aarch64.rpm
cephfs-java-14.2.6-0.el7.aarch64.rpm           librgw2-14.2.6-0.el7.aarch64.rpm
ceph-fuse-14.2.6-0.el7.aarch64.rpm             librgw-devel-14.2.6-0.el7.aarch64.rpm
ceph-mds-14.2.6-0.el7.aarch64.rpm              python3-ceph-argparse-14.2.6-0.el7.aarch64.rpm
ceph-mgr-14.2.6-0.el7.aarch64.rpm              python3-cephfs-14.2.6-0.el7.aarch64.rpm
ceph-mon-14.2.6-0.el7.aarch64.rpm              python3-rados-14.2.6-0.el7.aarch64.rpm
ceph-osd-14.2.6-0.el7.aarch64.rpm              python3-rbd-14.2.6-0.el7.aarch64.rpm
ceph-radosgw-14.2.6-0.el7.aarch64.rpm          python3-rgw-14.2.6-0.el7.aarch64.rpm
ceph-resource-agents-14.2.6-0.el7.aarch64.rpm  python-ceph-argparse-14.2.6-0.el7.aarch64.rpm
ceph-selinux-14.2.6-0.el7.aarch64.rpm          python-ceph-compat-14.2.6-0.el7.aarch64.rpm
ceph-test-14.2.6-0.el7.aarch64.rpm             python-cephfs-14.2.6-0.el7.aarch64.rpm
get.sh                                         python-rados-14.2.6-0.el7.aarch64.rpm
libcephfs2-14.2.6-0.el7.aarch64.rpm            python-rbd-14.2.6-0.el7.aarch64.rpm
libcephfs-devel-14.2.6-0.el7.aarch64.rpm       python-rgw-14.2.6-0.el7.aarch64.rpm
libcephfs_jni1-14.2.6-0.el7.aarch64.rpm        rados-objclass-devel-14.2.6-0.el7.aarch64.rpm
libcephfs_jni-devel-14.2.6-0.el7.aarch64.rpm   rbd-fuse-14.2.6-0.el7.aarch64.rpm
librados2-14.2.6-0.el7.aarch64.rpm             rbd-mirror-14.2.6-0.el7.aarch64.rpm
librados-devel-14.2.6-0.el7.aarch64.rpm        rbd-nbd-14.2.6-0.el7.aarch64.rpm

1.4 如法炮制,修改aarch.txt文件名和内容,下载noarch/ 和 x86_64/ 两个文件夹里面的 14.2.6的rpm文件。

1.5 注意
noarch/ 文件夹下,有些rpm文件并未显示全名,例如:
  ceph-mgr-diskprediction-cloud-14.2.6-0.el7.noar..> 14-Jan-2020 23:18  85684
   脚本下载不到,此时需要手动点击链接下载。
   同时,需要手动下载:(别问为啥)
  ceph-deploy-2.0.1-0.noarch.rpm
  ceph-medic-1.0.4-16.g60cf7e9.el7.noarch.rpm
  ceph-release-1-1.el7.noarch.rpm

1.6 将下载的rpm文件制作本地yum源,给虚拟机ceph集群使用
]# mv /root/rpm /var/ftp/pub/ceph
]# cd /var/ftp/pub/ceph/
ceph]# createrepo .
Spawning worker 0 with 24 pkgs
Spawning worker 1 with 24 pkgs
Spawning worker 2 with 23 pkgs
Spawning worker 3 with 23 pkgs
Workers Finished
Saving Primary metadata
Saving file lists metadata
Saving other metadata
Generating sqlite DBs
Sqlite DBs complete

]# vim /etc/yum.repos.d/ceph.repo
[ceph]
name=ceph repo
baseurl=ftp://192.168.4.1/pub/ceph
gpgcheck=0
enable=1

然后将此文件发到各个虚拟机即可。

2. 创建虚拟机,准备集群环境
2.1 创建虚拟机,修改主机名,启动网卡
lient :192.168.4.10
node1 :192.168.4.11
ndoe2 :192.168.4.12
node3 :192.168.4.13

2.2 配置四台机器互相远程无密码连接(包括自己)
]# ssh-keygen -f /root/.ssh/id_rsa -N ‘‘
]# for i in 10 11 12 13
> do
> ssh-copy-id 192.168.4.$i
> done

2.3 修改/etc/hosts并同步到所有主机。
警告:/etc/hosts解析的域名必须与本机主机名一致!
]# vim /etc/hosts
... ...
192.168.4.10  client
192.168.4.11  node1
192.168.4.12  node2
192.168.4.13  node3

2.3 配置NTP时间同步
真实物理机创建NTP服务器
]# yum -y install chrony
]# vim /etc/chrony.conf
server ntp.aliyun.com iburst
allow 192.168.4.0/24
local stratum 10
]# systemctl restart chronyd
]# chronyc sources -v        #出现*时间同步成功
...
^* 203.107.6.88...

其他所有节点与NTP服务器同步时间(以node1为例)。
]# vim /etc/chrony.conf
server 192.168.4.1 iburst
]# systemctl restart chronyd
]# chronyc sources -v        #出现*时间同步成功

2.4 准备存储磁盘
物理机上为每个虚拟机准备3块磁盘
]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
vdb    252:16   0   20G  0 disk
vdc    252:32   0   20G  0 disk
vdd    252:48   0   20G  0 disk

未完待续...

原文地址:https://www.cnblogs.com/luwei0915/p/12204017.html

时间: 2024-10-08 04:21:37

22_2020年最新部署Ceph集群 Ceph块存储的相关文章

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配

Ceph 之 使用ceph-deploy部署ceph集群

  上面左边是我的个人微信,如需进一步沟通,请加微信.  右边是我的公众号"Openstack私有云",如有兴趣,请关注. 环境: 系统centos7.4 ceph版本 ceph version 10.2.10 测试服务器为kvm虚拟机(openstack虚拟机) 本篇文章是记录下自己的部署过程,服务器使用kvm虚拟机,只测试功能,服务器分配如下 节点 服务 cluster network ceph-1(admin-node) osd.{1,2,},mon.ceph-1 eth0:19

为docker ceph集群添加mon

查看ceph集群 ceph -s     cluster 4ae8b795-a8b2-4904-9573-f6f658838db3      health HEALTH_OK      monmap e1: 1 mons at {mon0=10.64.0.4:6789/0}             election epoch 1, quorum 0 mon0      osdmap e14: 3 osds: 3 up, 3 in       pgmap v27: 64 pgs, 1 pools

ceph集群简单安装部署v1.0

本次测试.为了快速地安装,所以把目录而非整个硬盘用于 OSD 守护进程.后面的 后面的测试还将会有使用硬盘来作为OSD数据盘 测试机规划 节点名称 IP 地址 部署进程 系统盘 数据盘 ceph1 eth0 192.168.89.10 外网    eth1 10.0.0.10 内网 1MON+1MDS+2OSD /dev/vda 20G /dev/vdb, /dev/vdc ceph2 eth0 192.168.89.11 外网    eth1 10.0.0.11 内网 1MON+1MDS+2O

部署CEPH集群

什么是CEPH组件 ceph-topo Ceph的底层是RADOS,它的意思是"A reliable, autonomous, distributed object storage". RADOS由两个组件组成: OSD: Object Storage Device,提供存储资源.Monitor:维护整个Ceph集群的全局状态.RADOS具有很强的扩展性和可编程性,Ceph基于RADOS开发了Object Storage.Block Storage.FileSystem.Ceph另外两

部署Ceph集群--jluocc

一 前言 分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式 1,什么是Ceph?Ceph:是一个 Linux PB 级分布式文件系统特点:具有高扩展,高可用,高性能的特点可以提供对象存储,块存储,文件存储可以提供PB级别的存储空间(PB->TB->GB)帮助文档:http://docs.ceph.org/start/intro中文文档:http://docs.

003 ansible部署ceph集群

介绍:在上一次的deploy部署ceph,虽然出了结果,最后的结果并没有满足最初的目的,现在尝试使用ansible部署一遍,看是否会有问题 一.环境准备 ceph1充当部署节点,ceph2,ceph3,ceph4充当ceph集群节点 IP 主机名 节点 系统 172.25.250.10 ceph1 ceph-ansible Red Hat release 7.4 172.25.250.11 ceph2 mon.mgr.osd Red Hat release 7.4 172.25.250.12 c

Ubuntu 16.04下使用docker部署ceph集群

ceph集群docker部署 通过docker可以快速部署小规模Ceph集群的流程,可用于开发测试. 以下的安装流程是通过linux shell来执行的:假设你只有一台机器,装了linux(如Ubuntu)系统和docker环境,那么可以参考以下步骤安装Ceph: # 要用root用户创建, 或有sudo权限 # 注: 建议使用这个docker镜像源:https://registry.docker-cn.com # 1. 修改docker镜像源 cat > /etc/docker/daemon.

centos7部署ceph集群(正确)

环境介绍 主机名 系统 ip地址 ceph版本 ceph-node1 CentOS Linux release 7.2.1511 192.168.1.120 jewel ceph-node2 CentOS Linux release 7.2.1511 192.168.1.121 jewel ceph-node3 CentOS Linux release 7.2.1511 192.168.1.128 jewel 准备工作 ◆ 1-7在三台ceph节点上都需要进行操作 ◆ 8只在ceph1操作即可