ceph集群一键部署脚本

分布式存储ceph相信大家比较熟悉了。某项目临时要做一个40个节点的存储集群。所以写了这个脚本。

一键部署脚本如下:

git clone https://github.com/luckman666/deploy_ceph_cluster.git
cd deploy_ceph_cluster
chmod -R 755 .
# 编辑base.config
./deploy_ceph_master.sh

root用户执行就行,osd划盘的时候需要给设备赋权为ceph:ceph权限.

大家可以关注我的个人公众号获取项目代码和相关讲解!

原文地址:https://www.cnblogs.com/devops-ITboge/p/11013154.html

时间: 2024-08-29 14:29:54

ceph集群一键部署脚本的相关文章

使用Helm 在容器服务k8s集群一键部署wordpress

摘要: Helm 是啥? 微服务和容器化给复杂应用部署与管理带来了极大的挑战.Helm是目前Kubernetes服务编排领域的唯一开源子项目,做为Kubernetes应用的一个包管理工具,可理解为Kubernetes的apt-get / yum,由Deis 公司发起,该公司已经被微软收购. Helm 是啥? 微服务和容器化给复杂应用部署与管理带来了极大的挑战.Helm是目前Kubernetes服务编排领域的唯一开源子项目,做为Kubernetes应用的一个包管理工具,可理解为Kubernetes

k8s集群一键新加node节点脚本

继推出k8s集群一键升级脚本之后有不少小伙伴还有k8s在线扩容节点的需求,所以本次波哥就又写了一个扩充节点的脚本.明天有时间我再整理一下k8s部署集群脚本,目前是固定版本的,转化成部署任意版本的脚本或许更灵活一些.这样我们部署,升级,扩容三套脚本基本就能搞定k8s日常基础需求了.波哥也可以安心的写小程序后台了. 同样只要是你使用波哥的脚本部署的k8s集群都支持一键扩容哦! 脚本介绍: 跟以往一下我们有个base.config文件,修改上面的参数.这里我写好了自己的例子还有相关注释. 配置完毕后执

Ubuntu 16.04下使用docker部署ceph集群

ceph集群docker部署 通过docker可以快速部署小规模Ceph集群的流程,可用于开发测试. 以下的安装流程是通过linux shell来执行的:假设你只有一台机器,装了linux(如Ubuntu)系统和docker环境,那么可以参考以下步骤安装Ceph: # 要用root用户创建, 或有sudo权限 # 注: 建议使用这个docker镜像源:https://registry.docker-cn.com # 1. 修改docker镜像源 cat > /etc/docker/daemon.

CEPH的基本概念及通过Ceph-Deploy快速部署CEPH集群

基础概念 **OSD**:Object Storage Device,主要用于存储数据,处理数据,,恢复,回不,平衡数据,并提供数据给monitor. **Monitor**:Ceph监视器,主要用于集群健康状态维护,提供策略,包含Monitor Map ,OSD Map,PG ma和CRUSH MAP **MSD**:Cpeh Metadata Server,主要保存ceph文件系统的元数据,快存储,对象存储不需要MSD. Ceph的架构核心组件RADOS,如架构图 RADOS:具备自我修复的

部署Ceph集群--jluocc

一 前言 分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式 1,什么是Ceph?Ceph:是一个 Linux PB 级分布式文件系统特点:具有高扩展,高可用,高性能的特点可以提供对象存储,块存储,文件存储可以提供PB级别的存储空间(PB->TB->GB)帮助文档:http://docs.ceph.org/start/intro中文文档:http://docs.

ceph集群简单安装部署v1.0

本次测试.为了快速地安装,所以把目录而非整个硬盘用于 OSD 守护进程.后面的 后面的测试还将会有使用硬盘来作为OSD数据盘 测试机规划 节点名称 IP 地址 部署进程 系统盘 数据盘 ceph1 eth0 192.168.89.10 外网    eth1 10.0.0.10 内网 1MON+1MDS+2OSD /dev/vda 20G /dev/vdb, /dev/vdc ceph2 eth0 192.168.89.11 外网    eth1 10.0.0.11 内网 1MON+1MDS+2O

Ceph 之 使用ceph-deploy部署ceph集群

  上面左边是我的个人微信,如需进一步沟通,请加微信.  右边是我的公众号"Openstack私有云",如有兴趣,请关注. 环境: 系统centos7.4 ceph版本 ceph version 10.2.10 测试服务器为kvm虚拟机(openstack虚拟机) 本篇文章是记录下自己的部署过程,服务器使用kvm虚拟机,只测试功能,服务器分配如下 节点 服务 cluster network ceph-1(admin-node) osd.{1,2,},mon.ceph-1 eth0:19

部署CEPH集群

什么是CEPH组件 ceph-topo Ceph的底层是RADOS,它的意思是"A reliable, autonomous, distributed object storage". RADOS由两个组件组成: OSD: Object Storage Device,提供存储资源.Monitor:维护整个Ceph集群的全局状态.RADOS具有很强的扩展性和可编程性,Ceph基于RADOS开发了Object Storage.Block Storage.FileSystem.Ceph另外两

二十八. Ceph概述 部署Ceph集群 Ceph块存储

client:192.168.4.10 node1 :192.168.4.11 ndoe2 :192.168.4.12 node3 :192.168.4.13 1.实验环境 准备四台KVM虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能: 创建1台客户端虚拟机 创建3台存储集群虚拟机 配置主机名.IP地址.YUM源 修改所有主机的主机名 配置无密码SSH连接 配置NTP时间同步 创建虚拟机磁盘 1.1 五台机器(包括真机)配置yum源 1.1.1 全部搭建ftp服务 1.1.2 配