配置glance使用ceph作为后端存储

在ceph监视器上执行

1.创建pool池

为glance服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1)

ceph osd pool create glance-images  32

ceph osd pool set glance-images size 1

ceph osd pool application enable glance-images rbd

2.查看pool池的使用情况

ceph df

3.创建账号

ceph auth get-or-create client.glance-images mon ‘allow r‘ osd ‘allow class-read object_prefix rbd_children, allow rwx pool=glance-images‘ -o /etc/ceph/ceph.client.glance-images.keyring

查看:

ceph auth ls | grep -EA3 ‘client.(glance-images)‘

4.修改ceph.conf配置文件并同步到所有的监视器节点(这步一定要操作)

su - cephd

cd ~/ceph-cluster/

cat <<EOF>> ceph.conf

[client.glance-images]

keyring = /etc/ceph/ceph.client.glance-images.keyring

EOF

ceph-deploy --overwrite-conf admin ceph-mon01

exit

5.将ceph监视器节点上的ceph配置文件和glance用户密钥环文件拷贝到glance服务节点上

scp /etc/ceph/ceph.conf   <glance-node>:/etc/ceph/ceph.conf

原文地址:https://www.cnblogs.com/jipinglong/p/11223064.html

时间: 2024-12-20 08:47:31

配置glance使用ceph作为后端存储的相关文章

配置cinder-backup服务使用ceph作为后端存储

在ceph监视器上执行 CINDER_PASSWD='cinder1234!' controllerHost='controller' RABBIT_PASSWD='0penstackRMQ' 1.创建pool池 为cinder-backup服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1) ceph osd pool create cinder-backup 32 ceph osd pool set cinder-backup size 1 ceph osd pool ap

配置nova服务使用ceph作为后端存储

在ceph监视器上执行 1.创建pool池 为nova服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1) ceph osd pool create nova-vms 32 ceph osd pool set nova-vms size 1 ceph osd pool application enable glance-images rbd 2.查看pool池的使用情况 ceph df 3.创建账号 ceph auth get-or-create client.nova-vms

openstack运维实战系列(十七)之glance与ceph结合

1. 需求说明 glance作为openstack中image服务,支持多种适配器,支持将image存放到本地文件系统,http服务器,ceph分布式文件系统,glusterfs和sleepdog等开源的分布式文件系统上,本文,通过将讲述glance如何和ceph结合. 目前glance采用的是本地filesystem的方式存储,存放在默认的路径/var/lib/glance/images下,当把本地的文件系统修改为分布式的文件系统ceph之后,原本在系统中镜像将无法使用,所以建议当前的镜像删除

使用Ceph作为OpenStack的后端存储

概述 libvirt配置了librbd的QEMU接口,通过它可以在OpenStack中使用Ceph块存储.Ceph块存储是集群对象,这意味着它比独立的服务器有更好的性能. 在OpenStack中使用Ceph块设备,必须首先安装QEMU,libvirt和OpenStack,下图描述了 OpenStack和Ceph技术层次结构: http://my.oschina.net/JerryBaby/blog/376580 我翻译的官方文档,仅供参考 ^ ^. 系统规划 OpenStack集群: 控制节点:

配置NFS网络存储作为cinder的后端存储

安装cinder和nfs yum install -y openstack-cinder yum install cifs-utils 在controller节点配置nfs [[email protected] ~]# mkdir -p /data/nfs #创建一个共享挂载资源的目录 [[email protected] ~]# cat /etc/exports /data/nfs *(rw,sync,root_squash) #NFS服务程序的配置文件为/etc/exports sync 同

Ceph作为OpenStack后端存储

Total PGs = (Total_number_of_OSD * 100) /max_replication_count) 1.  Create pool for OpenStack pg=256 ceph osd pool create volumes $pg   #disk_pool ceph osd pool create images $pg    #image_pool ceph osd pool create vms $pg      #host_pool ceph osd po

Openstack针对nova,cinder,glance使用ceph的虚拟机创建机制优化

 今天在开源中国社区看到有如下一个问题: 已经成功把ceph作为cinder和 glance的后端,但是如果作为nova的后端,虚拟机启动速度非常慢,网上查了一下是因为openstack创建虚拟机的时候通过ceph取镜像创建虚拟机再把虚拟机存回ceph的步骤浪费了很多时间,是否有办法不把镜像取到本地,而是直接在ceph的存储池里完成虚拟机的创建呢? 实际上,我当前也是把ceph作为nova,cinder,glance三者的后端,创建虚拟机速度非常慢.查了一下相关和资料,是有新的处理方式,当前

OpenStack Cinder 与各种后端存储技术的集成叙述与实践

先说下下loop设备 loop设备及losetup命令介绍 1. loop设备介绍 在类 UNIX 系统里,loop 设备是一种伪设备(pseudo-device),或者也可以说是仿真设备.它能使我们像块设备一样访问一个文件.在使用之前,一个 loop 设备必须要和一个文件进行连接.这种结合方式给用户提供了一个替代块特殊文件的接口.因此,如果这个文件包含有一个完整的文件系统,那么这个文件就可以像一个磁盘设备一样被 mount 起来.    上面说的文件格式,我们经常见到的是 CD 或 DVD 的

ceph rgw 对象存储 对象 生命周期 设置 -- lifecycle

1.简介 1.1 介绍     对于 存储 来说,容量 当然是 越大越好了,最好 可以 无限 写入(哈哈,哪有 那么 好的 事):但是 我们 可以 删除 老旧 无用的数据,不过 总不能 时时刻刻 的手动 删除 数据吧:我们 可以 根据 一定的规则 删除 老旧的数据,此时 就可以 设置 对象 生命周期规则,制定 数据 删除 规则,对于 客户来说,集群 好像 就可以 无限量 写入了(哈哈哈,所以 后端 才是 真实的,但是 删除 数据 有风险,谨慎操作哦!!!)     1.2 前提 条件     你