配置cinder-backup服务使用ceph作为后端存储

在ceph监视器上执行

CINDER_PASSWD=‘cinder1234!‘

controllerHost=‘controller‘

RABBIT_PASSWD=‘0penstackRMQ‘

1.创建pool池

为cinder-backup服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1)

ceph osd pool create cinder-backup 32

ceph osd pool set cinder-backup size 1

ceph osd pool application enable  cinder-backup rbd

2.查看pool池的使用情况

ceph df

3.创建账号

ceph auth get-or-create client.cinder-backup mon ‘allow r‘ osd ‘allow class-read object_prefix rbd_children, allow rwx pool=cinder-volumes, allow rwx pool=cinder-backup‘ -o /etc/ceph/ceph.client.cinder-backup.keyring

#查看

ceph auth ls | grep -EA3 ‘client.(cinder-backup)‘

4.修改ceph.conf配置文件并同步到所有的监视器节点(这步一定要操作)

su - cephd

cd ~/ceph-cluster/

cat <<EOF>> ceph.conf

[client.cinder-backup]

keyring = /etc/ceph/ceph.client.cinder-backup.keyring

EOF

ceph-deploy --overwrite-conf admin ceph-mon01

exit

5.安装cinder-backup组件和ceph客户端(如果ceph监视器是在控制节点上不需要执行这一步)

yum -y install openstack-cinder python-keystone ceph-common

6.配置cinder-backup服务与cinder-api服务进行交互

openstack-config --set  /etc/cinder/cinder.conf DEFAULT transport_url rabbit://openstack:${RABBIT_PASSWD}@${controllerHost}:5672

openstack-config --set /etc/cinder/cinder.conf cache backend  oslo_cache.memcache_pool

openstack-config --set /etc/cinder/cinder.conf cache enabled  true

openstack-config --set /etc/cinder/cinder.conf cache memcache_servers  ${controllerHost}:11211

openstack-config --set  /etc/cinder/cinder.conf DEFAULT auth_strategy  keystone

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  auth_uri  http://${controllerHost}:5000

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  auth_url  http://${controllerHost}:5000

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  auth_type password

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  project_domain_id  default

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  user_domain_id  default

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  project_name  service

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  username  cinder

openstack-config --set  /etc/cinder/cinder.conf keystone_authtoken  password  ${CINDER_PASSWD}

openstack-config --set  /etc/cinder/cinder.conf oslo_concurrency lock_path  /var/lib/cinder/tmp

7.配置cinder-backup服务使用的后端存储为ceph

openstack-config --set /etc/cinder/cinder.conf  DEFAULT  enabled_backends  ceph

8.配置cinder-backup服务驱动ceph

openstack-config --set /etc/cinder/cinder.conf  DEFAULT backup_driver cinder.backup.drivers.ceph

openstack-config --set /etc/cinder/cinder.conf  DEFAULT backup_ceph_chunk_size  134217728    #128Mb

openstack-config --set /etc/cinder/cinder.conf  DEFAULT backup_ceph_conf  /etc/ceph/ceph.conf

openstack-config --set /etc/cinder/cinder.conf  DEFAULT backup_ceph_pool  cinder-backup

openstack-config --set /etc/cinder/cinder.conf  DEFAULT backup_ceph_user  cinder-backup

openstack-config --set /etc/cinder/cinder.conf  DEFAULT backup_ceph_stripe_count  0

openstack-config --set /etc/cinder/cinder.conf  DEFAULT backup_ceph_stripe_unit  0

openstack-config --set /etc/cinder/cinder.conf  DEFAULT restore_discard_excess_bytes  True

9.启动cinder.backup服务

systemctl enable openstack-cinder-backup

systemctl start openstack-cinder-backup

systemctl status openstack-cinder-backup

原文地址:https://www.cnblogs.com/jipinglong/p/11217074.html

时间: 2024-11-05 22:06:52

配置cinder-backup服务使用ceph作为后端存储的相关文章

配置nova服务使用ceph作为后端存储

在ceph监视器上执行 1.创建pool池 为nova服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1) ceph osd pool create nova-vms 32 ceph osd pool set nova-vms size 1 ceph osd pool application enable glance-images rbd 2.查看pool池的使用情况 ceph df 3.创建账号 ceph auth get-or-create client.nova-vms

配置glance使用ceph作为后端存储

在ceph监视器上执行 1.创建pool池 为glance服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1) ceph osd pool create glance-images  32 ceph osd pool set glance-images size 1 ceph osd pool application enable glance-images rbd 2.查看pool池的使用情况 ceph df 3.创建账号 ceph auth get-or-create cl

Cinder Backup备份

cinder 备份提供了三种驱动服务: Ceph,TSM,Swift 其中默认备份驱动服务为swift cinder 驱动服务的配置在cinder.conf文件中 backup_driver=cinder.backup.drivers.swift Ceph的配置 backup_driver = cinder.backup.drivers.ceph backup_ceph_conf=/etc/ceph/ceph.conf backup_ceph_user = cinder backup_ceph_

cinder backup ceph的配置和使用

Backup 是将 volume 备份到别的地方(备份设备),将来可以通过 restore 操作恢复. 初看 backup 功能好像与 snapshot 很相似,都可以保存 volume 的当前状态,以备以后恢复.但二者在用途和实现上还是有区别的,具体表现在: Snapshot 依赖于源 volume,不能独立存在:而 backup 不依赖源 volume,即便源 volume 不存在了,也可以 restore. Snapshot 与源 volume 通常存放在一起,都由同一个 volume p

配置NFS网络存储作为cinder的后端存储

安装cinder和nfs yum install -y openstack-cinder yum install cifs-utils 在controller节点配置nfs [[email protected] ~]# mkdir -p /data/nfs #创建一个共享挂载资源的目录 [[email protected] ~]# cat /etc/exports /data/nfs *(rw,sync,root_squash) #NFS服务程序的配置文件为/etc/exports sync 同

使用Ceph作为OpenStack的后端存储

概述 libvirt配置了librbd的QEMU接口,通过它可以在OpenStack中使用Ceph块存储.Ceph块存储是集群对象,这意味着它比独立的服务器有更好的性能. 在OpenStack中使用Ceph块设备,必须首先安装QEMU,libvirt和OpenStack,下图描述了 OpenStack和Ceph技术层次结构: http://my.oschina.net/JerryBaby/blog/376580 我翻译的官方文档,仅供参考 ^ ^. 系统规划 OpenStack集群: 控制节点:

OpenStack Cinder 与各种后端存储技术的集成叙述与实践

先说下下loop设备 loop设备及losetup命令介绍 1. loop设备介绍 在类 UNIX 系统里,loop 设备是一种伪设备(pseudo-device),或者也可以说是仿真设备.它能使我们像块设备一样访问一个文件.在使用之前,一个 loop 设备必须要和一个文件进行连接.这种结合方式给用户提供了一个替代块特殊文件的接口.因此,如果这个文件包含有一个完整的文件系统,那么这个文件就可以像一个磁盘设备一样被 mount 起来.    上面说的文件格式,我们经常见到的是 CD 或 DVD 的

Openstack存储总结之:详解如何使用NFS作为Cinder的后端存储

NFS服务简单描述 NFS是Network File System的缩写,即网络文件系统.一种使用于分散式文件系统的协定,由Sun公司开发,于1984年向外公布.功能是通过网络让不同的机器.不同的操 作系统能够彼此分享个别的数据,让应用程序在客户端通过网络访问位于服务器磁盘中的数据,是在类Unix系统间实现磁盘文件共享的一种方法. NFS的基本原则是"容许不同的客户端及服务端通过一组RPC分享相同的文件系统",它是独立于操作系统,容许不同硬件及操作系统的系统共同进行文件的分享. NFS

Openstack针对nova,cinder,glance使用ceph的虚拟机创建机制优化

 今天在开源中国社区看到有如下一个问题: 已经成功把ceph作为cinder和 glance的后端,但是如果作为nova的后端,虚拟机启动速度非常慢,网上查了一下是因为openstack创建虚拟机的时候通过ceph取镜像创建虚拟机再把虚拟机存回ceph的步骤浪费了很多时间,是否有办法不把镜像取到本地,而是直接在ceph的存储池里完成虚拟机的创建呢? 实际上,我当前也是把ceph作为nova,cinder,glance三者的后端,创建虚拟机速度非常慢.查了一下相关和资料,是有新的处理方式,当前