OpenStack+Ceph平台集成

文档下载

OpenStack+Ceph平台构建(已排好版)

参考文档

官方文档

OpenStack集成Ceph

如何将Ceph与OpenStack集成

部署步骤

Ceph配置

创建Pool

# ceph osd pool create volumes 64

# ceph osd pool create images 64

# ceph osd pool create vms 64

OpenStack配置

安装Ceph Client包

在glance-api(控制节点)节点上

yum install python-rbd -y

在nova-compute(计算节点)和cinder-volume节点上

yum install ceph-common -y

复制配置文件到OpenStack相关节点

ssh controller sudo tee /etc/ceph/ceph.conf < /etc/ceph/ceph.conf

ssh compute sudo tee /etc/ceph/ceph.conf < /etc/ceph/ceph.conf

为Nova/Cinder and Glance创建新的用户

只有开启了cephx authentication,才需要

1、创建密钥,用的是auth get-or-create

ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rx pool=images'

ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images'

2、为client.cinder, client.glance添加keyring,并修改所属主/组

ceph auth get-or-create client.glance | ssh controller sudo tee /etc/ceph/ceph.client.glance.keyring

ssh controller sudo chown glance:glance /etc/ceph/ceph.client.glance.keyring

ceph auth get-or-create client.cinder | ssh compute sudo tee /etc/ceph/ceph.client.cinder.keyring

ssh compute sudo chown cinder:cinder /etc/ceph/ceph.client.cinder.keyring

3、为nova-compute节点上创建临时密钥

ceph auth get-key client.cinder | ssh {your-compute-node} tee client.cinder.key

此处为:

ceph auth get-key client.cinder | ssh compute tee client.cinder.key

4、在所有计算节点上(本例就只有一台计算节点)执行如下操作:在计算节点上为libvert替换新的key。

因为libvirt创建磁盘时,需要访问ceph集群。所以需要替换key

uuidgen

536f43c1-d367-45e0-ae64-72d987417c91

cat > secret.xml <<EOF

#粘贴以下内容,注意将红色key替换为新生成的key。

<secret ephemeral='no' private='no'>

<uuid>536f43c1-d367-45e0-ae64-72d987417c91</uuid>

<usage type='ceph'>

<name>client.cinder secret</name>

</usage>

</secret>

EOF

virsh secret-define --file secret.xml

以--base64 后的秘钥为计算节点上/root目录下的client.cinder.key。是之前为计算节点创建的临时秘钥文件

virsh secret-set-value  536f43c1-d367-45e0-ae64-72d987417c91  AQCliYVYCAzsEhAAMSeU34p3XBLVcvc4r46SyA==

这是通过--base64() 作用临时密钥生成的

AQCliYVYCAzsEhAAMSeU34p3XBLVcvc4r46SyA==

这里也可以替换为

--base64 $(cat client.cinder.key)

然后删除临时密钥

rm –f client.cinder.key secret.xml

5、修改配置文件
glance-api.conf

[DEFAULT]

default_store = rbd

show_image_direct_url = True

show_multiple_locations = True

[glance_store]

stores = rbd

default_store = rbd

rbd_store_pool = images

rbd_store_user = glance

rbd_store_ceph_conf = /etc/ceph/ceph.conf

rbd_store_chunk_size = 8

取消Glance cache管理,去掉cachemanagement

[paste_deploy]

flavor = keystone

cinder-voluem的cinder.conf

[DEFAULT]

保留之前的

enabled_backends = ceph

#glance_api_version = 2

[ceph]

volume_driver = cinder.volume.drivers.rbd.RBDDriver

rbd_pool = volumes

rbd_ceph_conf = /etc/ceph/ceph.conf

rbd_flatten_volume_from_snapshot = false

rbd_max_clone_depth = 5

rbd_store_chunk_size = 4

rados_connect_timeout = -1

glance_api_version = 2

rbd_user = cinder

volume_backend_name = ceph

rbd_secret_uuid =536f43c1-d367-45e0-ae64-72d987417c91

注意, 所有计算节点上的 UUID 不一定非要一样。但考虑到平台的一致性, 最好使用同一个 UUID

注意,如果配置多个cinder后端,glance_api_version = 2必须添加到[DEFAULT]中。本例注释了

compute节点nova.conf

[libvirt]

virt_type = qemu

hw_disk_discard = unmap

images_type = rbd

images_rbd_pool = vms

images_rbd_ceph_conf = /etc/ceph/ceph.conf

rbd_user = cinder

rbd_secret_uuid = 536f43c1-d367-45e0-ae64-72d987417c91

disk_cachemodes="network=writeback"

libvirt_inject_password = false

libvirt_inject_key = false

libvirt_inject_partition = -2

live_migration_flag=VIR_MIGRATE_UNDEFINE_SOURCE, VIR_MIGRATE_PEER2PEER, VIR_MIGRATE_LIVE, VIR_MIGRATE_TUNNELLED

6、重启OpenStack

systemctl restart openstack-glance-api.service

systemctl restart openstack-nova-compute.service openstack-cinder-volume.service

验证

glance验证

1、下载Cirros镜像并将其添加到Glance。

wget http://download.cirros-cloud.net/0.3.4/cirros-0.3.4-x86_64-disk.img

2、将QCOW2转换为RAW。 使用Ceph,image必须是 RAW格式。

qemu-img convert cirros-0.3.4-x86_64-disk.img cirros-0.3.4-x86_64-disk.raw

3、将镜像添加到Glance

glance image-create --name "Cirros 0.3.4" --disk-format raw --container-format bare --visibility public --file cirros-0.3.4-x86_64-disk.raw

cinder验证

1、创建Cinder卷

cinder create --display-name="test" 1

2、在Ceph中列出Cinder卷。

$ sudo rbd ls volumes

volume-d251bb74-5c5c-4c40-a15b-2a4a17bbed8b

$ sudo rbd info volumes/volume-d251bb74-5c5c-4c40-a15b-2a4a17bbed8b

nova验证

1、启动使用在Glance步骤中添加的Cirros镜像的临时VM实例

nova boot --flavor m1.small --nic net-id=4683d03d-30fc-4dd1-9b5f-eccd87340e70 --image='Cirros 0.3.4' cephvm

2、等待VM处于活动状态

nova list

3、在Ceph虚拟机池中列出镜像。我们现在应该看到镜像存储在Ceph中

sudo rbd -p vms ls

原文地址:http://blog.51cto.com/12758568/2136550

时间: 2024-10-29 01:59:12

OpenStack+Ceph平台集成的相关文章

理解 OpenStack + Ceph (5):OpenStack 与 Ceph 之间的集成 [OpenStack Integration with Ceph]

理解 OpenStack + Ceph 系列文章: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和逻辑结构 (4)Ceph 基础数据结构 (5)Ceph 与 OpenStack 的集成 1. Glance 与 Ceph RBD 集成 1.1 代码 Kilo 版本中,glance-store 代码被从 glance 代码中分离出来了,地址在 https://github.com/openstack/glance_store. Glance 中与 Ceph 相关的配置项

ceph与openstack的对接集成

实验环境三节点的社区版Openstack环境controller:172.16.1.100computer:172.16.1.131cinder:172.16.1.132 这里三个节点使用的IP地址为Openstack的管理地址ceph1:172.16.1.128ceph2:172.16.1.129ceph3:172.16.1.130我这里使用的Openstack云平台跟ceph分布式集群均为手动搭建的测试环境使用rbd方式为云平台提供存储(1)image:保存glance中的映像文件(2)vo

《理解 OpenStack + Ceph》-来自-[爱.知识]-收集-分享

企业IT技术分享(2016-06-29) 来自(QQ群:企业私有云平台实战 454544014)收集整理! 理解 OpenStack + Ceph (1):Ceph + OpenStack 集群部署和配置 http://www.cnblogs.com/sammyliu/p/4804037.html 理解 OpenStack + Ceph (2):Ceph 的物理和逻辑结构 [Ceph Architecture] http://www.cnblogs.com/sammyliu/p/4836014.

下载深入浅出OpenStack云计算平台管理(nova-computenetwork)

OpenStack是 一个由Rackspace发起.全球开发者共同参与的开源项目,旨在打造易于部署.功能丰富且易于扩展的云计算平台.OpenStack企图成为数据中心 的操作系统,即云操作系统.从项目发起之初,OpenStack就几乎赢得了所有IT巨头的关注,在各种OpenStack技术会议上人们激情澎湃,几乎所有人都成为OpenStack的信徒. 深入浅出OpenStack云计算平台管理(nova-computenetwork),刚刚入手,转一注册文件,视频的确不错,可以先下载看看:http:

大数据云计算openstack云平台基础到精通实践视频教程

38套大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程 视频课程包含: 38套大数据和人工智能精品高级课包含:大数据,云计算,架构,数据挖掘实战,实时推荐系统实战,电视收视率项目实战,实时流统计项目实战,离线电商分析项目实战,Spark大型项目实战用户分析,智能客户系统项目实战,Linux基础,Hadoop,Spark,Storm,Docker,Mapreduce,Kafka,Flume,OpenStack,Hiv

Openstack+KVM+Ceph+Docker 集成云计算中

对于以基础架构即服务形式部署和设计云计算产品的公司而言,数据复制和存储机制仍然是确保为客户提供完整性和服务连续性的实际前提条件.云计算提供了一种模型,其中数据的位置没有其他基础架构模型中那么重要(比如在一些模型中,公司直接拥有昂贵的存储硬件).Ceph 是一个开源.统一.分布式的存储系统,提供了一种便捷方式来部署包含商用硬件.低成本且可大规模扩展的存储平台.了解如何创建一个 Ceph 集群(从单一点实现对象.块和文件存储).Ceph 的算法和复制机制,以及如何将它与您的云数据架构和模型相集成.作

KVM+Openstack+Ceph+Docker 云计算周末集训营

介绍 由3w教育发布,面向从事云计算的在职运维人员,或者想进入云计算领域的相关IT工作人员,或者是对云计算感兴趣的开发人员.<要求: 参加本课程需要学员具备熟练使用Linux操作系统6个月以上的经验> 分为12个节,周期为1.5个月:每周两节(周六和周日):小班制:结束后会下发产出文档和视频,供学生在课后复习和练习参考使用. 时间: 2016年2月27日 学习地点: 北辰泰岳大厦19层 地址: 北京市朝阳区北苑路北甲13号院(地铁5号线北苑路北A口出来,向北 100米) 资费: 6800元 联

理解 OpenStack + Ceph (8): 基本的性能测试方法

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和逻辑结构 (4)Ceph 的基础数据结构 (5)Ceph 与 OpenStack 集成的实现 (6)QEMU-KVM 和 Ceph RBD 的 缓存机制总结 (7)Ceph 的基本操作和常见故障排除方法 (8)基本的性能测试和调优方法 继续学以致用,学习下基本的Ceph性能测试工具和方法. 0. 测试环境 同 Ceph 的基本操作和常见故障

理解 OpenStack &amp; Ceph (4):Ceph 的基础数据结构 [Pool, Image, Snapshot, Clone]

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和逻辑结构 (4)Ceph 的基础数据结构 (5)Ceph 与 OpenStack 集成的实现 (6)TBD 1 Pool(池) Pool 的概念前面讲过了,Ceph 支持丰富的对 Pool 的操作,主要的包括: 列表.创建和删除 pool ceph osd pool create {pool-name} {pg-num} [{pgp-num