openstack的临时存储后端

声明:

本博客欢迎转发,但请保留原作者信息!

博客地址:http://blog.csdn.net/halcyonbaby

内容系本人学习、研究和总结,如有雷同,实属荣幸!

目前openstack提供了raw,qcow2,lvm,rbd四种类型的image后端。

所谓后端,即image/临时卷root盘的管理存储方式。

可以看出image在compute上缓存为base,以base创建虚拟机的磁盘,多个虚拟机的磁盘可能共享同一个base。

nova/virt/libvirt/imagebackend.py:

中有四个Raw,Qcow2,Lvm,Rbd四个类,均继承了image类,主要提供create_image方法和snapshot_extract方法。

image父类提供了cache方法,会调用create_image方法。

cache方法提供了image目录创建,调用create_image方法创建image, 完成preallocate(通过fallocate实现)。

create_image方法提供了image下载,根据backend类型不同进行backing_image创建的能力。

backend类主要提供对Raw,Qcow2, Lvm, Rbd的对象生成能力。

cache方法的调用流:

cache方法《------_create_image方法《------------------(rescue/finish_migration/spawn)

cache方法《------_create_images_and_backing方法《-----(hard_reboot/pre_livemigration)

配置项:

images_type 用于配置默认的image存储管理方式。可以设置为四种类型的任意一种。

volume_clear 用于定义临时卷删除的方式(各种安全删除策略)。

volume_clear_size 用于shred删除方式删除时破坏数据的大小。

openstack的临时存储后端

时间: 2024-11-24 06:38:01

openstack的临时存储后端的相关文章

openstack临时存储后端

声明: 本博客欢迎转发.但请保留原作者信息! 博客地址:http://blog.csdn.net/halcyonbaby 内容系本人学习.研究和总结,如有雷同,实属荣幸! 眼下openstack提供了raw,qcow2,lvm,rbd四种类型的image后端. 所谓后端,即image/暂时卷root盘的管理存储方式. 能够看出image在compute上缓存为base,以base创建虚拟机的磁盘,多个虚拟机的磁盘可能共享同一个base. nova/virt/libvirt/imagebacken

OpenStack Cinder 与各种后端存储技术的集成叙述与实践

先说下下loop设备 loop设备及losetup命令介绍 1. loop设备介绍 在类 UNIX 系统里,loop 设备是一种伪设备(pseudo-device),或者也可以说是仿真设备.它能使我们像块设备一样访问一个文件.在使用之前,一个 loop 设备必须要和一个文件进行连接.这种结合方式给用户提供了一个替代块特殊文件的接口.因此,如果这个文件包含有一个完整的文件系统,那么这个文件就可以像一个磁盘设备一样被 mount 起来.    上面说的文件格式,我们经常见到的是 CD 或 DVD 的

查看本地SPT上传到Microsoft Azure临时存储区是否成功的方法

在上一篇文章中,我介绍了如何将本地PST文件上传到Office 365用户邮箱的过程,这篇文章是上一篇的补充.因为我们首先将PST上传到Microsoft Azure 临时存储区中,我们如何确认上传是否成功呢?我们可以通过下面的方法查看: 1. 下载Microsoft Azure 存储资源管理器,下载地址http://storageexplorer.com/,下载完成执行安装 2. 打开Azure存储资源管理器,右键:storage Account,选择:connect to Azure sto

Nano v0.4.1发布 - NFS存储后端接入

大家好,最近因为家务较多耽搁了写代码,时隔一个多月的重大更新终于来了. 0.4.1实现了NFS后端存储接入,之所以称为重大更新,是因为后端存储的引入,实现了计算和存储的分离,意味着Cell节点毁损不会影响云主机实例数据,平台可用性大幅度提升,而且基于后端存储可以实现故障切换.实例迁移等高级功能. 另一方面,存储资源池的引入,确定了Nano的基本存储模型和使用流程,目前优先实现NFS是因为其简单可靠而且适用范围广,后续可以根据需要扩展VSAN/Ceph等多种存储格式. 详情请访问官网 https:

openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 三

openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 一 openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 二 openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 三 openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 四 以下操作在控制节点执行control

openstack:将cinder-volume后端配置为nfs存储

一.配置控制节点的nfs服务--nfs服务端 1. 在控制节点192.168.15.180上配置nfs服务 # yum install nfs-utils portmap # yum -y install nfs-utils rpcbind 创建nfs服务的目录: #mkdir  /root/nfs_dir 改配置: [[email protected] nfs_dir(keystone_admin)]# cat /etc/exports /var/nfs *(rw,sync,no_root_s

openstack:将cinder-volume后端配置为smbfs存储

一.在控制节点安装服务: yum install samba samba-client samba-swat 启动samba服务: [[email protected] system(keystone_admin)]# service smb restart Redirecting to /bin/systemctl restart  smb.service 配置samba为远程可访问: #mkdir /var/smb #cd /etc/samba/ #cp smb.conf smb.conf.

openstack swift做glance后端存储

在controller里操作 vim /etc/glance/glance-api.conf [glance_store] default_store = swift          默认为file 改为swift stores = file, http                默认不用动 swift_store_auth_version = 2        默认版本为2 stores=glance.store.swift.Store,glance.store.filesystem.S

OpenStack Cinder 块存储服务管理(七)

作者:李晓辉 联系方式: [email protected] 环境介绍 类型 控制节点和计算节点等在一起,形成all-in-one 内存 8G 硬盘 200G 网卡 2块 块存储服务概览 块存储服务(cinder)为实例提供块存储.存储的分配和消耗是由块存储驱动器,或者多后端配置的驱动器决定的.还有很多驱动程序可用:NAS/SAN,NFS,ISCSI,Ceph等. 典型情况下,块服务API和调度器服务运行在控制节点上.取决于使用的驱动,卷服务器可以运行在控制节点.计算节点或单独的存储节点. Op