openstack cinder lvm配置

############
yum install lvm2 -y
systemctl enable lvm2-lvmetad.service
systemctl restart lvm2-lvmetad.service   

yes |pvcreate /dev/sdb
yes |vgcreate vg_sdb /dev/sdb

\cp -f /etc/lvm/lvm.conf{,.bak}

####如果系统是lvm分区 sda
sed -i ‘/devices {/ a filter = [ "a/sda/","a/sdb/", "r/.*/"]‘ /etc/lvm/lvm.conf
grep ‘devices {‘ -C 3 /etc/lvm/lvm.conf

##
yum install openstack-cinder targetcli python-oslo-policy -y

systemctl enable openstack-cinder-volume.service target.service
systemctl restart openstack-cinder-volume.service target.service

echo "
[lvm]
volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver
volume_group = vg_sdb
iscsi_protocol = iscsi
iscsi_helper = lioadm
volume_backend_name = lvm
" >>/etc/cinder/cinder.conf
tail /etc/cinder/cinder.conf

[ $(grep -c ‘^enabled_backends‘ /etc/cinder/cinder.conf) -eq 0 ] && sed -i ‘s/\[DEFAULT\]/ a enabled_backends=lvm/g‘ /etc/cinder/cinder.conf || sed -i ‘s/^enabled_backends.*=/enabled_backends=lvm,/g‘ /etc/cinder/cinder.conf

grep enabled_backends /etc/cinder/cinder.conf

systemctl enable openstack-cinder-volume.service target.service

原文地址:https://www.cnblogs.com/blog-lhong/p/11765422.html

时间: 2024-11-12 19:12:26

openstack cinder lvm配置的相关文章

OpenStack学习之Cinder LVM 配置

0.背景 OpenStack 中的实例是不能持久化的,需要挂载 volume,在 volume 中实现持久化.Cinder提供持久的块存储,目前仅供给虚拟机挂载使用.它并没有实现对块设备的管理和实际服务,而是为后端不同的存储结构提供了统一的接口,不同的块设备服务厂商在 Cinder 中实现其驱动支持以与 OpenStack 进行整合.它通过整合后端多种存储,用API接口为外界提供存储服务.主要核心是对卷的管理,允许都卷.类型和快照进行处理. Cinder存储分为本地块存储.分布式块存储和SAN存

openstack:cinder-volume配置lvm/glusterfs/IP-SAN等多种后端

这里配置了三种后端: (1)本地创建逻辑卷lvm后端 (2)glusterfs后端 (3)使用openstack中第三方驱动的IP-SAN,型号为IBM Storwize系列 cinder.conf配置如下: [DEFAULT] enabled_backends = lvm,glusterfs,ibm [lvm] volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver volume_backend_name=LVM volume_gro

OpenStack Cinder 与各种后端存储技术的集成叙述与实践

先说下下loop设备 loop设备及losetup命令介绍 1. loop设备介绍 在类 UNIX 系统里,loop 设备是一种伪设备(pseudo-device),或者也可以说是仿真设备.它能使我们像块设备一样访问一个文件.在使用之前,一个 loop 设备必须要和一个文件进行连接.这种结合方式给用户提供了一个替代块特殊文件的接口.因此,如果这个文件包含有一个完整的文件系统,那么这个文件就可以像一个磁盘设备一样被 mount 起来.    上面说的文件格式,我们经常见到的是 CD 或 DVD 的

Openstack Cinder使用NetApp NFS作为后端存储

公司使用NetApp FS8020 R6作为测试环境NFS存储使用.正好有机会测一下OpenStack的Cinder跟NetApp存储集成. 说明: 1.OpenStack使用NetApp存储直接挂载NFS文件没任何问题,生产中已使用比较稳定测试IOPS在160-220M/s. 2.使用OpenStack的Cinder无法像挂载如Linux主机共享NFS文件那样直接使用,需要调用NetAPP的API才能实现功能,如果设置为标准驱动现象为cinder-volume在开始的时候是正常的,但是一般十来

OpenStack安装与配置2

第二部分 OpenStack安装与配置 一.引言 本章内容讲解如何在3台物理机上搭建最小化云平台,这3台机器分为称为Server1.Server2和Client1,之后的各章也是如此.Server1承载着Nova.Glance.Swift.Keystone及Horizon(OpenStack的Web UI)服务.Server2只用来运行实例管理的nova运算工作站.由于OpenStack组件采用分布式结构,其中的任何一部分或几个部分都可以安装在任意服务器上. Client1并不是安装所必须的,在

有Ceph、GlusterFS等分布式存储的实际开发和应用经验,Openstack Cinder框架、容器卷管理方案如Flocker

岗位职责:参与构建云存储服务,包括开发.设计和运维工作?. 任职要求:1.本科及以上,3年以上存储系开发.设计或运维工作经验:2.熟练操作Linux系统并对内核比较了解:对云计算.虚拟化有所了解:3.有Ceph.GlusterFS等分布式存储的实际开发和应用经验:4.至少精通JAVA.Python.Ruby.C/C++.Go等语言之一,具备较强的开发能力和技巧:5.有参与过云平台或大型互联网系统底层平台开发设计者优先:参与过开源代码项目贡献的优先:6.喜欢钻研技术,想从事云计算的开发设计和运维工

CentOS项目实例之五--LVM配置

1. ZZSRV2上的LVM配置 1.1. 磁盘配置 # fdisk -l Disk /dev/sda: 21.5 GB, 21474836480 bytes, 41943040 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk labe

openstack cinder manager volumes

迁移(migrate)volume $ cinder migrate volumeID destinationHost –force-host-copy=True|False destinationHost目标主机 –force-host-copy 强制迁移 创建(create)volume 只创建volume $ cinder create –display-name myvo1 10 myvo1是创建完毕后显示名称 10是创建volume大小为10GB 创建一个附带镜像的volume,下次启

Ubuntu Server上的LVM配置

在安装Linux的时候,通常遇到的一个比较头痛的问题就是分区,到底每个区该分多少,用了一段时间之后,某个分区又不够用了,该怎么办?如果是普通的服务器,那一切都好说,大不了就关机重新划分分区嘛,但是对于有些关键的服务器,别说关机,就是停止服务都是不可忍受的.例如:一个虚拟主机服务提供商,本来给/home划了100G空间,在刚开始的第一年,一切都还好,空间够用,等到了第二年,开始搞促销,结果两个月之后,/home分区就只剩下1GB了,而且/var分区估计1个月后也要用完了,怎么办?有没有在不停止服务