Openstack cinder 使用nfs 作为后端存储

实验环境
network 存储节点
controller nfs 客户端

1、在network节点上添加一个新的硬盘例如/dev/sdb
mkfs.xfs /dev/sdb
yum -y install rpbind nfs-utils
2、创建一个一个硬盘挂挂载点

mkdir -p /storage

3、vim /etc/fstab
/dev/sdb /storage xfs. default. 0. 0

4、vim /etc/exports
/storage *(rw,sync,no_root_squash,no_all_squash)

5、nfs客户端创建响应的目录文件以及修改相应的权限
touch /etc/cinder/nfsshares
echo "10.37.129.12:/storage" >>/etc/cinder/nfsshares
chown root:cinder /etc/cinder/nfsshares
chmod 640 /etc/cinder/nfsshares

6、客户端创建相应的挂载点
mkdir -p /var/lib/cinder/nfs

chown -R cinder:cinder /var/lib/cinder/nfs

7、测试挂载是否正常
showmount -e 10.37.129.10

8、编辑cinder.conf 添加
[default]

enabled_backends = lvm,nfs

[nfs]
volume_driver=cinder.volume.drivers.nfs.NfsDriver
nfs_shares_config=/etc/cinder/nfsshares
nfs_mount_point_base=/var/lib/cinder/nfs
volume_backend_name=nfs

9、控制节点上创建nfs类型
source /root/keystone

cinder type-create NFS
与配置文件进行绑定

cinder type-key NFS set volume_backend_name=nfs

原文地址:http://blog.51cto.com/openstack2016/2159902

时间: 2024-11-03 12:02:58

Openstack cinder 使用nfs 作为后端存储的相关文章

cinder 使用NFS 为后端存储

更多的OpenStack 对接课程请访问 http://edu.51cto.com/course/14150.html?source=so**实验环境 network 存储节点controller nfs 客户端1.在network节点上添加一个新的硬盘例如/dev/sdbmkfs.xfs /dev/sdbyum -y install rpbind nfs-utils 2.创建一个一个硬盘挂挂载点 mkdir -p /storage 3.vim /etc/fstab /dev/sdb /stor

Openstack Cinder使用NetApp NFS作为后端存储

公司使用NetApp FS8020 R6作为测试环境NFS存储使用.正好有机会测一下OpenStack的Cinder跟NetApp存储集成. 说明: 1.OpenStack使用NetApp存储直接挂载NFS文件没任何问题,生产中已使用比较稳定测试IOPS在160-220M/s. 2.使用OpenStack的Cinder无法像挂载如Linux主机共享NFS文件那样直接使用,需要调用NetAPP的API才能实现功能,如果设置为标准驱动现象为cinder-volume在开始的时候是正常的,但是一般十来

配置NFS网络存储作为cinder的后端存储

安装cinder和nfs yum install -y openstack-cinder yum install cifs-utils 在controller节点配置nfs [[email protected] ~]# mkdir -p /data/nfs #创建一个共享挂载资源的目录 [[email protected] ~]# cat /etc/exports /data/nfs *(rw,sync,root_squash) #NFS服务程序的配置文件为/etc/exports sync 同

Openstack存储总结之:详解如何使用NFS作为Cinder的后端存储

NFS服务简单描述 NFS是Network File System的缩写,即网络文件系统.一种使用于分散式文件系统的协定,由Sun公司开发,于1984年向外公布.功能是通过网络让不同的机器.不同的操 作系统能够彼此分享个别的数据,让应用程序在客户端通过网络访问位于服务器磁盘中的数据,是在类Unix系统间实现磁盘文件共享的一种方法. NFS的基本原则是"容许不同的客户端及服务端通过一组RPC分享相同的文件系统",它是独立于操作系统,容许不同硬件及操作系统的系统共同进行文件的分享. NFS

OpenStack Cinder 与各种后端存储技术的集成叙述与实践

先说下下loop设备 loop设备及losetup命令介绍 1. loop设备介绍 在类 UNIX 系统里,loop 设备是一种伪设备(pseudo-device),或者也可以说是仿真设备.它能使我们像块设备一样访问一个文件.在使用之前,一个 loop 设备必须要和一个文件进行连接.这种结合方式给用户提供了一个替代块特殊文件的接口.因此,如果这个文件包含有一个完整的文件系统,那么这个文件就可以像一个磁盘设备一样被 mount 起来.    上面说的文件格式,我们经常见到的是 CD 或 DVD 的

openstack中nfs最为nova的后端存储

运行一个可用的nfs服务: [[email protected] ~]# showmount -e 192.168.100.10Export list for controller:/nfs *查看openstack当前nova的后端存储位置:我修改了默认云主机存储路径 [[email protected] ~]# cat /etc/nova/nova.conf | grep instances_path | grep -v "#"instances_path=/data/nova/i

使用Ceph作为OpenStack的后端存储

概述 libvirt配置了librbd的QEMU接口,通过它可以在OpenStack中使用Ceph块存储.Ceph块存储是集群对象,这意味着它比独立的服务器有更好的性能. 在OpenStack中使用Ceph块设备,必须首先安装QEMU,libvirt和OpenStack,下图描述了 OpenStack和Ceph技术层次结构: http://my.oschina.net/JerryBaby/blog/376580 我翻译的官方文档,仅供参考 ^ ^. 系统规划 OpenStack集群: 控制节点:

openstack——cinder服务篇

一.cinder 介绍: 理解 Block Storage 操作系统获得存储空间的方式一般有两种: 通过某种协议(SAS,SCSI,SAN,iSCSI 等)挂接裸硬盘,然后分区.格式化.创建文件系统:或者直接使用裸硬盘存储数据(数据库) 通过 NFS.CIFS 等 协议,mount 远程的文件系统 第一种裸硬盘的方式叫做 Block Storage(块存储),每个裸硬盘通常也称作 Volume(卷) 第二种叫做文件系统存储.NAS 和 NFS 服务器,以及各种分布式文件系统提供的都是这种存储.

配置cinder-backup服务使用ceph作为后端存储

在ceph监视器上执行 CINDER_PASSWD='cinder1234!' controllerHost='controller' RABBIT_PASSWD='0penstackRMQ' 1.创建pool池 为cinder-backup服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1) ceph osd pool create cinder-backup 32 ceph osd pool set cinder-backup size 1 ceph osd pool ap