KVM中基于nfs的Pool的创建

今天正好有空,就顺便把这个给写完。个人而言,基于nfs的存储比较简单,概念和逻辑都搞懂的话,这个也就是很快就做完的。
这个实验的环境跟iscsi是一个性质的,vm导出,kvm主机挂载,这么做只是为了做实验,实际生产过程中不是这样的。但都是在kvm的主机这个层面中挂载的,然后它统一管理。
按照惯例,都是分两个方式来做,一个是GUI---virt-manager,另一个是virsh。在此之前,先要分别在vm,和kvm主机上安装nfs的相关packages,用yum就可以。然后在vm机器上,导出目录的地址,在编辑配置文件/etc/exports。再用exportfs 查看或者用showmount -e vm_IP。然后在切换到kvm主机上,用showmount -e vm_IP 看看能不能看到导出的目录。
1.vir-manager。
1.取名字,选择类型行
2.target path:你要挂载的地方,可选择默认,也可以选择自己的挂载点。这里用/nfs
3.host name:vm的ip地址
4.source path:就是你vm机器上导出的文件夹。
做完后用 mount|grep vm_ip 检查

2.virsh。
virsh pool-define-as test_pool --source-host 192.168.122.159 --source-path /nfs_share --target /nfs_kvm
pool test_pool defined------这些只是把逻辑关系都建立好了
在启动之前,先virsh pool-list,然后在 virsh pool-dumpxml test_pool。然后在virsh pool-build test_pool。----这一步所有就都建立好了。
然后在virsh pool-start test_pool

以上的就是所有的步骤的记录,要删除的话,也是要分步骤的:
1.virsh pool-destroy test_pool-------关掉
2.virsh pool-delete test_pool---------删掉目录文件
3.virsh pool-undefined test_pool----删掉xml文件。

写到这里关于如何创建kvm的POOL的存储差不多就完了,常用的也就这些了。

原文地址:http://blog.51cto.com/11419317/2129137

时间: 2024-10-07 23:26:37

KVM中基于nfs的Pool的创建的相关文章

kvm中基于ISCSI 的pool的建立

起初看到这种方式的时候觉得应该很简单的,毕竟一般环境下都做过,没遇到过问题.但是谁能想到,放到kvm中,我可真遇到问题了. 说出来可能会被笑死.就是忽略了一个问题,我在做实验,要在vm上创建target,在kvm主机上创建initiator.这么做的原因只是为了实验和熟悉整个流程,而不是实际上的应用.因为在生产环境中有专门的存储服务器,到时候只是需要在存储服务器上设置target,然后在kvm上还是设置initiator,通关virt-manager或者virsh管理,实现kvm控制自动logi

kvm中基于lvm的pool的建立

今天搞定了如何建立kvm格式的pool,本来已经快写完,突然IE这个浏览器突然crush....好了,继续记录今天啊所做的事情.首先就是对这种格式所创建pool的感受.对与mbr盘的创建,没有任何的问题,不管分不分去,表不标记,都没遇到过什么问题,这个是磁盘容量小于2TB的.然后就是gpt格式的,这个是大于2TB的.也不知道为什么,最近就跟这个gpt格式的杠上了.因为过段时间就要参加oracle OVM 的培训,所以我觉得掌握好kvm的技术,也有助于我对那个的理解.对于gpt格式的盘,假如你要是

kvm 静态迁移、基于nfs的动态迁移

参考<kvm 虚拟化技术,实战与原理解析> 迁移:迁移包含系统整体的迁移和某个工作负载的迁移,按照迁移的特性可以分为以下几类: 静态迁移(冷迁移):指迁移过程中明显有一段时间,客户机的服务不可用,它还可以分为两种,一种是完全关闭客户机后,将硬盘镜像复制到另外的宿主机再启动起来,这种不会保存客户机的工作负载状态: 还有一种并不完全关闭客户机而是暂停客户机,而后用快照之类的方式,把当前的状态做成快照,复制快照到新的宿主机上启动. 动态迁移(热迁移):是指保证客户机上应用服务正常运行的同时,完成迁移

基于NFS共享存储实现KVM虚拟机动态迁移

基于NFS共享存储实现KVM虚拟机动态迁移 一:配置环境 二:安装相关的依赖包 三:实现NFS共享存储 四:KVM机配置相同的步骤 五:安装KVM01安装虚拟机 六:实现迁移  实验初始配置:所有主机关闭防火墙与selinux [[email protected] ~]# iptables -F [[email protected] ~]# systemctl stop firewalld [[email protected] ~]# systemctl disable firewalld [[

k8s中部署基于nfs的StorageClass

k8s中部署基于nfs的StorageClass ? storageclass相当于是一个动态的存储,即每个pod需要多少容量,直接在配置资源清单中声明即可;但是nfs默认是不支持storageclass动态存储的. ? 总结一下就是: ? 1. 平时使用过程中,如果是静态的存储,那么过程是先准备好存储,然后基于存储创建PV;然后在创建PVC,根据容量他们会找对应的PV ? 2. 使用动态存储,那么就是先准备好存储,然后直接创建PVC,storageclass会根据要求的大小自动创建PV 首先安

heatbeat-gui实现基于nfs的mysql高可用集群

一.简述HA高可用集群 高可用集群就是当集群中的一个节点发生各种软硬件及人为故障时,集群中的其他节点能够自动接管故障节点的资源并向外提供服务.以实现减少业务中断时间,为用户提供更可靠,更高效的服务. 二.基于nfs实现mysql的高可用集群配置 环境准备接上文 heartbeat-gui部署 实验环境: nfs server准备 1.在nfs server准备LVM存储空间 [[email protected] ~]# fdisk /dev/sdb Device contains neither

heartbeat v2配置高可用web集群和基于nfs搭建MySQL高可用集群

安装环境:Centos 6.4, httpd2.4,mysql5.5,heartbeat v2 提供两台机器node1和node2,在/etc/hosts文件中添加名称解析,并且主机名称要与节点名称要相同,即uname -n的名称要和hosts定义的名称必须一样. #   IP                         HOSTNAME             ALIAS 10.204.80.79     node1.mylinux.com     node1 10.204.80.80  

Libvirt/KVM 中的网络模式

NAT 默认方式.虚拟机获取一个私有 IP(例如 192.168.122.0/24 网段的),并通过本地主机的 NAT 访问外网. 创建一个本地网桥 virbr0,包括两个端口:virbr0-nic 为网桥内部端口,vnet0 为虚拟机网关端口(192.168.122.1). brctl show bridge name bridge id STP enabled interfaces virbr0 8000.52540082327e yes virbr0-nic vnet0 虚拟机启动后,配置

LAMP平台扩展:基于NFS服务实现博客站点负载均衡

nfs简介: nfs:Network File System,网络文件系统:是一种分布式文件系统协议,最初由Sun公司开发.其功能旨在允许客户端主机可以像访问本地存储一样通过网络访问服务器端文件. NFS和其他许多协议一样,是基于RPC协议实现的. rpc:Remote Procedure Call,远程过程调用:是一个计算机通信协议.该协议允许运行于一台计算机的程序调用另一台计算机的子程序.调用远程主机上的函数,一部分功能由本地程序,另一部分功能由远程主机上的函数完成. rpcbind:RPC