QEMU的基本原理和优缺点
基本原理:
使用QEMU模拟I/O的情况下,当客户机中的设备驱动程序(device driver)发起I/O操作请求之时,KVM模块中的I/O操作捕获代码会拦截这次I/O请求,然后经过处理后将本次I/O请求的信息存放到I/O共享页,并通知用户控件的QEMU程序。QEMU模拟程序获得I/O操作的具体信息之后,交由硬件模拟代码来模拟出本次的I/O操作,完成之后,将结果放回到I/O共享页,并通知KVM模块中的I/O操作捕获代码。最后,由KVM模块中的捕获代码读取I/O共享页中的操作结果,并把结果返回到客户机中。当然,这个操作过程中客户机作为一个QEMU进程在等待I/O时也可能被阻塞。另外,当客户机通过DMA(Direct Memory Access)访问大块I/O之时,QEMU模拟程序将不会把操作结果放到I/O共享页中,而是通过内存映射的方式将结果直接写到客户机的内存中去,然后通过KVM模块告诉客户机DMA操作已经完成。
优缺点:
QEMU模拟I/O设备的方式,其优点是可以通过软件模拟出各种各样的硬件设备,包括一些不常用的或者很老很经典的设备(如4.5节中提到RTL8139的网卡),而且它不用修改客户机操作系统,就可以实现模拟设备在客户机中正常工作。在KVM客户机中使用这种方式,对于解决手上没有足够设备的软件开发及调试有非常大的好处。而它的缺点是,每次I/O操作的路径比较长,有较多的VMEntry、VMExit发生,需要多次上下文切换(context switch),也需要多次数据复制,所以它的性能较差。
半虚拟化virtio的基本原理和优缺点
基本原理:
其中前端驱动(frondend,如virtio-blk、virtio-net等)是在客户机中存在的驱动程序模块,而后端处理程序(backend)是在QEMU中实现的。在这前后端驱动之间,还定义了两层来支持客户机与QEMU之间的通信。其中,“virtio”这一层是虚拟队列接口,它在概念上将前端驱动程序附加到后端处理程序。一个前端驱动程序可以使用0个或多个队列,具体数量取决于需求。例如,virtio-net网络驱动程序使用两个虚拟队列(一个用于接收,另一个用于发送),而virtio-blk块驱动程序仅使用一个虚拟队列。虚拟队列实际上被实现为跨越客户机操作系统和hypervisor的衔接点,但它可以通过任意方式实现,前提是客户机操作系统和virtio后端程序都遵循一定的标准,以相互匹配的方式实现它。而virtio-ring实现了环形缓冲区(ring buffer),用于保存前端驱动和后端处理程序执行的信息,并且它可以一次性保存前端驱动的多次I/O请求,并且交由后端去动去批量处理,最后实际调用宿主机中设备驱动实现物理上的I/O操作,这样做就可以根据约定实现批量处理而不是客户机中每次I/O请求都需要处理一次,从而提高客户机与hypervisor信息交换的效率。
优缺点:
Virtio半虚拟化驱动的方式,可以获得很好的I/O性能,其性能几乎可以达到和native(即:非虚拟化环境中的原生系统)差不多的I/O性能。所以,在使用KVM之时,如果宿主机内核和客户机都支持virtio的情况下,一般推荐使用virtio达到更好的性能。当然,virtio的也是有缺点的,它必须要客户机安装特定的Virtio驱动使其知道是运行在虚拟化环境中,且按照Virtio的规定格式进行数据传输,不过客户机中可能有一些老的Linux系统不支持virtio和主流的Windows系统需要安装特定的驱动才支持Virtio。不过,较新的一些Linux发行版(如RHEL 6.3、Fedora 17等)默认都将virtio相关驱动编译为模块,可直接作为客户机使用virtio,而且对于主流Windows系统都有对应的virtio驱动程序可供下载使用。
I/O半虚拟化驱动
I/O半虚拟化分成两段:
前端驱动(virtio前半段):virtio-blk,virtio-net,virtio-pci,virtio-balloon,virtio-console
支持的系统有:
Linux:CentOS 4.8+,5.4+,6.0+,7.0+
Windows:
virtio:虚拟队列,virt-ring
transport:后端处理程序(virt backend drivers):在QEMU中实现
常见的I/O设备半虚拟化:
(1)virtio-balloon:
ballooning:让VM中运行的GuestOS中运行调整其内存大小
-balloon none 禁用balloon设备
-balloon virtio[,addr=str] 启用半虚拟化balloon设备(默认项)
手动查看GuestOS的内存用量:
info balloon
balloon N
气球技术可以在客户机运行状态动态调整它所占的宿主内存资源,而不需要关闭客户机;
故名思议,把内存当成气球一样来使用,气球中的内存可以被宿主机使用,但是不能被客户机直接使用和访问,所以当宿主机缺少内存是,balloon释放掉一部分内存,给宿主机使用;相反当客户机内存不够时,客户机吹从宿主机获取内存;
优点:1)因为balloon可以被监控,和控制;2)而且balloon对内存的调度很灵活。
缺点:1)客户机需要加载该驱动,而且不是每个系统都有该驱动,(virtio_balloon) ;2)如果有大量的内存从客户系统回收,会降低系统的运行; 3)目前没有比价方便,自动化管理balloon的机制,一般都采用qemu来管理。
(2)virtio-net:半虚拟化网卡
其依赖于GuestOS中的驱动,及Qemu中的后端驱动
GuestOS:virtio_net.ko
通过如下命令可以查看kvm宿主机支持的virtio模式:
Qemu:qemu-kvm -net nic,model=?
[[email protected] ~]# qemu-kvm -net nic,model=?
qemu: Supported NIC models: ne2k_pci,i82551,i82557b,i82559er,rtl8139,e1000,pcnet,virtio
其返回值即为支持的virtio网卡模式,常见的有e1000, rtl8139, virtio等
启动一个使用virtio_blk作为磁盘驱动的客户机,其qemu-kvm命令行如下。
[[email protected] kvm_demo]# qemu-system-x86_64 -smp 2 -m 1024 -net nic -net tap –drive file=rhel6u3.img,if=virtio
在客户机中,查看virtio_blk生效的情况如下所示。
[[email protected] ~]# grep VIRTIO_BLK \ /boot/config-2.6.32-279.el6.x86_64
CONFIG_VIRTIO_BLK=m
[[email protected] ~]# lsmod | grep virtio
virtio_blk 7292 3
virtio_pci 7113 0
virtio_ring 7729 2 virtio_blk,virtio_pci
virtio 4890 2 virtio_blk,virtio_pci
性能优化:
1)Host中的GSO,TSO:(详见:https://blog.csdn.net/quqi99/article/details/51066800)
关掉可能会提升性能
ethtool -K $IF gso off
ethtool -K $IF tso off
ethtool -K $IF
2)vhost-net:用于取代工作于用户空间的qemu中为virtio-net实现的后端驱动以实现性能提升的驱动 (详见:https://blog.csdn.net/ponymwt/article/details/8895243)
-net tap[,vnet_hdr=on|off][,vhost=on|off]
qemu-kvm -net tap,vnet_hdr=on,vhost=on
(3)virtio-blk:半虚拟化磁盘
其依赖于GuestOS中的驱动,及Qemu中的后端驱动
-drive file=/path/to/some_image_file,if=virtio
kvm_clock:半虚拟化的时钟
#grep -i "paravirt" /boot/config-2.6.32-504.el6.x86_64
CONFIG_PARAVIRT_GUEST=y
CONFIG_PARAVIRT=y
CONFIG_PARAVIRT_CLOCK=y
KVM虚拟机的实时迁移
支持的GuestOS: Linux, Windows, OpenBSD, FreeBSD, OpenSolaris;
在待迁入主机使用:
qemu-kvm -vnc :N -incoming tcp:0:7777
vncviewer :590N
在源主机使用:
monitor接口:
migrate tcp:DEST_IP:DEST:PORT
迁移需要考虑的影响:
整体迁移时间
服务器停机时间
对服务的性能的影响
原文地址:http://blog.51cto.com/jerry12356/2132284