virtio netdev的创建

Linux目前支持至少了8种虚拟化系统:

  1. Xen
  2. KVM
  3. VMware’s VMI
  4. IBM’s System p
  5. IBM’s System z
  6. User Mode Linux
  7. lguest
  8. IBM’s legacy iSeries

而新的系统也在不断的涌现,各个系统在网络设备、块设备、console及其它设备驱动在新特性支持和性能优化方面存在着瓶颈。

为解决这些问题,Rusty Russell开发了virtio机制,其是一个在hypervisor之上的抽象API接口,让客户机知道自己运行在虚拟化环境中,从而与hypervisor根据virtio标准协作,从而在Guest中达到更好的性能(特别是I/O性能),关于virtio在其论文中如此定义:

[点击查看全文]

http://luoye.me/2014/08/05/virtio-device/

时间: 2024-08-24 13:10:25

virtio netdev的创建的相关文章

Guest与virtio netdev的交互方式

Qemu为virtio设备分配了专门的pci设备ID,device IDs (vendor ID 0x1AF4) from 0x1000 through 0x10FF,而pci子系统中的厂商ID和设备ID就成为了virtio类型和厂商域的组成,所以PCI驱动是不需要知道virtio设备类型的真正含义,对于Kernel来说只是注册了一个struct virtio_device,并挂载到了virtio bus类型总线上,并由virtio driver来驱动. virtio设备对于Linux Kern

qemu-kvm virtio 虚拟化-----Linux客户机 virtio设备初始化

Linux客户机 virtio设备初始化 virtio设备物理上连接在pci物理总线上,逻辑上连接在virtio虚拟总线.做为pci设备便于资源分配与配置,逻辑设备模型中,便于管理与组织. 1.qemu-kvm提供的virtio pci设备 virtio-blk(硬盘),virtio-net(网络),virtio-balloon(气球)等pci设备,这些设备连接在pci总线上.代码位于qemu: hw/virtio-pci.c static PCIDeviceInfo virtio_info[]

[转载]qemu-kvm virtio 虚拟化-----Linux客户机 virtio设备初始化

virtio设备物理上连接在pci物理总线上,逻辑上连接在virtio虚拟总线.做为pci设备便于资源分配与配置,逻辑设备模型中,便于管理与组织. 1.qemu-kvm提供的virtio pci设备 virtio-blk(硬盘),virtio-net(网络),virtio-balloon(气球)等pci设备,这些设备连接在pci总线上.代码位于qemu: hw/virtio-pci.c static PCIDeviceInfo virtio_info[] = {     {         .q

KVM虚拟化:使用qemu-kvm创建和管理虚拟机

CentOS 6加载了KVM模块后,我们是无法进行虚拟机的管理的,如果需要管理KVM虚拟机,还需要管理工具才可以.先看一下KVM的管理工具栈. yum grouplist |grep -i "virtualization" Virtualization: qemu-kvm Virtualization Client: python-virtinst, virt-manager, virt-viewer Virtualization Platform: libvirt, libvirt-

KVM虚拟化搭建及其KVM中LVM扩容

KVM虚拟化搭建及其KVM中LVM扩容 前言: 公司项目方最近有两台物理服务器系统分别为CentOS 7.2.需要部署KVM虚拟化,第一台服务器A需要虚拟出三台虚拟机(均为CentOS 7.2系统),服务器B上需要虚拟出三台CentOS 7.2 系统和两台windows server2012 系统.其中六台CentOS 7.2 虚拟机需要部署我们自己的平台,两台windows分别部署客户的平台.下面来为大家说一下KVM虚拟化的搭建,以及创建虚拟机的两种办法,及其操作使用.     KVM小课补:

重磅精品翻译:QEMU-KVM虚机动态迁移原理

编者的话 本文翻译者,KVM社区首席翻译专家武楠. 本文详细的介绍了虚拟化迁移的原理. 翻译过程是怎样一个过程,会有怎样的收获? 个人感觉是翻译过程是一个挑战自我,不断完善自己,然后获得提升的过程. 翻译过程也是一个近距离和技术对话的过程,从字里行间理解.揣摩技术的精髓,在翻译成中文的时候斟酌,是一个反复理解的过程,最终的收获是知识. 请愿意加入KVM社区翻译群的朋友联系群主微信xiaoli173702,再技术翻译的过程中我们一起讨论,一起提升. QEMU-KVM虚机动态迁移原理 在虚拟化领域,

Centos kvm+ceph

Centos kvm+ceph 一. centos6.5 安装kvm 1. disable selinux 2. 确认支持intel虚拟化 3. 安装需要的包 4.设置桥接网络 5.运行kvm instance(此步骤仅用于测试环境是否安装成功) 6.连接到kvm 二. centos安装ceph(firefly版本) 准备机器 管理机安装 安装其他节点 三. kvm使用ceph 创建osd pool(块设备的容器) 设置账号对该pool的读写权限 用qemu-img在pool中创建img 验证i

深度实践KVM笔记

libvirt(virt-install,API,服务,virsh)->qemu(qemu-kvm进程,qemu-img)->KVM虚拟机->kvm.ko 内核模块  P7 /etc/init.d/libvirtdvirsh 第3章   CPU,内存虚拟化技术 CPU 的嵌套技术nested特性,使用kvm虚拟机在理论上可以无限嵌套下去,只要物理机性能足够 P23numastat          P25                           node0numa_hit  

别以为真懂Openstack: 虚拟机创建的50个步骤和100个知识点(3)

四.Nova-compute 步骤17:nova-compute接收到请求后,通过Resource Tracker将创建虚拟机所需要的资源声明占用 步骤18:调用Neutron API配置Network,虚拟机处于Networking的状态 需要注意的是,这一步虽然是配置Network,但是主要是数据结构的准备,真正的设备并没有创建. 由于在创建虚拟机的时候,我们指定了将虚拟机放到哪个private network里面,因而在创建真正的设备之前,所有的信息都需要准备好. 这里的知识点设计Netw