【转】 HMC与VIOS对新LPAR提供存储与网络虚拟化的支持

前面的几篇博文的操作环境都是在IVM下,IVM可以看作是VIOS的一部分,或者是对VIOS功能的一个扩展,一个IVM只能管理1台物理服务器,而HMC则是一对多。在有HMC来管理物理服务器的情形下,VIOS中的IVM功能将被屏蔽,其相应的功能将由HMC来接管。

下面是在HMC环境下创建一个新的LPAR的命令:
[email protected]:~>
mksyscfg -r lpar -m Server-8231-E2B-SN104A4AR -i
"name=dennis,lpar_env=aixlinux,auto_start=1,boot_mode=norm,mem_mode=ded,min_mem=2048,
desired_mem=4096,max_mem=4096,proc_mode=shared,sharing_mode=uncap,uncap_weight=156,
min_procs=1,desired_procs=2,max_procs=2,min_proc_units=0.2,desired_proc_units=0.4,max_proc_units=1.2,
virtual_eth_adapters=10/0/256//0/1,virtual_scsi_adapters=20/client/1//17/1, max_virtual_slots=100"

创建一个虚机(LPAR, logical partition)最关键也相对比较麻烦一些的参数就是给LPAR提供网络和存储设备,也就是上面两条红色和蓝色标注的部分,关于这两个参数的具体含义在前面用IVM创建LPAR的博文--通过VIOS实现AIX系统的网络虚拟化通过VMLibrary在client partition上安装AIX全程实录 。

这里比较关心的是如何构造该参数的具体数值,首先看网络部分,需要确定的参数是Virtual
Ethernet Client Adapter(VECA)在当前正在创建的LPAR中的slot
num,这个自由度很高,基本上可以随便指定一个不超过max_virtual_slots中指定的数值(在我们指定max_virtual_slots参数的情形下),这个例子中VECA的slot
number=10,
比较麻烦的是port_vlan_id部分,因为这个数值将直接决定新创建的LPAR中网络设备是否可用,因此需要将它指定到VIOS中一个物理可用的网络设备上,所以我们需要在HMC环境(不是IVM了,因为在有HMC存在的情形下,HMC将屏蔽掉VIOS中的IVM命令,屏蔽意味着该条命令可以在VIOS环境下执行,但是do
nothing,没有任何输出)下查看它的网络设备相关的信息。执行:

上图显示了当前VIOS中Virtual
Ethernet Server Adapter(VESA)的信息:它有两个VESA, slot number分别是30和31,
addl_vlan_ids=354,355,356和 addl_vlan_ids=330,331,332,333,如果在VIOS中通过lsmap
-all -net命令查看,这两个VESA都有对应的SEA和backing device,因此都可以被client
partition拿来使用。

对于VIOS中Virtual SCSI Server Adapter设备的信息,可以在HMC下用以下命令来查看:

其中slot number = 17的VSSA正好是我们创建这个LPAR使用的,在上述的mksyscfg命令行中,我们只是创建了一个Virtual SCSI Client Adapter。这条命令执行后,与IVM中mksyscfg命令的执行效果不同,HMC不会在VIOS中自动创建一个对应的Virtual
SCSI Server Adapter虚拟设备(比如vhost0)出来,此时需要通过下面这样的命令给VIOS
partition创建一个Virtual SCSI Server Adapter虚拟设备:
[email protected]:~>
chhwres -r virtualio --rsubtype scsi -m Server-8231-E2B-SN104A4AR -o a
--id 1 -s 18 -a "adapter_type=server, remote_lpar_id=2,
remote_slot_num=30"
当然如果我们不想指定remote_lpar的相关信息,那么完全可以使用上述命令的一个简化版本:
[email protected]:~> chhwres
-r virtualio --rsubtype scsi -m Server-8231-E2B-SN104A4AR -o a --id 1
-s 18 -a "adapter_type=server"
上面的这条命令只是说在VIOS中创建一个slot num=18的Virtual SCSI Server Adapter, 并没有指定能使用
该VSSA的client
partition的相关信息,这意味着这个VSSA可以跟Any Partition的Any Partition
Slot进行绑定,不过对于Client
Adapter的话,则必须指定remote_lpar_id和remote_slot_num两个参数。当然,如果VIOS中对应slot
num=18已经有一个VSSA,则该条命令会提示如下的错误:
HSCL294C Dynamic add of virtual I/O resources failed:
A Virtual I/O device already exists at slot 18.

如果VIOS中对应slot

num=18尚没有一个VSSA存在,那么上述命令就会在VIOS中创建一个VSSA出来,如果想在VIOS中看到该hwres所对应的虚拟设备vhost

n,需要登录到VIOS系统中,运行cfgdev命令vios才可自动创建出一个vhostx设备出来,否则的话只能通过lshwres命令来查看当前VIOS中拥有多少个VSSA:
[email protected]:~> lshwres -r virtualio --rsubtype scsi -m Server-8231-E2B-SN104A4AR --level lpar --filter "lpar_ids=1"
...
lpar_name=vios,lpar_id=1,slot_num=77,state=1,is_required=0,adapter_type=server,
remote_lpar_id=any,remote_lpar_name=,remote_slot_num=any

...

一旦在VIOS中通过cfgdev产生了vhostx虚拟设备,就可以象 通过VMLibrary在client partition上安装AIX全程实录那样为其创建VTD和backing device.

如果我们考虑一下上述操作的相反的过程,在VIOS环境下,首先必须通过
a. rmvdev -vtd vtdname删除掉vhostx上的VTD b. 通过rmlv Logical Volume删除掉backing
device(这步需要小心,删除一个LV,意味这“all data contained on logical volume xxx will
be destroyed")c. rmdev -dev vhostx
到目前为止的这几步还只是删除vhostx这个虚拟设备,但是在hwres这一层,供过lshwres依然可以看到该vhostx岁对应的hwres还存在着,此时就必须利用chhwres命令来彻底把这一hwres删除掉。

启动LPAR并安装了AIX之后,配置完网络,就可以用比如ssh的方式登录进去。在该AIX环境下,我们执行:
bash-3.2# prtconf
会有以下的输出:
。。。
System Model: IBM,8231-E2B
Machine Serial Number: 104A4AR
Processor Type: PowerPC_POWER7
Processor Implementation Mode: POWER 7
Processor Version: PV_7_Compat
Number Of Processors: 2
Processor Clock Speed: 3000 MHz
CPU Type: 64-bit
Kernel Type: 64-bit
LPAR Info: 2 dennis
Memory Size: 4096 MB
Good Memory Size: 4096 MB
Platform Firmware level: AL730_066
Firmware Version: IBM,AL730_066
Console Login: enable
Auto Restart: true
Full Core: false
。。。
INSTALLED RESOURCE LIST

The following resources are installed on the machine.
+/- = Added or deleted from Resource List.
*   = Diagnostic support not available.
       
  Model Architecture: chrp
  Model Implementation: Multiple Processor, PCI bus
       
+ sys0                                                            System Object
+ sysplanar0                                                      System Planar
* vio0                                                            Virtual I/O Bus
* vscsi0           U8231.E2B.104A4AR-V2-C20-T1                    Virtual SCSI Client Adapter
* hdisk1           U8231.E2B.104A4AR-V2-C20-T1-L8300000000000000  Virtual SCSI Disk Drive
* hdisk0           U8231.E2B.104A4AR-V2-C20-T1-L8200000000000000  Virtual SCSI Disk Drive
* cd0              U8231.E2B.104A4AR-V2-C20-T1-L8100000000000000  Virtual SCSI Optical Served by VIO Server
* ent0             U8231.E2B.104A4AR-V2-C10-T1                    Virtual I/O Ethernet Adapter (l-lan)
* vsa0             U8231.E2B.104A4AR-V2-C0                        LPAR Virtual Serial Adapter
* vty0             U8231.E2B.104A4AR-V2-C0-L0                     Asynchronous Terminal
+ L2cache0                                                        L2 Cache
+ mem0                                                            Memory
+ proc0                                                           Processor
+ proc4                                                           Processor

网友可以与当初创建它的命令行参数进行对比,看看它们之间的那种对应关系。

时间: 2024-10-08 09:15:56

【转】 HMC与VIOS对新LPAR提供存储与网络虚拟化的支持的相关文章

【转】通过VIOS实现AIX系统的网络虚拟化

在上一篇博文中,我们已经在一个新创建的LPAR中通过File-backed device以及VMLibrary的方式成功安装了一个AIX系统,接下来我们讨论如何通过VIOS的协助来完成新装AIX系统的网络功能.为方便读者阅读,我把当前我们所处的位置用下图简单标识一下: 上图是通过VIOS给新装的AIX系统提供网络支持的大致原理图,VIOS负责提供一个虚拟的ethernet apapter给AIX使用(见图中VESA与VECA部分的连接),然后VIOS通过SEA穿过PowerVM Hypervis

NET Framework 4.5新特性 (三)64位平台支持大于2 GB大小的数组

64位平台.NET Framework数组限制不能超过2GB大小.这种限制对于需要使用到大型矩阵和向量计算的工作人员来说,是一个非常大问题. 无论RAM容量有多大有多少,一旦你使用大型矩阵和向量计算工作的时候,经常会抛出一个System.OutOfMemoryException异常,如下图所示: 参考程序 class Program { private static void Main(string[] args) { int arrysize = 150000000; var large=ne

使用Docker的macvlan为容器提供的桥接网络

对于了解Docker容器网络的朋友,我想对虚拟机的网络也不会陌生,毕竟我们是跟随这个时代一起学习和进步的人.相比VM,Docker的网络也在逐步走向成熟,本文主要针对其中的macvlan做下简单的介绍. Why macvlan? 首先我们去对比下VM和Docker中不同的网络,这样会比较清楚. VM Docker NAT bridge Bridged macvlan, overlay等 Host-only bridge NAT VM中的NAT对应Docker中的bridge,虽然叫bridge,

EMC新战略:VMware超越服务器虚拟化

VMware的母公司-磁盘存储制造商EMC公司在波士顿召开了针对金融投资者的战略论坛,在这次名为"分析师大会"的论坛开幕仪式上,EMC公司董事长,总裁兼首席执行官Joe Tucci发表了他的讲话. Tucci强调说:"正如之前我曾经说过的那样,我们从未企图将这两家公司区别对待,也不会把彼此的战略区别开来.我们将更加关注市场动态和努力寻求更多的机遇". 这意味着VMware在保持相对独立的同时仍然处于EMC的控制之下.去年VMware发生了剧烈的人事变动,由于VMwa

此成员资格提供程序没有被配置为支持密码恢复。

MembershipUser mu = Membership.GetUser(txtUserName.Text.Trim()); txtOldPassword.Text = mu.GetPassword(); 为何以上代码会报错:此成员资格提供程序没有被配置为支持密码恢复? 查找了一下,出现以上报错,是因为密码存储不是以明文方式存入数据库的,所以无法找到密码. 此成员资格提供程序没有被配置为支持密码恢复.

Dual Path Networks(DPN)——一种结合了ResNet和DenseNet优势的新型卷积网络结构。深度残差网络通过残差旁支通路再利用特征,但残差通道不善于探索新特征。密集连接网络通过密集连接通路探索新特征,但有高冗余度。

如何评价Dual Path Networks(DPN)? 论文链接:https://arxiv.org/pdf/1707.01629v1.pdf在ImagNet-1k数据集上,浅DPN超过了最好的ResNeXt-101(64×4d),具有26%更小的模型尺寸,25%的计算成本和8%的更低的内存消耗 5 个回答 xiaozhi CV.ML.DL 1.针对视觉识别任务的"网络工程"一直是研究的重点,其重在设计更为高效的网络拓扑结构,一方面考虑更好的特征表示学习,另一方面尽可能减少计算复杂度

超融合架构和服务器虚拟化是什么关系?超融合厂商提供什么样的服务器虚拟化?

虽然超融合架构以其为用户带来的巨大价值,已经被越来越广泛地接受,但市场上对超融合仍然有诸多不清晰的概念和疑问,本系列文章将力求对这些概念进行逐一解释. 本篇介绍很多人经常问到的融合架构和服务器虚拟化的关系,并介绍不同的主流厂商对服务器虚拟化的支持情况. 首先,超融合是近几年兴起的一种新的 IT 基础架构,这种架构具备以下特点: 1.符合软件定义数据中心理念,一定是通过软件结合标准的 x86 服务器来构建分布式存储,而不使用基于定制硬件的传统集中式存储: 这个概念强调的是分布式存储软件和虚拟化软件

汇新云提供精选业内前沿和热门的IT产品-跨境电商ERP系统

诚信.创新.极致,完美的服务宗旨--汇新云 跨境电商全称跨境电子商务,是指分属不同关境的交易主体,通过电子商务平台达成交易.进行支付结算,并通过跨境物流配送商品.完成交易过程的一种国际商业活动.跨境电商平台结合跨境物流,国际速递,进口物流,金融链条,跨境分销服务,为企业提供整体供应链管理服务解决方案 汇新云是全球专业的软件采购.定制产业链服务平台 为需求方提供商业模式创新.项目需求分析.软件工程化设计.项目全程跟踪等专业指导的优秀产品经理 原文地址:https://www.cnblogs.com

汇新云提供精选软件行业热门的IT产品-区块链社交IM

区块链社交IM轻松开启区块链社交新时代,随时随地聊天.社区群组.商务沟通.娱乐直播, 红包打赏,朋友圈分享等核心场景,海量消息一触即达,打造区块链社区服务, 一切不再那么静默孤独,把你的世界 "链"起来功能齐全,币圈强大的用户载体 微信.QQ群里面发币圈的信息,容易遭到封杀封禁,现在区块链即时通讯系统,可以做到全球隐秘保护,不受任何限制,对接的功能更加强大,依托的用户载体也更多,分享交易都不耽误,一个软件对接行业内所有资源,所有信息一键搞定,不需要再频繁切换软件app. 共享资源信息畅