通过VMware的PowerCLI配置集群内指定主机的vMotion功能

PowerCLI是VMware开发的基于微软(MSFT)的PowerShell的命令行管理vSphere的实现,因此在批量化操作方面CLI会减轻很多GUI环境下的繁琐重复劳作。

现有场景中有大量的物理主机已经安装好的ESXi,并且可以被vCenter所管理,由于默认情况下可供管理的那个Manage管理网卡是不开启vMotion的,因此我们需要借用这个Manage管理网卡来开启vMotion功能,从而实现集群内的HA功能。

说明:一般情况下,VMware建议,条件允许的情况下每个网卡的功能最好能独立且分开,有专门跑iSCSI的网卡,有专门组建业务网络的业务网卡,有专门用来节点管理的Manage网卡,有专门用来实现高可用HA和迁移vMotion的网卡。

通过官方文档,我们很容易找到命令行开启vMotion的方法(link:https://www.vmware.com/support/developer/PowerCLI/PowerCLI41U1/html/Set-VMHostNetworkAdapter.html ):

Get-VMHost Host | Get-VMHostNetworkAdapter -VMKernel | Set-VMHostNetworkAdapter -VMotionEnabled $true

该命令可以实现对Get-VMHost到的所有Host主机下的具有VMkernel的网卡进行vMotion的开启

现有场景需要对特定的HOST进行操作,因此语句我们需要更改一下:

Connect-VIServer –Server 172.5.140.201

get-vmhost -name 172.5.140.160 | Get-VMHostNetworkAdapter -VMKernel | Set-VMHostNetworkAdapter -VMotionEnabled $true

该组合实现登陆一个vCenter服务器172.5.140.201 之后,对该管辖范围内的172.5.140.160主机单独进行vMotion的开启

这个场景中有大量的新加入主机需要这般操作,因此我们需要准备一个包含这些主机IP文件列表我命名为“hosts.txt”文件,因此我们对语句进行了一些修改:

Connect-VIServer –Server 172.5.140.201

Get-Content hosts.txt | Foreach-Object {get-vmhost -name $_  | Get-VMHostNetworkAdapter -VMKernel | Set-VMHostNetworkAdapter -VMotionEnabled $true}

该组合实现登陆到vCenter之后,在这个hosts.txt内逐行寻找匹配项,通过PowerShell的Foreach-Object 进行自动填入“$_”关键信息,完成批量自动化开启vMotion

Figure 1需要进一步确认的对话环节

这种输出结果我们会有多次的确认,如vCenter的SSL信息的警告内容显示、VMKernel的多个确认,这里都需要按下更多次的回车才能完成。

因此我们想让屏幕输出更简洁,对语句做了如下修改:

Connect-VIServer –Server 172.5.140.201 -WarningAction 0

Get-Content hosts.txt | Foreach-Object {get-vmhost -name $_  | Get-VMHostNetworkAdapter -VMKernel -name vmk0 | Set-VMHostNetworkAdapter -VMotionEnabled $true -Confirm:$false}

该组合实现了忽略SSL信息警告内容,只在vmk0上开启vMotion,并且忽略确认 是的返回结果更加清爽

注意:这里需要注意一下,如果您的配置环境不是将vmk0上开启vMotion的话,请使用Get-VMHostNetworkAdapter -VMKernel命令获取当前所连接的vCenter内的所有ESXi主机上的VMKernel信息。

-=EOB=-

时间: 2024-10-19 13:16:08

通过VMware的PowerCLI配置集群内指定主机的vMotion功能的相关文章

Hadoop集群内lzo的安装与配置

LZO压缩,可分块并行处理,解压缩的效率也是可以的. 为了配合部门hadoop平台测试,作者详细的介绍了如何在Hadoop平台下安装lzo所需要软件包:gcc.ant.lzo.lzo编码/解码器并配置lzo的文件:core-site.xml.mapred-site.xml.希望对大家有所帮助.以下是正文: 最近我们部门在测试云计算平台hadoop,我被lzo折腾了三四天,累了个够呛.在此总结一下,也给大家做个参考. 操作系统:CentOS 5.5,Hadoop版本:hadoop-0.20.2-C

配置网络、集群内主机名设定、ssh登入、bash命令、通配符

作业一:临时配置网络(ip,网关,dns)+永久配置 设置临时网络配置: 配置IP ifcongfig ens33 192.168.16.177/24 (ifconfig 网卡 ip地址    /24代表它子网掩码) 配置网关 route add default gw 192.168.16.177 netmask 255.255.255.0  添加默认网关 配置 DNS vim /etc/resolv.conf            (DNS配置文件位置) 设置永久网络配置: cd /etc/s

Nginx+tomcat配置集群负载均衡

转自:http://blog.csdn.net/bruce_6/article/details/38228299 相信很多人都听过nginx,这个小巧的东西慢慢地在吞食apache和IIS的份额.那究竟它有什么作用呢?可能很多人未必了解. 说到反向代理,可能很多人都听说,但具体什么是反向代理,很多人估计就不清楚了.摘一段百度百科上的描述: 反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回

Hadoop集群配置心得(低配置集群+自动同步配置)

本文为本人原创,首发到炼数成金 http://f.dataguru.cn/thread-138720-1-1.html. 情况是这样的,我没有一个非常强劲的电脑来搞出一个性能非常NB的服务器集群,相信很多人也跟我差不多,所以现在把我的低配置集群经验拿出来写一下好了. 我的配备:1)五六年前的赛扬单核处理器2G内存笔记本 2)公司给配的ThinkpadT420,i5双核处理器4G内存(可用内存只有3.4G,是因为装的是32位系统的缘故吧...) 就算是用公司配置的电脑,做出来三台1G内存的虚拟机也

转】Nginx+tomcat配置集群负载均衡

原博文出自于:http://blog.csdn.net/bruce_6/article/details/38228299         感谢! 相信很多人都听过nginx,这个小巧的东西慢慢地在吞食apache和IIS的份额.那究竟它有什么作用呢?可能很多人未必了解. 说到反向代理,可能很多人都听说,但具体什么是反向代理,很多人估计就不清楚了.摘一段百度百科上的描述: 反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务

Etcd配置集群但不起作用的解决办法

Etcd有三种方式配置集群 1. 把节点写在配置文件中 2. 配置Etcd为服务发现 3. DNS https://github.com/coreos/etcd/blob/master/Documentation/clustering.md 但有时,配置却不起作用,原来Etcd将member信息缓存在/var/lib/etcd/default.etcd/member下,所以,修改配置后,清一下这个目录就好了.关于这里面的原理,官网倒是没有提到,也只能从代码里去啃了.

opennebula 创建模板【配置集群、配置VNC、配置RAW、配置SSH】

{ "vmtemplate": { "NAME": "bbbb", "MEMORY": "512", "CPU": "1", "DESCRIPTION": "aaaa", "DISK": [ { "IMAGE": "ubuntu-001-iso-image", &quo

使用k8s集群内解析服务

curl https://saas-pay-gray.XXX.cn/ping 外网 curl https://vpc-saas-pay-gray.XXX.cn/ping slb,即阿里云内网 1/3包是通的 当时设计slb(vpc)的时候考虑到具体功能,除了日常使用使用内网拉取容器镜像的功能之外,是否还有其他? 由于公司架构使用了k8s集群,k8s内部有做了一套完整的解析:即不经过slb,直接通过k8s集群内DNS解析调用服务 servicename curl saas-pay-gray/pin

基于VMware的虚拟Linux集群搭建-lvs+keepalived

通过keepalived实现lvs服务器的的双机热备和真实服务器之间的负载均衡的blog挺多的,在搭建的时候也参考了相关博文,不同人搭建的实验环境不一样,本文是基于VM搭建的虚拟集群环境,全部虚拟机网卡模式为NAT方式相连,处于同一网段. 搭建环境: 使用redhead 2.6.32-431.el6.x86_64版本的linux,创建四台,配置相关网络信息,确保同一网段下. 配置好各自ip即可,虚拟ip在配置lvs时设定. 安装配置LVS 1.在主备Lvs上安装ipvsadm和keepalive