使用SCVMM跨集群迁移虚拟机失败(2904)

最近为客户部署了一个测试Hyper-V集群,其希望从原来的Hyper-V集群中将某些测试的虚拟机迁移到新部署的测试集群中,两个集群采用的Hyper-V版本均为Windows Server 2012.两个集群采用同一个SCVMM进行管理。

  问题现象

在迁移某些虚拟机的时候,SCVMM提示了ID为2904的错误。错误详细信息为“VMM在XXX服务器上找不到指定的路径C:\ClusterStorage\Volume1\虚拟机名称\Virtual Hard Disks\.系统找不到指定的路径。(0x80070003)”

问题分析

  在其原有虚拟机上查看发现其原来虚拟机的VHD并没有放在VirtualHardDisks,而是放在了虚拟机的根目录,但是SCVMM在迁移的时候认为必须要在目标存在Virtual Hard Disks目录才可以,如果检测不到就会报错。该问题也算是SCVMM的一个bug吧,暂时还没有搜索到SCVMM的更新有解决此问题的

  解决方法

  在执行迁移操作后,在迁移过程中会自动在目标的CSV中创建该虚拟机的目录,我们可以在该虚拟机目录中手动创建一个Virtual Hard Disks目录来避免此问题。

时间: 2024-10-09 22:57:40

使用SCVMM跨集群迁移虚拟机失败(2904)的相关文章

Kafka跨集群迁移方案MirrorMaker原理、使用以及性能调优实践

序言Kakfa MirrorMaker是Kafka 官方提供的跨数据中心的流数据同步方案.其实现原理,其实就是通过从Source Cluster消费消息然后将消息生产到Target Cluster,即普通的消息生产和消费.用户只要通过简单的consumer配置和producer配置,然后启动Mirror,就可以实现准实时的数据同步. 1. Kafka MirrorMaker基本特性Kafka Mirror的基本特性有: 在Target Cluster没有对应的Topic的时候,Kafka Mir

hive跨集群迁移表

一.原集群操作: 1.hdfs创建目录hdfs dfs -mkdir /tmp/hive-export 2.hive导出表命令hive -e "use 库;show tables" | awk '{printf "use 库;export table %s to @/tmp/hive-export/%[email protected];\n",$1,$1}' | sed "s/@/'/g" > export.sql 3.报错return c

GaussDB 200跨集群访问HDFS

当需要从Hive等Hadoop集群迁移数据到GaussDB 200集群时,因为数据量太大,可能无法导出到本地.此时需要GaussDB 200跨集群读取HDFS上的数据,并写入GaussDB 200集群. 目前GaussDB 200只支持跨集群访问FusionInsight HD中的HDFS. 前提条件 FusionInsight HD和GaussDB 200两个集群状态正常并且可以互相通信. 远端FusionInsight HD集群被访问的表为ORC格式. 远端FusionInsight HD集

HDFS跨集群数据合并方案之ViewFileSystem

前言 在很多时候,我们会碰到数据融合的需求,比如说原先有A集群,B集群,后来管理员认为有2套集群,数据访问不方便,于是设法将A,B集群融合为一个更大的集群,将他们的数据都放在同一套集群上.一种办法就是用Hadoop自带的DistCp工具,将数据进行跨集群的拷贝.当然这会带来很多的问题,如果数据量非常庞大的话.本文给大家介绍另外一种解决方案,ViewFileSystem,姑且可以叫做视图文件系统.大意就是让不同集群间维持视图逻辑上的唯一性,不同集群间还是各管各的. 传统数据合并方案 为了形成对比,

GuassDB 200跨集群访问其他数据平台

本文分别介绍GuassDB跨集群访问远端oracle以及远端MPPDB数据库.因环境有限,这里不列举对接HDFS以及对接Spark功能. 一.对接oracle数据库 1.约束限制 仅支持连接Oracle11.2.0.1至Oracle12.2.0.1. 要求Oracle-ODBC驱动的版本为12.2.0.1.0. unixODBC的版本要求为2.3.6. 支持最多配置20组远端Oracle配置. 配置所需要的Oracle ODBC请从Oracle官网下载.以配置访问Oracle11.2.0.4为例

Hadoop集群搭建-虚拟机安装(转)

1.软件准备 a).操作系统:CentOS-7-x86_64-DVD-1503-01 b).虚拟机:VMware-workstation-full-9.0.2-1031769(英文原版先安装)  VMware Workstation 9.0.2.1031769(汉化包后安装) c).xftp4.XShell4 2.CentOS安装步骤 PS: 打开虚拟机之后,提示了一个小错误,LZ根据错误提示,到BIOS里面设置了一下,然后重启继续安装.. 这里把Intel virtual Tehnology

S1_搭建分布式OpenStack集群_11 虚拟机创建

一.创建网络环境环境变量生效一下创建一个网络:# openstack network create --share --external \--provider-physical-network phynet1 \--provider-network-type flat flat-test 创建一个子网:openstack subnet create --network flat-test \--allocation-pool start=10.10.12.240,end=10.10.12.25

HBase跨版本数据迁移总结

某客户大数据测试场景为:Solr类似画像的数据查出用户标签--通过这些标签在HBase查询详细信息.以上测试功能以及性能. 其中HBase的数据量为500G,Solr约5T.数据均需要从对方的集群人工迁移到我们自己搭建的集群.由于Solr没有在我们集群中集成,优先开始做HBase的数据迁移,以下总结了HBase使用以及数据迁移遇到的各种问题以及解决方法. 一.迁移过程遇到问题以及解决 客户HBase版本:Version 0.94.15腾讯大数据套件HBase版本:Version 1.2.1客户私

在团800运维工作总结之kafka集群日常工作经验总结

一些重要的原理 基本原理什么叫broker partition cg我就不在这里说了,说一些自己总结的原理 1.kafka有副本的概念,每个副本都分在不同的partition中,这中间分为leader和fllower 2.kafka消费端的程序一定要和partition数量一致,不可以多,会出现有些consumer获取 不到数据的现象 3.producer原理 producer通过zookeeper获取所连接的topic都在那些partiton中,每个parition的leader是那 个,针对