ArcSDE 数据迁移 Exception from HRESULT: 0x80041538问题及解决方案

一、问题描述

  1、采用gdb模板文件,在ArcSDE(数据服务器)中批量创建数据库表(数据迁移)时,用到接口ESRI.ArcGIS.Geodatabase.IGeoDBDataTransfer的方法Transfer时,报错,错误为:Exception from HRESULT: 0x80041538;

  2、在自己电脑上试验没问题,数据服务器上会有该问题;

  3、由于GIS相关问题,相关帮助手册及网上搜了一会,发现几乎没这个问题的相关资料。

二、解决方案

  1、只能从本机环境和数据服务器环境对比上着手,本机环境:Win7 旗舰中文版,Oracle 11g中文版;数据服务器环境:WinServer 2008 R2标准版(别人装的,貌似是英文版的,后来装了中文补丁包,未修改其他设置,输入中文汉字总感觉显示怪怪的),Oracle 11g英文版;

  2、怀疑是编码的问题,便拿ArcCatalog在数据服务器上创建名称为中文的表时,直接报错ORA-00911Invalid Character。于是,便可以断定是字符编码的问题。从两方面着手:

  A、操作系统问题

  windows的问题,在区域和语言设置,把非unicode编码设置为简体中文(设置完成后,重启电脑即可,再输入中文汉字就不觉得怪了)。

  

  B、Oracle数据库问题

  (1)首先查看Oracle的编码,两种方式可以查看(注册表或者sqlplus查询),这两种方式均是借鉴转载别人写的内容

  注册表查看:

  32位在:HKEY_LOCAL_MACHINE\SOFTWARE\WOW6432NODE\ORACLE\HOMExx\NLS_LANG
  (这里是32位的应用程序在64位windows系统中,注册表位置在"WOW6432NODE"下。)
  64位在:HKEY_LOCAL_MACHINE\SOFTWARE\ORACLE\HOMExx\NLS_LANG
  (这里是64位的应用程序在64位windows系统中,注册表位置直接在"SOFTWARE"下。)

  Sqlplus查询:

数据库服务器字符集select * from nls_database_parameters,其来源于props$,是表示数据库的字符集。
  客户端字符集环境select * from nls_instance_parameters,其来源于v$parameter,
  会话字符集环境select * from nls_session_parameters,其来源于v$nls_parameters,表示会话自己的设置,可能是会话的环境变量或者是alter session完成,如果会话没有特殊的设置,将与nls_instance_parameters一致。

  以上两种方式,可得知数据服务器上的Oracle编码为:WE8MSWIN1252(不支持中文)

  

  (2)既然知道了编码WE8MSWIN1252的问题,下面就好解决了,可参考http://blog.itpub.net/22871478/viewspace-1116638/,为了大家看的方法,我把原文转载过来了,如下:

  修改字符集为ZHS16GBK

  SQL> shutdown immediate;

  Database closed.

  Database dismounted.

  ORACLE instance shut down.

  SQL> startup mount

  ORACLE instance started.

  

  Total System Global Area  523108352 bytes

  Fixed Size                  1337632 bytes

  Variable Size             356517600 bytes

  Database Buffers          159383552 bytes

  Redo Buffers                5869568 bytes

  Database mounted.

  SQL> alter session set sql_trace=true;

  Session altered.

  SQL> alter system enable restricted session;

  System altered.

  SQL> alter system set job_queue_processes=0;

  System altered.

  SQL> alter system set aq_tm_processes=0;

  System altered.

  SQL> alter database open;

  Database altered.

  SQL> alter database character set ZHS16GBK;

  alter database character set ZHS16GBK

  *

  ERROR at line 1:

  ORA-12712: new character set must be a superset of old character set

  SQL> alter database character set internal_use ZHS16GBK;

  Database altered.

  红色部分的错误不影响

  到此修改成功,重启服务,支持中文。

  3、问题得以解决。

时间: 2024-10-02 17:06:00

ArcSDE 数据迁移 Exception from HRESULT: 0x80041538问题及解决方案的相关文章

在Entity Framework 7中进行数据迁移

(此文章同时发表在本人微信公众号“dotNET每日精华文章”,欢迎右边二维码来关注.) 题记:虽然EF7重新设计了Entity Framework,不过也还是能够支持数据迁移的. Entity Framework 7是微软ORM框架的一次重生,变得更加轻量级.因而默认情况是没有开启数据迁移(Migration)功能的,也即创建出来的数据库默认不会包含“__MigrationHistory”表.在这种情况下,数据模型的变更,需要你手动(通过SQL脚本)去修改对应的数据库结构.当然,你还是可以启用自

[JIRA] 最新Linux版本 jira6.3.6安装汉化破解以及数据迁移

序言: JIRA是澳大利亚 Atlassian 公司开发的一款优秀的问题跟踪管理软件工具,可以对各种类型的问题进行跟踪管理,包括缺陷.任务.需求.改进等.JIRA采用J2EE技术,能够跨平台部署.它正被广泛的开源软件组织,以及全球著名的公司使用. JIRA产品非常完善且功能强大,安装配置简单,多语言支持.界面十分友好,和其他系统如CVS.Subversion(SVN).VSS.LDAP.邮件服务整合得相当好,文档齐全,可用性以及可扩展性方面都十分出色,拥有完整的用户权限管理. 环境:jira软件

MySQL数据迁移到MSSQL-以小米数据库为例-测试828W最快可达到2分11秒

这里采用.NET Framework 4.0以上版本中新出现的 ConcurrentQueue<T> 类 MSDN是这样描述的: ConcurrentQueue<T> 类是一个线程安全的先进先出 (FIFO) 集合. ConcurrentQueue<T> 的所有公共且受保护的成员都是线程安全的,可从多个线程同时使用. 共采用两个线程,一个读一个写. ConcurrentQueue<T>的实现方法: (FIFO) 集合: ConcurrentQueue<

闲来无事,编写一个数据迁移小工具

一.前言 生命不息,折腾不止.近期公司有数据迁移的计划,从Sqlserver迁移到mysql,虽说网上有很多数据迁移方案,但闲着也是闲着,就自己整一个,权当做是练练手了 二.解决思路 整个迁移过程类似于ETL,将数据从来源端经过抽取(extract).转换(transform).加载(load)至目的端.读取并转换sqlserver库数据,将数据解析为csv文件,载入文件到mysql.流程如下: 抽取.转换此过程主要是处理源数据库与目标数据库表字段的映射关系,为了保证程序的通用性,通过配置文件映

【源】从零自学Hadoop(16):Hive数据导入导出,集群数据迁移上

阅读目录 序 导入文件到Hive 将其他表的查询结果导入表 动态分区插入 将SQL语句的值插入到表中 模拟数据文件下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一篇,我们介绍了Hive的表操作做了简单的描述和实践.在实际使用中,可能会存在数据的导入导出,虽然可以使用sqoop等工具进行关系型数据导入导出操作,但有的时候只需要很简便的方式进行导入导出即可   下面我们开始

HDFS数据迁移解决方案之DistCp工具的巧妙使用

前言 在当今每日信息量巨大的社会中,源源不断的数据需要被安全的存储.等到数据的规模越来越大的时候,也许瓶颈就来了,没有存储空间了.这时候怎么办,你也许会说,加机器解决,显然这是一个很简单直接但是又显得有些欠缺思考的办法.无谓的加机器只会带来无限上升的成本消耗,更好的办法应该是做到更加精细化的数据存储与管理,比如说非常典型的冷热数据的存储.对于巨大的长期无用的冷数据而言,应该用性能偏弱,但是磁盘空间富余的机器存,热数据则反之.数据的分类存储一定会带来数据的同步问题,假若我有2套集群,1个是线上的正

SolrCloud 5.0 路由、Collection创建与数据迁移

SolrCloud的设计是为了提供高可用.容错,在分布式环境中进行内容索引和查询请求. SolrCloud 5.0,对自带的SolrCloud的启动脚本进行了改进,启动SolrCloud变的异常简单,执行 $ bin/solr –e cloud 根据提示输入一些参数,即可启动完成SolrCloud,部署启动完成,如下图 SolrCloud相关概念 SolrCloud中有四个关键名词:core.collection.shard.node.         core:在Solr单机环境中,core本

[转载] 使用Kettle进行数据迁移(ETL)

由于开发新的系统,需要将之前一个老的C/S应用的数据按照新的数据设计导入到新库中.此过程可能涉及到表结构不一致.大数据量(千万级,甚至上亿)等情况,包括异构数据的抽取.清洗等等工作.部分复杂的工作需要我们的DBA写代码用程序在JDBC或者Delphi中解决,而大部分稍简单的数据的迁移需要一个强大的ETL工具来解决.某日,技术经理让我找一个满足我们项目数据迁移需求的稳定.高效ETL工具.google了几把,网上大致有下列几款软件资料较多:Oracle的OWB(Oracle Warehouse Bu

zookeeper数据迁移

在不停机的情况下,实现集群之间数据迁移代码: 1 private void create(ZooKeeper zk1, ZooKeeper zk2, String path) throws Exception { 2 List<String> list = zk1.getChildren(path, null); 3 for (String str : list) { 4 if (path.endsWith("/")) { 5 } else { 6 path = path