数据迁移工具使用说明

1.解决什么问题?

a, 我们在做ERP升级的时候,很多老的个性化的字段或者表都要迁移到新的库上面去,

步骤一般是用datacompare 比较(由于ERP库比较大,不一定能加载,还需要一堆的设置)。

生成的字段也不会插入到data_dict,def_table,def_table表中,也不会生成描述。有些人可能还不会用这个工具 直接人工。这样消耗时间做一些重复性工作,浪费精力。

本工具支持全部自动化生成,并且支持有些不需要同步的字段,可以自动去掉

2.怎么用?

2.1 打开

  进入个人小站,打开数据迁移工具(客户端工具只支持IE打开)。

  

2.2 配置

2.2.1 数据库配置 (ctrl+p)

  

源库表示老的erp数据库,目标表示要新的erp数据库。

2.2.2 配置生成sql输出目录

2.2.3 配置要同步的表

比如说要同步p_Project 表同时排除ProjGUID 和ProjName字段 就是  P_Project|ProjGUID,ProjName

p_Project 全部同步就是:P_Project

    同步多张表用 ; 间隔 比如:P_Project;P_Room

    

3.结束语

如果你觉得有用的话,麻烦在公司多转下邮件哦。让更多的人用到。 有任何问题 可以在此博客留言。或者发邮件我

时间: 2024-10-01 06:52:52

数据迁移工具使用说明的相关文章

『数据库』随手写了一个 跨数据库 数据迁移工具

随手写了一个 跨数据库 的 数据迁移工具:>目前支持 SQLServer,MySql,SQLite: >迁移工具 可以自动建表,且 保留 主键,自增列: >迁移工具 基于 Laura.Source  ORM框架 开发: >迁移工具 支持 崩溃恢复(重启迁移工具,将会继续 未完成的 数据迁移): >每张表一个事务(即使  表中有 >100W 的数据,也是一个事务完成): >迁移后 的 自增列 和 原数据库 保持一致: 只是展示一下,直接上图片: 操作工具: 迁移工具

达梦数据迁移工具的使用

作为国产数据库,达梦是比较典型的一种,开发工作中会用到其他数据库表迁移到达梦数据库的问题,在此记录一下迁移方法也为他人提供方便. 该工具仅用于其他数据库表及文本文件迁移达梦,或达梦数据库表迁移到其他数据库. 工具: 1)达梦数据迁移工具及达梦数据库用户名.密码等信息 2)其他数据库用户名.密码等信息及待迁移的表: 例  : oracle数据库表example_1 第一步:打开DM数据迁移工具(一般安装达梦数据库时该工具会被一起安装)在迁移管理框中 右键-新建工程(输入工程名称). 迁移-右键新建

Sqoop数据迁移工具的使用

文章作者:foochane? 原文链接:https://foochane.cn/article/2019063001.html Sqoop数据迁移工具的使用 sqoop简单介绍 sqoop数据到HDFS/HIVE sqoop数据到MySQL 1 sqoop简单介绍 sqoop是apache旗下一款"Hadoop和关系数据库服务器之间传送数据"的工具.用于数据的导入和导出. 导入数据:MySQL,Oracle导入数据到Hadoop的HDFS.HIVE.HBASE等数据存储系统: 导出数据

Sqoop 数据迁移工具

Sqoop 数据迁移工具 sqoop : SQL to hadOOP 两个功能: 1. RDB 向HDFS导入 2. HDFS向RDB导入 注:拷贝mysql-connector.jar 和 json.jar 到sqoop/lib目录下 HDFS导入使用 命令很长,一般写成shell脚本.(运行需要启动 HDFS .Yarn[mapreduce作业必须].SQL) COLUMN .WHERE限定 sqoop import \ #import指从sql导入到hdfs --connect jdbc:

MySQL数据迁移工具的设计与实现

MySQL作为最流行的关系型数据库产品之一,当数据规模增大遭遇性能瓶颈时,最容易想到的解决方案就是分库分表.无论是进行水平拆分还是垂直拆分,第一步必然需要数据迁移与同步.由此可以衍生出一系列数据迁移过程中的需求: 1.原本一张表迁移到单库多表(或多库多表),这是最基本的需求: 2.原本单库多表(或多库多表)迁移到新的多库多表(因表设计不合理.数据规模增大等原因导致需要再次分库分表) 3.新表与旧表的表结构可能不一致,如:类型表更(自增主键id由int改为bigint).字段数量不一致(删减.增加

Sqoop数据迁移工具

一.概述 sqoop 是 apache 旗下一款" Hadoop 和关系数据库服务器之间传送数据"的工具. 导入数据: MySQL, Oracle 导入数据到 Hadoop 的 HDFS. HIVE. HBASE 等数据存储系统:    导出数据:从 Hadoop 的文件系统中导出数据到关系数据库 mysql 等    Sqoop 的本质还是一个命令行工具,和 HDFS, Hive 相比,并没有什么高深的理论. 二.工作机制 将导入或导出命令翻译成 mapreduce 程序来实现   

Azure Blob数据迁移工具

数据迁移备份,更多的应用场景见https://docs.azure.cn/zh-cn/storage/common/storage-moving-data?toc=%2fstorage%2fblobs%2ftoc.json 本文档是针对近期数据冷热备份实际工作的一个小结.实际使用过Azcopy和AzureClient这两种方式.据与Microsoft的交流,目前的工具都没有提供内置压缩算法(Azcopy正在开发中). 1.Azcopy AzCopy 是一个 Windows 命令行实用程序,用于将

informix数据迁移工具使用介绍

一.dbschema USAGE:     dbschema [-q] [-t tabname] [-s user] [-p user] [-r rolename] [-f procname]              [-hd tabname] -d dbname [-w passwd] [-seq sequence] [-l [num]]              [-u [ia] udtname [all]] [-it [Type]] [-ss [-si]] [filename] EG:

数据迁移工具Sqoop简介

Sqoop是什么?        sqoop是一个用来将hadoop和rdbms(mysql.oracle.postgres)的数据进行相互迁移的工具:他可以将rdbms的数据导入到hadoop的hdfs中,也可以将hdfs的数据导出到rdbms中.Sqoop原理?        Sqoop中一大亮点就是可以通过hadoop的mapreduce把数据从rdbms中导入数据到hdfs/把数据从hdfs中导出到rdbms中.sqoop架构非常简单,其整合了Hive.Hbase和Oozie,    通