大数据--sqoop数据导入导出

1、在MySQL中创建表student

2、在MySQL中创建表student4

3、在hive中创建表student3

------------------------------------------------------------------------------

hive (default)> create table student3(id int,name string,sex string)
> row format delimited fields terminated by ‘\t‘;
OK
Time taken: 0.064 seconds

---------------------------------------------------------------------------------------

4、使用sqoop将MySQL里面的student表的数据迁移到hive中,男性数据(male)迁移到student1,女性数据(female)迁移到student2中

--------------------------------------------------------------------------------------

sqoop import --connect "jdbc:mysql://bigdata113:3306/mysqlhdfs?useSSL=false" --username root --password 000000 --num-mappers 1 --hive-import --fields-terminated-by "\t" --hive-overwrite --hive-table student1 --table student --where "sex=‘male‘"

hive (default)> select * from student1;
OK
student1.id student1.name student1.sex
1 zhansan male
2 lisi male
3 wangwu male
7 zhusan male
11 heizi male
Time taken: 0.06 seconds, Fetched: 5 row(s)

--------------------------------------------------------------

sqoop import --connect "jdbc:mysql://bigdata113:3306/mysqlhdfs?useSSL=false" --username root --password 000000 --num-mappers 1 --hive-import --fields-terminated-by "\t" --hive-overwrite --hive-table student2 --table student --where "sex=‘female‘"

hive (default)> select * from student2;
OK
student2.id student2.name student2.sex
4 lisa female
5 lili female
6 liujin female
8 sanmu female
9 wangli female
10 maliu female
12 xiaoma female
Time taken: 0.072 seconds, Fetched: 7 row(s)

---------------------------------------------------------------

5、在hive中将student1中的男性数据的id在6以下的数据插入student3表中

--------------------------------------------------------------

hive (default)> insert overwrite table student3 select id,name,sex from student1 where id < 6;
Query ID = root_20191005170844_905a4958-9ecc-4dbb-9d00-1892dc5bdd04
Total jobs = 3
Launching Job 1 out of 3
Number of reduce tasks is set to 0 since there‘s no reduce operator
Starting Job = job_1570262298038_0007, Tracking URL = http://bigdata112:8088/proxy/application_1570262298038_0007/
Kill Command = /opt/module/hadoop-2.8.4/bin/hadoop job -kill job_1570262298038_0007
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
2019-10-05 17:08:53,588 Stage-1 map = 0%, reduce = 0%
2019-10-05 17:08:59,078 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 0.87 sec
MapReduce Total cumulative CPU time: 870 msec
Ended Job = job_1570262298038_0007
Stage-4 is selected by condition resolver.
Stage-3 is filtered out by condition resolver.
Stage-5 is filtered out by condition resolver.
Moving data to: hdfs://mycluster/user/hive/warehouse/student3/.hive-staging_hive_2019-10-05_17-08-44_914_826287410471570054-1/-ext-10000
Loading data to table default.student3
Table default.student3 stats: [numFiles=1, numRows=3, totalSize=41, rawDataSize=38]
MapReduce Jobs Launched:
Stage-Stage-1: Map: 1 Cumulative CPU: 0.87 sec HDFS Read: 3822 HDFS Write: 113 SUCCESS
Total MapReduce CPU Time Spent: 870 msec
OK
id name sex
Time taken: 16.548 seconds
hive (default)> select * from student3;
OK
student3.id student3.name student3.sex
1 zhansan male
2 lisi male
3 wangwu male
Time taken: 0.051 seconds, Fetched: 3 row(s)

-----------------------------------------------------------------

6、使用sqoop将hive中的student3中的数据迁移到MySQL中的表student4中

-----------------------------------------------------------------

[[email protected] ~]# sqoop export --connect "jdbc:mysql://bigdata113:3306/mysqlhdfs?useSSL=false" --username root --password 000000 --export-dir /user/hive/warehouse/student3 --table student4 --num-mappers 1 --input-fields-terminated-by "\t"

原文地址:https://www.cnblogs.com/jeff190812/p/11625176.html

时间: 2024-10-11 05:40:19

大数据--sqoop数据导入导出的相关文章

Postgresql数据库数据简单的导入导出

Postgresql数据库数据简单的导入导出 博客分类: DataBase postgres 命令操作: 数据的导出:pg_dump -U postgres(用户名)  (-t 表名)  数据库名(缺省时同用户名)  > c:\fulldb.sql 数据的导入:psql -U postgres(用户名)  数据库名(缺省时同用户名) < C:\fulldb.sql pgAdmin操作: 数据的导出:在库名上右击-->backup-->ok,即将数据保存到.backup文件中. 数据

PLSQL_数据泵Datapump导入导出数据IMPDP / EXPDP(概念)(Oracle数据导入导出工具)

2014-08-31 BaoXinjian 一.摘要 在平常备库和数据库迁移的时候,当遇到大的数据库的时候在用exp的时候往往是需要好几个小时,耗费大量时间.oracle10g以后可以用expdp来导出数据库花费的时间要远小于exp花费的时间,而且文件也要小很多. 二.exp/imp与expdp/impdp区别 (1) 把用户usera的对象导到用户userb,用法区别在于fromuser=usera touser=userb ,remap_schema=’usera’:'usera’ . 例如

5.非关系型数据库(Nosql)之mongodb:创建集合,备份与导入导出, 数据还原,导入导出

 1 固定集合 固定集合值得是事先创建而且大小固定的集合 2 固定集合的特征:固定集合很像环形队列,如果空间不足,最早文档就会被删除,为新的文档腾出空间.一般来说,固定集合适用于任何想要自动淘汰过期属性的场景,没有太多的操作限制. 3 创建固定集合使用命令: db.createCollection("collectionName",{capped:true,size:100000,max:100}); size:指定集合大小,单位为KB,max指定文档的数量 当指定文档数量上限时,

.net实现与excel的数据交互、导入导出

应该说,一套成熟的基于web的管理系统,与用户做好的excel表格进行数据交互是一个不可或缺的功能,毕竟,一切以方便客(jin)户(qian)为宗旨. 本人之前从事PHP的开发工作,熟悉PHP的都应该知道,PHP与excel交互有一套很方便的软件,名字也很随性,就叫PHPExcel.但,现在是.net,怎么做呢? 搜索之后发现,c#就是微软自家的啊,与ms office交互还不是小事儿吗,不废言了,进正题: 采用OleDB(什么是OleDB,没必要知道,想知道百度之(*^__^*) )读取exc

Oracle数据库分别在Windows/Linux环境下普通/数据泵方式导入/导出示例

1 Linux普通导出/入 1.1 终端下导出 exp naricom/[email protected]/SGTMS owner='('mw_app,mw_sys,statdba,dictdba')' file=/orabackup/SGTMS_201408131200.dmp log= /orabackup/SGTMS_201408131200.Log  buffer=80000000 1.2 终端下导入 imp naricom/[email protected] fromuser=(MW_

oracle表分区、表分析及oracle数据泵文件导入导出开心版

1.先说oracle表分区是什么吧,这样吧我们来举个桃子,栗子太小,我们就不举了,我们来举个桃子. 你有500万份文件,你要把他存在磁盘上,好嘛,我们就一个文件夹,500万分文件在那儿杵着,我们想找到要的那个打开,嘿嘿,我们得找到什么时候. 这时候,有个人告诉你,你把文件按照特定的规律存在不同的文件夹中,这样的话你就会好找很多. 哇,突然你开窍了,你说,对啊,你好牛逼啊,我怎么没想到呢?分开之后我在找的话就会快很多啊,所以你很高兴,也很服他.于是你就开始做了. --这个不同的文件夹就是不同的分区

mysql 数据表结构导入导出

导出 mysqldump -h localhost -u root -p -P -d dbname > db.sql 命令行下具体用法如下:mysqldump -h 远程 -u用戶名 -p密码 -P 端口 -d 数据库名 表名 sql语句; * 1.导出数据库dbname的表结构(其中用戶名为root,密码为dbpasswd,生成的sql语句db.sql) mysqldump -uroot -pdbpasswd -d dbname > b.sql; * 2.导出数据库dbname某张表(tes

excel,sql server,access数据之间相互导入导出

1.sql server导入excel表 右击——>tasks——>import data 2.sql server导入access表 第二幅选择access

MySQL数据表格导入导出

一 初始数据(共6条记录) username userpwd age admin admin 18 root root 18 cat cat 17 dog dog 15 dog1 dog1 15 zhu zhu 21 二 创建数据库.创建表user create database youku; --创建数据库 use youku; -- 选择数据库 DROP TABLE IF EXISTS `user`; CREATE TABLE `user` ( `username` varchar(11)