一、 从文件系统导入
数据源存放路径: /root/data hive> load data local inpath "/root/data" overwrite intotable t1; Loading data to table default.t1Table default.t1 stats: [numFiles=1, numRows=0, totalSize=30,rawDataSize=0]OKTime taken: 1.712 secondshive> select * from t1;OKzhangsan 25lisi 27 wangwu 24 二、 从HDFS导入 Hdfs数据存放位置 [[email protected] ~]# hadoop dfs-ls / -rw-r--r-- 1 root supergroup 30 2015-05-18 10:39 /data hive> load data inpath"/data" overwrite into table t1; Loading data to table default.t1Moved:‘hdfs://192.168.1.177:9000/user/hive/warehouse/t1/data‘ to trash at:hdfs://192.168.1.177:9000/user/root/.Trash/CurrentTable default.t1 stats: [numFiles=1,numRows=0, totalSize=30, rawDataSize=0]OKTime taken: 1.551 seconds三、 通过查询导入 创建一张表 hive> create table t2 like t1; OK Time taken: 0.246 seconds 导入数据 hive> insert overwrite table t2 select * form t1; FAILED: NullPointerException null hive> insert overwrite table t2 select * from t1; Query ID = root_20150518104747_7922f9d4-2e15-434a-8b9f-076393d73470 Total jobs = 3 Launching Job 1 out of 3 Number of reduce tasks is set to 0 since there‘s no reduce operator Starting Job = job_1431916152610_0001, Tracking URL = http://crxy177:8088/proxy/application_1431916152610_0001/ Kill Command = /usr/local/hadoop-2.6.0/bin/hadoop job -kill job_1431916152610_0001 Interrupting... Be patient, this might take some time. Press Ctrl+C again to kill JVM killing job with: job_1431916152610_0001 Hadoop job information for Stage-1: number of mappers: 0; number ofreducers: 0 2015-05-18 10:47:40,679 Stage-1 map = 0%, reduce = 0% Ended Job = job_1431916152610_0001 with errors Error during job, obtaining debugging information... FAILED: Execution Error, return code 2 fromorg.apache.hadoop.hive.ql.exec.mr.MapRedTask MapReduce Jobs Launched: Stage-Stage-1: HDFS Read: 0HDFS Write: 0 FAIL Total MapReduce CPU Time Spent: 0 msec 四、 多表同时导入 创建t3,t4表 hive> createtable t3 like t1; OK Time taken:1.235 seconds hive> createtable t4 like t1; OK Time taken:0.211 seconds 多表数据导入 hive> FROM t1 > INSERT OVERWRITE TABLE t2 SELECT * WHERE 1=1 > INSERT OVERWRITE TABLE t3 SELECT * WHERE 1=1 > INSERT OVERWRITE TABLE t4 SELECT * WHERE 1=1; Query ID =root_20150518105252_9101659d-0990-4626-a4f7-8bad768af48b Total jobs = 7 Launching Job 1out of 7 Number of reducetasks is set to 0 since there‘s no reduce operator Starting Job =job_1431916152610_0002, Tracking URL = http://crxy177:8088/proxy/application_1431916152610_0002/ Kill Command =/usr/local/hadoop-2.6.0/bin/hadoop job -kill job_1431916152610_0002 Hadoop jobinformation for Stage-3: number of mappers: 1; number of reducers: 0 2015-05-1810:52:50,866 Stage-3 map = 0%, reduce =0% 2015-05-1810:53:02,273 Stage-3 map = 100%, reduce= 0%, Cumulative CPU 1.41 sec MapReduce Totalcumulative CPU time: 1 seconds 410 msec Ended Job =job_1431916152610_0002 Stage-6 isselected by condition resolver. Stage-5 isfiltered out by condition resolver. Stage-7 isfiltered out by condition resolver. Stage-12 isselected by condition resolver. Stage-11 isfiltered out by condition resolver. Stage-13 isfiltered out by condition resolver. Stage-18 isselected by condition resolver. Stage-17 isfiltered out by condition resolver. Stage-19 isfiltered out by condition resolver. Moving data to:hdfs://192.168.1.177:9000/tmp/hive/root/88e075ab-e7da-497d-a56b-74f652f3eae6/hive_2015-05-18_10-52-30_865_4936011539493382740-1/-ext-10000 Moving data to:hdfs://192.168.1.177:9000/tmp/hive/root/88e075ab-e7da-497d-a56b-74f652f3eae6/hive_2015-05-18_10-52-30_865_4936011539493382740-1/-ext-10002 Moving data to:hdfs://192.168.1.177:9000/tmp/hive/root/88e075ab-e7da-497d-a56b-74f652f3eae6/hive_2015-05-18_10-52-30_865_4936011539493382740-1/-ext-10004 Loading data totable default.t2 Loading data totable default.t3 Loading data totable default.t4 Table default.t2stats: [numFiles=1, numRows=0, totalSize=30, rawDataSize=0] Table default.t3stats: [numFiles=1, numRows=0, totalSize=30, rawDataSize=0] Table default.t4stats: [numFiles=1, numRows=0, totalSize=30, rawDataSize=0] MapReduce JobsLaunched: Stage-Stage-3:Map: 1 Cumulative CPU: 1.41 sec HDFS Read: 237 HDFS Write: 288 SUCCESS Total MapReduceCPU Time Spent: 1 seconds 410 msec OK Time taken:34.245 seconds 更多精彩内容请关注超人学院微信二维码: <ignore_js_op> <ignore_js_op> |
Hive数据导入导出
时间: 2024-11-03 09:51:09
Hive数据导入导出的相关文章
Hive 实战(1)--hive数据导入/导出基础
前沿: Hive也采用类SQL的语法, 但其作为数据仓库, 与面向OLTP的传统关系型数据库(Mysql/Oracle)有着天然的差别. 它用于离线的数据计算分析, 而不追求高并发/低延时的应用场景. 最显著的特别是, Hive的数据是Schema On Read, 对数据的写入非常的自由和松散, 而对数据的读取则作了各种限制. 而RMDBS则是Schema On Write, 对数据写入限制非常的严苛. *). 数据导入/导出 让我们体验以下Hive中数据如何导入: 1). 创建数据库 db_
【源】从零自学Hadoop(16):Hive数据导入导出,集群数据迁移上
阅读目录 序 导入文件到Hive 将其他表的查询结果导入表 动态分区插入 将SQL语句的值插入到表中 模拟数据文件下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一篇,我们介绍了Hive的表操作做了简单的描述和实践.在实际使用中,可能会存在数据的导入导出,虽然可以使用sqoop等工具进行关系型数据导入导出操作,但有的时候只需要很简便的方式进行导入导出即可 下面我们开始
数据仓库Hive数据导入导出
Hive库数据导入导出 1.新建表data hive (ebank)> create table data(id int,name string) > ROW FORMAT DELIMITED > FIELDS TERMINATED BY'\t' > stored as textfile; OK Time taken: 0.257 seconds 2.向data表中插入数据 hive (ebank)> load data local inpath '/home/hive/da
如何利用sqoop将hive数据导入导出数据到mysql
运行环境 centos 5.6 hadoop hive sqoop是让hadoop技术支持的clouder公司开发的一个在关系数据库和hdfs,hive之间数据导入导出的一个工具. 上海尚学堂hadoop大数据培训组原创,陆续有hadoop大数据技术相关文章奉上,请多关注! 在使用过程中可能遇到的问题: sqoop依赖zookeeper,所以必须配置ZOOKEEPER_HOME到环境变量中. sqoop-1.2.0-CDH3B4依赖hadoop-core-0.20.2-CDH3B4.ja
【源】从零自学Hadoop(17):Hive数据导入导出,集群数据迁移下
阅读目录 序 将查询的结果写入文件系统 集群数据迁移一 集群数据迁移二 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一篇,我们介绍了Hive的数据多种方式导入,这样我们的Hive就有了数据来源了,但有时候我们可能需要纯粹的导出,或者集群Hive数据的迁移(不同集群,不同版本),我们就可以通过这两章的知识来实现. 下面我们开始介绍hive的数据导出,以及集群Hive数据的
HData——ETL 数据导入/导出工具
HData是一个异构的ETL数据导入/导出工具,致力于使用一个工具解决不同数据源(JDBC.Hive.HDFS.HBase.MongoDB.FTP.Http.CSV.Excel.Kafka等)之间数据交换的问题.HData在设计上同时参考了开源的Sqoop.DataX,却与之有不同的实现.HData采用“框架+插件”的结构,具有较好的扩展性,框架相当于数据缓冲区,插件则为访问不同的数据源提供实现. [HData特性] 1.异构数据源之间高速数据传输: 2.跨平台独立运行: 3.数据传输过程全内存
Sqoop -- 用于Hadoop与关系数据库间数据导入导出工作的工具
转:https://blog.csdn.net/qx12306/article/details/67014096 Sqoop是一款开源的工具,主要用于在Hadoop相关存储(HDFS.Hive.HBase)与传统关系数据库(MySql.Oracle等)间进行数据传递工作.Sqoop最早是作为Hadoop的一个第三方模块存在,后来被独立成为了一个Apache项目.除了关系数据库外,对于某些NoSQL数据库,Sqoop也提供了连接器. 一.Sqoop基础知识 Sqoop项目开始于2009年,可以在H
Oracle数据导入导出基本操作示例
Oracle数据导入导出基本操作示例 数据导出 a.将数据库orcl完全导出,用户名user 密码password 导出到D:\dc.dmp中 exp user/[email protected] file=d:\dc.dmp full=y full=y 表示全库导出 b.将数据库中user1和user2用户导出 exp user/[email protected] file=d:\dc.dmp owner=(user1,user2) full方式可以备份所有用户的数据库对
考试系统维护--不同版本SQL数据导入导出
考试系统维护过程中,为了保证考试的顺利进行需要在多个服务器上搭建考试系统(备份),这时候需要把数据库来回迁移,之前我们常用的数据库备份还原的方法确实简单方便,但是遇到不同的服务器安装的SQL版本不同就歇菜了,虽然当时为了以后操作方便,我们把这次要用的服务器的数据库版本都统一了,但是在考试系统维护中米老师让我感触最深的一点-----"凡事多想一点!"多思考必须要应用到实际,所以我回来又仔细研究了几种不同版本SQL数据导入导出的方法,与大家交流提高. 一:使用SQLServer Impor