使用sqoop --options-file 导入hive数据

[Author]: kwu

使用sqoop --options-file直接导入hive数据,把操作命令语句写在文件中,便于管理及管理

1、创建hive数据库及表

create database DB_TEST;

CREATE TABLE

UserRegLoginLog

(

ID BIGINT,

fld_date TIMESTAMP,

fld_ip string,

fld_server_ip string,

fld_UA string,

UserId BIGINT ,

UserName string,

PassWord string,

ActionType INT ,

ActionTime TIMESTAMP ,

ActionIP string,

FromHost string,

UrlRefer string,

RemotePort string

)

ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t‘ ;

2、编写sqoop操作文件,注意做分隔符需要与hive的一致

vi UserRegLoginLog_hive.opt

import
--connect
jdbc:jtds:sqlserver://10.130.2.6:1433;;DatabaseName=DB_TEST
--username
sa
--password
123456
--table
UserRegLoginLog
--where
1=1
--columns
" ID ,fld_date ,fld_ip ,fld_server_ip ,fld_UA ,UserId  ,UserName ,PassWord ,ActionType  ,ActionTime  ,ActionIP ,FromHost ,UrlRefer,RemotePort "
--fields-terminated-by
'\t'
--hive-import
--hive-overwrite
--hive-drop-import-delims
--hive-table
DB_TELECAST.UserRegLoginLog

使用sqoop --options-file 执行操作文本

sqoop --options-file ./UserRegLoginLog_hive.opt

3、指定hive的数据库,格式为: 数据库.表名

DB_TEST.UserRegLoginLog

时间: 2024-11-13 02:36:27

使用sqoop --options-file 导入hive数据的相关文章

sqoop安装及导入sqlserver数据

如何使用 Sqoop 导出 sql server 的数据 1.下载Sqoop 1.4.7 到清华镜像去下载sqoop-1.4.7就行了 2.连接sqlserver用的jar包 使用 sqoop 导出 sql server 的数据,需要使用对应的 sqljdbc.jar 包,这里用到的是 sqljdbc4.jar点我下载 3.安装sqoop 将下载好的压缩包解压到指定安装目录,如/opt tar -zxvf sqoop-1.4.7_hadoop-bin.tar.gz -C /opt 4.配置 修改

sqoop从mysql导入hive的一些问题

1.错误:Sqoop:Import failed: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf 解决方法1: 将mysql中的数据导入到hive中报错: ERROR tool.ImportTool:Import failed: java.io.IOException: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.Hive

sqoop 从mysql导入hive的字段名称问题

hive中有些关键字限制,因此有些字段名称在mysql中可用,但是到了hive就不行. 比如order必须改成order1, 下面列出了我们发现的一些不能在hive中使用的字段名称 order  => order1 sort => sort1 reduce => reduce1 cast => cast1 directory => directory1

hive-hbase-handler方式导入hive表数据到hbase表中

Hive与HBase的整合功能的实现是利用两者本身对外的API接口互相进行通信,相互通信主要是依靠hive-hbase-handler.jar工具类 : hive-hbase-handler.jar在hive的lib包中而不是在hbase的lib中,hive0.6版本以后: 创建hive表的同时创建hbase表,删除 hive表的同时也会删除对应的hbase表. 参见官方文档:https://cwiki.apache.org/confluence/display/Hive/HBaseIntegr

教程 | 使用Sqoop从MySQL导入数据到Hive和HBase

基础环境 sqoop:sqoop-1.4.5+cdh5.3.6+78, hive:hive-0.13.1+cdh5.3.6+397, hbase:hbase-0.98.6+cdh5.3.6+115 Sqool和Hive.HBase简介 Sqoop Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的开源工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中. Hiv

使用sqoop从mysql导入数据到hive

前言 这篇文章主要是用sqoop从mysql导入数据到hive时遇到的坑的总结. 环境: 系统:Centos 6.5 Hadoop:Apache,2.7.3 Mysql:5.1.73 JDK:1.8 Sqoop:1.4.7 Hadoop以伪分布式模式运行. 一.使用的导入命令 我主要是参考一篇文章去测试的,Sqoop: Import Data From MySQL to Hive. 参照里面的方法,在mysql建了表,填充了数据,然后按照自己的情况输入了命令: sqoop import --co

hive数据导入Sqoop工具

下载Sqoop ,直接解压缩;然后导入2个环境变量 1.导入oracle数据库中表emp的数据到hive表中 1.导入到HDFS中 $ sqoop import --connect jdbc:mysql://database.example.com/employees --username aaron --password 12345--connect用来链接数据库,--table选择一个表,--colums选择列,-m选择mapreduce任务数量,--target-dir选择导入到HDFS的

sqoop从oracle数据库抽取数据,导入到hive

环境: hadoop-2.7.5 sqoop-1.4.7 zookeeper-3.4.10 hive-2.3.3 (使用mysql配置元数据库) jdk1.8.0_151 oracle 11.2.0.3.0 经过一番baidu,总算初步成功,现在记录一下中间过程. 1.拷贝hive/conf/hive_site.xml到sqoop/conf目录2.配置sqoop-evn.sh,将变量设置为对应的目录. export HADOOP_COMMON_HOME=/home/hadoop/hadoop-2

[hadoop读书笔记] 第十五章 sqoop1.4.6小实验 - 将mysq数据导入hive

安装hive 1.下载hive-2.1.1(搭配hadoop版本为2.7.3) 2.解压到文件夹下 /wdcloud/app/hive-2.1.1 3.配置环境变量 4.在mysql上创建元数据库hive_metastore编码选latin,并授权 grant all on hive_metastore.* to 'root'@'%' IDENTIFIED BY 'weidong' with grant option; flush privileges; 5.新建hive-site.xml,内容