[sqoop] sqoop命令

官网文档:http://sqoop.apache.org/docs/1.99.7/user/CommandLineClient.html#delete-link-function

一、了解sqoop数据导入的几个重要概念

(1)connector:sqoop2中预定了各种链接,这些链接是一些配置模板。

#查看预定制的连接器

sqoop:000> show connector
+------------------------+---------+------------------------------------------------------------+----------------------+
|          Name          | Version |                           Class                            | Supported Directions |
+------------------------+---------+------------------------------------------------------------+----------------------+
| oracle-jdbc-connector  | 1.99.7  | org.apache.sqoop.connector.jdbc.oracle.OracleJdbcConnector | FROM/TO              |
| sftp-connector         | 1.99.7  | org.apache.sqoop.connector.sftp.SftpConnector              | TO                   |
| kafka-connector        | 1.99.7  | org.apache.sqoop.connector.kafka.KafkaConnector            | TO                   |
| kite-connector         | 1.99.7  | org.apache.sqoop.connector.kite.KiteConnector              | FROM/TO              |
| ftp-connector          | 1.99.7  | org.apache.sqoop.connector.ftp.FtpConnector                | TO                   |
| hdfs-connector         | 1.99.7  | org.apache.sqoop.connector.hdfs.HdfsConnector              | FROM/TO              |
| generic-jdbc-connector | 1.99.7  | org.apache.sqoop.connector.jdbc.GenericJdbcConnector       | FROM/TO              |
+------------------------+---------+------------------------------------------------------------+----------------------+

其中,最基本的是generic-jdbc-connector,是mysql等关系型数据库的连接器。支持数据的从关系型数据库的导入导出。

除此之外,支持导入导出的还有:hdfs-connector、kite-connector和oracle-jdbc-connector。

仅支持数据导入的连接器有: sftp-connector 、 ftp-connector 以及kafka-connector 。

通过这些模板,可以创建出对应数据源的link,比如我们链接mysql,就是使用JDBC的方式进行链接,这时候就从这个generic-jdbc-connector模板继承出一个link。那如果我们需要连接hdfs,则需要使用hdfs-connector模版。

(2)link:从connector继承出的对象,用于指定的对数据源的链接。

(3)job:指定一个导入导出作业,必须指定数据源和数据目的地,并配置各项job参数,用于提交给mapreduce。

二、几个常用的重要命令

#设置
set [server|option|truststore]

#查看
show [server|version|connector|driver|link|job|submission|option|role|principal|privilege]

#创建
create [link|job|role]

#删除
delete [link|job|role]

#更新
update [link|job]

#克隆
clone [link|job]

#执行任务
start [job]

#结束任务
stop [job]

#查看任务状态
status [job]

#启用
enable [link|job]

#禁用
disable [link|job]

#授权
grant [role|privilege]

#回收授权
revoke [role|privilege]
set option --name verbose --value true
set option --name poll-timeout --value 20000

三、查看

查看服务器

sqoop:000> show server -all
Server host: localhost
Server port: 12000
Server webapp: sqoop

查看版本

sqoop:000> show version -all
client version:
  Sqoop 1.99.7 source revision 435d5e61b922a32d7bce567fe5fb1a9c0d9b1bbb
  Compiled by abefine on Tue Jul 19 16:08:27 PDT 2016
server version:
  Sqoop 1.99.7 source revision 435d5e61b922a32d7bce567fe5fb1a9c0d9b1bbb
  Compiled by abefine on Tue Jul 19 16:08:27 PDT 2016
API versions:
  [v1]

查看内置连接器

sqoop:000> show connector
+------------------------+---------+------------------------------------------------------------+----------------------+
|          Name          | Version |                           Class                            | Supported Directions |
+------------------------+---------+------------------------------------------------------------+----------------------+
| oracle-jdbc-connector  | 1.99.7  | org.apache.sqoop.connector.jdbc.oracle.OracleJdbcConnector | FROM/TO              |
| sftp-connector         | 1.99.7  | org.apache.sqoop.connector.sftp.SftpConnector              | TO                   |
| kafka-connector        | 1.99.7  | org.apache.sqoop.connector.kafka.KafkaConnector            | TO                   |
| kite-connector         | 1.99.7  | org.apache.sqoop.connector.kite.KiteConnector              | FROM/TO              |
| ftp-connector          | 1.99.7  | org.apache.sqoop.connector.ftp.FtpConnector                | TO                   |
| hdfs-connector         | 1.99.7  | org.apache.sqoop.connector.hdfs.HdfsConnector              | FROM/TO              |
| generic-jdbc-connector | 1.99.7  | org.apache.sqoop.connector.jdbc.GenericJdbcConnector       | FROM/TO              |
+------------------------+---------+------------------------------------------------------------+----------------------+
sqoop:000> show link
0    [main] WARN  org.apache.hadoop.util.NativeCodeLoader  - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
+------+----------------+---------+
| Name | Connector Name | Enabled |
+------+----------------+---------+
+------+----------------+---------+

其他查看命令

show server --all

show option --name verbose

show version --all

show connector --all or show connector

show driver

show link --all
show link --name linkName

show job --all
show job --name jobName

show submission
show submission -j jobName
show submission --job jobName --detail

四、创建

创建link

create link --connector connectorNamecreate link -c connectorName
例如:create link -connector generic-jdbc-connectorcreate link -connector hdfs-connector

创建job

create job --from fromLinkName --to toLinkName
create job -f fromLinkName -t toLinkName

五、更新

update link --name linkName
update job --name jobName

六、删除

delete link --name linkName
delete job --name jobName

七、克隆

clone link --name linkName
clone job --name jobName

八、启动

start job --name jobName
start job --name jobName --synchronous

九、停止

stop job --name jobName

十、查看任务执行状态

status job --name jobName
时间: 2024-10-25 13:31:18

[sqoop] sqoop命令的相关文章

[Sqoop]Sqoop使用

Sqoop的本质还是一个命令行工具,和HDFS,MapReduce相比,并没有什么高深的理论. 我们可以通过sqoop help命令来查看sqoop的命令选项,如下: 16/11/13 20:10:17 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6 usage: sqoop COMMAND [ARGS] Available commands:  codegen            Generate code to interact with da

错误: 找不到或无法加载主类 org.apache.sqoop.Sqoop

环境 hadoop 2.5.2 sqoop 1.4.7 异常  解决方案: 千万不要信什么 一:sqoop目录下的sqoop-1.4.4.jar拷贝到hadoop的lib目录下解决 二:把sqoop的lib目录下的sqoop的(sqoop-1.4.5.jar或sqoop-1.4.6.jar)包放到hadoop的lib下,并且也放到sqoop的lib下(这个是我自己琢磨的,不知道用不同放) 三: 解决方法: 1.sqoop-1.4.x.tar.gz在1.4.5以上的安装包已经没有了这个jar包,在

[sqoop]sqoop入门-下载、安装、运行和常用命令

一.简介 Apache Sqoop is a tool designed for efficiently transferring data betweeen structured, semi-structured and unstructured data sources. Relational databases are examples of structured data sources with well defined schema for the data they store.

[sqoop] sqoop 小试牛刀

sqoop 1.4.6  小试牛刀 sqoop import 参数 1. mysql导入 到hdfs中 ./sqoop import --connect jdbc:mysql://mysql:3306/part --username root --password 123456 --table big_hdfs -m 1 --target-dir /sqoop/import/mysql/ 2. mysql 导入 到 hive 指定库 中 ./sqoop import --hive-import

[sqoop] sqoop

hadoop sqoop的常用名命令

1 列出所有的ambari数据库中所有的表 Sqoop list-tables -connect  jdbc:mysql://localhost:3306/ambari -username ambari -password ambari; 2列出mysql里所有的数据库 Sqoop list-databases -connect  jdbc:mysql://localhost:3306/ -username ambari -password ambari; 3将关系型数据的表结构复制到hive中

sqoop相关整理记录

生产背景: 在从mysql导入到hive中,遇到如下问题: 1) 源mysql和集群机器不在同一个网段中,导致执行导入命令,网络连接失败. 2) 某些字符导入到hive中,出现报错终止. 2.1  sqoop使用的JDBC-connector 版本太低(更换版本). 从hive导出到mysql中,遇到如下问题: 1)某些字符插入mysql,出现报错终止. 1.1 可能mysql本身编码的限制,某些字符不支持,比如uft8和utf8mb4 1.2  sqoop使用的JDBC-connector 版

sqoop搭建

sqoop版本1.99.7#此搭建过程在最后启动job的时候失败了,每个版本的差异性蛮大的. 版本下载链接:http://pan.baidu.com/s/1pKYrusz 密码:7ib5 搭建sqoop之前,已经配置好了hadoop和java的环境 当第一次启动后,KILL掉HADOOP进程后出现的各种问题,重启机器解决问题. This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh 错误: 找不到或无法加载主类

Sqoop

1. 安装 tar -zxvf sqoop-1.4.6.tar.gz 参考:http://www.cnblogs.com/edisonchou/p/4440216.html http://www.cnblogs.com/wgp13x/p/5028220.html 2. 配置 vi conf/sqoop-env.sh #Set path to where bin/hadoop is available export HADOOP_COMMON_HOME=/home/hadoop-2.5/ #Set