sqoop 沟通hdfs和关系型数据库的桥梁,可以从hdfs导出数据到关系型数据库,也可以从关系型数据库导入数据到hdfs
下载:Apache 提供的工具
安装:
要求必须有jdk 和 hadoop的支持,并且有版本要求。
上传到linux中,进行解压
sqoop可以通过JAVA_HOME找到jdk 可以通过HADOOP_HOME找到hadoop所以不需要做任何配置就可以工作。
需要将要连接的数据库的驱动包加入sqoop的lib目录下
从关系型数据库导入数据到hdfs:
sqoop import --connect jdbc:mysql://192.168.1.10:3306/tedu --username root --password 123 --table trade_detail --columns ‘id, account, income, expenses‘
指定输出路径、指定数据分隔符
sqoop import --connect jdbc:mysql://192.168.1.10:3306/tedu --username root --password 123 --table trade_detail --target-dir ‘/sqoop/td‘ --fields-terminated-by ‘\t‘
指定Map数量 -m
sqoop import --connect jdbc:mysql://192.168.1.10:3306/tedu --username root --password 123 --table trade_detail --target-dir ‘/sqoop/td1‘ --fields-terminated-by ‘\t‘ -m 2
增加where条件, 注意:条件必须用引号引起来
sqoop import --connect jdbc:mysql://192.168.1.10:3306/tedu --username root --password 123 --table trade_detail --where ‘id>3‘ --target-dir ‘/sqoop/td2‘
增加query语句(使用 \ 将语句换行)
sqoop import --connect jdbc:mysql://192.168.1.10:3306/tedu --username root --password 123 --query ‘SELECT * FROM trade_detail where id > 2 AND $CONDITIONS‘ --split-by trade_detail.id --target-dir ‘/sqoop/td3‘
注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
从hdfs到处数据到关系型数据库:
sqoop export --connect jdbc:mysql://192.168.8.120:3306/tedu --username root --password 123 --export-dir ‘/td3‘ --table td_bak -m 1 --fields-terminated-by ‘,‘