SQOOP安装及使用-实验

SQOOP是用于对数据进行导入导出的。

(1)把MySQL、Oracle等数据库中的数据导入到HDFS、Hive、HBase中

(2)把HDFS、Hive、HBase中的数据导出到MySQL、Oracle等数据库中

  (3)导入导出的事务是以Mapper任务为单位。

1、sqoop的安装步骤

1.1、执行命令:tar -zxvf sqoop-1.4.3.bin__hadoop-1.0.0.tar.gz解压

1.2、执行命令:mv sqoop-1.4.3.bin__hadoop-1.0.0 sqoop重命名路径

1.3、配置环境变量:并执行命令:source /etc/profile

export SQOOP_HOME=/home/hadoop/app/sqoop
export PATH=.:$SQOOP_HOME/bin:$HADOOP_HOME/bin:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin:$JAVA_HOME/bin:$PATH

1.4、cp /home/hadoop/app/mysql-connector-java-5.1.10.jar $SQOOP_HOME/lib/

2、sqoop的使用

2.1、把数据从mysql导入到hdfs中:默认路径是/user/<username>,注意这里的username是登录主机的用户,不是数据库的用户

sqoop                                        ##sqoop命令
import                                          ##表示导入
--connect jdbc:mysql://hadoop:3306/test ##告诉jdbc,连接mysql的url,其中test表示要导出数据的数据库名称
--username root                            ##连接mysql的用户名
--password hadoop123                     ##连接mysql的密码
--table users                             ##从mysql导出的表名称
--fields-terminated-by ‘\t‘                ##指定输出文件中的行的字段分隔符
--null-string ‘**‘                         ##指定空值的显示为**
-m 1                                       ##复制过程使用1个map作业,默认为4
--append                                   ##指定插入数据的方式
--hive-import                              ##把mysql表数据复制到hive中,如果不使用该选项,意味着复制到hdfs中
--check-column ‘ID‘                     ##指定增量导入要检查的字段
--incremental append                     ##指定增量导入数据的方式
--last-value 6                            ##指定增量导入数据的分割值

2.2、把数据从hdfs导出到mysql中

sqoop
export                                        ##表示数据从hive复制到mysql中
--connect jdbc:mysql://hadoop:3306/test
--username root
--password admin
--table users_bak                            ##mysql中的表,即将被导入的表名称,必须存在
--export-dir ‘/hive/users‘                    ##hive中被导出的文件目录
--fields-terminated-by ‘\t‘                  ##hive中被导出的文件字段的分隔符

2.3、设置为作业,运行作业

sqoop
job                                        #表示JOB命令
--create myjob                             #创建的JOB名称
--                                         #不能省略!后面跟JOB的定义内容
import
--connect jdbc:mysql://hadoop:3306/test
--username root
--password hadoop123
--table users
--fields-terminated-by ‘\t‘
--null-string ‘**‘
-m 1
--append
--hive-import

查看JOB:sqoop job --list

执行JOB:sqoop job --exec myjob

删除JOB:sqoop job --delete myjob

执行后会要求输入密码注意是输入:JOB定义内容中的password 的值!

如果不想输入密码修改$SQOOP_HOME/conf/sqoop-site.xml中的参数

  <property>
    <name>sqoop.metastore.client.record.password</name>
    <value>true</value>
    <description>If true, allow saved passwords in the metastore.
    </description>
  </property>


时间: 2024-11-07 10:00:20

SQOOP安装及使用-实验的相关文章

如何将mysql数据导入Hadoop之Sqoop安装

Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中.Sqoop项目开始于2009年,最早是作为Hadoop的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速的迭代开发,Sqoop独立成为一个Apache项目. 总之Sqo

(DHCP+PXE+TFTP+HTTP)实现Linux自动化安装的演示实验

写在前面:如果此文有幸被某位朋友看见并发现有错的地方,希望批评指正.如有不明白的地方,愿可一起探讨. 准备工作 1.挂载光盘镜像: # mount /dev/cdrom /var/www/html/CentOS6.5/ 提示:为什么要将光盘镜像挂载于此?(在自动化安装过程中,通过http服务提供yum安装源) 2.制作本地YUM仓库: # vim /etc/yum.repos.d/CentOS6.5-Local.repo 配置DHCP服务 1.安装DHCP服务 # yum -y install

Sqoop安装

Sqoop 配置文档 安装环境ubuntu14.04 64位 hadoop2.6 jdk 1.7.0_79  sqoop-1.99.6-bin-hadoop200 Sqopp介绍: Sqoop 学习笔记 1.sqoop 介绍 1)多数是用hadoop技术处理大数据业务的企业有大量的数据存储在rdbms中. 2)基于历史数据的数据分析,利用大数据的平台来进行处理. 3)因此需要将关系型数据库中的数据迁移到hadoop(hive和hbase)中,将hadoop分析出来的数据可能要在倒回到关系型数据库

sqoop安装部署(笔记)

sqoop是一个把关系型数据库数据抽向hadoop的工具.同时,也支持将hive.pig等查询的结果导入关系型数据库中存储.由于,笔者部署的hadoop版本是2.2.0,所以sqoop的版本是:sqoop-1.99.3-bin-hadoop2001.下载sqoop  wget  http://mirrors.cnnic.cn/apache/sqoop/1.99.3/sqoop-1.99.3-bin-hadoop200.tar.gz2.解压sqoop安装文件  tar -zxvf sqoop-1.

sqoop 安装

Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中.Sqoop项目开始于2009年,最早是作为Hadoop的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速的迭代开发,Sqoop独立成为一个Apache项目. 总之Sqo

Sqoop安装及基本使用

Sqoop: 1.sqoop从数据库中导入数据到HDFS 2.SQOOP从数据库导入数据到hive 3.sqoop从hive中将数据导出到数据库 sqoop底层还是执行的mapreduce程序,,但是特殊的地方只有map TASK 可以实现:企业级数据仓库.文档型系统.关系型数据库<--> sqoop安装: 1.tar -zxvf sqoop-1.4.6-cdh5.5.2.tar.gz 2.将mysql的驱动包mysql-connector-java-5.1.43.jar拷贝到sqoop ho

Ubuntu 12.04下LVM2安装和操作实验

实验环境: VirtualBox v4.3.20 Lubuntu 12.04LTS 前期准备: 1.添加虚拟盘:菜单"控制"->"设置"->"存储"->选"控制器SATA"->"添加虚拟硬盘"->"创建新的虚拟硬盘"->一直默认直到结束 2.安装LVM2:ubuntu命令行下执行: sudo apt-get install lvm2 配置LVM: #切

hadoop(八) - sqoop安装与使用

安装在一台节点上就可以了. 1. 使用winscp上传sqoop 2. 安装和配置 添加sqoop到环境变量 将数据库连接驱动mysql-connector-5.1.8.jar拷贝到$SQOOP_HOME/lib里 ### 第一类:数据库中的数据导入到HDFS上 sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --co

MHA+Atlas+mysql一主一从开启gtid安装配置与实验

各节点架构 (说明:生产环境有两个节点可以组成一套完整集群,我是测试环境,因此对于manager以及atlas和binlog server都是单点,如果生产环境,相应的将manager以及atlas和binlog server每个节点都部署即可) 10.80.8.89 mysql-master manager,node atlas 10.80.8.90 mysql-slave node binlog server 安装步骤 10.80.8.89操作命令 1.#增加mha用户 useradd mh