25分钟掌握Hive基本操作

15分钟掌握Hive基本操作

(1)、从本地文件系统中导入数据到Hive表;

(2)、从HDFS上导入数据到Hive表;

(3)、从别的表中查询出相应的数据并导入到Hive表中;

(4)、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中。

  一、从本地文件系统中导入数据到Hive表

  先在Hive里面创建好表,如下:

1

hive> create table tanggao

2

> (id int, name string,

3

> age int, tel string)

4

> ROW FORMAT DELIMITED

5

> FIELDS TERMINATED BY ‘\t‘

6

> STORED AS TEXTFILE;

7

OK

8

Time taken: 2.832 seconds

这个表很简单,只有四个字段,具体含义我就不解释了。本地文件系统里面有个/home/tanggao/tanggao.txt文件,内容如下:

1

[[email protected] ~]$ cat tanggao.txt

2

1       tanggao     25      13188888888888

3

2       test    30      13888888888888

4

3       zs      34      899314121

tanggao.txt文件中的数据列之间是使用\t分割的,可以通过下面的语句将这个文件里面的数据导入到tanggao表里面,操作如下:

1

hive> load data local inpath ‘tanggao.txt‘ into table tanggao;

2

Copying data from file:/home/tanggao/tanggao.txt

3

Copying file: file:/home/tanggao/tanggao.txt

4

Loading data to table default.tanggao

5

Table default.tanggao stats:

6

[num_partitions: 0, num_files: 1, num_rows: 0, total_size: 67]

7

OK

8

Time taken: 5.967 seconds

这样就将tanggao.txt里面的内容导入到tanggao表里面去了可以到tanggao表的数据目录下查看,如下命令:

1

hive> dfs -ls /user/hive/warehouse/tanggao ;

2

Found 1 items

3

-rw-r--r--3 tanggao supergroup 67 2014-02-19 18:23 /hive/warehouse/tanggao/tanggao.txt

数据的确导入到tanggao表里面去了。

  和我们熟悉的关系型数据库不一样,Hive现在还不支持在insert语句里面直接给出一组记录的文字形式,也就是说,Hive并不支持INSERT
INTO .... VALUES形式的语句。

  二、HDFS上导入数据到Hive表

  从本地文件系统中将数据导入到Hive表的过程中,其实是先将数据临时复制到HDFS的一个目录下(典型的情况是复制到上传用户的HDFS
home目录下,比如/home/tanggao/),然后再将数据从那个临时目录下移动(注意,这里说的是移动,不是复制!)到对应的Hive表的数据目录里面。既然如此,那么Hive肯定支持将数据直接从HDFS上的一个目录移动到相应Hive表的数据目录下,假设有下面这个文件/home/tanggao/add.txt,具体的操作如下:

1

[[email protected] /home/q/hadoop-2.2.0]$ bin/hadoop fs -cat /home/tanggao/add.txt

2

5       tanggao1    23      131212121212

3

6       tanggao2    24      134535353535

4

7       tanggao3    25      132453535353

5

8       tanggao4    26      154243434355

  上面是需要插入数据的内容,这个文件是存放在HDFS上/home/tanggao目录(和一中提到的不同,一中提到的文件是存放在本地文件系统上)里面,我们可以通过下面的命令将这个文件里面的内容导入到Hive表中,具体操作如下:

01

hive> load data inpath ‘/home/tanggao/add.txt‘ into table tanggao;

02

Loading data to table default.tanggao

03

Table default.tanggao stats:

04

[num_partitions: 0, num_files: 2, num_rows: 0, total_size: 215]

05

OK

06

Time taken: 0.47 seconds

07

08

hive> select * from tanggao;

09

OK

10

5       tanggao1    23      131212121212

11

6       tanggao2    24      134535353535

12

7       tanggao3    25      132453535353

13

8       tanggao4    26      154243434355

14

1       tanggao     25      13188888888888

15

2       test    30      13888888888888

16

3       zs      34      899314121

17

Time taken: 0.096 seconds, Fetched: 7 row(s)

  从上面的执行结果我们可以看到,数据的确导入到tanggao表中了!请注意load data inpath ‘/home/tanggao/add.txt‘ into table tanggao;里面是没有local这个单词的,这个是和一中的区别。

  三、从别的表中查询出相应的数据并导入到Hive表中

  假设Hive中有test表,其建表语句如下所示:

01

hive> create table test(

02

> id int, name string

03

> ,tel string)

04

> partitioned by

05

> (age int)

06

> ROW FORMAT DELIMITED

07

> FIELDS TERMINATED BY ‘\t‘

08

> STORED AS TEXTFILE;

09

OK

10

Time taken: 0.261 seconds

  大体和tanggao表的建表语句类似,只不过test表里面用age作为了分区字段(下面语句就是将tanggao表中的查询结果并插入到test表中:

01

hive> insert into table test

02

> partition (age=‘25‘)

03

> select id, name, tel

04

> from tanggao;

05

#####################################################################

06

这里输出了一堆Mapreduce任务信息,这里省略

07

#####################################################################

08

Total MapReduce CPU Time Spent: 1 seconds 310 msec

09

OK

10

Time taken: 19.125 seconds

11

12

hive> select * from test;

13

OK

14

5       tanggao1    131212121212    25

15

6       tanggao2    134535353535    25

16

7       tanggao3    132453535353    25

17

8       tanggao4    154243434355    25

18

1       tanggao     13188888888888  25

19

2       test    13888888888888  25

20

3       zs      899314121       25

21

Time taken: 0.126 seconds, Fetched: 7 row(s)

  通过上面的输出,我们可以看到从tanggao表中查询出来的东西已经成功插入到test表中去了!如果目标表(test)中不存在分区字段,可以去掉partition
(age=‘25‘)语句。当然,我们也可以在select语句里面通过使用分区值来动态指明分区:

01

hive> set hive.exec.dynamic.partition.mode=nonstrict;

02

hive> insert into table test

03

> partition (age)

04

> select id, name,

05

> tel, age

06

> from tanggao;

07

#####################################################################

08

这里输出了一堆Mapreduce任务信息,这里省略

09

#####################################################################

10

Total MapReduce CPU Time Spent: 1 seconds 510 msec

11

OK

12

Time taken: 17.712 seconds

13

14

15

hive> select * from test;

16

OK

17

5       tanggao1    131212121212    23

18

6       tanggao2    134535353535    24

19

7       tanggao3    132453535353    25

20

1       tanggao     13188888888888  25

21

8       tanggao4    154243434355    26

22

2       test    13888888888888  30

23

3       zs      899314121       34

24

Time taken: 0.399 seconds, Fetched: 7 row(s)

  这种方法叫做动态分区插入,但是Hive中默认是关闭的,所以在使用前需要先把hive.exec.dynamic.partition.mode设置为nonstrict。当然,Hive也支持insert
overwrite方式来插入数据,从字面我们就可以看出,overwrite是覆盖的意思,是的,执行完这条语句的时候,相应数据目录下的数据将会被覆盖!而insert into则不会,注意两者之间的区别。例子如下:

1

hive> insert overwrite table test

2

> PARTITION (age)

3

> select id, name, tel, age

4

> from tanggao;

  更可喜的是,Hive还支持多表插入,什么意思呢?在Hive中,我们可以把insert语句倒过来,把from放在最前面,它的执行效果和放在后面是一样的,如下:

01

hive> show create table test3;

02

OK

03

CREATE  TABLE test3(

04

id int,

05

name string)

06

Time taken: 0.277 seconds, Fetched: 18 row(s)

07

08

hive> from tanggao

09

> insert into table test

10

> partition(age)

11

> select id, name, tel, age

12

> insert into table test3

13

> select id, name

14

> where age>25;

15

16

hive> select * from test3;

17

OK

18

8       tanggao4

19

2       test

20

3       zs

21

Time taken: 4.308 seconds, Fetched: 3 row(s)

  可以在同一个查询中使用多个insert子句,这样的好处是我们只需要扫描一遍源表就可以生成多个不相交的输出。

  四、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中

  在实际情况中,表的输出结果可能太多,不适于显示在控制台上,这时候,将Hive的查询输出结果直接存在一个新的表中是非常方便的,我们称这种情况为CTAS(create
table .. as select)如下:

01

hive> create table test4

02

> as

03

> select id, name, tel

04

> from tanggao;

05

06

hive> select * from test4;

07

OK

08

5       tanggao1    131212121212

09

6       tanggao2    134535353535

10

7       tanggao3    132453535353

11

8       tanggao4    154243434355

12

1       tanggao     13188888888888

13

2       test    13888888888888

14

3       zs      899314121

15

Time taken: 0.089 seconds, Fetched: 7 row(s)

  数据就插入到test4表中去了,CTAS操作是原子的,因此如果select查询由于某种原因而失败,新表是不会创建的!

时间: 2024-08-02 22:00:04

25分钟掌握Hive基本操作的相关文章

hive基本操作

Hive是一个基于hadoop的数据仓库工具.Hive的查询语言是hive ql.一种类似sql的语言. Hive支持的数据类型有 1整形: Tinyint  1字节整型 Smallint  2字节整型 Bigint   8字节整型 2.布尔型 Boolean 3浮点型 Float Double 4字符串类型 String 5.符合类型 1structs: 2.maps 3.arrays 4.uniontype 5.timestamp 6.Binary 操作符: Like 数学运算符 % & |

大数据学习——hive基本操作

1 建表 create table student(id int,name string ,age int) row format delimitedfields terminated by ','; 2 创建一个student.txt 添加数据 1,zhangsan,10 2,lisi,20 3,wnagwu,25 3 上传 hdfs dfs -put student.txt /user/hive/warehouse/student 4 select * from student; 5 通常不

第2节 hive基本操作:6、7、8

第1节 hive安装:6.hive的基本操作:7.创建数据库的语法:8.hive当中创建内部表的语法. hive的基本操作: 创建数据库与创建数据库表操作 创建数据库操作:create database if not exists xxx; 创建数据库表的操作: CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name 创建表的三个关键字段 [(col_name data_type [COMMENT col_comment], ...)] 定义我们的列

Hive基本操作与案例

1. 创建数据库,切换数据库 create database testdb2; use testdb2; 2. 创建管理表 create table emp( empno int, empname string, job string, mgr int, hiredate string, salary double, comm double, deptno int) row format delimited fields terminated by '\t'; 加载数据 load data lo

上海地铁1名男子落轨身亡 影响晚高峰25分钟

今天(19日)晚高峰期间,不少乘客曝料称,上海地铁三号线突发故障,停站时间超过20分钟.新民晚报新民网记者随后从地铁运营方处获悉,事发系三号线东宝兴路站有人员进入线路,据透露,进入线路人员为男性,已身亡.此事导致中潭路至长江南路区段列车限速运行,发车班次间隔延长.截至记者17时20分发稿时,运营开始逐步恢复正常.http://www.ximalaya.com/zhubo/27582378/ http://www.ximalaya.com/zhubo/27582379/ http://www.xi

hive基本操作与应用

通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 创建的文件夹是datainput 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 原文地址:https://www.cnblogs.com/wxf2/p/9042306.html

每天25分钟总结(2)

1.数字算术的方法(Math) Math.pow(2,53) // 2的53次幂 Math.round(.6) // 四舍五入 Math.ceil(.6) // 向上取整 Math.floor(.6) // 向下取整 Math.abs(-5) // 绝对值 Math.max(x,y,z) // 返回最大值 Math.min(x,y,z) // 返回最小值 Math.random() // 生成一个大于等于0小于1的伪随机数 Math.PI // 圆周率 Math.E // e:自然对数的底数 M

每天25分钟总结(3)

1.默认转布尔值为false的类型 undefined null 0 -0 NaN "" 2.当null和undefined相互==为true(同样表示为空值) 3.默认隐式包装对象,要显式包装的话要new var a = "test",b = 1,c = true var A = new String(a) var B = new Number(b) var C = new Boolean(C) 4.字符串所有的方法看上去返回了一个修改后的字符串,实际上返回的是一

Hive安装配置及基本操作

Hive安装配置及基本操作 1. Hive安装及配置 (1). 上传文件到Hadoop102节点,解压到/opt/moudle (2). 修改/opt/module/hive/conf目录下的hive-env.sh.template名称为hive-env.sh [[email protected] conf]$ cp hive-env.sh.template hive-env.sh (3). 配置hive-env.sh文件 ? (a). 配置HADOOP_HOME路径 : export HADO