hive文件存储格式

hive在建表是,可以通过‘STORED AS FILE_FORMAT’ 指定存储文件格式

例如:

[plain] view
plain
 copy

  1. > CREATE EXTERNAL TABLE MYTEST(num INT, name STRING)
  2. > ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t‘
  3. > STORED AS TEXTFILE
  4. > LOCATION ‘/data/test‘;

指定文件存储格式为“TEXTFILE”。

hive文件存储格式包括以下几类:

  • TEXTFILE
  • SEQUENCEFILE
  • RCFILE
  • 自定义格式

TEXTFIEL

默认格式,数据不做压缩,磁盘开销大,数据解析开销大。

可结合Gzip、Bzip2使用(系统自动检查,执行查询时自动解压),但使用这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作。

实例:

[plain] view
plain
 copy

  1. > create table test1(str STRING)
  2. > STORED AS TEXTFILE;
  3. OK
  4. Time taken: 0.786 seconds
  5. #写脚本生成一个随机字符串文件,导入文件:
  6. > LOAD DATA LOCAL INPATH ‘/home/work/data/test.txt‘ INTO TABLE test1;
  7. Copying data from file:/home/work/data/test.txt
  8. Copying file: file:/home/work/data/test.txt
  9. Loading data to table default.test1
  10. OK
  11. Time taken: 0.243 seconds

SEQUENCEFILE:

SequenceFile是Hadoop API提供的一种二进制文件支持,其具有使用方便、可分割、可压缩的特点。

SequenceFile支持三种压缩选择:NONE, RECORD, BLOCK。 Record压缩率低,一般建议使用BLOCK压缩。

示例:

[plain] view
plain
 copy

  1. > create table test2(str STRING)
  2. > STORED AS SEQUENCEFILE;
  3. OK
  4. Time taken: 5.526 seconds
  5. hive> SET hive.exec.compress.output=true;
  6. hive> SET io.seqfile.compression.type=BLOCK;
  7. hive> INSERT OVERWRITE TABLE test2 SELECT * FROM test1;

RCFILE

RCFILE是一种行列存储相结合的存储方式。首先,其将数据按行分块,保证同一个record在一个块上,避免读一个记录需要读取多个block。其次,块数据列式存储,有利于数据压缩和快速的列存取。RCFILE文件示例:

实例:

[plain] view
plain
 copy

  1. > create table test3(str STRING)
  2. > STORED AS RCFILE;
  3. OK
  4. Time taken: 0.184 seconds
  5. >  INSERT OVERWRITE TABLE test3 SELECT * FROM test1;

自定义格式

当用户的数据文件格式不能被当前 Hive 所识别的时候,可以自定义文件格式。

用户可以通过实现inputformat和outputformat来自定义输入输出格式,参考代码:

.\hive-0.8.1\src\contrib\src\java\org\apache\hadoop\hive\contrib\fileformat\base64

实例:

建表

[plain] view
plain
 copy

  1. > create table test4(str STRING)
  2. > stored as
  3. > inputformat ‘org.apache.hadoop.hive.contrib.fileformat.base64.Base64TextInputFormat‘
  4. > outputformat ‘org.apache.hadoop.hive.contrib.fileformat.base64.Base64TextOutputFormat‘;

$ cat test1.txt

aGVsbG8saGl2ZQ==

aGVsbG8sd29ybGQ=

aGVsbG8saGFkb29w

test1文件为base64编码后的内容,decode后数据为:

hello,hive

hello,world

hello,hadoop

load数据并查询:

[plain] view
plain
 copy

  1. hive> LOAD DATA LOCAL INPATH ‘/home/work/test1.txt‘ INTO TABLE test4;
  2. Copying data from file:/home/work/test1.txt
  3. Copying file: file:/home/work/test1.txt
  4. Loading data to table default.test4
  5. OK
  6. Time taken: 4.742 seconds
  7. hive> select * from test4;
  8. OK
  9. hello,hive
  10. hello,world
  11. hello,hadoop
  12. Time taken: 1.953 seconds

总结:

相比TEXTFILE和SEQUENCEFILE,RCFILE由于列式存储方式,数据加载时性能消耗较大,但是具有较好的压缩比和查询响应。数据仓库的特点是一次写入、多次读取,因此,整体来看,RCFILE相比其余两种格式具有较明显的优势。

时间: 2024-12-17 19:36:55

hive文件存储格式的相关文章

Hive文件存储格式和hive数据压缩

一.存储格式行存储和列存储 二.Hive文件存储格式 三.创建语句和压缩 一.存储格式行存储和列存储 行存储可以理解为一条记录存储一行,通过条件能够查询一整行数据. 列存储,以字段聚集存储,可以理解为相同的字段存储在一起. 二.Hive文件存储格式 TEXTFILE, Hive数据表的默认格式,存储方式:行存储. 可以使用Gzip压缩算法,但压缩后的文件不支持split 在反序列化过程中,必须逐个字符判断是不是分隔符和行结束符,因此反序列化开销会比SequenceFile高几十倍. SEQUEN

大数据--hive文件存储格式

一.hive文件存储格式 Hive支持的存储数的格式主要有:TEXTFILE .SEQUENCEFILE.ORC.PARQUET. 上图左边为逻辑表,右边第一个为行式存储,第二个为列式存储. 行存储的特点: 查询满足条件的一整行数据的时候,列存储则需要去每个聚集的字段找到对应的每个列的值,行存储只需要找到其中一个值,其余的值都在相邻地方,所以此时行存储查询的速度更快. 列存储的特点: 因为每个字段的数据聚集存储,在查询只需要少数几个字段的时候,能大大减少读取的数据量:每个字段的数据类型一定是相同

【图解】Hive文件存储格式

摘自:https://blog.csdn.net/xueyao0201/article/details/79103973 引申阅读原理篇: 大数据:Hive - ORC 文件存储格式 大数据:Parquet文件存储格式 原文地址:https://www.cnblogs.com/thousandzhang/p/9749254.html

[Hive_add_9] Hive 的存储格式

0. 说明 Hive 的存储格式 | textfile | sequencefile | rcfile | orc | parquet | 1. Hive的存储格式 1.1 textfile 行式存储 1.2 sequencefile 二进制的k-v对,行式存储 配置块压缩 SET hive.exec.compress.output=true; SET io.seqfile.compression.type=BLOCK; 1.3 rcfile 列式存储 先将数据进行横切(4M),成为行组,行组内

ChemDraw文件存储格式有哪些

ChemDraw软件有专门的文件存储格式,只有熟知所有的存储格式才能将ChemDraw运用的得心应手,本教程将带你一起认识14种ChemDraw文件存储格式. 1.CD Template(*.ctp, *.ctr)——用于保存模板文档. 2.ChemDraw (*.cdx)——ChemDraw原本格式,是一个公共标记的文件格式,易被其它程序建立和解释. 3.ChemDraw Steyl Sheet(*.cds)——用于存储文件设置和其它物体. 4.Connection Table(*.ct)——

关于‘文件存储格式’和‘文件内容格式’需要掰一掰的那点儿事儿

太阳火神的美丽人生 (http://blog.csdn.net/opengl_es) 本文遵循"署名-非商业用途-保持一致"创作公用协议 转载请保留此句:太阳火神的美丽人生 -  本博客专注于 敏捷开发及移动和物联设备研究:iOS.Android.Html5.Arduino.pcDuino,否则,出自本博客的文章拒绝转载或再转载,谢谢合作. 先来说个例子,来引用题中的问题,后面会尽可能列出大把的实际存在的关于这俩家伙的事儿,以供参考. 当我们录了一段语音并存成 .wav 文件后,就可以

Hive数据类型与文件存储格式

Hive数据类型 基础数据类型: TINYINT,SMALLINT,INT,BIGINT,BOOLEAN,FLOAT,DOUBLE,STRING,BINARY,TIMESTAMP,DECIMAL,CHAR,VARCHAR,DATE. 复杂数据类型: 包括ARRAY,MAP,STRUCT,UNION,这些复杂类型是由基础类型组成的. ARRAY:ARRAY类型是由一系列相同数据类型元素组成的,这些元素可以通过下标来访问.比如有一个ARRAY类型的变量fruits,它是由['apple','oran

关于hive的存储格式

1.存储格式 textfile rcfile orc parquet 2.存储方式 按行存储 ->textfile 按列存储 ->parquet 3.压缩比 4.存储textfile的原文件 并加载数据 5.大小 6.保存为tectfile,经过mapreduce 7.结果的大小 8.保存为orc格式 9.大小 10.存储为parquet 11.大小 12.使用命令求大小  bin/hdfs dfs -du -s -h /user/hive/warehouse/track_log.db/yhd

Hive文件压缩测试

hive上可以使用多种格式,比如纯文本,lzo.orc等,为了搞清楚它们之间的关系,特意做个测试. 一.建立样例表 hive> create table tbl( id int, name string ) row format delimited fields terminated by '|' stored as textfile; OK Time taken: 0.338 seconds hive> load data local inpath '/home/grid/users.txt