Hadoop中Writable类之二

1.ASCII、Unicode、UFT-8

在看Text类型的时候,里面出现了上面三种编码,先看看这三种编码:

ASCII是基于拉丁字母的一套电脑编码系统。它主要用于显示现代英语和其他西欧语言。它是现今最通用的单字节编码系统,并等同于国际标准ISO/IEC 646。ASCII是7位字符集,是美国标准信息交换代码的缩写,为美国英语通信所设计。它由128个字符组成,包括大小写字母、数字0-9、标点符号、非打印字符(换行副、制表符等4个)以及控制字符(退格、响铃等)组成。从定义,很明显,单字节编码,现代英语,局限性很大。

由于它是针对英语设计的,当处理带有音标符号的亚洲文字就会出现问题。因此,创建除了一些包含255个字符的由ASCII扩展的字符集。其中有两种比较有名:IBM字符集和ISOLatin-1,但是,仅仅汉语字母表就有80000以上个字符。但是把汉语、日语、越南语的一些相似的字符结合起来,在不同的语言里,使用不同的字符代表不同的字,这样,只用2个字节就可以编码地球上几乎所有的文字。因此UNICODE编码由此创建。

Unicode(统一码、万国码、单一码)是一种在计算机上使用的字符编码。Unicode 是为了解决传统的字符编码方案的局限而产生的,它为每种语言中的每个字符设定了统一并且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。和AASCII不同,它共过增加一个 高字节对ISO Latin-1字符集进行扩展,当着写高字节为0时,低字节就是ISO Latin-1字符。

但是,对可以使用ASCII表示的字符使用UNICODE来表示,并不是很高效,因为UNICODE是两个字节组成的,而ASCII是由单字节组成的。UNICODE比ASCII占用大了一倍的空间。为了解决这个问题,就出现了一些中间格式的字符集,他们被称为通用转换格式,即UTF。常见的UTF格式有:UTF-7、UTF-7.5、UTF-8等。

UTF-8(8-bit Unicode Transformation Format)是一种针对Unicode的可变长度字符编码,又称万国码。由Ken Thompson于1992年创建。现在已经标准化为RFC 3629。UTF-8用1到6个字节编码UNICODE字符。用在网页上可以同一页面显示中文简体繁体及其它语言(如英文,日文,韩文)。UTF-8转换表表示如下:

实际表示ASCII字符的UNICODE字符,将会编码成1个字节。并且UTF-8表示会与ASCII字符表示是一样的。所有其他的UNICODE字符转化成UTF-8将需要至少2个字节。

优点:

UTF-8编码可以通过屏蔽位和移位操作快速读写。字符串比较时strcmp()和wcscmp()的返回结果相同,因此使排序变得更加容易。字节FF和FE在UTF-8编码中永远不会出现,因此他们可以用来表明UTF-16或UTF-32文本(见BOM) UTF-8 是字节顺序无关的。它的字节顺序在所有系统中都是一样的,因此它实际上并不需要BOM。

缺点:

你无法从UNICODE字符数判断出UTF-8文本的字节数,因为UTF-8是一种变长编码它需要用2个字节编码那些用扩展ASCII字符集只需1个字节的字符 ISO Latin-1 是UNICODE的子集, 但不是UTF-8的子集 8位字符的UTF-8编码会被email网关过滤,因为internet信息最初设计为7位ASCII码。因此产生了UTF-7编码。 UTF-8 在它的表示中使用值100xxxxx的几率超过50%, 而现存的实现如ISO 2022, 4873, 6429, 和8859系统,会把它错认为是C1 控制码。因此产生了UTF-7.5编码。

Java的字符类型采用的是UTF-16编码方式对Unicode编码表进行表示。其中一个char类型固定2Bytes(16bits)。

UTF-16是Unicode字符编码五层次模型的第三层:字符编码表(Character Encoding Form,也称为 "storage format")的一种实现方式。即把Unicode字符集的抽象码位映射为16位长的整数(即码元)的序列,用于数据存储或传递。Unicode字符的码位,需要1个或者2个16位长的码元来表示,因此这是一个变长表示。

2.Text类型

<1>Text简介

Text是针对UTF-8序列的Writable类。一般可以认为等价于java.lang.String的Writable。

由于它着重使用标准的UTF-8编码,因此Text类的索引是根据编码后字节序列中的位置实现的。并非字符串中的Unicode字符,也不是Java Char的编码单元。对于ASCII字符串,这三个索引位置的概念是一致的。

<2>String 和 Text区别

上面已经提到了,Text类的索引是根据编码后字节序列中的位置实现的。String的索引是Java Char编码单元实现的。当字符串为ASCII码的时候,也就是全部为7位的单字节的时候,String 和 Text一致!

(1).当字符串为ASCII码(单字节)

Example:

 1 package cn.roboson.writable;
 2
 3 import java.io.UnsupportedEncodingException;
 4
 5 import org.apache.hadoop.io.Text;
 6
 7 /**
 8  * 1.区别Text和String
 9  * 2.首先从ASSCII字符串比较(也就是全部都是7位单字节),
10  * 3.通过getLength()、getBytes()、charAt()、find()、indexof()、codePointAt()方法来测试
11  * @author roboson
12  *
13  */
14 public class WritableText01 {
15
16     public static void main(String[] args) throws UnsupportedEncodingException {
17         //Hadoop中全部都是7位单字节(H,a,d,o,o,p)
18         String str = new String("Hadoop");
19         Text t = new Text("Hadoop");
20
21         //“Hadoop”的长度,也就是所含char编码单元的个数(H,a,d,o,o,p)共6个
22         System.out.println("String length:"+str.length());     //6
23
24         //String的getBytes() 方法返回根据相应编码(此例为utf-8)编码后的字节数,因为Hadoop这个字符串都是单字节的,所以,用utf-8编码,效果同ASCII编码一样,都是6个字节
25         System.out.println("String getBytes:"+str.getBytes("UTF-8").length);  //6
26
27         //String的charAt()方法返回的是相应位置的char编码单元
28         System.out.println("String chartAt:"+str.charAt(0));   //H
29         System.out.println("String chartAt:"+str.charAt(5));   //p
30
31         //String的indexOf()方法返回的字符出现的位置
32         System.out.println("String indexof:"+str.indexOf("H"));
33         System.out.println("String indexof:"+str.indexOf("p"));
34
35         //String的codePointAt()方法返回的对应位置的unicode字符集序号
36         System.out.println("String codePointAt:"+str.codePointAt(0));  //72
37         System.out.println("String codePointAt:"+str.codePointAt(5));  //112
38
39         //“Hadoop”的长度,也就是有UTF-8编码后所含有的字节数
40         System.out.println("Text length:"+t.getLength());     //6
41
42         //同indexof()方法相似,返回字节出现的位置
43         System.out.println("Text find:"+t.find("H"));        //0
44         System.out.println("Text find:"+t.find("a"));        //1
45
46         //Text类的charAt方法也是返回对应的unicode字符集序号
47         System.out.println("Text char:"+t.charAt(0));        //72
48         System.out.println("Text char:"+t.charAt(1));        //112
49     }
50 }

运行结果:

(2).当字符串为多个字节

一旦使用多个字节来编码时,Text和String之间区别就很明显了

Unicode code point U+0041 U+00DF U+6771 U+10400
UTF-8 code units 41 c3 9f e6 9d b1 fo 90 90 80
Java representation \u0041 \u00DF \u6771 \uD801 \uDC00

第一行表示unicode字符集中的序号(也是以16进制表示),第二行表示的是采用utf-8编码的情况,第三行表示的是用utf-16编码的情况,可以看到,第四个字符在utf-16编码下也占用4个字节(两个char单元,每个char单元是两字字节)

分析:

Text t = new Text("\u0041\u00DF\u6771\uD801\uDC00");

Text中的长度是由编码后字节的个数所决定的!那么,字节的个数是如何算的呢?在上文的UTF-8转换表图中有说明:

如下图,是t的字节数的实现,通过其二进制的位数,然后,同UTF-8转换表对比,从而得出其字节数!

unicode 二进制 位数 字节数
U+0041 1000001 7 1
U+00DF 11011111 8 2
U+6771 110011101110001 15 3
U+10400 10000010000000000 17 4

t的长度:1+2+3+4=10;

可以通过下面的例子来验证:

Example:

 1 package cn.roboson.writable;
 2
 3 import java.io.UnsupportedEncodingException;
 4
 5 import org.apache.hadoop.io.Text;
 6
 7 public class WtitableText {
 8     public static void main(String[] args) throws UnsupportedEncodingException {
 9         String str = "\u0041\u00DF\u6771\uD801\uDC00";
10
11         Text text = new Text("\u0041\u00DF\u6771\uD801\uDC00");
12
13         System.out.println(str.length());                         //5
14
15         System.out.println(str.getBytes("UTF-8").length);         //10
16         String str1="\u0041";
17         System.out.println(str1.getBytes("UTF-8").length);         //1
18         String str2="\u00DF";
19         System.out.println(str2.getBytes("UTF-8").length);         //2
20         String str3="\u6771";
21         System.out.println(str3.getBytes("UTF-8").length);         //3
22
23         String str4="\uD801\uDC00";
24         System.out.println(str4.getBytes("UTF-8").length);         //4
25
26         System.out.println(str.indexOf("\u0041"));                //0
27         System.out.println(str.indexOf("\u00DF"));                //1
28         System.out.println(str.indexOf("\u6771"));                //2
29         System.out.println(str.indexOf("\uD801\uDC00"));          //3
30
31         System.out.println(str.charAt(0)==‘\u0041‘);              //true
32         System.out.println(str.charAt(1)==‘\u00DF‘);              //true
33         System.out.println(str.charAt(2)==‘\u6771‘);              //true
34         System.out.println(str.charAt(3)==‘\uD801‘);              //true
35         System.out.println(str.charAt(4)==‘\uDC00‘);              //true
36
37         System.out.println(str.codePointAt(0));                   //65
38         System.out.println(str.codePointAt(1));                   //223
39         System.out.println(str.codePointAt(2));                   //26481
40         System.out.println(str.codePointAt(3));                   //66560
41
42
43         System.out.println(text.getLength());                     //10
44         System.out.println(text.find("\u0041"));                  //0
45         System.out.println(text.find("\u00DF"));                  //1
46         System.out.println(text.find("\u6771"));                  //3
47         System.out.println(text.find("\uD801\uDC00"));            //6
48
49         System.out.println(text.charAt(0));                       //65
50         System.out.println(text.charAt(1));                       //223
51         System.out.println(text.charAt(3));                       //26481
52         System.out.println(text.charAt(6));                       //66560
53     }
54 }

运行结果:

参考:

http://baike.baidu.com/link?url=knrf3QgRtcjQBusr_kuXdR6lclC1AyquSOpojyV_UXQ-L8XBKymFLpZP8rk6QTZTXdT32cHgQaLlLDzkuUzDGK

http://www.cnblogs.com/yuhan-TB/p/3752725.html

《Hadoop权威指南》

时间: 2024-08-02 06:57:36

Hadoop中Writable类之二的相关文章

Hadoop中Writable类

1.Writable简单介绍 在前面的博客中,经常出现IntWritable,ByteWritable.....光从字面上,就可以看出,给人的感觉是基本数据类型 和 序列化!在Hadoop中自带的org.apache.hadoop.io包中有广泛的Writable类可供选择.它们的层次结构如下图所示: Writable类对Java基本类型提供封装,short 和 char除外(可以存储在IntWritable中).所有的封装包包含get()  和 set() 方法用于读取或者设置封装的值.如下表

Hadoop中Writable类之四

1.定制Writable类型 Hadoop中有一套Writable实现,例如:IntWritable.Text等,但是,有时候可能并不能满足自己的需求,这个时候,就需要自己定制Writable类型. 定制分以下几步: 需要实现WritableComparable接口,因为Writable常常作为健值对出现,而在MapReduce中,中间有个排序很重要,因此,Hadoop中就让Writable实现了WritableComparable 需要实现WritableComparable的write().

Hadoop中Writable类之三

1.BytesWritable <1>定义 ByteWritable是对二进制数据组的封装.它的序列化格式为一个用于指定后面数据字节数的整数域(4个字节),后跟字节本身. 举个例子,假如有一个数组bytes,里面有两个byte,bytes[0]=3,bytes[1]=5,那么,数组序列化后,其返回一个字节数组,序列化方面,可以查看我的博客<Hadoop序列化>  ,那么序列化后,其返回一个字节书组byteSeri,byteSeri里面有多少个字节? 分析: 在定义里指出,序列化格式

hadoop中Text类 与 java中String类的区别

hadoop 中 的Text类与java中的String类感觉上用法是相似的,但两者在编码格式和访问方式上还是有些差别的,要说明这个问题,首先得了解几个概念: 字符集: 是一个系统支持的所有抽象字符的集合.字符是各种文字和符号的总称,包括各国家文字.标点符号.图形符号.数字等.例如 unicode就是一个字符集,它的目标是涵盖世界上所有国家的文字和符号: 字符编码:是一套法则,使用该法则能够对自然语言的字符的一个集合(如字母表或音节表),与其他东西的一个集合(如号码或电脉冲)进行配对.即在符号集

hadoop中Configuration类剖析

Configuration是hadoop中五大组件的公用类,所以放在了core下,org.apache.hadoop.conf.Configruration.这个类是作业的配置信息类,任何作用的配置信息必须通过Configuration传递,因为通过Configuration可以实现在多个mapper和多个reducer任务之间共享信息. 类图 说明:Configuration实现了Iterable和Writable两个接口,其中实现Iterable是为了迭代,迭代出Configuration对

hadoop中的序列化与Writable类

本文地址:http://www.cnblogs.com/archimedes/p/hadoop-writable-class.html,转载请注明源地址. hadoop中自带的org.apache.hadoop.io包中有广泛的writable类可供选择,它们形成下图所示的层次结构: java基本类型的Writable封装器 Writable类对java基本类型提供封装,short和char除外,所有的封装包含get()和set()两个方法用于读取或设置封装的值 java基本类型的Writabl

hadoop中典型Writable类详解

本文地址:http://www.cnblogs.com/archimedes/p/hadoop-writable.html,转载请注明源地址. Hadoop将很多Writable类归入org.apache.hadoop.io包中,在这些类中,比较重要的有Java基本类.Text.Writable集合.ObjectWritable等,重点介绍Java基本类和ObjectWritable的实现. 1. Java基本类型的Writable封装 目前Java基本类型对应的Writable封装如下表所示.

hadoop中实现定制Writable类

Hadoop中有一套Writable实现可以满足大部分需求,但是在有些情况下,我们需要根据自己的需要构造一个新的实现,有了定制的Writable,我们就可以完全控制二进制表示和排序顺序. 为了演示如何新建一个定制的writable类型,我们需要写一个表示一对字符串的实现: blic class TextPair implements WritableComparable<TextPair> { private Text first; private Text second; public Te

结合手机上网流量业务来说明Hadoop中的二次排序机制,分区机制

本篇博客将结合手机上网流量业务来详细介绍Hadoop的二次排序机制.分区机制,先介绍一下业务场景: 先介绍一下业务场景:统计每个用户的上行流量和,下行流量和,以及总流量和. 本次描述所用数据: 日志格式描述: 日志flowdata.txt中的具体数据: 首先我们先通过mapreduce程序实现上面的业务逻辑: 代码实现: package FlowSum; import java.io.DataInput; import java.io.DataOutput; import java.io.IOE