hbase 批量插入api

1、数据格式a.txt:

1363157985066 13726230503
00-FD-07-A4-72-B8:CMCC 120.196.100.82
i02.c.aliimg.com 24
27 2481
24681 200

1363157995052 13826544101
5C-0E-8B-C7-F1-E0:CMCC 120.197.40.4
4 0
264 0 200

1363157991076 13926435656
20-10-7A-28-CC-0A:CMCC 120.196.100.99
2 4
132 1512
200

1363154400022 13926251106
5C-0E-8B-8B-B1-50:CMCC 120.197.40.4
4 0
240 0 200

1363157993044 18211575961
94-71-AC-CD-E6-18:CMCC-EASY 120.196.100.99
iface.qiyi.com 视频网站
15 12
1527 2106
200

1363157995074 84138413
5C-0E-8B-8C-E8-20:7DaysInn 120.197.40.4
122.72.52.12 20
16 4116
1432 200

1363157993055 13560439658
C4-17-FE-BA-DE-D9:CMCC 120.196.100.99
18 15
1116 954
200

1363157995033 15920133257
5C-0E-8B-C7-BA-20:CMCC 120.197.40.4
sug.so.360.cn 信息安全
20 20
3156 2936
200

1363157983019 13719199419
68-A1-B7-03-07-B1:CMCC-EASY 120.196.100.82
4 0
240 0 200

1363157984041 13660577991
5C-0E-8B-92-5C-20:CMCC-EASY 120.197.40.4
s19.cnzz.com 站点统计
24 9
6960 690
200

1363157973098 15013685858
5C-0E-8B-C7-F7-90:CMCC 120.197.40.4
rank.ie.sogou.com 搜索引擎
28 27
3659 3538
200

1363157986029 15989002119
E8-99-C4-4E-93-E0:CMCC-EASY 120.196.100.99
www.umeng.com 站点统计
3 3
1938 180
200

1363157992093 13560439658
C4-17-FE-BA-DE-D9:CMCC 120.196.100.99
15 9
918 4938
200

1363157986041 13480253104
5C-0E-8B-C7-FC-80:CMCC-EASY 120.197.40.4
3 3
180 180
200

1363157984040 13602846565
5C-0E-8B-8B-B6-00:CMCC 120.197.40.4
2052.flash2-http.qq.com 综合门户
15 12
1938 2910
200

1363157995093 13922314466
00-FD-07-A2-EC-BA:CMCC 120.196.100.82
img.qfc.cn 12
12 3008
3720 200

1363157982040 13502468823
5C-0A-5B-6A-0B-D4:CMCC-EASY 120.196.100.99
y0.ifengimg.com 综合门户
57 102
7335 110349
200

1363157986072 18320173382
84-25-DB-4F-10-1A:CMCC-EASY 120.196.100.99
input.shouji.sogou.com 搜索引擎
21 18
9531 2412
200

1363157990043 13925057413
00-1F-64-E1-E6-9A:CMCC 120.196.100.55
t3.baidu.com 搜索引擎
69 63
11058 48243
200

1363157988072 13760778710
00-FD-07-A4-7B-08:CMCC 120.196.100.82
2 2
120 120
200

1363157985079 13823070001
20-7C-8F-70-68-1F:CMCC 120.196.100.99
6 3
360 180
200

1363157985069 13600217502
00-1F-64-E2-E8-B1:CMCC 120.196.100.55
18 138
1080 186852
200

2、hbase 创建表 create ‘wlan‘,‘cf‘

3、代码

package com.utils;

import java.io.IOException;

import java.text.SimpleDateFormat;

import java.util.Date;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.hbase.HBaseConfiguration;

import org.apache.hadoop.hbase.client.Mutation;

import org.apache.hadoop.hbase.client.Put;

import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;

import org.apache.hadoop.hbase.mapreduce.TableOutputFormat;

import org.apache.hadoop.hbase.mapreduce.TableReducer;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.Reducer;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;

public class HBaseImport {

static class BatchMapper extends Mapper<LongWritable, Text, LongWritable, Text>{

@Override

protected void map(LongWritable key, Text value,

Mapper<LongWritable, Text, LongWritable, Text>.Context context)

throws IOException, InterruptedException {

String line = value.toString();

String[] splited = line.split("\t");

SimpleDateFormat simpleDateFormatimpleDateFormat = new SimpleDateFormat("yyyyMMddHHmmss");

String format = simpleDateFormatimpleDateFormat.format(new Date(Long.parseLong(splited[0].trim())));

String rowKey=splited[1]+"_"+format;

Text v2s = new Text();

v2s.set(rowKey+"\t"+line);

context.write(key, v2s);

}

}

static class BatchReducer extends TableReducer<LongWritable, Text, NullWritable>{

private String family="cf";//列族

@Override

protected void reduce(LongWritable arg0, Iterable<Text> v2s,

Reducer<LongWritable, Text, NullWritable, Mutation>.Context context)

throws IOException, InterruptedException {

for (Text v2 : v2s) {

String[] splited = v2.toString().split("\t");

String rowKey = splited[0];

Put put = new Put(rowKey.getBytes());

put.add(family.getBytes(), "raw".getBytes(), v2.toString().getBytes());

put.add(family.getBytes(), "rePortTime".getBytes(), splited[1].getBytes());

put.add(family.getBytes(), "msisdn".getBytes(), splited[2].getBytes());

put.add(family.getBytes(), "apmac".getBytes(), splited[3].getBytes());

put.add(family.getBytes(), "acmac".getBytes(), splited[4].getBytes());

put.add(family.getBytes(), "host".getBytes(), splited[5].getBytes());

put.add(family.getBytes(), "siteType".getBytes(), splited[6].getBytes());

put.add(family.getBytes(), "upPackNum".getBytes(), splited[7].getBytes());

put.add(family.getBytes(), "downPackNum".getBytes(), splited[8].getBytes());

put.add(family.getBytes(), "upPayLoad".getBytes(), splited[9].getBytes());

put.add(family.getBytes(), "downPayLoad".getBytes(), splited[10].getBytes());

put.add(family.getBytes(), "httpStatus".getBytes(), splited[11].getBytes());

context.write(NullWritable.get(), put);

}

}

}

private static final String TableName = "waln_log";

public static void main(String[] args) throws Exception {

Configuration conf = HBaseConfiguration.create();

conf.set("hbase.zookeeper.quorum","192.168.80.20,192.168.80.21,192.168.80.22");

//conf.set("hbase.rootdir", "hdfs://cluster/hbase");

conf.set("hbase.rootdir", "hdfs://192.168.80.20:9000/hbase");

conf.set(TableOutputFormat.OUTPUT_TABLE, TableName);

Job job = new Job(conf, HBaseImport.class.getSimpleName());

TableMapReduceUtil.addDependencyJars(job);

job.setJarByClass(HBaseImport.class);

job.setMapperClass(BatchMapper.class);

job.setReducerClass(BatchReducer.class);

job.setMapOutputKeyClass(LongWritable.class);

job.setMapOutputValueClass(Text.class);

job.setInputFormatClass(TextInputFormat.class);

job.setOutputFormatClass(TableOutputFormat.class);

FileInputFormat.setInputPaths(job, "hdfs://192.168.80.20:9000/data");

System.out.println("xxxxxxx1xxxxxxxx");

job.waitForCompletion(true);

}

}

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-12-13 19:17:20

hbase 批量插入api的相关文章

HBase批量插入的简单代码

由于项目需要从HBase里读取数据,进行MapReduce之后输出到HDFS中. 为了测试方便,我这里写了一个批量插入HBase数据的测试代码.采用的Maven工程. 打算,今后的所有用到的小测试例子都放到这个工程里面了. 代码放到GitHub上面了:https://github.com/quchunhui/qchtest hbase建表命令:create 'qchtest', {NAME => 'info', VERSIONS => 1} 手动插入字段命令:put 'qchtest', 'r

Hbase批量插入优化记录

2016年5月11日10:08:29 hbase原本的put方式是一条一条的put,在客户端修改 AutoFlush 将HTable的setAutoFlush设为false,可以支持客户端批量更新.即当Put填满客户端flush缓存时,才发送到服务端. 默认是true. 例如: HTable hTable = new HTable(conf, tableName); hTable.setAutoFlush(false); 这样的效率会比AUTOFLUSH 设置为true提升300倍不止

C#/.NET使用HttpWebRequest、SqlBulkCopy从API获取数据批量插入DB

小弟新手程序员一枚,代码技术和文章水平均不才.所写文章均为对自己所写所学代码的简单记录,可能对于老手程序员营养价值不高,望莫见怪. 我工作上有个需求:从某处API接口上获取数据(大约1W条而已)并插入到数据库中. 楼主刚毕业菜鸟,没做过批量插入操作.借助baidu搜索得知SqlBulkCopy可以实现.SqlBulkCopy相关的原理,我现在还没了解就不摆弄了,以后补上! (不要问为什么不用google,公司内网就连msdn.microsoft.com都不给上!另外我公司是开发C#/.NET的,

android SQLite 批量插入数据慢的解决方案 (正对于不同的android api 版本)

SQLite,是一款轻型的数据库,被广泛的运用到很多嵌入式的产品中,因为占用的资源非常少,二其中的操作方式几乎和我们接触的数据库不多,甚至只有几百K的他自然会被需求者青睐,下面讲一下在这样的轻型数据库中怎么对他进行一些读写操作. 之前做选择联系人的时候出现如果一个手机里联系人超过2000的话,往数据库里面插入会非常耗时,不同的手机存储的条数不同,这个存储的数量和手机的内存有很大的关系,往往取决于手机内存,下面对于数据量大的情况来写一下sqlite的批量查询. SqLite 掺入数据有几种 第一种

android SQLite 批量插入数据慢的解决方案 (针对于不同的android api 版本)

原地址 :http://www.cnblogs.com/wangmars/p/3914090.html SQLite,是一款轻型的数据库,被广泛的运用到很多嵌入式的产品中,因为占用的资源非常少,二其中的操作方式几乎和我们接触的数据库不多,甚至只有几百K的他自然会被需求者青睐,下面讲一下在这样的轻型数据库中怎么对他进行一些读写操作. 之前做选择联系人的时候出现如果一个手机里联系人超过2000的话,往数据库里面插入会非常耗时,不同的手机存储的条数不同,这个存储的数量和手机的内存有很大的关系,往往取决

Hbase框架原理及相关的知识点理解、Hbase访问MapReduce、Hbase访问Java API、Hbase shell及Hbase性能优化总结

转自:http://blog.csdn.net/zhongwen7710/article/details/39577431 本blog的内容包含: 第一部分:Hbase框架原理理解 第二部分:Hbase调用MapReduce函数使用理解 第三部分:Hbase调用Java API使用理解 第四部分:Hbase Shell操作 第五部分:Hbase建表.读写操作方式性能优化总结 第一部分:Hbase框架原理理解 概述 HBase是一个构建在HDFS上的分布式列存储系统:HBase是基于Google

Hibernate的批量插入(&amp;&amp;JDBC)

一.批量插入(两种方式) 1,通过hibernate缓存 如果这样写代码进行批量插入(初始设想): package com.anlw.util; import org.hibernate.Session; import org.hibernate.SessionFactory; import org.hibernate.Transaction; import org.hibernate.boot.registry.StandardServiceRegistryBuilder; import or

Android批量插入数据到SQLite数据库

Android中在sqlite插入数据的时候默认一条语句就是一个事务,因此如果存在上万条数据插入的话,那就需要执行上万次插入操作,操作速度可想而知.因此在Android中插入数据时,使用批量插入的方式可以大大提高插入速度. 有时需要把一些数据内置到应用中,常用的有以下2种方式:其一直接拷贝制作好的SQLite数据库文件,其二是使用系统提供的数据库,然后把数据批量插入.我更倾向于使用第二种方式:使用系统创建的数据库,然后批量插入数据.批量插入数据也有很多方法,那么那种方法更快呢,下面通过一个dem

MYSQL开发性能研究&mdash;&mdash;批量插入的优化措施

一.我们遇到了什么问题 在标准SQL里面,我们通常会写下如下的SQL insert语句. INSERT INTO TBL_TEST (id) VALUES(1);   很显然,在MYSQL中,这样的方式也是可行的.但是当我们需要批量插入数据的时候,这样的语句却会出现性能问题.例如说,如果有需要插入100000条数据,那么就需要有100000条insert语句,每一句都需要提交到关系引擎那里去解析,优化,然后才能够到达存储引擎做真的插入工作. 正是由于性能的瓶颈问题,MYSQL官方文档也就提到了使