hbase 导入导出、hbase shell 基本命令。

数据导入

./hbase org.apache.hadoop.hbase.mapreduce.Driver import  表名    数据文件位置
hdfs
数据文件位置 可以加 前缀 file:///

否则 会访问 hdfs 地址。

数据导出
./hbase org.apache.hadoop.hbase.mapreduce.Driver export    表名    数据文件位置

进入shell 命令。

cd /hbaseHOME/bin/

cd ./hbase shell

2016-05-20 15:36:32,370 INFO [main] Configuration.deprecation: hadoop.native.lib is deprecated. Instead, use io.native.lib.available
HBase Shell; enter ‘help<RETURN>‘ for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 0.98.6-zdh2.1.0-SNAPSHOT, r112581, Mon Jan 25 05:25:14 CST 2016

hbase(main):001:0>

hbase(main):001:0>

创建 hbase 表格

create ‘表名称‘, ‘列名称1‘,‘列名称2‘,‘列名称N‘

hbase(main):001:0>create ‘test‘ ,‘name‘ ,‘value‘

查看test 表构造

在shell中输入describe ‘表名’

hbase(main):003:0> desc ‘test‘

DESCRIPTION ENABLED
‘test‘, {NAME => ‘course‘, DATA_BLOCK_ENCODING => ‘NONE‘, REPL true
ICATION => ‘0‘, BLOOMFILTER => ‘ROW‘, REPLICATION_SCOPE => ‘0‘
, COMPRESSION => ‘NONE‘, VERSIONS => ‘1‘, MIN_VERSIONS => ‘0‘,
TTL => ‘FOREVER‘, KEEP_DELETED_CELLS => ‘false‘, BLOCKSIZE =>
‘65536‘, ENCODE_ON_DISK => ‘true‘, IN_MEMORY => ‘false‘, BLOC
KCACHE => ‘true‘}, {NAME => ‘name‘, DATA_BLOCK_ENCODING => ‘NO
NE‘, REPLICATION => ‘0‘, BLOOMFILTER => ‘ROW‘, REPLICATION_SCO
PE => ‘0‘, COMPRESSION => ‘NONE‘, VERSIONS => ‘1‘, MIN_VERSION
S => ‘0‘, TTL => ‘FOREVER‘, KEEP_DELETED_CELLS => ‘false‘, BLO
CKSIZE => ‘65536‘, ENCODE_ON_DISK => ‘true‘, IN_MEMORY => ‘fal
se‘, BLOCKCACHE => ‘true‘}
1 row(s) in 0.0820 seconds

hbase(main):004:0>

添加数据

在shell中输入:put ‘表名称‘, ‘行名称‘, ‘列名称:‘, ‘值‘

hbase(main):005:0>put ‘test‘,‘Tom‘,‘value:scores‘,‘80‘

0 row(s) in 0.1420 seconds

查看数据

在shell中输入:get ‘表名称‘, ‘行名称‘

hbase(main):010:0> get ‘test‘,‘Tom‘

COLUMN CELL
course:math timestamp=1463730444304, value=90
1 row(s) in 0.0140 seconds

hbase(main):006:0>

查看总数据

在shell中输入:scan  ‘表名称‘

hbase(main):006:0>scan ‘test‘

ROW COLUMN+CELL
Tom column=course:math, timestamp=1463730322512, value=80
1 row(s) in 0.0750 seconds

修改数据

在shell中输入:put ‘表名称‘, ‘行名称‘, ‘列名称:‘, ‘值‘(对原数值修改)

hbase(main):007:0>put ‘test‘,‘Tom‘,‘course:math‘,‘90‘

put ‘test‘,‘Tom‘,‘course:math‘,‘90‘

hbase(main):007:0>scan ‘test‘

ROW COLUMN+CELL
Tom column=course:math, timestamp=1463730444304, value=90
1 row(s) in 0.0140 seconds

另外还有 list 方法。 查看所有的表格。

count ‘表名’  查看 记录总数  等。

先到这里

the end

时间: 2024-10-14 16:33:07

hbase 导入导出、hbase shell 基本命令。的相关文章

HBase备份之导入导出

我们在上一篇文章<HBase复制>中讲述了如何建立主/从集群,实现数据的实时备份.但是,HBase复制只对设置好复制以后的数据生效,也即,配置好复制之后插入HBase主集群的数据才能同步复制到HBase从集群中,而对之前的历史数据,采用HBase复制这种办法是无能为力的.本文介绍如何使用HBase的导入导出功能来实现历史数据的备份. 1)将HBase表数据导出到hdfs的一个指定目录中,具体命令如下: $ cd $HBASE_HOME/ $ bin/hbase org.apache.hadoo

Hbase数据导入导出

平时用于从生产环境hbase到导出数据到测试环境. 导入数据: import java.io.BufferedReader; import java.io.File; import java.io.FileReader; import java.io.IOException; import java.util.ArrayList; import java.util.HashMap; import java.util.List; import java.util.Map; import java.

HBase数据的导入导出

1.导出: hbase org.apache.hadoop.hbase.mapreduce.Driver export 表名 导出存放路径 其中数据文件位置可为本地文件目录,也可以分布式文件系统hdfs的路径. 当其为前者时,直接指定即可,也可以加前缀file:/// 而当其为后者时,必须明确指明hdfs的路径,例如hdfs://192.168.1.200:9000/path 2.导入: hbase org.apache.hadoop.hbase.mapreduce.Driver import

hbase shell基本命令

1.进入hbase shell [email protected]:~/hbase-0.98.8-hadoop1/conf$ hbase shell HBase Shell; enter 'help<RETURN>' for list of supported commands. Type "exit<RETURN>" to leave the HBase Shell Version 0.98.8-hadoop1, r6cfc8d064754251365e070

hbase shell 基本命令总结

访问hbase,以及操作hbase,命令不用使用分号hbase shell 进入hbase list 查看表hbase shell -d hbase(main):024:0> scan '.META.' =============小例子=================================================== 1. 创建一个表memberhbase(main):025:0> create 'member','m_id','address','info' 2.list

mysql数据导入到hbase

思路:读取到一个数据库里所有的表名,然后通过sqoop循环导入到hbase 实现过程中发现 不会写shell是个硬伤 最后只能分两步进行操作 1.sel_tabs.sh /usr/bin/mysql -hIp地址 -u用户名 -p密码 -D数据库名<<EOF use select table_name from information_schema.tables where table_schema='数据库名' and table_type='base table'; EOF 运行 bash

HBase导入SQL Server数据库数据

在先前的几篇随笔中已经介绍了Hadoop.Zookeeper.Hbase的分布式框架搭建方案,目前已经搭建完成了一个包含11个节点的分布式集群.而对于HBase数据库的使用仅限于测试性质的增删改查指令,为了进一步熟悉分布式框架的使用,本文介绍将已有的数据从关系型数据库SQL Server中导入到HBase中的方法. 要完成从关系型数据库到HBase数据的迁移,我们需要使用Sqoop工具,Sqoop是Apache的一个独立项目,设计目的即是在Hadoop(Hive)和传统数据库(MySQL.pos

HBase 实战(1)--HBase的数据导入方式

前言: 作为Hadoop生态系统中重要的一员, HBase作为分布式列式存储, 在线实时处理的特性, 备受瞩目, 将来能在很多应用场景, 取代传统关系型数据库的江湖地位. 本篇博文重点讲解HBase的数据导入, 描述三种方式, Client API, Bulkload, 以及Hive Over HBase. *). Client API实现借助HBase的Client API来导入, 是最简易学的方式. Configuration config = HBaseConfiguration.crea

分布式数据库HBase安装与使用(shell+Java API)

本指南介绍了HBase,详细指导大家安装配置HBase及其使用.本教程在Ubuntu14.04下测试通过. 一.HBase介绍 HBase是一个分布式的.面向列的开源数据库,源于Google的一篇论文<BigTable:一个结构化数据的分布式存储系统>.HBase以表的形式存储数据,表有行和列组成,列划分为若干个列族/列簇(column family).欲了解HBase的官方资讯,请访问HBase官方网站. HBase的运行有三种模式:单机模式.伪分布式模式.分布式模式. 单机模式:在一台计算