Hbase shell基本操作

1、启动
cd <hbase_home>/bin
$ ./start-hbase.sh

2、启动hbase shell

# find hadoop-hbase dfs files
hadoop fs -ls /hbase

#start shell
hbase shell

#Run a command to verify that cluster is actually running#
list

3、logs配置
Change the default by editing <hbase_home>/conf/hbase-env.sh
export HBASE_LOG_DIR=/new/location/logs

4、后台管理

HBase comes with web based management
– http://localhost:60010

5、端口服务

Both Master and Region servers run web server
– Browsing Master will lead you to region servers
– Regions run on port 60030

6、基本命令

Quote all names
Table and column names
– Single quotes for text
• hbase> get ‘t1‘, ‘myRowId‘
– Double quotes for binary
• Use hexadecimal representation of that binary value
• hbase> get ‘t1‘, "key\x03\x3f\xcd"

Display cluster‘s status via status command
– hbase> status
– hbase> status ‘detailed‘
• Similar information can be found on HBase
Web Management Console
– http://localhost:60010

7、建表

Create Table

Create table called ‘Blog‘ with the following
schema
– 2 families
–‘info‘ with 3 columns: ‘title‘, ‘author‘, and ‘date‘
–‘content‘ with 1 column family: ‘post‘
首先建立表,附带列族columns families
create ‘Blog‘, {NAME=>‘info‘}, {NAME=>‘content‘}
然后,添加数据,注意hbase是基于rowkey的列数据库,可以一次添加一列或多列,必须每次添加指定rowkey
使用Put命令:
hbase> put ‘table‘, ‘row_id‘, ‘family:column‘, ‘value‘
例子:
put ‘Blog‘, ‘Michelle-001‘, ‘info:title‘, ‘Michelle‘
put ‘Blog‘, ‘Matt-001‘, ‘info:author‘, ‘Matt123‘
put ‘Blog‘, ‘Matt-001‘, ‘info:date‘, ‘2009.05.01‘
put ‘Blog‘, ‘Matt-001‘, ‘content:post‘, ‘here is content‘

列可以任意的扩展,比如

put ‘Blog‘, ‘Matt-001‘, ‘content:news‘, ‘news is new column‘

8、查看数据-指定rowid

#查看数据库
count ‘Blog‘
count ‘Blog‘, {INTERVAL=>2}

#查看行数据
get ‘table‘, ‘row_id‘
get ‘Blog‘, ‘Matt-001‘
get ‘Blog‘, ‘Matt-001‘,{COLUMN=>[‘info:author‘,‘content:post‘]}
#时间戳
get ‘Blog‘, ‘Michelle-004‘,{COLUMN=>[‘info:author‘,‘content:post‘],TIMESTAMP=>1326061625690}
#版本
get ‘Blog‘, ‘Matt-001‘,{ VERSIONS=1}
get ‘Blog‘, ‘Matt-001‘,{COLUMN=>‘info:date‘, VERSIONS=1}
get ‘Blog‘, ‘Matt-001‘,{COLUMN=>‘info:date‘, VERSIONS>=2}
get ‘Blog‘, ‘Matt-001‘,{COLUMN=>‘info:date‘}

9、查看数据-通过scan指定范围,注意,所有的记录均按时间戳作为范围排序
Limit what columns are retrieved
– hbase> scan ‘table‘, {COLUMNS=>[‘col1‘, ‘col2‘]}
• Scan a time range
– hbase> scan ‘table‘, {TIMERANGE => [1303, 13036]}
• Limit results with a filter
– hbase> scan ‘Blog‘, {FILTER =>org.apache.hadoop.hbase.filter.ColumnPaginationFilter.new(1, 0)}
– More about filters later

scan ‘Blog‘, {COLUMNS=>‘info:title‘}
开始于John,结束并排除Matt的
scan ‘Blog‘, {COLUMNS=>‘info:title‘,STARTROW=>‘John‘, STOPROW=>‘Matt‘}
scan ‘Blog‘, {COLUMNS=>‘info:title‘, STOPROW=>‘Matt‘}

10、版本
put ‘Blog‘, ‘Michelle-004‘, ‘info:date‘, ‘1990.07.06‘
put ‘Blog‘, ‘Michelle-004‘, ‘info:date‘, ‘1990.07.07‘
put ‘Blog‘, ‘Michelle-004‘, ‘info:date‘, ‘1990.07.08‘
put ‘Blog‘, ‘Michelle-004‘, ‘info:date‘, ‘1990.07.09‘
get ‘Blog‘, ‘Michelle-004‘,{COLUMN=>‘info:date‘, VERSIONS=>3}

11、Delete records
delete ‘Blog‘, ‘Bob-003‘, ‘info:date‘

12、Drop table
– Must disable before dropping
– puts the table “offline” so schema based operations can
be performed
– hbase> disable ‘table_name‘
– hbase> drop ‘table_name‘

时间: 2024-11-09 10:46:11

Hbase shell基本操作的相关文章

hbase shell 基本操作

hbase shell  基本操作 启动HBASE [[email protected] ~]$hbase shell      2019-01-24 13:53:59,990 WARN  [main] util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicableSLF4J: Class path contai

阿里云轻量服务器Ubuntu18.04上安装Hbase2.2.0与Hbase Shell基本操作

这是我自己装BigData相关软件的一系列教程的第二篇,第一篇是Hadoop的安装https://www.cnblogs.com/annie666/p/11567690.html 装软件是学大数据最最基础的一步,虽然相对简单,还是很容易出错啊.希望这个详细的教程可以帮助其他想学大数据的同学少走弯路. 参考资料 厦大林子雨教程:http://dblab.xmu.edu.cn/blog/2139-2/ 一.准备工作 装软件最怕的事情就是安错版本.所以安装Hbase前,看一下官网的basic prep

hbase shell 基本命令总结

访问hbase,以及操作hbase,命令不用使用分号hbase shell 进入hbase list 查看表hbase shell -d hbase(main):024:0> scan '.META.' =============小例子=================================================== 1. 创建一个表memberhbase(main):025:0> create 'member','m_id','address','info' 2.list

hbase shell 命令

1.首先要打开hbase,使用jps查看进程 jps是java进程状态工具,它会返回进程ID和服务名称 [email protected]:~/Apache/hbase-0.94.15-security$ jps 3082 NameNode 6245 HRegionServer 3493 JobTracker 6064 HMaster 5999 HQuorumPeer 3638 TaskTracker 3259 DataNode 3413 SecondaryNameNode 6320 Jps 2

Hbase shell操作(完整版记录)

1.进入Hbase命令行 >hbase shell 退出命令行 >quit 2.创建表 >create 'users','user_id','address','info' 3.查看所有表 >list 4.查看表结构 >describe 'users' 5.删除表: >disable 'users' >drop 'users' 6.新增数据 >put 'users','xiaowang','info:age','26' >put 'users','xi

hadoop(九) - hbase shell命令

1. 进入hbase命令行  ./hbase shell 2. 显示hbase中的表  list 3. 创建user表,包含info.data两个列族 create 'user', 'info1', 'data1' create 'user', {NAME => 'info', VERSIONS => '3'} 4. 向表中插入信息: 向user表中插入信息,row key为rk0001,列族info中添加name列标示符,值为zhangsan put 'user', 'rk0001', 'i

hbase shell常用命令

hive常用命令 show tables; 列出hive里面所有数据表名 desc userProfile; 显示数据表userProfile的基本表字段及字段type desc extended trackinfo; 显示数据表trackinfo的详细信息,包括字段说明,数据表等 /usr/local/cloud/hive/bin/hive 进入hive数据库 select attribute_name from pms_attribute where attribute_id=21000 a

hbase shell删除没实用

用Xshell登陆linux主机后,在hbase shell下不能使用backspace和delete删除误输的指令,这是Xshell的配置问题: 在File->Properties->Terminal->Keyboard下,把DELETE/BACKSPACE key sequence选为ASCII 127. 如此以来,就能使用backspace了

云计算--hbase shell

具体的 HBase Shell 命令如下表 1.1-1 所示: 下面我们将以"一个学生成绩表"的例子来详细介绍常用的 HBase 命令及其使用方法. 这里 grad 对于表来说是一个列,course 对于表来说是一个列族,这个列族由三个列组成 china.math 和 english,当然我们可以根据我们的需要在 course 中建立更多的列族,如computer,physics 等相应的列添加入 course 列族.(备注:列族下面的列也是可以没有名字的.)1). create 命令