Python操作HBase之happybase

安装Thrift

安装Thrift的具体操作,请点击链接

pip install thrift

安装happybase

pip install happybase

连接(happybase.Connection)

happybase.Connection(host=’localhost’, port=9090, timeout=None, autoconnect=True, table_prefix=None, table_prefix_separator=b’_’, compat=’0.98’, transport=’buffered’, protocol=’binary’)

获取连接实例

host:主机名
port:端口
timeout:超时时间
autoconnect:连接是否直接打开
table_prefix:用于构造表名的前缀
table_prefix_separator:用于table_prefix的分隔符
compat:兼容模式
transport:运输模式
protocol:协议

connection = happybase.Connection(host="192.168.0.156",port=9090,timeout=None,autoconnect=True,table_prefix=None,table_prefix_separator=b‘_‘,compat=‘0.98‘, transport=‘buffered‘,protocol=‘binary‘)

使用连接池

Hbase自带有线程安全的连接池,踏允许多个线程共享和重用已经打开的连接。这对于多线程的应用是非常有用的。当一个线程申请一个连接,它将获得一个租赁凭证,在此期间,这个线程单独享有这个连接。当这个线程使用完该连接之后,它将该连接归还给连接池以便其他的线程可以使用

# 创建连接,通过参数size来设置连接池中连接的个数
pool = happybase.ConnectionPool(size=3, host=‘10.1.13.111‘, table_prefix=‘myProject‘)
# 获取连接
with pool.connection() as connection:
    print connection.tables()

open():打开传输,无返回值

connection.open()

close():关闭传输,无返回值

connection.close()
  • compact_table(name,major=False):压缩指定表格,无返回值

    • name:表名
    • major:是否主要压缩
connection.compact_table(name,major=False)
  • create_table(name,families):创建表,无返回值

    • name:表名
    • families:列族
families = {
    "cf":dict(),
    "df":dict()
}
connection.create_table(name,families)      # 如果连接时,有传递表前缀参数时,真实表名将会是:"{}_{}".format(table_prefix,name)
connection.create_table(
    ‘my_table‘,
    {
        ‘cf1‘: dict(max_versions=10),
        ‘cf2‘: dict(max_versions=1, block_cache_enabled=False),
        ‘cf3‘: dict(),  # use defaults
    }
)

此时,我们再通过connection.tables()查看可以使用的table,结果为[‘my_table‘]

创建的table即my_table包含3个列族:cf1、cf2、cf3

使用table的命名空间

因为一个Hbase会被多个项目共同使用,所以就会导致table的命名冲突,为了解决这个问题,可以在创建table的时候,手动加上项目的名字作为table名字的前缀,例如myproject_xyz。

但是这样做比较麻烦,happybase帮我们做好了工作,我们可以在与Hbase建立连接的时候,通过设置table_prefix参数来实现这个功能

connection = happybase.Connection(‘10.1.13.111‘, table_prefix=‘myproject‘)

此时connection.tables()只会返回包含在该命名空间里的tables,且返回的tables的名字会以简单的形式显示,即不包含前缀。

  • delete_table(name,disable=False):删除表,无返回值

    • name:表名
    • disable:是否先禁用表
 connection.delete_table(name,disable=False)
  • disable_table(name):禁用表,无返回值

    • name:表名
connection.disable_table(name)
  • enable_table(name):启用表,无返回值

    • name:表名
connection.enable_table(name)
  • is_table_enabled(name):表是否已经被启用,返回一个bool值

    • name:表名
connection.is_table_enabled(name)
  • connection.table(name,user_prefix=True):获取一个表对象,返回一个happybase.Table对象

    • name:表名
    • user_prefix:是否使用表前缀,默认为True
table = connection.table(name,user_prefix=True)     # table为happybase.table.Table类型
  • connection.tables():获取Hbase实例中的表名列表,返回一个list
table_name_list = connection.tables()

表(happybase.Table)

  • happybase.Table(name,connection):获取表实例

    • name:表名
    • connection:连接
table = happybase.Table(name,connection)
  • cells(row, column, versions=None, timestamp=None, include_timestamp=False):获取单元格数据,返回一个list

    • row:行
    • column:列
    • versions:获取的最大版本数量,默认None,即获取所有
    • timestamp:时间戳,默认None,即获取所有时间戳版本的数据。可指定一个时间戳,获取小于此时间戳版本的所有数据
    • include_timestamp:是否返回时间戳,默认False
content = table.cells(‘row1‘,‘cf:1‘,5,timestamp=1514861929124,include_timestamp=True)
print content   # [(‘1‘, 1514861925674L)]
  • counter_set(row,column,value=0):设置计数器列为特定值,此方法在指定列中存储一个64位有符号整数值。无返回值

    • row:行
    • column:列
    • value:默认值,默认为0
table.counter_set(row,column,value=0)
  • table.counter_get(row,column):获取计数器列的值,返回当前单元格的值

    • row:行
    • column:列
content = table.counter_get(row,column)
  • counter_dec(row,column,value=1):计数器列递减,返回递减后单元格的值

    • row:行
    • column:列
    • value:每次递减的值,默认为1
content = table.counter_dec(row,column,value=1)
  • counter_inc(row,column,value=1):计数器列递增,返回递增后单元格的值

    • row:行
    • column:列
    • value:每次递增的值,默认为1
content = table.counter_inc(row,column,value=1)
  • delete(row, columns=None, timestamp=None, wal=True):删除指定行数据,无返回值

    • row:行
    • columns:列,默认为None,即删除所有列,可传入一个list或tuple来指定删除列
    • timestamp:时间戳,默认为None,即删除所有,可传入一个时间戳来删除小于等于此时间戳的所有数据
    • wal:是否写入wal,默认为True
table.delete(row, columns=None, timestamp=None, wal=True)
  • families():获取所有列族信息,返回一个dict
info = table.families()
print info

{
    ‘cf‘: {
        ‘max_versions‘: 3,
        ‘bloom_filter_vector_size‘: 0,
        ‘name‘: ‘cf: ‘,
        ‘bloom_filter_type‘: ‘NONE‘,
        ‘bloom_filter_nb_hashes‘: 0,
        ‘time_to_live‘: 2147483647,
        ‘in_memory‘: False,
        ‘block_cache_enabled‘: False,
        ‘compression‘: ‘NONE‘
    },
    ‘cd‘: {
        ‘max_versions‘: 3,
        ‘bloom_filter_vector_size‘: 0,
        ‘name‘: ‘cd: ‘,
        ‘bloom_filter_type‘: ‘NONE‘,
        ‘bloom_filter_nb_hashes‘: 0,
        ‘time_to_live‘: 2147483647,
        ‘in_memory‘: False,
        ‘block_cache_enabled‘: False,
        ‘compression‘: ‘NONE‘
    }
}
  • put(row, data, timestamp=None, wal=True):插入数据,无返回值

    • row: 行
    • data: 数据,dict类型,{列:值}构成,列与值皆为str类型
    • timestamp:时间戳,默认None,即写入当前时间戳
    • wal:是否写入wal,默认为True
# 在row1行,cf:1列插入值1
table.put("row1",{"cf:1":"1"})

使用put一次只能存储一行数据

如果row key已经存在,则变成了修改数据

更好的存储数据

table.put()方法会立即给Hbase Thrift server发送一条命令。其实这种方法的效率并不高,我们可以使用更高效的table.batch()方法。

# 使用batch一次插入多行数据
bat = table.batch()
bat.put(‘www.test5.com‘, {‘cf1:price‘: 999, ‘cf2:title‘: ‘Hello Python‘, ‘cf2:length‘: 34, ‘cf3:code‘: ‘A43‘})
bat.put(‘www.test6.com‘, {‘cf1:content‘: u‘剃须刀‘, ‘cf1:price‘: 168, ‘cf1:rating‘: ‘97%‘})
bat.put(‘www.test7.com‘, {‘cf3:function‘: ‘print‘})
bat.send()

更有用的方法是使用上下文管理器来管理batch,这样就不用手动发送数据了,即不再需要bat.send()

# 使用with来管理batch
with table.batch() as bat:
    bat.put(‘www.test5.com‘, {‘cf1:price‘: ‘999‘, ‘cf2:title‘: ‘Hello Python‘, ‘cf2:length‘: ‘34‘, ‘cf3:code‘: ‘A43‘})
    bat.put(‘www.test6.com‘, {‘cf1:content‘: u‘剃须刀‘, ‘cf1:price‘: ‘168‘, ‘cf1:rating‘: ‘97%‘})
    bat.put(‘www.test7.com‘, {‘cf3:function‘: ‘print‘})

还可以删除数据

# 在batch中删除数据
with table.batch() as bat:
    bat.put(‘www.test5.com‘, {‘cf1:price‘: ‘999‘, ‘cf2:title‘: ‘Hello Python‘, ‘cf2:length‘: ‘34‘, ‘cf3:code‘: ‘A43‘})
    bat.put(‘www.test6.com‘, {‘cf1:content‘: u‘剃须刀‘, ‘cf1:price‘: ‘168‘, ‘cf1:rating‘: ‘97%‘})
    bat.put(‘www.test7.com‘, {‘cf3:function‘: ‘print‘})
    bat.delete(‘www.test1.com‘)

batch将数据保存在内存中,知道数据被send,第一种send数据的方法是显示地发送,即bat.send(),第二种send数据的方法是到达with上下文管理器的结尾自动发送。这样就存在一个问题,万一数据量很大,就会占用太多的内存。所以我们在使用table.batch()的时候要通过batch_size参数来设置batch的大小

# 通过batch_size参数来设置batch的大小
with table.batch(batch_size=10) as bat:
    for i in range(16):
        bat.put(‘www.test{}.com‘.format(i), {‘cf1:price‘: ‘{}‘.format(i)})
  • regions():检索此表的区域服务器信息
info = table.regions()
print info

# [{‘name‘: ‘ddd_ch,,1514948783663.caccaafa3df04cd75737a9effb5615d4.‘, ‘server_name‘: ‘slave3‘, ‘port‘: 16020, ‘end_key‘: ‘‘, ‘version‘: 1, ‘start_key‘: ‘‘, ‘id‘: 1514948783663L}]
  • row(row, columns=None, timestamp=None, include_timestamp=False):获取一行数据,返回一个dict

    • row:行
    • columns: 列,默认为None,即获取所有列,可传入一个list或tuple来指定获取列
    • timestamp:时间戳。默认为None,即返回最大的那个时间戳的数据。可传入一个时间戳来获取小于此时间戳的最大时间戳的版本数据
    • include_timestamp:是否返回时间戳数据,默认为False
info = table.row(row, columns=None, timestamp=None, include_timestamp=False)
检索多行数据
# 检索多行数据
rows = table.rows([‘www.test1.com‘, ‘www.test4.com‘])
print rows

返回的是一个list,list的一个元素是一个tuple,tuple的第一个元素是row key,第二个元素是row key的值

如果想使检索多行数据即table.rows()返回的结果是一个字典,可以这样处理

# 检索多行数据,返回字典
rows_dict = dict(table.rows([‘www.test1.com‘, ‘www.test4.com‘]))
print rows_dict

如果想使table.rows()返回的结果是一个有序字典,即OrderedDict,可以这样处理

# 检索多行数据,返回有序字典
from collection import OrderedDict
rows_ordered_dict = OrderedDict(table.rows([‘www.test1.com‘, ‘www.test4.com‘]))
print rows_ordered_dict

更好地检索数据

# 通过指定列族来检索数据
row = table.row(‘www.test1.com‘, columns=[‘cf1‘])
print row
# 通过指定列族中的列来检索数据
row = table.row(‘www.test1.com‘, columns=[‘cf1:price‘, ‘cf1:rating‘])
print row
print row[‘cf1:price‘]

在Hbase里,每一个cell都有一个时间戳timestamp,可以通过时间戳来检索数据

# 通过指定时间戳来检索数据,时间戳必须是整数
row = table.row(‘www.test1.com‘, timestamp=1489070666)
print row

默认情况下,返回的数据并不会包含时间戳,如果你想获取时间戳,这样就可以了

# 在返回的数据里面包含时间戳
row = table.row(row=‘www.test1.com‘, columns=[‘cf1:rating‘, ‘cf1:price‘], include_timestamp=True)
print row

对于同一个单元的值,Hbase存储了多个版本,在创建表的时候可以通过max_versions参数来设置一个列族的最大版本号,如果想检索某一cell所有的版本,可以这样

# 检索某一个cell所有的版本
cells = table.cells(b‘www.test1.com‘, column=‘cf1:price‘)
print cells

也可以通过version参数来指定需要检索的前n个版本,如下

# 通过设置version参数来检索前n个版本
cells = table.cells(b‘www.test1.com‘, column=‘cf1:price‘, versions=3)
print cells

删除数据

# 删除一整行数据
table.delete(‘www.test4.com‘)
# 删除一个列族的数据
table.delete(‘www.test2.com‘, columns=[‘cf1‘])
# 删除一个列族中几个列的数据
table.delete(‘www.test2.com‘, columns=[‘cf1:name‘, ‘cf1:price‘])
  • scan(row_start=None, row_stop=None, row_prefix=None, columns=None, filter=None, timestamp=None, include_timestamp=False, batch_size=1000, scan_batching=None, limit=None, sorted_columns=False, reverse=False):获取一个扫描器,返回一个generator

row_start:起始行,默认None,即第一行,可传入行号指定从哪一行开始
row_stop:结束行,默认None,即最后一行,可传入行号指定到哪一行结束(不获取此行数据)
row_prefix:行号前缀,默认为None,即不指定前缀扫描,可传入前缀来扫描符合此前缀的行
columns:列,默认为None,即获取所有列,可传入一个list或tuple来指定获取列
filter:过滤字符串
timestamp:时间戳。默认为None,即返回最大的那个时间戳的数据。可传入一个时间戳来获取小于此时间戳的最大时间戳的版本数据
include_timestamp:是否返回时间戳数据,默认为False
batch_size:用于检索结果的批量大小
scan_batching:服务端扫描批处理
limit:数量
sorted_columns:是否返回排序的列(根据行名称排序)
reverse:是否执行反向扫描

scanner = table.scan(row_start=None, row_stop=None, row_prefix=None, columns=None, filter=None, timestamp=None, include_timestamp=False, batch_size=1000, scan_batching=None, limit=None, sorted_columns=False, reverse=False)

扫描一个table里的数据

# 全局扫描一个table
for key, value in table.scan():
    print key, value

结果如下:

这种全局扫描一个表格其实代价是很大的,尤其是当数据量很大的时候。我们可以通过设置开始的row key 或结束的row key或者同时设置开始和结束的row key来进行局部查询

# 通过row_start参数来设置开始扫描的row key
for key, value in table.scan(row_start=‘www.test2.com‘):
    print key, value
# 通过row_stop参数来设置结束扫描的row key
for key, value in table.scan(row_stop=‘www.test3.com‘):
    print key, value
# 通过row_start和row_stop参数来设置开始和结束扫描的row key
for key, value in table.scan(row_start=‘www.test2.com‘, row_stop=‘www.test3.com‘):
    print key, value

另外,还可以通过设置row key的前缀来进行局部扫描

# 通过row_prefix参数来设置需要扫描的row key
for key, value in table.scan(row_prefix=‘www.test‘):
    print key, value

常见问题

thriftpy.parser.exc.ThriftParserError: ThriftPy does not support generating module with path in protocol ‘e’\
解决:找到虚拟环境下的Lib\site-packages\thriftpy\parser\parser.py,line 488,进行如下操作:

if url_scheme == ‘‘:


修改为:
if len(url_scheme) <= 1:


happybase1.0 报错:ThriftPy does not support generating module with path in protocol ‘f‘

原因:happybase1.0在win下不支持绝对路径

具体原因:happybase要读取Python\Lib\site-packages\happybase\Hbase.thrift,但在Python\Lib\site-packages\thriftpy\parser\parser.py中的487行

url_scheme = urlparse(path).scheme
if url_scheme == ‘‘:

    with open(path) as fh:
        data = fh.read()
elif url_scheme in (‘http‘, ‘https‘):(‘http‘, ‘https‘):
    data = urlopen(path).read()
else:
    raise ThriftParserError(‘ThriftPy does not support generating module ‘
                            ‘with path in protocol \‘{}\‘‘.format(
                                url_scheme))

path是Hbase.thrift的绝对路径(我的是“F:\SoftWare\Python27\Lib\site-packages\happybase\Hbase.thrift”),但经过urlparse(path).scheme后,url_scheme变成了“f”,(这也就是报错信息中最后的“f”)。根据代码,url_scheme既不为“”,也不包含(‘http’,‘https‘),则只能为raise报错。
解决方案:将488行的url_scheme == ‘‘改为url_scheme in (‘f‘, ‘‘),即

url_scheme = urlparse(path).scheme
#if url_scheme == ‘‘:
if url_scheme in (‘f‘, ‘‘):
    with open(path) as fh:
        data = fh.read()
elif url_scheme in (‘http‘, ‘https‘):
    data = urlopen(path).read()
else:
    raise ThriftParserError(‘ThriftPy does not support generating module ‘
                            ‘with path in protocol \‘{}\‘‘.format(
                                url_scheme))

注:‘f‘为盘符,就是我把python装在了f盘,只要能让那个判断为真就行。

相较于Hbase-Thrift,博主更建议使用HappyBase

原文地址:https://www.cnblogs.com/zhouxinfei/p/8322278.html

时间: 2024-08-29 20:54:18

Python操作HBase之happybase的相关文章

Python 操作 HBase —— Trift Trift2 Happybase 安装使用

Python无法直接访问HBase,必须通过Thrift. HBase与Thrift之间又支持两种接口标准,两种标准互不兼容,功能也互不覆盖. Thrift连接HBase还有超时自动断开的大坑. 安装Thrift依赖(Server端) Centos: yum install automake libtool flex bison pkgconfig gcc-c++ boost-devel libevent-devel zlib-devel python-devel ruby-devel open

python操作Hbase

本地操作 启动thrift服务:./bin/hbase-daemon.sh start thrift hbase模块产生: 下载thrfit源码包:thrift-0.8.0.tar.gz 解压安装 ./configure make make install 在thrift-0.8.0目录中,lib/py/build/lib.linux-x86_64-2.6/目录下存在thrift的python模块,拷贝出来即可 生成hbase模块 下载源码包:hbase-0.98.24-src.tar.gz 解

通过Python操作hbase api

# coding=utf-8 # Author: ruin """ discrible: """ from thrift.transport import TSocket from thrift.protocol import TBinaryProtocol from thrift.transport import TTransport from hbase import Hbase import struct # Method for enco

hbase之python利用thrift操作hbase数据和shell操作

前沿: 以前都是用mongodb的,但是量大了,mongodb显得不那么靠谱,改成hbase撑起一个量级. HBase是Apache Hadoop的数据库,能够对大型数据提供随机.实时的读写访问.HBase的目标是存储并处理大型的数据.HBase是一个开源的,分布式的,多版本的,面向列的存储模型.它存储的是松散型数据. HBase提供了丰富的访问接口. HBase Shell Java clietn API Jython.Groovy DSL.Scala REST Thrift(Ruby.Pyt

基于jython操作hbase

一.前言 关于jython介绍,直接上官网www.jython.org,可以得到详细资料,这里只介绍一下jython操作hbase的一些方法,本质上和用java操作hbase差不多,只不过语法换成了python 二.环境 hbase版本:0.98.6.1 hadoop版本: 2.5.2 jython版本:2.7 三.jython安装配置 1 安装 关于hbase&hadoop的安装配置这里也不介绍,主要介绍一下jython的安装配置,其实安装很简单,就执行一条命令就OK java -jar jy

PHP通过Thrift操作Hbase

HBase是一个开源的NoSQL产品,它是实现了Google BigTable论文的一个开源产品,和Hadoop和HDFS一起,可用来存储和处理海量column family的数据.官方网址是:http://hbase.apache.org 一 .HBase访问接口 1.  Native Java API,最常规和高效的访问方式,适合Hadoop MapReduce Job并行批处理HBase表数据2.  HBase Shell,HBase的命令行工具,最简单的接口,适合HBase管理使用3. 

Python操作数据库(mysql redis)

一.python操作mysql数据库: 数据库信息:(例如211.149.218.16   szz  123456) 操作mysql用pymysql模块 #操作其他数据库,就安装相应的模块 import  pymysql ip='211.149.218.16' port=3306 passwd='123456' user='root' db='szz' conn=pymysql.connect(host=ip,user=user,port=port,passwd=passwd,db=db,cha

python操作mysql ------- SqlAchemy正传

本篇对于Python操作MySQL主要使用两种方式: 原生模块 pymsql ORM框架 SQLAchemy pymsql pymsql是Python中操作MySQL的模块,其使用方法和MySQLdb几乎相同. 下载安装 pip3 install pymysql 使用操作 1.执行SQL #!/usr/bin/env python # -*- coding:utf-8 -*- import pymysql # 创建连接 conn = pymysql.connect(host='127.0.0.1

Python之路【第九篇】:Python操作 RabbitMQ、Redis、Memcache、SQLAlchemy

Python之路[第九篇]:Python操作 RabbitMQ.Redis.Memcache.SQLAlchemy Memcached Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载.它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高动态.数据库驱动网站的速度.Memcached基于一个存储键/值对的hashmap.其守护进程(daemon )是用C写的,但是客户端可以用任何语言来编写,并通过memcached协议与守护进程通信. Memc