CDH5.0.2安装HBase Phoenix4.2

  由于目前公司大量的数据存储在HBase中,各个业务线需要对HBase进行即时查询,但是又不方便实现自己的基于HBase Client的API的数据访问实现,他们希望能够像Hive对HDFS中的数据进行ETL一样,可以对HBase中的数据进行SQL操作

  我们最初考虑的方式是Hive On HBase,这样主要思想是将数据存储在HBase中,设置一张Hive表,关联HBae中的数据,具体原理如

  http://www.blogjava.net/ivanwan/archive/2011/01/10/342685.html

  但是现在我们通过

  http://www.infoq.com/cn/news/2013/02/Phoenix-HBase-SQL

  http://blog.csdn.net/colorant/article/details/8645081

  发觉,HBase Phoenix实际上可能更快,所以我们决定选型HBase Phoenix,并在CDH5.0.2中进行安装,实际安装过程中非常简单

  通过执行

  

#whereis hbase

  hbase: /usr/bin/hbase /etc/hbase /usr/lib/hbase

  将phoenix-4.2.0-server.jar  拷贝到每个节点的/usr/lib/hbase/lib中,重启HBase集群

  并选择一个机器作为客户端,加入phoenix-4.2.0-client.jar,设置环境变量

  

PHOENIX_HOME=/usr/local/phoenix-4.2.0-bin/
CLASSPATH=.$PHOENIX_HOME/phoenix-4.2.0-client.jar

  然后在客户端启动

  ./sqlline.py locahost即可

  

  

  详情参见

  http://phoenix.apache.org/download.html

  

时间: 2024-11-07 14:35:03

CDH5.0.2安装HBase Phoenix4.2的相关文章

通过tarball形式安装HBASE Cluster(CDH5.0.2)系列随笔

本系列文章只是记录了笔者本人在学习实验安装和使用基于CDH5.0.2的HBASE集群过程中的一些经验教训和心得,绝不是详细的安装过程,因本人不过一初学者,很多方面不甚了了,如果能让不幸读到的人有所得则不胜欣喜,否则大家一笑置之即可. 通过tarball形式安装HBASE Cluster(CDH5.0.2)——集群安装总览 通过tarball形式安装HBASE Cluster(CDH5.0.2)——如何配置分布式集群中的zookeeper 通过tarball形式安装HBASE Cluster(CD

通过tarball形式安装HBASE Cluster(CDH5.0.2)——配置分布式集群中的YARN ResourceManager 的HA

<?xml version="1.0"?> <!-- Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses

通过tarball形式安装HBASE Cluster(CDH5.0.2)——如何配置分布式集群中的zookeeper

集群安装总览参见这里 Zookeeper的配置 1,/etc/profile中加入zk的路径设置,见上面背景说明. 2,进入~/zk/conf目录,复制zoo_sample.cfg为zoo.cfg vim zoo.conf tickTime=2000 initLimit=10 syncLimit=5 dataDir=/home/hadoop/hdfs/zk/data dataLogDir=/home/hadoop/hdfs/zk/log clientPort=2181 server.21=zk1

安装HBase 0.94.6-cdh4.3.0

安装HBase 0.94.6-cdh4.3.0 设定HBase的配置文件,由于安装的是cdh版,各版本直接匹配,互相依赖的jar包也都正确,只需要配置下hbase的环境变量和配置文件即可. 1.配置hbase-env.sh,添加JAVA_HOME环境变量 [html] view plaincopy export JAVA_HOME=/usr/java/default/  其他暂时不用添加 export HBASE_MANAGES_ZK=true 2.修改hbase-site.xml,如下配置 [

CDH5.10.0 离线安装(共3节点)

1.安装方式 CDH的离线部署安装,即Parcel包(推荐) 2.角色规划 三个节点对应的角色: 3.基本环境配置(在每个节点上都要配置) (1)关闭防火墙 #/etc/init.d/iptables stop # chkconfig --level 345 iptables off (2)关闭seliux # vim /etc/sysconfig/selinux SELINUX=disabled (3)ip和主机名对应 #vim /etc/hosts 172.16.101.54    sht-

Flume1.5.0的安装、部署、简单应用(含分布式、与hadoop2.2.0、hbase0.96的案例)

目录: 一.什么是Flume? 1)flume的特点 2)flume的可靠性 3)flume的可恢复性 4)flume 的 一些核心概念 二.flume的官方网站在哪里? 三.在哪里下载? 四.如何安装? 五.flume的案例 1)案例1:Avro 2)案例2:Spool 3)案例3:Exec 4)案例4:Syslogtcp 5)案例5:JSONHandler 6)案例6:Hadoop sink 7)案例7:File Roll Sink 8)案例8:Replicating Channel Sel

手把手教你安装Hbase,一次成功!

安装环境: OS: Centos 6.5 JDK: jdk1.6.0_18 Hadoop: hadoop-0.20.2 Hbase: hbase-0.90.5 安装准备: 1.       Jdk环境已安装:版本为1.6以上 2.       hadoop环境已安装:完全分布模式安装如下 http://blog.csdn.net/lichangzai/article/details/8206834 3.       hbase版本选择 Hbase 版本必需与 Hadoop版本匹配,否则会安装失败

安装HBase

1.安装JDK并设置环境变量 2.上传Hbase安装包hbase-0.94.0.tar.gz3.解压# tar -xzvf hbase-0.94.0.tar.gz4.设置环境变量# vi ~/.bash_profile或vi /etc/profileexport HBASE_HOME=/home/hadoop/soft/hbase-0.94.0export PATH=$HBASE_HOME/bin5.启动关闭数据库# start-hbase.sh# stop-hbase.sh6.进入hbase

CentOS7 安装Hbase集群

继续接上一章,已安装好Hadoop集群环境 http://www.cnblogs.com/dopeter/p/4612232.html 在此基础上继续安装Hbase集群 Hbase版本为1.0.1.1 一. 安装与配置Hbase 1. 解压 tar -zxvf hbase-1.0.1.1-bin.tar.gz-C /opt 2. 配置 cd /opt/hbase-1.0.1.1/conf vi hbase-env.sh export JAVA_HOME=/usr/java/jdk1.8.0_45