SQuirreL 连接 hive

软件安装版本:

hadoop-2.5.1

hbase-0.98.12.1-hadoop2

apache-hive-1.2.1-bin

SQuirreL SQL Client3.7



集成步骤:

1. SQuirreL 中添加Drivers,将hive_home/lib 下所有jar 添加至 extra class path 选项卡中,将hadoop核心jar加入至extra class path 选项卡中

2. 将libthrift-0.9.3.jar 复制到 C:\Program Files\squirrel-sql-3.7\lib中,重启 SQuirreL

3.SQuirreL 中 配置 jdbc:hive2://192.168.234.5:10000/default



启动过程:

1.zkServer.sh start

2.start-all.sh

3.start-hbase.sh

4.service mysqld start

5.hive --service metastore               hiveserver2

6.启动SQuirreL

时间: 2024-08-23 23:28:57

SQuirreL 连接 hive的相关文章

jdbc连接HIVE

在hive上启动service hive --service hiveserver 在eclipse中进行开发 导入需要的jar包(我这个导入的是udf和jdbc连接hive需要的jar包,基本是最简的了) 我的代码,hive的语法就不说了,大家可以修改例子中的sql来进行自己的业务.我的hive没有设置用户名,密码.所以   Connection con = new HiveJDBC().getConnection(             "jdbc:hive://192.168.192.1

kettle连接Hive中数据导入导出(6)

1.hive往外写数据 http://wiki.pentaho.com/display/BAD/Extracting+Data+from+Hive+to+Load+an+RDBMS 连接hive 表输入 1)往excel中写数据 2)往文本文件中写数据 注:这里需要填上hive的表名.字段名,不然会报如下错误: 2016/07/27 15:43:01 - 表输入.0 - ERROR (version 3.2.0, build 1 from 2016-07-07 10.46.10 by xnren

spark连接hive

1 环境 hadoop2.7.3 apache-hive-2.1.1-bin spark-2.1.0-bin-hadoop2.6 jdk1.8 2 配置文件 在hive-site.xml中配置mysql数据库连接. cp apache-hive-2.1.1-bin/conf/hive-site.xml  ./spark-2.1.0-bin-hadoop2.6/conf/ cp apache-hive-2.1.1-bin/lib/mysql-connector-java-5.1.40-bin.ja

通过JDBC连接hive

hive是大数据技术簇中进行数据仓库应用的基础组件,是其它类似数据仓库应用的对比基准.基础的数据操作我们可以通过脚本方式以hive-client进行处理.若需要开发应用程序,则需要使用hive的jdbc驱动进行连接.本文以hive wiki上示例为基础,详细讲解了如何使用jdbc连接hive数据库.hive wiki原文地址: https://cwiki.apache.org/confluence/display/Hive/HiveClient https://cwiki.apache.org/

java连接Hive的几种方式

测试环境 Hadoop 0.20.2版本.Hive-0.5.0版本.JDK1.6 1.一般来说我们对hive的操作都是通过cli来进行,也就是Linux的控制台,但是,这样做本质上是每个连接都存放一个元数据,各个之间都不相同,所以,对于这样的模式我建议是用来做一些测试比较合适,并不适合做产品的开发和应用. 2.JDBC连接的方式,当然还有其他的连接方式,比如ODBC等, 这种方式很常用,可以在网上随便找到,就不再累赘了. 不稳定,经常会被大数据量冲挂,不建议使用. 3.这种方式是直接利用Hive

Eclipse 连接Hive

Hive本质上不是数据库,数据内容保存在HDFS,元数据和数据映射保存在mysql. eclipse连接hive时,需要将hive启动为服务,hive自身提供了服务启动方式 一.Hive服务启动方式 hive --service hiveserver2 hive服务绑定的10000端口号 查看10000端口号的绑定状态 sudo netstat -nplt | grep 10000 如果10000端口号没有开启,那么连接hive时会出现连接拒绝的异常 二.本地连接hive服务 1) 执行beel

eclipse连接hive所需包

eclipse连接hive所需包

zeppelin中连接hive和impala

连接Hive 新建interpreter default.driver = org.apache.hive.jdbc.HiveDriver default.url = jdbc:hive2://hostname:10000 default.user = zeppelin (默认是你们账号:anonymous,zeppelin账号需要新创建,方便做数据权限管理) 连接Impala 1. 我所用的zeppelin版本没有impala jdbc包,下载地址: https://downloads.clo

Dbeaver连接Hive和Mysql的配置

1.连接Hive 首选需要配置Hive 这里我们采用的是JDBC的连接方式 (1) 在Hive中后台启动hiveserver2 [[email protected] hive]# bin/hiveserver2 & (2) 启动beeline [[email protected] hive]$ bin/beeline ls: cannot access /opt/module/spark/lib/spark-assembly-*.jar: No such file or directory Be