Hive的JDBC连接

首相要安装好hive

1.首先修改配置文件文件为hive 路径下的  conf/hive-sit.xml

将内容增加

<property>
  <name>hive.server2.thrift.port</name>
  <value>10000</value>
  <description>Port number of HiveServer2 Thrift interface.
  Can be overridden by setting $HIVE_SERVER2_THRIFT_PORT</description>
</property>

<property>
  <name>hive.server2.thrift.bind.host</name>
  <value>0.0.0.0</value>
  <description>Bind host on which to run the HiveServer2 Thrift interface.
  Can be overridden by setting $HIVE_SERVER2_THRIFT_BIND_HOST</description>
</property>

这个是hiveserver2需要的端口等内容

2.进入hive目录执行

如果没有日志的话可能什么都不输出

然后打开新的终端输入

3.然后输入连接信息

执行命令

!connect jdbc:hive2://127.0.0.1:10000

然后输入之前设置的用户名密码(我的是mysql的用户名密码)

然后回车即连接成功。

可以输入sql进行测试

原文地址:https://www.cnblogs.com/wys-373/p/11461170.html

时间: 2024-10-07 23:19:37

Hive的JDBC连接的相关文章

jdbc连接HIVE

在hive上启动service hive --service hiveserver 在eclipse中进行开发 导入需要的jar包(我这个导入的是udf和jdbc连接hive需要的jar包,基本是最简的了) 我的代码,hive的语法就不说了,大家可以修改例子中的sql来进行自己的业务.我的hive没有设置用户名,密码.所以   Connection con = new HiveJDBC().getConnection(             "jdbc:hive://192.168.192.1

通过JDBC连接hive

hive是大数据技术簇中进行数据仓库应用的基础组件,是其它类似数据仓库应用的对比基准.基础的数据操作我们可以通过脚本方式以hive-client进行处理.若需要开发应用程序,则需要使用hive的jdbc驱动进行连接.本文以hive wiki上示例为基础,详细讲解了如何使用jdbc连接hive数据库.hive wiki原文地址: https://cwiki.apache.org/confluence/display/Hive/HiveClient https://cwiki.apache.org/

Hive 0.14 + hadoop 2.4.1 环境下的 jdbc连接

本文记录在Hive 0.14 + hadoop 2.4.1 环境下,如何时用 jdbc连接到hive hive 的JDBC驱动还是比较好找的,在hive的包里就有 hive-jdbc-0.14.0-standalone.jar 是一个N合一的包,把它放到buildPath 除了这个包,还需要几个hadoop下的包,最后的buildpah如下图: 用服务模式启动hive,10010是监听的端口号 ? 1 hive --service hiveserver 10010 下面是个示例代码,连接到hiv

spark 启动thrift server 支持 jdbc连接

在 ./conf下 创建 hive-site.xml 添加: <configuration> <property> <name>hive.metastore.client.connect.retry.delay</name> <value>5</value> </property> <property> <name>hive.metastore.client.socket.timeout</n

jdbc连接hive0.14

Jdbc连接hive0.14版本号 眼下官网最新版本号是hive0.13,要想下载最新的hive得去git上去clone一个. Hive0.14最大特点是支持直接插入. 如今做一个jdbc连接hive0.14的样例. 须要的jar包: 不要去引入单独的一个集成hive的jar由于那个包括了tomcat里面的几个jar包. 当建立hiveproject时.会冲突导致hive的集成包载入不上. 1.hive连接的工具类: package com.fish; import java.sql.Conne

presto集群安装&整合hive|mysql|jdbc

Presto是一个运行在多台服务器上的分布式系统. 完整安装包括一个coordinator(调度节点)和多个worker. 由客户端提交查询,从Presto命令行CLI提交到coordinator. coordinator进行解析,分析并执行查询计划,然后分发处理队列到worker中. 目录: 搭建前环境准备 集群计划 连接器 安装步骤 配置文件 运行presto 整合hive测试 整合mysql测试 整合jdbc测试 1.搭建前环境准备 CentOS 6.7 java8 Python3.4.4

Hive中jdbc接口

1.hive开放jdbc接口,开发需要导入jar如下 commons-logging-1.0.4.jarhadoop-common-2.6.0.jarhive_exec.jarhive_jdbc.jarhive_metastore.jarhive_service.jarhttpclient-4.2.5.jarhttpcore-4.2.5.jarlibfb303.jarlog4j-1.2.16.jarslf4j-api-1.7.5.jarslf4j-log4j12-1.7.5.jar 2.开发的实

java 操作hive通过jdbc

直接代码吧:记得要开启hive jdbc服务hive --service hiveserver package hive; import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; public class HiveDemo { static{ //注册jdbc驱动 try { Class.forName("org.apache.

jdbc连接impala

客户端 DBVisualizer 9 还不支持 impala 连接 (但可支持 hive), DBeaver 已经支持 impala 了, 我使用的就是 DBeaver. 在配置过程中碰到了好几个错误, [Simba][ImpalaJDBCDriver](500151) Error setting/closing session: {0}. 需要注意的是端口 和 jdbc 参数 AuthMech 和 SSL. JDBC 连接字符串 下面是一般的 impala JDBC 连接字符串 jdbc:im