Dbeaver连接Hive和Mysql的配置

1.连接Hive

首选需要配置Hive
这里我们采用的是JDBC的连接方式

(1) 在Hive中后台启动hiveserver2

[[email protected] hive]# bin/hiveserver2 &

(2) 启动beeline

[[email protected] hive]$ bin/beeline
ls: cannot access /opt/module/spark/lib/spark-assembly-*.jar: No such file or directory
Beeline version 1.2.1 by Apache Hive    #注意这里的Hive版本,一会有用
beeline>
beeline> !connect jdbc:hive2://192.168.137.11:10000        # 这里的IP地址为Hive所在设备的IP,端口默认是10000
Connecting to jdbc:hive2://192.168.137.11
Enter username for jdbc:hive2://192.168.137.11:      #这里可以输入用户名和密码,这里的用户名和密码是为远程连接而设置的,如果不想设置可以置空
Enter password for jdbc:hive2://192.168.137.11:
Connected to: Apache Hive (version 1.2.1)
Driver: Hive JDBC (version 1.2.1)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://192.168.137.11:10000>
0: jdbc:hive2://192.168.137.11:10000> show databases;
+-----------------+--+
|  database_name  |
+-----------------+--+

(3)配置Hive


注意:
(1)IP和端口为beeline中所设置的IP和端口
(2)这里的用户名和密码,如果在配置设置beeline的时候,没有填写,这里也可以不填写,否则就填写所配置的用户名和密码

接着配置驱动程序,从beeline启动过程发现,使用的是1.2.1所以我们就下载这个版本的驱动程序,它会自动连接到Maven下载,保存网络畅通,也可也使用本地的jar包

紧接着下一步即可

可以在完成后,测试一下链接状况

2. 连接Mysql

然后再点击“完成”即可。
测试连接状况或直接连接:

参考链接:https://my.oschina.net/yulongblog/blog/1505176

原文地址:https://www.cnblogs.com/cosmos-wong/p/11992691.html

时间: 2024-10-03 03:28:34

Dbeaver连接Hive和Mysql的配置的相关文章

hive上mysql元数据库配置

hive调试信息显示模式: ./hive -hiveconf hive.root.logger=DEBUG,console 非常有用. 默认情况下,Hive元数据保存在内嵌的 Derby 数据库中,只能允许一个会话连接,只适合简单的测试.为了支持多用户多会话,则需要一个独立的元数据库,我们使用 MySQL 作为元数据库,Hive 内部对 MySQL 提供了很好的支持,配置一个独立的元数据库需要增加以下几步骤: 第一步:安装MySQL服务器端和MySQL客户端,并启动MySQL服务.此步省略,具体

Hive的mysql安装配置

一.MySQL的安装 Hive的数据,是存在HDFS里的.此外,hive有哪些数据库,每个数据库有哪些表,这样的信息称之为hive的元数据信息. 元数据信息不存在HDFS,而是存在关系型数据库里,hive默认用的是derby数据库来存储.即hive工作时,除了要依赖Hadoop,还要依赖关系型数据库. 注意:虽然我们能通过HDFS查看到hive有哪些数据库,有哪些表,以及表里的数据,但是,这不是元数据信息.HDFS最主要的是存储hive的数据信息. 之前遇到的问题:当退出后,切换到不同的目录来进

Ubuntu server安装MySQL并配置远程连接

1.  在Ubuntu server 安装MySQL(过程中注意记住设置的密码) Sudo apt-get install mysql Sudo apt-get install mysql-server Sudo apt-get install mysql-client 备注:此处遇到MySQL无法安装的问题,提示dpkg:error processing package open-vm-tools(--configure)错误,解决方法是清除open-vm-tools之后重新安装,sudo a

hive的mysql配置笔记

配置hive使用mysql数据库 ------------------------ 1.下载并加压hive.tar.gz 2.配置环境变量 HIVE_HOME=... PATH=..:$HIVE_HOME/bin:$HIVE_HOME/conf $>source /etc/environment 3.创建配置文件 $>cd conf $ cp hive-default.xml.template hive-site.xml $ cp hive-env.sh.template hive-env.s

spark连接hive

1 环境 hadoop2.7.3 apache-hive-2.1.1-bin spark-2.1.0-bin-hadoop2.6 jdk1.8 2 配置文件 在hive-site.xml中配置mysql数据库连接. cp apache-hive-2.1.1-bin/conf/hive-site.xml  ./spark-2.1.0-bin-hadoop2.6/conf/ cp apache-hive-2.1.1-bin/lib/mysql-connector-java-5.1.40-bin.ja

Hive运行架构及配置部署

Hive 运行架构 由Facebook开源,最初用于解决海量结构化的日志数据统计问题:ETL工具: 构建于Hadoop的HDFS和MapReduce智商,用于管理和查询结构化/非结构化数据的数据仓库: 设计目的是让SQL技能良好,但Java技能较弱的分析师可以查询海量数据: 使用HQL作为查询接口: 使用HDFS作为存储底层: 使用MapReduce作为执行层: 2008年facebook把Hive项目贡献给Apache: 1.Hive的缺点 Hive的HQL表达能力有限:有些复杂运算用HQL不

hive 与mysql集成安装

Hive集成Mysql作为元数据 默认情况下,Hive元数据保存在内嵌的 Derby 数据库中,只能允许一个会话连接,只适合简单的测试.为了支持多用户多会话,则需要一个独立的元数据库,我们使用 MySQL 作为元数据库,Hive 内部对 MySQL 提供了很好的支持,配置一个独立的元数据库需要增加以下几步骤: 第一步:安装MySQL服务器端和MySQL客户端,并启动MySQL服务.此步省略,具体请看http://www.cnblogs.com/linjiqin/archive/2013/03/0

Hive 的安装与配置

hive只是一个客户端,只要安装机器上有jdk和Hadoop就可以,解压即用 因为hive默认是derby数据库,而derby数据库的弊端如下 ①默认只会从当前目录下读取metastore_db的库文件 ②不支持多实例同时使用一个库 所以重点是如何配置数据库在MySQL上 1.检查有没有旧的MySQL,有就进行卸载 rpm -qa | grep mysql rpm -qa | grep MySQLsudo rpm -e --nodeps mysql-libs-5.1.73-7.el6.x86_6

linux 下安装 mysql 并配置 python 开发环境

1.安装 mysql ,安装过程中将提示设置 root 用户的密码,默认可以设置为 rootadmin . $ sudo apt-get install mysql-server 2.安装 mysql 开发工具(不安装时,安装 MySQL-python 提示错误 "mysql_config not found"). $ sudo apt-get install libmysqld-dev 3.安装 python 的 mysql 库 MySQL-python (首先安装 python-d