Hive(二):windows hive ODBC 安装

针对Windows 32位和64位的系统对应有多个版本的 Hive ODBC Connector, 在安装的过程中,版本必须完全匹配(即:32位的 connector 只能在32位的系统运行,64位的 connector 只能在 64位系统运行)

参考资料: http://doc.mapr.com/display/MapR/Hive+ODBC+Connector#HiveODBCConnector-HiveODBCConnectoronWindows

目录:

  • 软件包下载
  • 安装配置
  • 连接测试

安装包下载:

  • 不同版本软件包下载地址: http://archive.mapr.com/tools/MapR-ODBC/MapR_Hive/

安装配置:

  • window系统下的软件安装没有centos下那么麻烦,按向导一步步操作即可,安装过程中的参数说明如下
  • 安装完成后,打开 "ODBC Data Source Administrator",新建 ODBC 连接,选择 "MapR Hive ODBC Connector"
  • DNS 重要参数配置如下图:
    1. host: hiveServer2 服务器的IP地址
    2. Port: hive Server 监听的服务端口,默认为10000,可以在 hive-site.xml 配置文件中查到
    3. hive server type: hiveserver2  (已经在第一章做过解释)
    4. Authentication:如上图选择按 "user name" 访问的方式,并输入用户名
  • 点击 ”Test", 如下图连接成功,则OK
时间: 2024-10-24 22:57:44

Hive(二):windows hive ODBC 安装的相关文章

Windows Oracle ODBC 安装配置

环境:Windows 7, 32 位操作系统 1.下载驱动包 Oracle 官网即可下载. base包:instantclient-basic-win32-10.2.0.4.zip odbc包:instantclient-odbc-win32-10.2.0.4.zip 两个包的版本必须要一致. 2.解压安装 解压上面两个包,把解压后的文件放在同一个目录(合并),注意2个包解压后的所有文件必须放在一个目录下,如 D:\\instantclient_10_2 比如你这里先把base包解压到D盘根目录

MongoDB学习总结(一) —— Windows平台下安装

一.基本概念 MongoDB是一个基于分布式文件存储的开源数据库系统,皆在为WEB应用提供可扩展的高性能数据存储解决方案.MongoDB将数据存储为一个文档,数据结构由键值key=>value组成.文档类似JSON对象.字段值可以包含其他文档,数组及文档数组. MongoDB数据库的几个基本概念: 1)一个 MongoDB 实例中,可以有零个或多个database(数据库). 2)数据库中可以有零个或多个 collections (集合).相当于传统关系数据库中table(表). 3)集合是由零

windows环境下安装hadoop,hive的使用案例

Hadoop安装: 首先到官方下载官网的hadoop2.7.7,链接如下 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 找网盘的hadooponwindows-master.zip 链接如下 https://pan.baidu.com/s/1VdG6PBnYKM91ia0hlhIeHg 把hadoop-2.7.7.tar.gz解压后 使用hadooponwindows-master的bin和etc替换hadoop2.7.7的

Hive 学习(二) hive安装

一,文件下载 二,hive安装 2.1 mysql安装 2.2 解压hive 2.3 配置文件配置 2.4 环境变量配置 2.5 添加mysql的connect的jar包 三,hive使用方式 3.1 hive直接启动服务 3.2 hiveserver2以一个服务的方式启动 3.3 hive -e直接脚本方式运行 四,hive在HDFS中的数据显示 正文 一,文件下载 hive1.2.2下载:http://mirror.bit.edu.cn/apache/hive/hive-1.2.2/apac

Hive学习之路 (二)Hive安装

Hive的下载 下载地址http://mirrors.hust.edu.cn/apache/ 选择合适的Hive版本进行下载,进到stable-2文件夹可以看到稳定的2.x的版本是2.3.3 Hive的安装 1.本人使用MySQL做为Hive的元数据库,所以先安装MySQL. MySql安装过程http://www.cnblogs.com/qingyunzong/p/8294876.html 2.上传Hive安装包 3.解压安装包 [[email protected] ~]$ tar -zxvf

hive的体系架构及安装

1,什么是Hive? Hive是能够用类SQL的方式操作HDFS里面数据一个数据仓库的框架,这个类SQL我们称之为HQL(Hive Query Language) 2,什么是数据仓库? 存放数据的地方 3,Hive的特征 海量数据的存储 海量数据的查询 不支持事务性操作 Hive是SQL解析引擎,它将SQL语句转译成M/R Job然后在Hadoop执行. 4,Hive中的概念和HDFS里面概念的对应 Hive中的表----HDFS里面的目录 Hive中的表中的数据----HDFS目录下的(数据)

hive学习系列2——环境安装

1.hive的安装  (1)解压缩.重命名.设置环境变量,参考hadoop1学习系列2 (2)在目录$HIVE_HOME/conf/下,执行命令mv hive-default.xml.template  hive-site.xml重命名     在目录$HIVE_HOME/conf/下,执行命令mv hive-env.sh.template  hive-env.sh重命名 (3)修改hadoop的配置文件hadoop-env.sh,修改内容如下:     export HADOOP_CLASSP

hive学习系列1——Mysql安装

安装mysql (1)执行命令 rpm -qa |grep mysql 查看mysql是否安装     删除linux上已经安装的mysql相关库信息. rpm  -e  xxxxxxx(查看的库名,可使用右键复制)   --nodeps     执行命令 rpm -qa |grep mysql 检查是否删除干净 (2)执行命令  rpm -i   mysql-server-********  安装mysql服务端 (3)启动mysql 服务端,执行命令  后台运行 mysqld_safe &

二、hive shell常用命令

在使用hive shell之前我们需要先安装hive,并启动hdfs 请参考:https://www.cnblogs.com/lay2017/p/9973298.html hive shell 我们先进入安装目录 cd /usr/local/hadoop/hive/apache-hive-1.2.2-bin 使用Hive命令启动hive shell hive 查看一下数据库,发现有一个默认的default 我们需要创建一个新的test数据库 再看一下数据库,test数据库已经创建完成了 我们切换