Hive 的安装与配置

hive只是一个客户端,只要安装机器上有jdk和Hadoop就可以,解压即用

因为hive默认是derby数据库,而derby数据库的弊端如下

  ①默认只会从当前目录下读取metastore_db的库文件

  ②不支持多实例同时使用一个库

所以重点是如何配置数据库在MySQL上

1、检查有没有旧的MySQL,有就进行卸载

rpm -qa | grep mysql
rpm -qa | grep MySQLsudo rpm -e --nodeps mysql-libs-5.1.73-7.el6.x86_6

2、安装MySQL的服务端和客户端

sudo rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm
sudo rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm

3、设置密码

  

//查看随机生成的密码:
sudo cat /root/.mysql_secret
//启动服务:
sudo service mysql start
//登录后修改密码:
mysql -uroot -p刚查询的随机密码
//修改密码:
SET PASSWORD=password(‘密码‘)

4、使root用户可从任意机器登录

//删除除了localhost的所有用户
delete from mysql.user where host <> ‘localhost‘;
//修改root用户可以从任意机器登录:
update mysql.user set host=‘%‘ where user=‘root‘;
//刷新
flush privileges;

//查看当前连接的线程:sudo mysqladmin processlist -uroot -p123456

5、到hive 的conf目录下配置hive-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://hadoop102:3306/metastore?createDatabaseIfNotExist=true</value>
      <description>JDBC connect string for a JDBC metastore</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
      <description>Driver class name for a JDBC metastore</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
      <description>username to use against metastore database</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>000000</value>
      <description>password to use against metastore database</description>
    </property>
</configuration>

6、mysql-connector-java-5.1.27.tar.gz驱动包复制到hive的lib目录下

7、注意,metastore数据的编码必须为latin1!因为系统会按照MySQL的配置创建库,所以建议自己手动创建该库,确保编码正确!

原文地址:https://www.cnblogs.com/yangxusun9/p/12408915.html

时间: 2024-11-06 03:31:18

Hive 的安装与配置的相关文章

Hive的安装与配置

1.因为我使用MySQL做为Hive的元数据库,所以先安装MySQL. 参考:http://www.cnblogs.com/hunttown/p/5452205.html 登录命令:mysql -h主机地址 -u用户名 -p用户密码 mysql –u root #初始登录没有密码 修改密码 格式:mysqladmin -u用户名 -p旧密码 password 新密码 mysql>mysqladmin -uroot –password 123456 注:因为开始时root没有密码,所以-p旧密码一

Hadoop2.3、 Hbase0.98、 Hive0.13架构中Hive的安装部署配置以及数据测试

简介: Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行. 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. 1, 适用场景 Hive 构建在基于静态批处理的Hadoop 之上,Hadoop 通常都有较高的延迟并且在作业提交和调度的时候需要大量的开销.因此,Hive 并不能够在大规模

Hive的安装和配置

前提是:hadoop必须已经启动了***         1°.解压hive的安装包            [[email protected] soft]# tar -zxvf apache-hive-0.14.0-bin.tar.gz -C ../        2°.备份配置文件            [[email protected] conf]# cp hive-env.sh.template hive-env.sh            [[email protected] con

hive的 安装和配置

2. 配置过程 2.1. 解压文件配置环境变量 解压文件 $ tar -xzvf hive-x.y.z.tar.gz 1 配置环境变量 export HIVE_HOME={{pwd}} export PATH=$HIVE_HOME/bin:$PATH 1 2 将mysql的JDBC包放到hive的lib文件夹中.注意是.jar文件 2.2. 配置hive-env.sh HADOOP_HOME=/opt/modules/hadoop-3.0.3 export HIVE_CONF_DIR=/opt/

Hive安装与配置

Hive安装配置详解 本文主要是在Hadoop单机模式中演示Hive默认(嵌入式Derby模式)安装配置过程. 1.下载安装包 到官方网站下载最新的安装包,这里以Hive-0.12.0为例: $ tar -zxf hive-0.12.0-bin.tar.gz -C /home/ubuntu/hive-0.12.0 在这里,HIVE_HOME=" /home/ubuntu/hive-0.12.0". 2.设置环境变量 gedit /etc/profile,添加如下内容: export H

Hadoop那些事儿(五)---Hive安装与配置

我在安装Hive的过程中遇到了好多问题,捣鼓了好久,所以下面的有些操作可能不是必要的操作. 1.配置YARN YARN 是从 MapReduce 中分离出来的,负责资源管理与任务调度.YARN 运行于 MapReduce 之上,提供了高可用性.高扩展性. 伪分布式环境不启动YARN也可以,一般不影响程序运行,所以在前边的Hadoop安装与配置中没有配置YARN. 我在安装Hive的过程中,由于一个异常牵扯到了yarn下的jar,所以我觉得还是有必要先把yarn配置一下(这步可能不是必要的) 找到

hadoop: hive 1.2.0 在mac机上的安装与配置

环境:mac OS X Yosemite + hadoop 2.6.0 + hive 1.2.0 + jdk 1.7.0_79 前提:hadoop必须先安装,且处于运行状态(伪分式模式或全分布模式均可) hive官网地址:http://hive.apache.org/ 建议:经个人实践,在mac OS X Yosemite 环境下,如果使用apache下载的原始hadoop 2.6.0,不管jdk安装成什么版本(1.6\1.7\1.8都试过),hive 1.2.0启动时,始终报jdk版本不匹配,

Hadoop系列之Hive(数据仓库)安装配置

Hadoop系列之Hive(数据仓库)安装配置1.在NameNode安装  cd /root/soft  tar zxvf apache-hive-0.13.1-bin.tar.gz   mv apache-hive-0.13.1-bin /usr/local/hadoop/hive2. 配置环境变量(每个节点都需要增加) 打开/etc/profile #添加以下内容: export HIVE_HOME=/usr/local/hadoop/hive export PATH=$HIVE_HOME/

Hive安装与配置详解

既然是详解,那么我们就不能只知道怎么安装hive了,下面从hive的基本说起,如果你了解了,那么请直接移步安装与配置 hive是什么 hive安装和配置 hive的测试 hive 这里简单说明一下,好对大家配置hive有点帮助.hive是建立在hadoop上的,当然,你如果只搭建hive也没用什么错.说简单一点,hadoop中的mapreduce调用如果面向DBA的时候,那么问题也就显现了,因为不是每个DBA都能明白mapreduce的工作原理,如果为了管理数据而需要学习一门新的技术,从现实生活