进阶4:hive 安装

安装包:

apache-hive-2.1.1-bin.tar.gz

安装步骤:

1.上传   apache-hive-2.1.1-bin.tar.gz 到linux;

2.解压文件:

tar zxvf apache-hive-2.1.1-bin.tar.gz

3.安装mysql (仅支持mysql 5.7以下版本,不支持5.7或更高版本,原因:若采用高版本mysql,部分文档内容需要改写)

sudo yum install mysql-server

4. 安装 mysql connector

sudo yum install mysql-connector-java

该命令会在/usr/share/java/下产生mysql-connector-java.jar

5. 建立链接

ln -s /usr/share/java/mysql-connector-java.jar /usr/local/hadoop-soft/etc/hive-2.1.1/lib/mysql-connector-java.jar

该命令在hive安装目录的lib目录下建立软链接,指向/usr/share/java/mysql-connector-java.jar

6.  启动mysql
                sudo service mysqld start

可通过以下命令验证mysql启动成功(显示mysql进程):

ps aux | grep mysql

7.  修改mysql密码 , 修改mysql密码(改为newpass,请根据需要自行替换newpass)

mysql> use mysql;

mysql> UPDATE user SET Password = PASSWORD(‘newpass‘) WHERE user = ‘root‘;

mysql> FLUSH PRIVILEGES;

允许用户root通过任意机器访问mysql:

mysql> GRANT ALL PRIVILEGES ON *.* TO ‘root‘@‘%‘ IDENTIFIED BY ‘newpass‘ WITH GRANT OPTION;

mysql> FLUSH PRIVILEGES;

8. 进入到根目录,配置环境变量:

vim ~/.bash_profile

export HIVE_HOME=/usr/local/hadoop-soft/etc/hive-2.1.1
export PATH=$HIVE_HOME/bin:$PATH

       运行生效:

source ~/.bash_profile

9.  配置hive

a.进入目录:

cd /usr/local/hadoop-soft/etc/hive-2.1.1/conf

b. 新建 并 编辑  hive-site.xml

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://master:9083</value>
    </property>
    <property>
        <name>hive.server2.thrift.port</name>
        <value>10000</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://master/metastore?createDatabaseIfNotExist=true</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>
    <property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
    </property>
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/usr/local/hadoop-soft/etc/hive-2.1.1/warehouse</value>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>
    <property>
        <name>datanucleus.autoCreateSchema</name>
        <value>true</value>
    </property>
    <property>
        <name>datanucleus.autoStartMechanism</name>
        <value>SchemaTable</value>
    </property>
    <property>
        <name>datanucleus.schema.autoCreateTables</name>
        <value>true</value>
    </property>

    <property>
        <name>beeline.hs2.connection.user</name>
        <value>master</value>
        </property>
     <property>
        <name>beeline.hs2.connection.password</name>
        <value>master</value>
     </property>
</configuration>     

注意 :

1. hive.metastore.uris中的“bigdata“含义为metastore server所在的机器(启动metastore的方法见下一节)

2. javax.jdo.option.ConnectionURL中的“bigdata”为mysql安装机器的hostname

3. javax.jdo.option.ConnectionUserName和javax.jdo.option.ConnectionPassword分别为mysql的访问用户和密码,可通过以下命令验证是否有效(期中bigdata为javax.jdo.option.ConnectionURL中配置的地址,xxx为mysql用户名):

mysql –h bigdata-u xxx –p

4. fs.defaultFS为HDFS的namenode启动的机器地址

5. beeline.hs2.connection.user和beeline.hs2.connection.password是beeline方式访问的用户名和密码,可任意指定,但在beeline访问时要写入你指定的这个(具体参考最后一部分)

10.如果是第一次启动hive,需要执行初始化命令

schematool -dbType mysql -initSchema

注意:仅在第一次启动hive时,运行该命令,以后则只需直接启动metastore和hiveserver

11. 启动metastore

nohup hive --service metastore >> /usr/local/hadoop-soft/etc/hive-2.1.1/metastore.log 2>&1 &

12. 启动hive server

nohup hive --service hiveserver2 >> /usr/local/hadoop-soft/etc/hive-2.1.1/hiveserver.log 2>&1 &

13. 查看hive metastore和hiveserver2是否启动成功

ps aux | grep hive

能输出两个进程,分别对应metastore和hiveserver2.

 

14.  Hive常见两种访问方式

a.不建议使用 hive ,已经被淘汰

b. 建议使用  beeline

15.  修改hadoop 安装目录下 ,core-site.xml 文件

比如要用root 用户启动  hive server2和hive metastore,则增加配置:

<property>
      <name>hadoop.proxyuser.root.groups</name>
      <value>*</value>
 </property>

 <property>
      <name>hadoop.proxyuser.root.hosts</name>
      <value>*</value>
  </property>

16. 之后输入以下命令发起一个连接:

!connect jdbc:hive2://master:10000/default master master

其中master 和master 分别是在hive-site.xml配置文件中由beeline.hs2.connection.user和beeline.hs2.connection.password设置的。

注:如果要使用beeline或JDBC连接hive时,遇到报错:“User: xxx is not allowed to impersonate yyy”,需在hadoop的配置文件core-site.xml中加入以下配置(其中红色标志的“xxx”是你启动hive server2和hive metastore所采用的用户,

             用户名中不要包含“.”,比如“cheng.dong”是不支持的),并重启hiveserver2, hive metastore,HDFS和YARN

原文地址:https://www.cnblogs.com/kuncy/p/10668140.html

时间: 2024-10-10 17:54:36

进阶4:hive 安装的相关文章

Spark、Hadoop、Hive安装学习

1.Hive安装 http://blog.csdn.net/an342647823/article/details/46048403 2.Hadoop安装 http://www.itnose.net/detail/6182168.html 3.Spark安装 http://stark-summer.iteye.com/blog/2173219 http://ju.outofmemory.cn/entry/177769

Hive安装与配置

Hive安装配置详解 本文主要是在Hadoop单机模式中演示Hive默认(嵌入式Derby模式)安装配置过程. 1.下载安装包 到官方网站下载最新的安装包,这里以Hive-0.12.0为例: $ tar -zxf hive-0.12.0-bin.tar.gz -C /home/ubuntu/hive-0.12.0 在这里,HIVE_HOME=" /home/ubuntu/hive-0.12.0". 2.设置环境变量 gedit /etc/profile,添加如下内容: export H

hadoop(十) - hive安装与自定义函数

一. Hive安装 Hive只在一个节点上安装即可 1. 上传tar包 2. 解压 tar -zxvf hive-0.9.0.tar.gz -C /cloud/ 3. 配置mysql metastore(切换到root用户) 3.1 配置HIVE_HOME环境变量 3.2 安装mysql 查询以前安装的mysql相关包: rpm -qa | grep mysql 暴力删除这个包: rpm -e mysql-libs-5.1.66-2.el6_3.i686 --nodeps 安装mysql: rp

Hive安装与部署集成mysql

前提条件: 1.一台配置好hadoop环境的虚拟机.hadoop环境搭建教程:稍后补充 2.存在hadoop账户.不存在的可以新建hadoop账户安装配置hadoop. 安装教程: 一.Mysql安装 1.安装mysql命令:Yum install mysql-server -y (-y参数作用为所有需要输入yes的地方默认yes) 2.打开mysql服务:Service mysqld start 3.设置mysql服务开机自启动(也可以不设置,开机手动启动):chkconfig –add my

hive安装&lt;1&gt;

hive安装有三种模式,分别为:嵌入模式.本地模式.远程模式 hive安装步骤如下: 第一步:安装包下载并安装 最新版本安装包网址:http://hive.apache.org 旧版本下载网址:http://archive.apach.org     --------这里有apache发布的所有安装包,我们选择hive,然后选择需要的版本即可(我用的是 apache-hive-0.13.0-bin 版本的) 我是直接在/opt目录下解压hive安装包:[email protected]:/opt

Hive安装和基础使用

1.安装JDK并设置环境变量 2.上传安装包 3.解压 4.设置环境变量# vi ~/.bash_profile或vi /etc/profile5.进入hive shell# hive shell或# hive 6.常见操作 查看数据库清单hive> show databses; 查看表清单hive> show tables;查看表结构hive> desc table_name;创建数据库,location为hdfs中的路径为hdfs中的路径,不存在的目录会自动创建.hive> c

Hadoop那些事儿(五)---Hive安装与配置

我在安装Hive的过程中遇到了好多问题,捣鼓了好久,所以下面的有些操作可能不是必要的操作. 1.配置YARN YARN 是从 MapReduce 中分离出来的,负责资源管理与任务调度.YARN 运行于 MapReduce 之上,提供了高可用性.高扩展性. 伪分布式环境不启动YARN也可以,一般不影响程序运行,所以在前边的Hadoop安装与配置中没有配置YARN. 我在安装Hive的过程中,由于一个异常牵扯到了yarn下的jar,所以我觉得还是有必要先把yarn配置一下(这步可能不是必要的) 找到

Hadoop学习之第七章节:Hive安装配置

环境要求: mysql hadoop hive版本为:apache-hive-1.2.1-bin.tar 1.设置hive用户 进入mysql命令行,创建hive用户并赋予所有权限: mysql -uroot -proot mysql>create user 'hive' identified by 'hive'; mysql>grant all on *.* TO 'hive'@'%' with grant option; mysql>flush privileges; 2.创建hiv

【大数据系列】Hive安装及web模式管理

HQL的执行过程: 解释器.编译器.优化器完成HQL查询语句从词法分析.语法分析.编译.优化以及查询计划(Plan)的生成.生成的查询计划存储在HDFS中,并随后有MapReduce调用执行. HQL Select-->发送到解析器进行词法分析 -->错误则反映 否则发送到编译器 生成HQL的执行计划-->优化器 生成最佳的执行计划 -->执行 explain plan for select * from emp where deptno=10; --查看执行计划 select *