Hive的安装和配置

前提是:hadoop必须已经启动了***

        1°、解压hive的安装包
            [[email protected] soft]# tar -zxvf apache-hive-0.14.0-bin.tar.gz -C ../
        2°、备份配置文件
            [[email protected] conf]# cp hive-env.sh.template hive-env.sh
            [[email protected] conf]# cp hive-default.xml.template hive-site.xml
        3°、配置hive的配置文件

1)、修改hive-env.sh
                加入三行内容(大家根据自己的情况来添加)
                    JAVA_HOME=/usr/local/jdk1.7.0_55
                    HADOOP_HOME=/usr/local/hadoop-2.4.1
                    HIVE_HOME=/usr/local/hive-0.14.0

2)、修改hive-site.xml

<configuration>
<property>
  <name>javax.jdo.option.ConnectionURL</name>
 <value>jdbc:mysql://192.168.1.121:3306/hive?characterEncoding=utf-8</value>
 <description>JDBC connect string for aJDBCmetastore</description>
</property>
<property>
 <name>javax.jdo.option.ConnectionDriverName</name>
 <value>com.mysql.jdbc.Driver</value>
 <description>Driver class name for aJDBCmetastore</description>
</property>
<property>
 <name>javax.jdo.option.ConnectionUserName</name>
 <value>hive</value>
 <description>username to use againstmetastoredatabase</description>
</property>
<property>
 <name>javax.jdo.option.ConnectionPassword</name>
 <value>hive</value>
 <description>password to use againstmetastoredatabase</description>
</property>
<property>
 <name>hive.metastore.schema.verification</name>
 <value>false</value>
</property>
</configuration>

3)、拷贝mysql驱动到$HIVE_HOME/lib目录下
            [[email protected] bin]# cp /usr/local/soft/mysql-connector-java-5.1.17.jar ../lib/

4)、启动Hive

[[email protected] bin]# ./hive <==>等价于
[[email protected] bin]# ./hive --service cli

时间: 2024-08-05 09:04:25

Hive的安装和配置的相关文章

Hive的安装与配置

1.因为我使用MySQL做为Hive的元数据库,所以先安装MySQL. 参考:http://www.cnblogs.com/hunttown/p/5452205.html 登录命令:mysql -h主机地址 -u用户名 -p用户密码 mysql –u root #初始登录没有密码 修改密码 格式:mysqladmin -u用户名 -p旧密码 password 新密码 mysql>mysqladmin -uroot –password 123456 注:因为开始时root没有密码,所以-p旧密码一

Hadoop2.3、 Hbase0.98、 Hive0.13架构中Hive的安装部署配置以及数据测试

简介: Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行. 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. 1, 适用场景 Hive 构建在基于静态批处理的Hadoop 之上,Hadoop 通常都有较高的延迟并且在作业提交和调度的时候需要大量的开销.因此,Hive 并不能够在大规模

Hive 的安装与配置

hive只是一个客户端,只要安装机器上有jdk和Hadoop就可以,解压即用 因为hive默认是derby数据库,而derby数据库的弊端如下 ①默认只会从当前目录下读取metastore_db的库文件 ②不支持多实例同时使用一个库 所以重点是如何配置数据库在MySQL上 1.检查有没有旧的MySQL,有就进行卸载 rpm -qa | grep mysql rpm -qa | grep MySQLsudo rpm -e --nodeps mysql-libs-5.1.73-7.el6.x86_6

hive的 安装和配置

2. 配置过程 2.1. 解压文件配置环境变量 解压文件 $ tar -xzvf hive-x.y.z.tar.gz 1 配置环境变量 export HIVE_HOME={{pwd}} export PATH=$HIVE_HOME/bin:$PATH 1 2 将mysql的JDBC包放到hive的lib文件夹中.注意是.jar文件 2.2. 配置hive-env.sh HADOOP_HOME=/opt/modules/hadoop-3.0.3 export HIVE_CONF_DIR=/opt/

Hive安装与配置

Hive安装配置详解 本文主要是在Hadoop单机模式中演示Hive默认(嵌入式Derby模式)安装配置过程. 1.下载安装包 到官方网站下载最新的安装包,这里以Hive-0.12.0为例: $ tar -zxf hive-0.12.0-bin.tar.gz -C /home/ubuntu/hive-0.12.0 在这里,HIVE_HOME=" /home/ubuntu/hive-0.12.0". 2.设置环境变量 gedit /etc/profile,添加如下内容: export H

Hadoop那些事儿(五)---Hive安装与配置

我在安装Hive的过程中遇到了好多问题,捣鼓了好久,所以下面的有些操作可能不是必要的操作. 1.配置YARN YARN 是从 MapReduce 中分离出来的,负责资源管理与任务调度.YARN 运行于 MapReduce 之上,提供了高可用性.高扩展性. 伪分布式环境不启动YARN也可以,一般不影响程序运行,所以在前边的Hadoop安装与配置中没有配置YARN. 我在安装Hive的过程中,由于一个异常牵扯到了yarn下的jar,所以我觉得还是有必要先把yarn配置一下(这步可能不是必要的) 找到

hadoop: hive 1.2.0 在mac机上的安装与配置

环境:mac OS X Yosemite + hadoop 2.6.0 + hive 1.2.0 + jdk 1.7.0_79 前提:hadoop必须先安装,且处于运行状态(伪分式模式或全分布模式均可) hive官网地址:http://hive.apache.org/ 建议:经个人实践,在mac OS X Yosemite 环境下,如果使用apache下载的原始hadoop 2.6.0,不管jdk安装成什么版本(1.6\1.7\1.8都试过),hive 1.2.0启动时,始终报jdk版本不匹配,

Hadoop系列之Hive(数据仓库)安装配置

Hadoop系列之Hive(数据仓库)安装配置1.在NameNode安装  cd /root/soft  tar zxvf apache-hive-0.13.1-bin.tar.gz   mv apache-hive-0.13.1-bin /usr/local/hadoop/hive2. 配置环境变量(每个节点都需要增加) 打开/etc/profile #添加以下内容: export HIVE_HOME=/usr/local/hadoop/hive export PATH=$HIVE_HOME/

Hive安装与配置详解

既然是详解,那么我们就不能只知道怎么安装hive了,下面从hive的基本说起,如果你了解了,那么请直接移步安装与配置 hive是什么 hive安装和配置 hive的测试 hive 这里简单说明一下,好对大家配置hive有点帮助.hive是建立在hadoop上的,当然,你如果只搭建hive也没用什么错.说简单一点,hadoop中的mapreduce调用如果面向DBA的时候,那么问题也就显现了,因为不是每个DBA都能明白mapreduce的工作原理,如果为了管理数据而需要学习一门新的技术,从现实生活