Hive 2、Hive 的安装配置

一、前提条件

  安装了Zookeeper、Hadoop HDFS HA  安装方法: http://www.cnblogs.com/raphael5200/p/5154325.html

二、安装Mysql

  因为使用量多的是单用户数据库模式,并且数据库使用最多的是mysql 所以在这里选择mysql数据库;

$ yum install mysql-server
$ service mysqld start#连接mysql $ mysql -uroot -p  #首次密码是空的(直接敲空格)
use mysql;
select host,user,password from user;

--要删除 user为空的用户
delete from user where user=‘‘;

--为root用户设置密码,这里用到了一个函数 PASSWORD()他可以将输入的明文密码转换为加密码格式
update user set password=PASSWORD(‘123456‘) where user=‘root‘;

--刷新权限
flush privileges;

--为其他客户端开启连接权限  如果是hive和mysql在同一台服务器上则不需要授权
grant all privileges on *.* to ‘root‘@‘%‘ identified by ‘123456‘;
-- 可以把 %改成IP,则授权固定IP 

三、Hive安装

#启动Zookeeper
$ zkServer.sh start
#启动Hadoop
$ start-all.sh

Hive安装包下载地址:http://www.apache.org/dyn/closer.cgi/hive/

#解压安装包 并移动到local目录下
$ tar -zxvf apache-hive-1.2.1-bin.tar.gz
$ mv apache-hive-1.2.1-bin /usr/local/apache-hive-1.2.1
#配置环境变量,将HIVE_HOME写入:
$ vim /root/.bash_profile
#写入
PATH=$PATH:$HOME/bin
JAVA_HOME=/usr/java/jdk1.7.0_79
HADOOP_HOME=/usr/local/hadoop-2.5.1
ZK_HOME=/usr/local/zookeeper-3.4.6
HIVE_HOME=/usr/local/apache-hive-1.2.1
export JAVA_HOME
export HADOOP_HOME
export ZK_HOME
PATH=$PATH:$HADOOP_HOME/bin/:$HADOOP_HOME/sbin/:$JAVA_HOME/bin/:$ZK_HOME/bin/:$HIVE_HOME/bin
export PATH

#重新加载配置文件
$ source /root/.bash_profile
#修改Hive的配置文件
$ cd /usr/local/apache-hive-1.2.1/conf
$ cp hive-default.xml.template hive-site.xml
$ vim hive-site.xml

#删除里面内容,只留<configuration></configuration> 节点
#删除方法
#将光标放在<configuration>的下一行在:模式下输入.,$-1d 按回车 例     :.,$-1d  #从当前行删除到倒数第二行
 <!-- 在configuration中加入配置 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/opt/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
 <!-- 如果是远程mysql数据库的话需要在这里写入远程的IP或hosts -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node5:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>

  更新jline.jar 在早期Hadoop版本中 jline.jar的版本是0.9+ 使用这个版本会报错,所以要替换成新版本的Jar包;

  jline.jar包下载地址:http://maven.outofmemory.cn/jline/jline/2.12.1/

$ cd /usr/local/hadoop-2.5.1/share/hadoop/yarn/lib
$ rm -rf  jline-0.9.94.jar
$ cp /root/jline-2.12.1.jar ./

  下载mysql 的 jdbc连接驱动jar包,放到hive的lib目录下  http://www.mysql.com/products/connector/  :JDBC Driver for MySQL (Connector/J)

$ cp /root/mysql-connector-java-5.1.32-bin.jar ./

  启动hive

   如果能正常的显示登录到hive的命令行下,就表示安装成功了;

时间: 2024-11-05 05:04:06

Hive 2、Hive 的安装配置的相关文章

Hive 2.1.1安装配置

##前期工作 安装JDK 安装Hadoop 安装MySQL ##安装Hive ###下载Hive安装包 可以从 Apache 其中一个镜像站点中下载最新稳定版的 Hive, apache-hive-2.1.1-bin.tar.gz. 解压安装Hive 使用以下命令安装 Hive: sudo mv apache-hive-2.1.1-bin.tar.gz /opt cd /opt sudo tar -xzvf apache-hive-2.1.1-bin.tar.gz ##解压 sudo ln -s

Hadoop学习之第七章节:Hive安装配置

环境要求: mysql hadoop hive版本为:apache-hive-1.2.1-bin.tar 1.设置hive用户 进入mysql命令行,创建hive用户并赋予所有权限: mysql -uroot -proot mysql>create user 'hive' identified by 'hive'; mysql>grant all on *.* TO 'hive'@'%' with grant option; mysql>flush privileges; 2.创建hiv

安装配置hadoop组件hive问题集锦

用了1天时间,才完成hive的安装配置, 一:首先安装mysql 下载mysql for ubuntu版本,是deb版本 sudo apt-get libaio sudo apt-get libmecab2 之后使用dpkg -i mysql一系列的deb文件 libmysql* mysql-community* mysql-client* mysql-server* 查看whereis mysql,看到安装到了不同的路径 可执行文件/etc/bin,配置文件/etc/mysql/conf,等到

安装配置hive

安装配置hive 用到的工具: mysql mysql-connector-java-5.1.22-bin.jar hive-0.12.0.tar.gz 1 安装MySQL:yum install mysql-server service mysqld start 2 使mysql开机自启: chkconfig -add mysqld ( 查看mysql的执行权限 chkconfig --list | grep mysql mysql 开机自启动(附权) chkconfig mysqld on

Hadoop系列之Hive(数据仓库)安装配置

Hadoop系列之Hive(数据仓库)安装配置1.在NameNode安装  cd /root/soft  tar zxvf apache-hive-0.13.1-bin.tar.gz   mv apache-hive-0.13.1-bin /usr/local/hadoop/hive2. 配置环境变量(每个节点都需要增加) 打开/etc/profile #添加以下内容: export HIVE_HOME=/usr/local/hadoop/hive export PATH=$HIVE_HOME/

hive安装配置+与hbase整合

一.hive介绍hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行. 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. 二.安装hive安装前提是hadoop集群已经安装好,并且采用cdh的yum源,hadoop.hdfs.hbase等已经就绪. yum -y install hive

hive安装配置

前提: 安装好mysql ,新建数据库hive,新建用户hive:hive ,并且允许远程登录和访问 GRANT ALL PRIVILEGES ON *.* TO 'hive'@'master' IDENTIFIED BY 'hive' WITH GRANT OPTION; flush privileges; 开始:  1.. Hive下载:http://archive.cloudera.com/cdh5/cdh/5/ wget http://archive.cloudera.com/cdh5/

hive 安装配置部署与测试

系统初始化 mysql5.6 的安装配置 hive 的安装配置处理 一: 系统环境初始化 1.1 系统环境: CentOS6.4x64 安装好的hadoop伪分布环境 所需软件包: apache-hive-0.3.1.tar.gz mysql-connector-java-5.1.27.tar.gz mysql-server-5.6.24-1.el6x86_64 mysql-client-5.6.24-1.el6x86_64 上传到/home/hadoop/yangyang/ 二: 安装mysq

Hive初步使用、安装MySQL 、Hive配置MetaStore、配置Hive日志《二》

一.Hive的简单使用 基本的命令和MySQL的命令差不多 首先在 /opt/datas 下创建数据  students.txt 1001 zhangsan 1002 lisi 1003 wangwu 显示有多少数据库: show databases; 使用某个数据库: use 数据库名称; 显示当前数据库下的表: show tables; 创建数据表 : create table student (id int,name string) ROW FORMAT DELIMITED FIELDS

Mac上Hive安装配置

Mac上Hive安装配置 1.安装 下载hive,地址:http://mirror.bit.edu.cn/apache/hive/ 之前我配置了集群,tjt01.tjt02.tjt03,这里hive安装在tjt01机器上. 我下载的是“apache-hive-3.0.0-bin.tar.gz”,将hive 3.0版本上传到/opt目录,并解压到/usr/local下: [[email protected] ~]# cd /opt [[email protected] opt]# tar -zxv