关于hive的安装步骤

一.安装hive的过程

在安装hive之前首先安装mysql

1.查看mysql ,系统自带的
      命令为 yum list |grep mysql
2.mysql-server的安装
      命令为 yum install -y mysql-server mysql mysql-devel
3. 修改mysql的密码为123
      命令为myaqladmin -u root password 123
4.登陆mysql
     命令mysql -u root -p
5.赋予权限myaql
     命令 GRANT ALL PRIVILEGES ON *.* TO ‘root‘@‘%‘ IDENTIFIED BY ‘123‘ WITH GRANT OPTION;
     flush privileges; 注意:%代表任何的IP地址
     启动数据库命令 service mysqld start
     关闭数据库命令 service mysqld stop
     给数据库创建一个用户temp,密码为temp,命令为 grant all on *.* to ‘temp‘@‘cdh1‘ identified by ‘temp‘ with grant option;
     然后执行flush privileges;
     查看数据库用户 命令为 select host,user from mysql.user;
     删除用户的命令 Delete FROM user Where User=‘test‘(用户名) and Host=‘localhost‘;
    flush privileges;
当MySQL数据库用户较多时,可以删除其他用户,保留只给了用户权限的的用户名

二.hive安装

1.配置hive
       1.1 hive-env.sh 主要是两个环境变量
       1.2 hive-site.xml 有几个地方要修改

1.改master为我们自己的node1
            2.修改mysql的登陆密码为123
            3.修改登陆用户为mysql的用户
            4.将localhost改为我们自己node下的ip

2.启动metastore
    在bin目录下 执行./hive --service metastore

注意:1.在bashrc里面修改hive的环境变量
                2.将MySQL数据库的jar包放到hive下的lib文件夹下
                3.重新开启一个node节点在hive的bin目录下输入hive就可以了
可能出现部分错误
1.metastore重启 过多,kill之后可以解决
     命令 netstat -tlnp | grep 9083 或者 ps -aux | grep ‘metastore‘
     来查看多余的进程,需要关闭 命令为kill -9 进程号
2.Hadoop目录下存在老版本的jline
     需要删除老版本并且cp -r /hive/lib/jline-2.12.jar /hadoop-2.5.2/share/hadoop/yarn/lib

时间: 2024-11-10 08:02:03

关于hive的安装步骤的相关文章

hive的安装步骤

在node2里安装一下hive1.2.1,步骤如下: 1.解压hive的安装包 2.改变目录:mv apache-hive-1.2.1-bin /home/install/hive-1.2 3.vi ~/.bash_profile 进行环境变量的配置: source ~/.bash_profile 结果可能会产生和hadoop的jar包jline不兼容的问题,可以手动修改 cp hive-1.2/lib/jline-2.12.jar hadoop-2.5/share/hadoop/yarn/li

详解Hive的架构、工作原理及安装步骤

一.Hive是什么? Hive 是基于 Hadoop 构建的一套数据仓库分析系统,它提供了丰富的 SQL 查询方式来分析存储在 Hadoop 分布式文件系统中的数据, 可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce 任务进行运行,通过自己的 SQL 去 查询分析需要的内容,这套 SQL 简称 Hive SQL. 二.理解Hive 架构 Hive 架构可以分为四部分. 用户接口 Hive 对外提供了三种服务模式,即 Hive

详解Hive的架构及安装步骤

一.Hive是什么? Hive 是基于 Hadoop 构建的一套数据仓库分析系统,它提供了丰富的 SQL 查询方式来分析存储在 Hadoop 分布式文件系统中的数据, 可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce 任务进行运行,通过自己的 SQL 去 查询分析需要的内容,这套 SQL 简称 Hive SQL. 二.理解Hive 架构 Hive 架构可以分为四部分. 用户接口 Hive 对外提供了三种服务模式,即 Hive

基于MySQL元数据的Hive的安装和简单測试

引言: Hive是一种强大的数据仓库查询语言,类似SQL,本文将介绍怎样搭建Hive的开发測试环境. 1. 什么是Hive? hive是基于Hadoop的一个数据仓库工具,能够将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,能够将sql语句转换为MapReduce任务进行执行. 其长处是学习成本低,能够通过类SQL语句高速实现简单的MapReduce统计.不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. 2.  依照Hive的准备条件 2.1  Hadoop集

安装hive和安装mysql

首先检查系统安装的mysql版本,使用命令    rpm  -qa | grep mysql 若要安装自己的版本,则先执行删除操作       rpm  -e  xxxxx.rpm   --nodeps 然后安装自己的版本,        rpm  -i  xxxxx.rpm 远程连接mysql,操作步骤如下: 1.进入mysql环境中 mysql -uroot -proot 2.设置mysql,授权hive可以远程连接mysql数据库 grant  all on hive.* to 'root

基于MySQL元数据的Hive的安装和简单测试

引言: Hive是一种强大的数据仓库查询语言,类似SQL,本文将介绍如何搭建Hive的开发测试环境. 1. 什么是Hive? hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行. 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. 2.  按照Hive的准备条件 2.1  Hadoop集

hive-1.2.1安装步骤

一.Hive安装和配置 1.先决条件 已经安装好hadoop-2.4.1,hbase-1.0.0. 2.下载Hive安装包 当前Hive可到apache官网下载,选择的是hive-1.2.1.运行: wget http://www-us.apache.org/dist/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz          然后将其解压到Hadoop所在的目录:/opt下. 解压:tar -zvxf apache-hive-1.2.1-bin.

HIVE部署安装(笔记)

1.下载hive:wget http://mirrors.cnnic.cn/apache/hive/hive-0.12.0/hive-0.12.0.tar.gz2.解压hive安装文件 tar -zvxf hive-0.12.0.tar.gz3.配置hive环境变量,初始化hive在hdfs上的工作目录(因此在部署hive之前,请确保已经完整的部署了hadoop,并设置好相关的环境,hadoop版本是2.2.0,才和此hive版本相符) vi /etc/profile 添加环境变量值  expo

Hive的安装部署全过程详细版

首先先简单介绍下hive: Hive是一个基于Hadoop的数据仓库工具,可以将结构化的数据文件映射成一张数据表,并可以使用类似SQL的方式来对数据文件进行读写以及管理.这套Hive SQL 简称HQL.Hive的执行引擎可以是MR.Spark.Tez. 核心架构:   Hive官网地址 http://hive.apache.org/ 下载地址 http://archive.apache.org/dist/hive/ hive的安装部署 Hive常用的安装分三种 (注意:Hive会自动监测Had