Hive安装与使用

  Hive是用类似sql语句的形式去操作存储在HDFS上文件的一个客户端,功能上是一个数据仓库,需要配合一个关系型数据库使用,hive自带了一个关系型数据库derby,但是官方不推荐使用,这里我们使用Mysql。关系型数据库的作用是将HDFS上的数据结构化,将结构和数据映射对应起来。

  mysql用于存储映射关系,HDFS用来存储数据

一、安装mysql

  略

二、Hive安装

 1) 解压Hive

tar -zxvf apache-hive-1.0.1-bin.tar.gz

 2) 生成hive-site.xml

cp hive-default.xml.template hive-site.xml

 3) 创建指定路径和用户名

  ① 创建指定路径,替换hive-site.xml中system:java.io.tmpdir的值

mkdir /home/whu/hadoop-hive/hive-1.0.1-bin/iotmp

    替换hive-site.xml中system:java.io.tmpdir的值

  ② 在上面文件夹下创建指定用户名文件夹

cd /home/whu/hadoop-hive/hive-1.0.1-bin/iotmp
mkdir whu

    替换hive-site.xml中system:user.name的值

 4) mysql中创建数据库

mysql -u root -p

  创建指定数据库

create database hive;

 5) 修改hive-site.xml

  ① 修改指定的关系型数据库

<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive</value>
</property>

  ② 修改驱动

<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

  ③ 修改连接数据库的用户名

<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>    

  注:因为我的测试环境hive和mysql是装在一台机器,所以没有设置root进行远程登陆,如果mysql和hive不在一台机器,需要配置root或者其他用户进行远程登陆

grant all on *.* to [email protected]‘%‘ identified by ‘root‘;

  ④ 修改连接数据库的密码

<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root</value>
</property>

 6) 将mysql驱动拷贝到hive的lib目录

cp mysql-connector-java-5.1.34-bin.jar  /home/whu/soft/apache-hive/lib

  注:如果mysql驱动器版本不对,会导致删除表失败,所以放高版本的mysql驱动器更合适。

 7) 启动Hive

  先将hive添加到环境变量

export HADOOP_HOME=/home/whu/soft/apache-hiveexport PATH=$HADOOP_HOME:bin

  使环境变量生效

source /etc/profile

  启动hive

hive

三、Hive简单使用

  1) 显示数据库

show databases;

  2) 显示数据表

use database;

show tables;

  3) 创建数据库

create database basename;

  4) 删除数据库

drop datbase basename;

  5) 创建表

create table tablename( colname coltype, ...)
row format delimited
fields terminated by ‘/001‘
stored as textfile;

  6)删除表

drop table if exists tablename;

  7) 上传数据

load data local inpath ‘path‘ into table tablename;

  8) 插入数据

INSERT INTO TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1 FROM from_statement;

 

时间: 2024-11-05 00:48:39

Hive安装与使用的相关文章

Spark、Hadoop、Hive安装学习

1.Hive安装 http://blog.csdn.net/an342647823/article/details/46048403 2.Hadoop安装 http://www.itnose.net/detail/6182168.html 3.Spark安装 http://stark-summer.iteye.com/blog/2173219 http://ju.outofmemory.cn/entry/177769

Hive安装与配置

Hive安装配置详解 本文主要是在Hadoop单机模式中演示Hive默认(嵌入式Derby模式)安装配置过程. 1.下载安装包 到官方网站下载最新的安装包,这里以Hive-0.12.0为例: $ tar -zxf hive-0.12.0-bin.tar.gz -C /home/ubuntu/hive-0.12.0 在这里,HIVE_HOME=" /home/ubuntu/hive-0.12.0". 2.设置环境变量 gedit /etc/profile,添加如下内容: export H

hadoop(十) - hive安装与自定义函数

一. Hive安装 Hive只在一个节点上安装即可 1. 上传tar包 2. 解压 tar -zxvf hive-0.9.0.tar.gz -C /cloud/ 3. 配置mysql metastore(切换到root用户) 3.1 配置HIVE_HOME环境变量 3.2 安装mysql 查询以前安装的mysql相关包: rpm -qa | grep mysql 暴力删除这个包: rpm -e mysql-libs-5.1.66-2.el6_3.i686 --nodeps 安装mysql: rp

Hive安装与部署集成mysql

前提条件: 1.一台配置好hadoop环境的虚拟机.hadoop环境搭建教程:稍后补充 2.存在hadoop账户.不存在的可以新建hadoop账户安装配置hadoop. 安装教程: 一.Mysql安装 1.安装mysql命令:Yum install mysql-server -y (-y参数作用为所有需要输入yes的地方默认yes) 2.打开mysql服务:Service mysqld start 3.设置mysql服务开机自启动(也可以不设置,开机手动启动):chkconfig –add my

hive安装&lt;1&gt;

hive安装有三种模式,分别为:嵌入模式.本地模式.远程模式 hive安装步骤如下: 第一步:安装包下载并安装 最新版本安装包网址:http://hive.apache.org 旧版本下载网址:http://archive.apach.org     --------这里有apache发布的所有安装包,我们选择hive,然后选择需要的版本即可(我用的是 apache-hive-0.13.0-bin 版本的) 我是直接在/opt目录下解压hive安装包:[email protected]:/opt

Hive安装和基础使用

1.安装JDK并设置环境变量 2.上传安装包 3.解压 4.设置环境变量# vi ~/.bash_profile或vi /etc/profile5.进入hive shell# hive shell或# hive 6.常见操作 查看数据库清单hive> show databses; 查看表清单hive> show tables;查看表结构hive> desc table_name;创建数据库,location为hdfs中的路径为hdfs中的路径,不存在的目录会自动创建.hive> c

Hadoop那些事儿(五)---Hive安装与配置

我在安装Hive的过程中遇到了好多问题,捣鼓了好久,所以下面的有些操作可能不是必要的操作. 1.配置YARN YARN 是从 MapReduce 中分离出来的,负责资源管理与任务调度.YARN 运行于 MapReduce 之上,提供了高可用性.高扩展性. 伪分布式环境不启动YARN也可以,一般不影响程序运行,所以在前边的Hadoop安装与配置中没有配置YARN. 我在安装Hive的过程中,由于一个异常牵扯到了yarn下的jar,所以我觉得还是有必要先把yarn配置一下(这步可能不是必要的) 找到

Hadoop学习之第七章节:Hive安装配置

环境要求: mysql hadoop hive版本为:apache-hive-1.2.1-bin.tar 1.设置hive用户 进入mysql命令行,创建hive用户并赋予所有权限: mysql -uroot -proot mysql>create user 'hive' identified by 'hive'; mysql>grant all on *.* TO 'hive'@'%' with grant option; mysql>flush privileges; 2.创建hiv

【大数据系列】Hive安装及web模式管理

HQL的执行过程: 解释器.编译器.优化器完成HQL查询语句从词法分析.语法分析.编译.优化以及查询计划(Plan)的生成.生成的查询计划存储在HDFS中,并随后有MapReduce调用执行. HQL Select-->发送到解析器进行词法分析 -->错误则反映 否则发送到编译器 生成HQL的执行计划-->优化器 生成最佳的执行计划 -->执行 explain plan for select * from emp where deptno=10; --查看执行计划 select *

hive安装部署

QQ交流群:335671559 环境准备 Linux系统 hadoop安装完成,正常运行,hadoop版本为1.x或者2.x都可以 hive安装包 1.Hive安装 Hive的安装配置还是比较简单得. 首先,到Apache下载Hive,本次安装使用的Hive版本为hive-0.13.0. 其次,下载完成后,将hive解压到想要安装的目录下. tar -zxf  hive-0.13.0.tar.gz  -C  [安装路径] 解压缩完成后,配置Hive环境变量,在终端执行修改PATH.或者直接修改/