Hive(2)-Hive的安装,使用Mysql替换derby,以及一丢丢基本的HQL

一. Hive下载

1. Hive官网地址

http://hive.apache.org/

2. 文档查看地址

https://cwiki.apache.org/confluence/display/Hive/GettingStarted

3. 下载地址

http://archive.apache.org/dist/hive/

4. github地址

https://github.com/apache/hive

5. 也可以使用我准备好的安装包

https://pan.baidu.com/s/1Tus7NAV0Scbj9wesQkyr-A

二. Hive安装

1. 上传

使用FTP工具把apache-hive-1.2.1-bin.tar.gz上传到hadoop100下的的/opt/software目录

2. 解压

解压apache-hive-1.2.1-bin.tar.gz到/opt/module/目录

tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /opt/module/

3. 重命名

修改apache-hive-1.2.1-bin.tar.gz的名称为hive-1.2.1

mv apache-hive-1.2.1-bin/ hive-1.2.1

4. 配置hive-env

cd /opt/module/hive-1.2.1/conf

#拷贝一份hive-env.sh.template命名为 hive-env.sh
cp hive-env.sh.template hive-env.sh

设置一下HADOOP_HOME和HIVE_CONF_DIR

5. 使用mysql替换掉默认的derby数据库

由于derby不支持多客户端登录,也就是同一时间只能有一个人操作,这完全就是扯求蛋.所以要替换

安装前,如果虚机上有mysql了,就不用安装了,如果想重新安装,务必卸载干净

#查看是否有mysql
rpm -qa | grep -i mysql

#卸载mysql的安装组件
sudo rpm -e MySQL-server-5.6.24-1.el6.x86_64

#查找并删除MySQL相关的文件
sudo find / -name mysql

 sudo rm -rf /var/lib/mysql
 sudo rm -rf /usr/lib64/mysql

使用ftp工具将网盘中的mysql的zip包上传到linux上

使用unzip解压

unzip mysql-libs.zip
cd mysql-libs

安装mysql的server和client就不再赘述了,记得安装的时候使用sudo,修改root用户的登录host为%,删掉其他三个,也不要忘了update完之后flush privileges;

安装完后启动mysql server,如果启动失败,试试加上sudo启动

解压connector

tar -zxvf mysql-connector-java-5.1.27.tar.gz

解压完cd进去,将jar拷贝到hive

cp mysql-connector-java-5.1.27-bin.jar  /opt/module/hive-1.2.1/lib/

cd到hive的conf目录下,cat一下hive-default.xml.template

明确说明,要建一个hive-site.xml文件

vim hive-site.xml

注意替换mysql的uri和user pwd

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://hadoop100:3306/metastore?createDatabaseIfNotExist=true</value>
      <description>JDBC connect string for a JDBC metastore</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
      <description>Driver class name for a JDBC metastore</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
      <description>username to use against metastore database</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>qwe123</value>
      <description>password to use against metastore database</description>
    </property>
</configuration>

6. 配置log的存放目录

Hive的log默认存放在/tmp/nty/hive.log目录下(当前用户名下)

1). 修改/opt/module/hive/conf/hive-log4j.properties.template文件名称为hive-log4j.properties

 mv hive-log4j.properties.template hive-log4j.properties

2). 在hive-log4j.properties文件中修改log存放位置,

三. Hive初体验

首先启动Hadoop集群

#hadoop100上启动hdfs
sbin/start-dfs.sh

#hadoop101上启动yarn
sbin/start-yarn.sh

接下来基本就像操作mysql一样了

有一个default库

空库,没有表,那就创建一个

create table namelist (id int, name string);

插入一条数据

insert into namelist (id, name) values (1,‘tom‘);

完完全全就是一个MapReduce程序,慢到下跪.

查询一下

简单的操作基本就是这样,跟mysql没有差太多.

原文地址:https://www.cnblogs.com/duoduotouhenying/p/10133175.html

时间: 2024-10-02 06:18:26

Hive(2)-Hive的安装,使用Mysql替换derby,以及一丢丢基本的HQL的相关文章

HIve体系结构,hive的安装和mysql的安装,以及hive的一些简单使用

Hive体系结构: 是建立在hadoop之上的数据仓库基础架构. 和数据库相似,只不过数据库侧重于一些事务性的一些操作,比如修改,删除,查询,在数据库这块发生的比较多.数据仓库主要侧重于查询.对于相同的数据量在数据库中查询就比较慢一些,在数据仓库中查询的效率就比较快. 数据仓库是面向于查询的,并且处理的数据量要远远高于数据库处理的数据量. 传统的数据仓库产品,依然有数据存储的瓶颈,那么在这个瓶颈下查询的速度慢了,那么就不适用了,我们的hadoop是处理海量数据的,所以我们可以在上面建立数据仓库.

Hive的安装与MySQL结合

#HIVE可以在任意节点搭建,实验在master 链接:http://pan.baidu.com/s/1i4LCmAp 密码:302x hadoop+hive下载 ##原封不动的复制,必死无疑,请根据实际填写相关参数和路径 1.  Hive的基础设施 a.基于已经搭建好的hadoop b.下载hive版本,注意和hadoop对应起来 2.安装hive a.下载好的包解压到/usr/local/命名为hive tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /u

Hive初步使用、安装MySQL 、Hive配置MetaStore、配置Hive日志《二》

一.Hive的简单使用 基本的命令和MySQL的命令差不多 首先在 /opt/datas 下创建数据  students.txt 1001 zhangsan 1002 lisi 1003 wangwu 显示有多少数据库: show databases; 使用某个数据库: use 数据库名称; 显示当前数据库下的表: show tables; 创建数据表 : create table student (id int,name string) ROW FORMAT DELIMITED FIELDS

Hive的三种安装方式(内嵌模式,本地模式远程模式)

一.安装模式介绍:     Hive官网上介绍了Hive的3种安装方式,分别对应不同的应用场景.     1.内嵌模式(元数据保村在内嵌的derby种,允许一个会话链接,尝试多个会话链接时会报错)     2.本地模式(本地安装mysql 替代derby存储元数据)     3.远程模式(远程安装mysql 替代derby存储元数据) 二.安装环境以及前提说明:     首先,Hive是依赖于hadoop系统的,因此在运行Hive之前需要保证已经搭建好hadoop集群环境.     本文中使用的

Hive 2.1.1安装配置

##前期工作 安装JDK 安装Hadoop 安装MySQL ##安装Hive ###下载Hive安装包 可以从 Apache 其中一个镜像站点中下载最新稳定版的 Hive, apache-hive-2.1.1-bin.tar.gz. 解压安装Hive 使用以下命令安装 Hive: sudo mv apache-hive-2.1.1-bin.tar.gz /opt cd /opt sudo tar -xzvf apache-hive-2.1.1-bin.tar.gz ##解压 sudo ln -s

hive (一) ----- hive的安装和使用

一.hive安装 1.下载hive2.1-tar.gz 2.解压 tar -zxf hive-2.1.0.tar.gz -C /opt cd /opt ln -s hive-2.1.0 hive 3.配置环境变量 [/etc/profile] HIVE_HOME=/soft/hive PATH=...:$HIVE_HOME/bin 测试: hive --version hive --help 4.复制mysql驱动程序到hive的lib目录下. 5.配置hive 1)复制hive-default

吴超老师课程--Hive的介绍和安装

1.Hive1.1在hadoop生态圈中属于数据仓库的角色.他能够管理hadoop中的数据,同时可以查询hadoop中的数据.  本质上讲,hive是一个SQL解析引擎.Hive可以把SQL查询转换为MapReduce中的job来运行.  hive有一套映射工具,可以把SQL转换为MapReduce中的job,可以把SQL中的表.字段转换为HDFS中的文件(夹)以及文件中的列.  这套映射工具称之为metastore,一般存放在derby.mysql中. 1.2 hive在hdfs中的默认位置是

HIVE 0.14.0安装

本文原文出处: http://blog.csdn.net/bluishglc/article/details/41652111 严禁任何形式的转载,否则将委托CSDN官方维护权益! 0. 前置条件    1. 集群已经安装好Hadoop    2. 本次安装使用/usr/local作为安装目录    3. 专门为HIVE建立用户和用户组:hive:hive1.安装 从官网下载apache-hive-0.14.0-bin.tar.gz以及apache-hive-0.14.0-src.tar.gz,

详解Hive的架构及安装步骤

一.Hive是什么? Hive 是基于 Hadoop 构建的一套数据仓库分析系统,它提供了丰富的 SQL 查询方式来分析存储在 Hadoop 分布式文件系统中的数据, 可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce 任务进行运行,通过自己的 SQL 去 查询分析需要的内容,这套 SQL 简称 Hive SQL. 二.理解Hive 架构 Hive 架构可以分为四部分. 用户接口 Hive 对外提供了三种服务模式,即 Hive