Hadoop-1.2.1伪分布下 hive-0.10.0内嵌模式安装

Hadoop-1.2.1伪分布下 hive-0.10.0内嵌模式安装

1、下载hive-0.10.0

网址是:http://archive.apache.org/dist/hive/hive-0.10.0/

  下载的安装包为:hive-0.10.0.tar.gz   2012-12-18 23:21  35M  

2、把hive-0.10.0拷进 /usr/ 目录下,并进行解压

tar  –zxvf hive-0.10.0.tar.gz

解压完毕如下图:

3、修改文件名、修改hive文件权限、删除hive安装包

mv hive-0.10.0.tar.gz  hive

chown  –R  hadoop:hadoop hive

rm  -rf hive-0.10.0.tar.gz

4、添加hive环境变量

vim  /etc/profile ,配置完事后,输入命令 source /etc/profile 使配置生效

使其生效:

5、配置hive的配置文件

进入 /usr/hive/bin目录

修改 hive-config.sh
配置文件

6、配置 hive-default.xml和hive-site.xml文件

在“/usr/hive/conf”目录下,没有这两个文件,只有一个“hive-default.xml.template”,

所以我们要复制两个“hive-default.xml.template”,并分别命名为“hive-default.xml”和“hive-site.xml”。因为我们当前是
root 用户,所以还要把两个的文件的授权给 hadoop用户。

7、启动hive,出现警告:


进入 /usr/hive/conf 
文件路径,复制一份hive-log4j.properties.template并改名为hive-log4j.properties,改动如下面截图最后一行所示:

将log4j.appender.EventCounter值修改为org.apache.hadoop.log.metrics.EventCounter

hive 内嵌模式正常启动

8、可能出现的错误解决

  如果启动hive时出现<description>少</description>或partition-dir
少</partition-dir>

则说明xml解析时标签没有配对出现;

解决:去 hive的conf目录下,用文件搜索hive.default.xml.template、hive.default.xml、hive.core.xml没有配对的标签并加以配对即可。

9、完整启动步骤,我的hadoop是在root权限下的,所以每次要进入root进行启动hive,如果你不是,一般用户权限就行。当然首先要启动hadoop


查看所有表、创建表、查询表

以上操作均正常,说明hive安装成功。

用的是默认Derby(RDBMS)数据库来存储hive的元数据。

时间: 2024-10-13 12:37:04

Hadoop-1.2.1伪分布下 hive-0.10.0内嵌模式安装的相关文章

Hive的三种安装方式(内嵌模式,本地模式远程模式)

一.安装模式介绍:     Hive官网上介绍了Hive的3种安装方式,分别对应不同的应用场景.     1.内嵌模式(元数据保村在内嵌的derby种,允许一个会话链接,尝试多个会话链接时会报错)     2.本地模式(本地安装mysql 替代derby存储元数据)     3.远程模式(远程安装mysql 替代derby存储元数据) 二.安装环境以及前提说明:     首先,Hive是依赖于hadoop系统的,因此在运行Hive之前需要保证已经搭建好hadoop集群环境.     本文中使用的

hadoop伪分布下的sqoop基本安装配置

1.环境工具版本介绍 centos6.4(Final) jdk-7u60-linux-i586.gz hadoop-1.1.2.tar.gz sqoop-1.4.3.bin__hadoop-1.0.0.tar.gz mysql-5.6.11.tar.gz 2.安装centos 参照网上Ultra的使用制作了U盘启动,直接格式化安装系统,具体做法网上资料很多,但注意最好不要在安装时改主机名称,也最好不要利用图形化界面添加用户,因为我出过问题重做了系统,这些terminal中都能完成的 3.安装jd

四、伪分布下安装hive

声明:本篇blog并没有配置MySQL,不过会在接下来的文章中实现 一.环境 Ubuntu14.04 hadoop2.6伪分布(安装教程请参考:点击打开链接) hive-1.2.1(下载链接:点击打开链接) 二.安装 1.将其下载的安装包解压到相应的目录,在此小编的是/usr/local/hadoop/ tar  -zxcf apache-hive-1.2.1-bin.tar.gz -C /usr/local/hadoop 重命名操作(为了后续方便) mv  apache-hive-1.2.1-

hadoop的简介与伪分布的搭建

一:大数据hadoop简介 二:hadoop的伪分布安装 三:运行wordcount测试 四:hadoop 常用端口号 五:hadoop的四大模块包含 六:启动脚本: 一: 大数据hadoop简介 hadoop 简介: 开源软件,可靠的,可分布式,可伸缩的. 去IOE --------- IBM // ibm 小型机 Oracle // oracle 数据库服务器 EMC // 共享存储柜 cluster: ----------- 集群 1T = 1024G 1P = 1024T 1E = 10

(一)Hadoop1.2.1安装——单节点方式和单机伪分布方式

Hadoop1.2.1安装——单节点方式和单机伪分布方式 一.   需求部分 在Linux上安装Hadoop之前,需要先安装两个程序: 1)JDK 1.6(或更高版本).Hadoop是用Java编写的程序,Hadoop的编译及MapReduce的运行都需要使用JDK.因此在安装Hadoop前,必须安装JDK 1.6或更高版本. 2)SSH(安全外壳协议),推荐安装OpenSSH.Hadoop需要通过SSH来启动Slave列表中各台主机的守护进程,因此SSH也是必须 安装的,即使是安装伪分布式版本

Hive本地模式安装及遇到的问题和解决方案

Apache Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行. 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. Hive有三种运行模式: 1.内嵌模式:将元数据保存在本地内嵌的Derby数据库中,这得使用Hive最简单的方式,不过使用内嵌模式的话,缺点也比较明显,因为一个内嵌的D

windows下两个无线网卡 一个内网 一个外网

windows下cmd设置路由表 先删除以前的路由表 route delete 0.0.0.0 然后设置路由走向 route add -p 0.0.0.0 mask 0.0.0.0 10.0.0.1 metric 10 route add -p 192.168.5.0 mask 255.255.0.0192.168.5.21 metric 20 这样设置的意思是: 所有网络走 10.0.0.1 网关, metric 10 是设置优先级别 route add -p 0.0.0.0 mask 0.0

大数据学习:Hadoop中伪分布的搭建

<注:我们假设使用的是一个没有进行过任何配置的Linux系统,下面我们开始进行伪分布的搭建> 1.设置IP 地址 设置完成后,执行命令:service iptables restart 验证:         ifconfig 2. 关闭防火墙 执行命令        service iptables stop 验证:                 service iptables status 3.关闭防火墙的自动运行 执行命令        chkconfig iptables off

Hadoop 2.2.0的伪分布集群环境搭建

Hadoop伪分布环境搭建的“三步”总流程 第一 .Jdk安装和环境变量配置 1.先检测一下,jdk是否安装 java - version 2.查看下CentOS的位数 file /bin/ls 3.切换到usr/,创建java/目录 cd / ls cd usr/ mkdir java cd java/ ls 4.上传本地下载好的 ,显示上传命令没有安装 rz 5 .下载rz .sz命令 yum -y install lrzsz 6 .上传本地下载好的 jdk-7u79-linux-x64.t