基于ubuntu16.04伪分布式安装hadoop2.9.1以及hive2.3.1

一、安装ubuntu操作系统

参考:https://www.cnblogs.com/Alier/p/6337151.html

二、下载hadoop以及hive

hadoop:https://hadoop.apache.org/releases.html

hive:http://hive.apache.org/downloads.html

三、hadoop安装

1.准备工作

1 sudo useradd -m hadoop -s /bin/bash #创建hadoop用户
2 sudo passwd hadoop                   #为hadoop用户设置密码,之后需要连续输入两次密码
3 sudo adduser hadoop sudo             #为hadoop用户增加管理员权限
4 su - hadoop                          #切换当前用户为用户hadoop
5 sudo apt-get update 

2.安装ssh并设置免密登陆

1 sudo apt-get install openssh-server   #安装SSH server
2 ssh localhost                         #登陆SSH,第一次登陆输入yes
3 exit                                  #退出登录的ssh localhost
4 cd ~/.ssh/                            #如果没法进入该目录,执行一次ssh localhost
5 ssh-keygen -t rsa  
6 cat ./id_rsa.pub >> ./authorized_keys #加入授权
7 ssh localhost                      #此时不需输入密码
hadoop@ge-hadoop:~$ ssh localhost
Welcome to Ubuntu 16.04.2 LTS (GNU/Linux 4.8.0-36-generic x86_64)

 * Documentation:  https://help.ubuntu.com
 * Management:     https://landscape.canonical.com
 * Support:        https://ubuntu.com/advantage

312 个可升级软件包。
14 个安全更新。

Last login: Mon Mar 11 21:37:12 2019 from 127.0.0.1
hadoop@ge-hadoop:~$ 

如上面显示。

3.安装配置java环境

由于撰写本文时作者已经配置完成,故无法展示

附参考链接:https://www.linuxidc.com/Linux/2015-01/112030.htm

重点为配置java环境,如下:

sudo gedit ~/.bashrc     #在此文件中配置加入

export JAVA_HOME=/usr/java/jdk1.8.0_201#为你java安装路径

sudo gedit /ect/profile  #在此文件配置中加入

export JAVA_HOME=/usr/java/jdk1.8.0_201
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

JAVA_HOME为你安装java路径

配置完两个文件需要输入,配置立即生效

1 source ~/.bashrc 2 source /etc/profile

在终端输入

hadoop@ge-hadoop:~$ java -version
java version "1.8.0_201"
Java(TM) SE Runtime Environment (build 1.8.0_201-b09)
Java HotSpot(TM) 64-Bit Server VM (build 25.201-b09, mixed mode)

表明安装配置成功。

4.hadoop安装与配置

将hadoop安装包配置解压到/usr/local目录下:

tar -zxvf hadoop-2.9.1.tar.gz -C /usr/localcd /usr/localsudo mv hadoop-2.9.1 hadoopsudo chown hadoop ./hadoop #修改文件所属用户

添加hadoop环境变量

sudo gedit /etc/profile #添加以下行

export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

source /etc/prifile 立即生效

查看hadoop版本号

hadoop@ge-hadoop:~$ hadoop version
Hadoop 2.9.1
Subversion https://github.com/apache/hadoop.git -r e30710aea4e6e55e69372929106cf119af06fd0e
Compiled by root on 2018-04-16T09:33Z
Compiled with protoc 2.5.0
From source with checksum 7d6d2b655115c6cc336d662cc2b919bd
This command was run using /usr/local/hadoop/share/hadoop/common/hadoop-common-2.9.1.jar

显示安装成功

5.配置伪分布式

主要修改hadoop配置文件

cd /usr/local/hadoop/etc/hadoop #配置文件目录
sudo vim hadoop-env.sh #在该文件下添加
export JAVA_HOME=/usr/java/jdk1.8.0_201

sudo vim hdfs-site.xml

修改该文件为

<configuration>
        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
        <property>
                <name>dfs.secondary.http.address</name>
                <value>127.0.0.1:50090</value>
        </property>
</configuration>  

接下来修改core-site.xml

<configuration>
        <property>
             <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>

最后执行NAMEnode初始化

./bin/hdfs namenode -format #此段代码执行多次容易报错

1 ./sbin/start-dfs.sh #启动服务

2 jps #查看服务状态

hadoop@ge-hadoop:/usr/local/hadoop$ jps
5632 ResourceManager
5457 SecondaryNameNode
6066 Jps
5238 DataNode
5113 NameNode
5756 NodeManager
hadoop@ge-hadoop:/usr/local/hadoop$ 

成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。

四、hive安装与配置

1.准备工作

安装mysql

下载mysql-connector-java:https://dev.mysql.com/downloads/connector/j/  #最好下载与mysql配套的,不然连接时候容易报错

2.配置mysql

mysql -u root -p; #咦root权限登陆mysql
create database hive;
use hive;
create table user(Host char(20),User char(10),Password char(20));
insert into user(Host,User,Password) values("localhost","hive","hive"); #建立hive用户密码为hive
FLUSH PRIVILEGES;
GRANT ALL PRIVILEGES ON *.*  TO ‘hive‘@‘localhost‘ IDENTIFIED BY ‘hive‘;
FLUSH PRIVILEGES;

3.hive安装配置

tar –zxvf  apache-hive-2.3.4-bin.tar.gz /usr/local/
sudo mv apache-hive-2.3.4-bin.tar.gz hive

sudo vim /etc/profile
保存后记得要source /etc/profile 使其更改生效

export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin

修改hive/conf下的几个模板

cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml

更改hive-env.sh文件,指定hadoop的安装路

HADOOP_HOME=/usr/local/hadoop

更改hive-site.xml文件,指定数据库的相关信息

<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
  <description>username to use against metastore database</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
  <description>password to use against metastore database</description>
</property>

此处建议在配置文件中找到对应行修改value值,不然容易报错

修改hive/bin下的hive-config.sh文件

export JAVA_HOME=/usr/java/jdk1.8.0_201
export HADOOP_HOME=/usr/local/hadoop
export HIVE_HOME=/usr/local/hive

解压mysql-connector-java-5.1.47.tar.gz

tar -zxvf mysql-connector-java-5.1.47.tar.gz /usr/local

将文件中mysql-connector-java-5.1.47.jar 包copy到hive/lib目录下

初始化hive数据库

schematool -dbType mysql -initSchema

打开hive

hadoop@ge-hadoop:/usr/local/hive$ bin/hive

Logging initialized using configuration in jar:file:/usr/local/hive/lib/hive-common-2.3.4.jar!/hive-log4j2.properties Async: true
Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.
hive> 

完成,当然安装郭恒中会出行很多很多报错的地方,又问题欢迎留言

原文地址:https://www.cnblogs.com/gsytech/p/10519575.html

时间: 2024-11-08 20:39:00

基于ubuntu16.04伪分布式安装hadoop2.9.1以及hive2.3.1的相关文章

Zookeeper 初体验之——伪分布式安装(转)

原文地址: http://blog.csdn.net/salonzhou/article/details/47401069 简介 Apache Zookeeper 是由 Apache Hadoop 的 Zookeeper 子项目发展而来,现在已经成为了 Apache 的顶级项目.Zookeeper 为分布式系统提供了高效可靠且易于使用的协同服务,它可以为分布式应用提供相当多的服务,诸如统一命名服务,配置管理,状态同步和组服务等.Zookeeper 接口简单,开发人员不必过多地纠结在分布式系统编程

(转)Zookeeper 初体验之——伪分布式安装

Zookeeper 初体验之——伪分布式安装 简介 Apache Zookeeper 是由 Apache Hadoop 的 Zookeeper 子项目发展而来,现在已经成为了 Apache 的顶级项目.Zookeeper 为分布式系统提供了高效可靠且易于使用的协同服务,它可以为分布式应用提供相当多的服务,诸如统一命名服务,配置管理,状态同步和组服务等.Zookeeper 接口简单,开发人员不必过多地纠结在分布式系统编程难于处理的同步和一致性问题上,你可以使用 Zookeeper 提供的现成(of

Ubuntu16.04下编译安装vim8

在Ubuntu16.04下编译安装vim8,并配置vim-plug插件管理器,以及安装YouCompleteMe等插件. 安装依赖 sudo apt-get install libncurses5-dev libgnome2-dev libgnomeui-dev libgtk2.0-dev libatk1.0-dev libbonoboui2-dev libcairo2-dev libx11-dev libxpm-dev libxt-dev python-dev python3-dev ruby

Hbase伪分布式安装

前面的文章已经讲过hadoop伪分布式安装,这里直接介绍hbase伪分布式安装. 1. 下载hbase 版本hbase 1.2.6 2. 解压hbase 3. 修改hbase-env.sh 新增如下内容 export JAVA_HOME=/home/cauchy/software/jdk export HADOOP_HOME=/home/cauchy/software/hadoop export HBASE_HOME=/home/cauchy/software/hbase export HBAS

HBase基础和伪分布式安装配置

一.HBase(NoSQL)的数据模型 1.1 表(table),是存储管理数据的. 1.2 行键(row key),类似于MySQL中的主键,行键是HBase表天然自带的,创建表时不需要指定 1.3 列族(column family),列的集合. 一张表中有多个行健,一个行健读取出来的是一条记录,列族和MySQL中的列差不多,但是它是列的集合 HBase中列族是需要在定义表时指定的,列是在插入记录时动态增加的. HBase表中的数据存储在本地磁盘上的时候,每个列族单独一个作为文件存储. 上图表

Hadoop伪分布式安装

本文介绍的主要是Hadoop的伪分布式的搭建以及遇到的相关问题的解决,做一下记录,jdk的安装这里就不做太多的介绍了,相信大家根据网上的安装介绍很快就能安装成功. 环境 操作系统 Oracle VM VirtualBox-rhel-6.4_64   本机名称 yanduanduan   本机IP 192.168.1.102   JDK 1.7.0_79   hadoop 2.7.3 点此下载 Hadoop 有两个主要版本,Hadoop 1.x.y 和 Hadoop 2.x.y 系列,比较老的教材

Hadoop学习笔记_4_实施Hadoop集群 --伪分布式安装

实施Hadoop集群 --伪分布式安装 准备与配置安装环境 安装虚拟机和linux,虚拟机推荐使用vmware,PC可以使用workstation,服务器可以使用ESXi,在管理上比较方便.ESXi还可以通过拷贝镜像文件复制虚拟机,复制后自动修改网卡号和ip,非常快捷.如果只是实验用途,硬盘大约预留20-30G空间. 以Centos为例,分区可以选择默认[如果想要手动分区,请参考博客:http://blog.csdn.net/zjf280441589/article/details/175485

Hadoop日记Day3---Hadoop的伪分布式安装

导录 比较仔细的读者可能发现,注意本章的图片又不太对劲的地方,那就是linux中的主机名有的是hadoop,有的是localhost,是由于使用的不同的电脑编辑的本文章,有的电脑上并没有修改主机名,一直使用默认的localhost主机名,不影响大家的学习,只是主机名不一样,其他的都一样,大家注意一下就可以了,自己是什么主机名,就把他看成自己的主机名就可以了,文章中的localhost和hadoop只是不同的主机名,他们的目录结构都是一样的.还有就是一下的软件下载地址:http://pan.bai

hadoop伪分布式安装【翻译自hadoop1.1.2官方文档】

1.hadoop支持的平台: GNU/Linux平台是一个开发和生产的平台. hadoop已经被证明可以在GNU/Linux平台不是2000多个节点. win32是一个开发平台,分布式操作还没有在win32系统上很好的测试, 所以它不被作为生产环境. 2.安装hdoop需要的软件: linux和windows下安装hadoop需要的软件: 2.1从sun官网下载的1.6的jdk必须被安装. 2.2ssh 必须被安装 and ssh协议必须使用hadoop脚本用来管理远程的hadoop进程. 2.