hadoop单节点安装

java环境变量=====================================
export JAVA_HOME=/home/test/setupPackage/jdk1.7.0_67
export JRE_HOME=/home/test/setupPackage/jdk1.7.0_67/jre
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$JRE_HOME/lib
hadoop环境变量===============================================
export HADOOP_HOME=/home/test/setupPackage/hadoop-2.7.3
export ZOOKEEPER_HOME=/home/test/setupPackage/zookeeper-3.4.6
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin

dataDir=/home/test/setupPackage/zookeeper-3.4.6/zooData/zoodata
dataLogDir=/home/test/setupPackage/zookeeper-3.4.6/zooData/zoolog

/home/test/setupPackage/jdk1.7.0_67

hadoop-env.sh================================================
#export JAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/home/test/setupPackage/jdk1.7.0_67
yarn-env.sh==============================================
#在 JAVA=$JAVA_HOME/bin/java    之前加一行
export JAVA_HOME=/home/test/setupPackage/jdk1.7.0_67
core-site.xml=======================================================
<configuration>
<!-- 指定HDFS老大(namenode)的通信地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://singleNode:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储路径 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/test/setupPackage/hadoop-2.7.3/tmp</value>
</property>
</configuration>

hdfs-site.xml==========================================================
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/test/setupPackage/hadoop-2.7.3/hdfs/name</value>
<description>namenode上存储hdfs名字空间元数据 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/test/setupPackage/hadoop-2.7.3/hdfs/data</value>
<description>datanode上数据块的物理存储位置</description>
</property>
<!-- 设置hdfs副本数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>singleNode:50070</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
mapred-site.xml========================================================
<configuration>
<!-- 通知框架MR使用YARN -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml============================================================
<configuration>
<!-- reducer取数据的方式是mapreduce_shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>singleNode:8099</value>
</property>
</configuration>
SSH免密登录===============================================================
ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa    #生成id_dsa.pub,id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys    #把id_dsa.pub内容追加到authorized_keys
chmod 0600 ~/.ssh/authorized_keys #去除当前组与其他用户的读写执行权限

hdfs启动与停止==============================================================
注第一次启动需要格式化
cd /home/test/setupPackage/hadoop-2.7.3
./bin/hdfs namenode -format
启动NameNode 和 DataNode 守护进程===============================================
启动
./sbin/start-dfs.sh
停止命令
./sbin/stop-dfs.sh
启动ResourceManager 和 NodeManager 守护进程============================================
启动
sbin/start-yarn.sh
停止
sbin/stop-yarn.sh

jps验证是否有以下进程==================================================
? NameNode
? DataNode
? Jps
? Master
? NodeManager
? ResourceManager
? SecondaryNameNode
我的问题:缺少以下进程
DataNode
日志:
2019-08-18 03:29:18,810 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Invalid dfs.datanode.data.dir /home/test/setupPackage/h
adoop-2.7.3/hdfs/data :
EPERM: Operation not permitted
修改目录权限:
chown 当前启动hadoop用户 HADOOP_HOME/hdfs -R
chgrp 当前启动hadoop用户 HADOOP_HOME/hdfs -R
重启hadoop:
./sbin/start-dfs.sh
./sbin/start-yarn.sh
查看进程:
[[email protected] hadoop-2.7.3]$ jps
13746 ResourceManager
13297 NameNode
13938 Jps
13587 SecondaryNameNode
13424 DataNode
13842 NodeManager

URL验证=====================================
http://IP:50070
http://IP:8088

原文地址:https://www.cnblogs.com/eosclover/p/11373437.html

时间: 2024-12-07 16:18:47

hadoop单节点安装的相关文章

Hadoop单节点安装(转)

Hadoop单节点模式安装 官方教程:http://hadoop.apache.org/docs/r2.7.3/ 本文基于:Ubuntu 16.04.Hadoop-2.7.3 一.概述 本文参考官方文档介绍Hadoop单节点模式(本地模式及伪分布式模式)安装(Setting up a Single Node Cluster). 1.Hadoop安装的三种模式 (1)单机模式(standalone) 单机模式是Hadoop的默认模式.当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环

一、hadoop单节点安装测试

一.hadoop简介 相信你或多或少都听过hadoop这个名字,hadoop是一个开源的.分布式软件平台.它主要解决了分布式存储(hdfs)和分布式计算(mapReduce)两个大数据的痛点问题,在hadoop平台上你可以轻易地使用和扩展数千台的计算机而不用关心底层的实现问题.而现在的hadoop更是形成了一个生态体系,如图: 上图大体展示了hadoop的生态体系,但并不完整.总而言之,随着hadoop越来越成熟,也会有更多地成员加入hadoop生态体系中. hadoop官方网站:http://

【大数据系列】hadoop单节点安装官方文档翻译

Hadoop: Setting up a Single Node Cluster. HADOOP:建立单节点集群 Purpose Prerequisites Supported Platforms Required Software Installing Software Download Prepare to Start the Hadoop Cluster Standalone Operation Pseudo-Distributed Operation Configuration Setu

Hadoop 单节点 & 伪分布 安装手记

实验环境CentOS 6.XHadoop 2.6.0JDK       1.8.0_65 目的这篇文档的目的是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等. 先决条件支持平台    GNU/Linux是产品开发和运行的平台. Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证.    Win32平台是作为开发平台支持的.由于分布式操作尚未在Win

实战1 伪分布式Hadoop单节点实例 CDH4集群安装 Hadoop

Hadoop由两部分组成 分布式文件系统HDFS 分布式计算框架MapReduce 其中分布式文件系统(HDFS)主要用于大规模数据的分布式存储,而MapReduce则构建在分布式文件系统之上,对于存储在分布式文件系统中的数据进行分布式计算. 详细的介绍个节点的作用 NameNode: 1.整个Hadoop集群中只有一个NameNode.它是整个系统的中枢,它负责管理HDFS的目录树和相关文件 元数据信息.这些信息是以"fsimage (HDFS元数据镜像文件)和Editlog(HDFS文件改动

Hadoop介绍及最新稳定版Hadoop 2.4.1下载地址及单节点安装

 Hadoop介绍 Hadoop是一个能对大量数据进行分布式处理的软件框架.其基本的组成包括hdfs分布式文件系统和可以运行在hdfs文件系统上的MapReduce编程模型,以及基于hdfs和MapReduce而开发的一系列上层应用软件. hdfs是在一个网络中以流式数据访问模式来存储超大文件的跨越多台计算机的分布式文件系统.目前支持的超大文件的范围为从MB级至PB级. MapReduce是一种可用于数据处理的编程模型,基于MapReduce模型的程序本质上都是并行运行的.基于MapReduce

Flume 学习笔记之 Flume NG概述及单节点安装

Flume NG概述: Flume NG是一个分布式,高可用,可靠的系统,它能将不同的海量数据收集,移动并存储到一个数据存储系统中.轻量,配置简单,适用于各种日志收集,并支持 Failover和负载均衡.其中Agent包含Source,Channel和 Sink,三者组建了一个Agent.三者的职责如下所示: Source:用来消费(收集)数据源到Channel组件中 Channel:中转临时存储,保存所有Source组件信息 Sink:从Channel中读取,读取成功后会删除Channel中的

vertica单节点安装

准备环境: 1.centos 7.0镜像 2.vertica-9.1.1-1.x86_64.RHEL6.rpm 安装过程: 1.安装CentOS 7.0 注意:挂载的文件系统必须是ext4,不能是默认的xfs! 2.关闭防火墙 [[email protected] ~]# systemctl disable firewalld [[email protected] ~]# systemctl stop firewalld 3.设置selinux为disable [[email protected

如何将Rancher 2.1.x 从单节点安装迁移到高可用安装

Rancher提供了两种安装方法,即单节点安装和高可用安装.单节点安装可以让用户快速部署适用于短期开发或PoC的Rancher 2.x,而高可用部署则明显更适合Rancher的长期部署.  要点须知 针对开源用户,对于从单个节点迁移到HA的工作,Rancher Labs不提供官方技术支持. 以防在此过程中出现问题,您应该熟悉Rancher架构以及故障排除的方法. 前期准备 为了顺利将单个节点Rancher安装迁移到高可用性安装,您必须做如下准备: 您需要运行Rancher的2.1.x版本以及RK