安装使用Hadoop遇到的一些问题

安装完后却不能运行Hadoop,仔细查看日志信息,Hadoop记录了详尽的日志信息,日志文件保存在logs文件夹内。

无论是启动,还是以后会经常用到的MapReduce中的每一个job,以及HDFS等相关信息,Hadoop均存有日志文件以供分析。

例如:

NameNode和DataNode的namespaceID不一致,日志信息为:

java.io.IOException:Incompatible namespaceIDs in/root/tmp/dfs/data:NameNode

namespaceID=1307672299; DataNode namespaceID=389959598

若HDFS一直没有启动,可以查询日志,并通过日志进行分析,以上提示信息显示了NameNode和DataNode的namespaceID不一致。

这个问题一般是由于两次或两次以上的格式化NameNode造成的。

有两种方法可以解决,第一种方法是删除DataNode的所有资料;第二种方法是修改每个DataNode的namespaceID(位于/dfs/data/current/VERSION文件中)或修改NameNode的namespaceID(位于/dfs/name/current/VERSION文件中),使其保持一致。

下面这两种方法在实际应用中也可能会用到。

1)重启坏掉的DataNode或JobTracker。当Hadoop集群的某单个节点出现问题时,一般不必重启整个系统,只须重启这个节点,它会自动连入整个集群。

在坏死的节点上输入如下命令即可:

bin/Hadoop-daemon.sh start DataNode

bin/Hadoop-daemon.sh start jobtracker

2)动态加入DataNode或TaskTracker。这个命令允许用户动态将某个节点加入集群中。

bin/Hadoop-daemon.sh --config./conf start DataNode

bin/Hadoop-daemon.sh --config./conf start tasktracker

原文地址:https://www.cnblogs.com/xiaohaigege666/p/9670926.html

时间: 2024-11-17 14:31:00

安装使用Hadoop遇到的一些问题的相关文章

安装单机Hadoop系统(完整版)——Mac

啊啊啊,一到了这种实践或者安装什么东西的时候就从——心理上到生理上排斥!!吴老师说的对,老师们已经对我们降低了很低要求,不能自己再次自甘堕弱啊!! 于是,在这个阴雨绵绵的下午,没有睡午觉的我带着一双惺忪的眼睛坐在了电脑前,赶走男友,泡上清茶,摸摸已是略显油光的额头(还真是越来越像女汉纸了呢,笑cry),,奋斗啊啊啊啊!!%>_<% 1.课程回顾. 1.1 Hadoop系统运行的软件系统:Linux操作系统(小红帽或Ubuntu).SSH(Secure Shell主要用于远程管理Hadoop节点

eclipse下安装配置hadoop(含WordCount程序测试)

这里我为大家介绍如何在windows下安装配置hadoop.,以及测试一个程序 所需要使用的插件和分别有: 一.准备工作 1.eclipse,最好是JAVAEE版本的,以为可以改变模式. 2.hadoop和eclipse的连接器: hadoop-eclipse-plugin-1.2.1.jar(这个是我所使用的,在这里可以自定义选取版本) 3.是hadoop源码包(下载最新的就可以). 将hadoop-0.20.2-eclipse-plugin.jar 复制到eclipse/plugins目录下

Mahout安装(Hadoop 1.2.1 版本)

1       安装环境 Hadoop1.2.1 分布式集群环境下安装(192.168.1.53-56) Mahout 0.9 2       安装介质 下载地址:http://archive.apache.org/dist/mahout/0.9/ 文件名(二进制):mahout-distribution-0.9.tar.gz 3       安装步骤 3.1     上传安装介质: #rz 上传目录为:/home/hadoop/ 3.2     解压到相关目录 #cd   /app/hadoo

windows/ Linux下 myeclipse和eclipse下安装配置hadoop插件

本人最近在windows上想写一个测试的程序MaxMapperTemper,然后身边没有服务器,所以想在win7上配置. 成功了.这里写下笔记希望对大家有帮助 安装和配置的步骤是: 我的是myeclipse 8.5 hadoop-1.2.2-eclipse-plugin.jar 1.安装Hadoop开发插件 hadoop安装包contrib/目录下有个插件hadoop-1.2.2-eclipse-plugin.jar,拷贝到myeclipse根目录下/dropins目录下. 2. 启动myecl

ubuntu环境下eclipse的安装以及hadoop插件的配置

ubuntu环境下eclipse的安装以及hadoop插件的配置 一.eclipse的安装 在ubuntu桌面模式下,点击任务栏中的ubuntu软件中心,在搜索栏搜索eclipse 注意:安装过程需要输入用户密码. 二.eclipse的配置 待eclipse安装好以后,在命令行输入whereis eclipse 找到eclipse的安装路径 在文件目录下找到eclipse中的插件目录 然后在打开一个文件目录窗口找到hadoop/contrib/eclipse-plugin中的eclipse插件—

集群安装配置Hadoop详细图解

集群安装配置Hadoop 集群节点:node4.node5.node6.node7.node8.具体架构: node4 Namenode,secondnamenode,jobtracker node5 Datanode,tasktracker node6 Datanode,tasktracker node7 Datanode,tasktracker node8 Datanode,tasktracker 操作系统为:CentOS release 5.5 (Final) 安装步骤 一.创建Hadoo

安装配置Hadoop

安装配置Hadoop 下载Hadoop包 解压Hadoop包 配置Hadoop的环境变量 配置Hadoop的配置文件core-site.xml和hdfs-site.xml core-site.xml文件 hdfs-site.xml 创建/Hadoop/tmp /Hadoop/dfs/name /Hadoop/dfs/data 格式化namenode 启动 jps查看启动的结点 原文地址:https://www.cnblogs.com/liuxining/p/9307760.html

win10安装java+hadoop+spark

目录 前言 Java安装 方法一 方法二 测试 hadoop安装 下载 配置环境变量 Scala安装 下载 配置环境变量 测试 Spark安装 方法一 方法二 两种方法的区别 说明: 前言 操作系统win10 安装时间2018年12月 java版本jdk1.8.0_191 hadoop版本hadoop-2.8.5 spark版本spark-2.3.1-bin-hadoop2.7 Java安装 方法一 下载 JDK 8 网址,如下图所示: 这时有两种JDK可以选择,如下两图,选其中一种即可:(疑问

Windows平台安装配置Hadoop

Windows平台安装配置Hadoop 步骤: 1. JDK安装2. 下载hadoop2.5.2.tar.gz,自行去百度下载. 3. 下载hadooponwindows-master.zip[**能支持在windows运行hadoop的工具]https://github.com/steveloughran/winutils 一. 安装hadoop2.5.2 下载hadoop2.5.2.tar.gz ,并解压到你想要的目录下,我放在D:\dev\hadoop-2.5.2  二.配置hadoop环

ubuntu 14 .04 LTS 安装配置 hadoop 1.0.4 写给hadoop入门者

各种纠结  期间ubuntu安装无数次 hadoop各种版本尝试无数次 都悲剧 然后看到这个www.linuxidc.com/Linux/2013-01/78391.htm  还是悲剧,稍加修改搞定之 一.安装JDK 1.下载并安装 sudo apt-get install openjdk-7-jdk 要求输入当前用户密码时输入密码,回车: 要求输入YES/NO时,输入YES,回车,一路向下安装完成: 2.在命令行输入JAVA -VERSION查看是否安装成功 3.配置环境变量 编辑文件/etc