Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.

在搭建Hadoop集群的时候,遇到了这样的一个报错。

就在启动HDFS调用命令:

start-dfs.sh

的时候,报错:

然后输密码就一直很奇怪,反正一直运行不成功。

百度了半天,确定是core-site.xml的问题。

这段代码决定了什么namenode 的rpcaddress:

<property>
    <name>fs.defaultFS</name>
    <value> hdfs://hdp-node-01:9000 </value>
</property>

可是我左看右看都看不出哪里错,这个hostname也在hosts里面配置了啊:

hosts:

192.168.112.128 hdp-node-01

最后,可能是这个hadoop解析配置文件的问题,这个配置好像是不允许有空格???(excuse me?)

就我一开始为了查看方便,在<value> 值 </value>值中加了空格,然后后面去掉空格,问题解决…………………………

原文地址:https://www.cnblogs.com/wangshen31/p/9859067.html

时间: 2024-08-03 10:42:43

Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.的相关文章

Hadoop启动时报错:Incorrect configuration: namenode address dfs.namenode.servicerpc-address or...

Hadoop之前都是好好的,今天早上启动突然报错: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured. 在网上一顿乱找,各种方法一阵乱试,都没有解决问题.这时,突然想到,问题可能是昨天正确启动到今天启动错误之间做的某些更改造成的,而最可能的原因可能就是昨天安装Mahout时修改了环境变量.于是我就把.prof

hadoop源码解读namenode高可靠:HA;web方式查看namenode下信息;dfs/data决定datanode存储位置

点击browserFilesystem,和命令查看结果一样 当我们查看hadoop源码时,我们看到hdfs下的hdfs-default.xml文件信息 我们查找${hadoop.tmp.dir}这是引用变量,肯定在其他文件有定义,在core-default.xml中查看到,这两个配置文件有个共同点: 就是不要修改此文件,但可以复制信息到core-site.xml和hdfs-site.xml中修改 usr/local/hadoop 是我存放hadoop文件夹的地方 几个关于namenode的重要文

Linux 启动 Apache 时报错:(98)Address already in use: make_sock: could not bind to address [::]:80

1. 启动 Apache 时报错: [[email protected] sh]# service httpd start Starting httpd: httpd: Could not reliably determine the server's fully qualified domain name, using localhost.localdomain for ServerName (98)Address already in use: make_sock: could not bi

apache启动报错(98)Address already in use: make_sock: could not bind to address [::]:80

# /usr/local/apache2/bin/apachectl start Starting httpd: (98)Address already in use: make_sock: could not bind to address [::]:80(98)Address already in use: make_sock: could not bind to address 0.0.0.0:80no listening sockets available, shutting downU

(98)Address already in use: make_sock: could not bind to address 80 [resolved] (2012-10-11 09:04)

以前遇到一个问题: sudo /etc/init.d/apache2 start * Starting web server apache2 apache2: Could not reliably determine the server's fully qualified domain name, using 127.0.0.1 for ServerName (98)Address already in use: make_sock: could not bind to address 0.0

hadoop运行问题:INFO Configuration.deprecation: session.id is deprecated. Instead, use dfs.metrics.session-id

最近在学习相关问题是,运行"./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+' "命令,出现了以下错误: 18/10/07 11:41:32 INFO Configuration.deprecation: session.id is deprecated. Instead, use dfs.metrics.session-

hadoop源代码解读namenode高可靠:HA;web方式查看namenode下信息;dfs/data决定datanode存储位置

点击browserFilesystem.和命令查看结果一样 当我们查看hadoop源代码时,我们看到hdfs下的hdfs-default.xml文件信息 我们查找${hadoop.tmp.dir}这是引用变量,肯定在其它文件有定义.在core-default.xml中查看到,这两个配置文件有个共同点: 就是不要改动此文件,但能够复制信息到core-site.xml和hdfs-site.xml中改动 usr/local/hadoop 是我存放hadoop目录的地方 几个关于namenode的关键文

Address already in use: make_sock: could not bind to address 0.0.0.0:80

显示:80端口的某些进程还是存在的, 可以用 ps -ef | grep httpd 查看进程,然后Kill -9 进程号  杀死进程, 如果没有可能是端口冲突 可以用netstat -nat|grep -i "80"|wc -l  查看有多少个80端口 然后查看netstat -nat|grep -i "80" 终端输入: find / -name ports.conf /etc/apache2/ports.conf 输入: vim '/etc/apache2/p

(98)Address already in use: make_sock: could not bind to address 0.0.0.0:80

问题说明80端口被占用,用netstat -nlp |grep :80命令看看有什么进程占用了80端口,发现是httpd进程. 没想到安装了两个apache,我安装apache2.4的时候删除了2.2的apache啊, 可能是安装php memcache扩展的时候莫名其妙的安装了上了. 总之要卸载它 rpm -qa|grep -i httpd rpm -e --nodeps httpd-2.2.15-59.el6.centos.x86_64 rpm -e --nodeps httpd-tools