INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 2 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 3 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
、、、
所有的配置参数 检查了好几遍了 都没有问题。
/etc/hosts 也没有问题。
解决办法:
安装目录: /app/hadoop/
cd /app/hadoop/bin 下面执行
1.关闭所有的节点:
./stop-all.sh
2.namenode格
所有的配置参数 检查了好几遍了 都没有问题。
/etc/hosts 也没有问题。
解决办法:
(说明,如果没有设置环境变量的话,需要cd /app/hadoop/bin 下面执行(安装目录: /app/hadoop/))
1.关闭所有的节点:
./stop-all.sh
2.namenode格式化
hadoop namenode -format
注意: 判断是否re_format filesystem 的时候 Y/N 一定要大写的 Y!!!
3.开启所有的节点:
./start-all.sh
式化
hadoop namenode -format
注意: 判断是否re_format filesystem 的时候 Y/N 一定要大写的 Y!!!
3.开启所有的节点:
./start-all.sh
格式化之后基本上都是能够启动的 除非你的配置错了。