执行hadoop fs -ls时出现错误RuntimeException: core-site.xml not found

由于暴力关机,Hadoop fs -ls 出现了下图问题:

问题出现的原因是下面红框框里面的东西,我当时以为从另一个节点下载一个conf.cloudera.yarn文件就能解决问题,发现不行啊,于是删掉。

从另一个节点scp过来这个文件。

解决办法:

scp -r /etc/hadoop/conf.cloudera.yarn [email protected]:/etc/hadoop/conf.cloudera.yarn

问题解决了。如下图:

时间: 2024-11-03 22:19:25

执行hadoop fs -ls时出现错误RuntimeException: core-site.xml not found的相关文章

解决hadoop中 bin/hadoop fs -ls ls: `.': No such file or directory问题

出现这样的问题确实很苦恼...使用的是2.7版本..一般论坛上的都是1.x的教程,搞死人 在现在的2.x版本上的使用bin/hadoop fs -ls  /就有用 应该使用绝对路径就不会有问题....mkdir也是一样的..具体原因不知,我使用相对路径会出现错误.... 解决hadoop中 bin/hadoop fs -ls ls: `.': No such file or directory问题

运行hadoop fs -ls 命令显示本地目录问题

问题原因:是因为在hadoop配置文件中没有指定HDFS的默认路径 解决办法:有两个办法 1.使用HDFS全路径访问 hadoop fs -ls hdfs://192.168.1.1:9000/ 2.修改配置文件 vim /opt/cloudera/parcels/CDH-5.4.1-1.cdh5.4.1.p0.6/etc/hadoop/conf.empty/core-site.xml <configuration> <property> <name>fs.defaul

如何找回执行页内操作时的错误机械硬盘的文件

执行页内操作时的错误说明这个盘的文件系统结构损坏了.在平时如果数据不重要,那么可以直接格式化就能用了.但是有的时候里面的数据很重要,那么就必须先恢复出数据再格式化.具体恢复方法可以看正文了解(不格式化的恢复方法) 工具/软件:AuroraDataRecovery 步骤1:先下载并解压软件运行后,直接双击需要恢复的分区,然后右击软件图标选择<以管理员身份运行> 步骤2:程序运行后,直接双击需要恢复数据的盘 步骤3:软件找出文件后,会放到与要恢复盘同名的目录中 步骤4:将需要恢复的资料勾选,然后点

执行Hadoop相关命令时出现 Unable to load native-hadoop library for your platform... 解决办法

在安装Hadoop伪分布环境后,执行相关命令(例如:bin/hdfs dfs -ls)会出现 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable,这是因为安装的navtive包和平台不匹配的缘故,需要重新编译Hadoop源码包,然后将navtive包进行替换

data audit on hadoop fs

最近项目中遇到了存储在HDFS上的数据格式不对,是由于数据中带有\r\n的字符,程序处理的时候没有考虑到这些情况.历史数据大概有一年的时间,需要把错误的数据或者重复的数据给删除了,保留正确的数据,项目中使用Pig来进行数据处理,所以我写了一个UDF的JAVA类去过滤那些错误的数据,把错误的数据和正确的数据分别存了一份,然后写了以下脚本统计数据的Schema和条数,记录下来,以后项目可以参考. #!/bin/sh curDir=`cd "$(dirname $0)";pwd` summa

hadoop fs 命令

1,hadoop fs –fs [local | <file system URI>]:声明hadoop使用的文件系统,如果不声明的话,使用当前配置文件配置的,按如下顺序查找:hadoop jar里的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-site.xml.使用local代表将本地文件系统作为hadoop的DFS.如果传递uri做参数,那么就是特定的文件系统

【转】Hadoop FS Shell命令

FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args> 的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式是scheme://authority/path .对 HDFS文件系统,scheme是hdfs ,对本地文件系统,scheme是file .其中scheme和 authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme.一个HDFS文件或目录比如/parent/child 可 以表示成hdfs:

Linux下执行Hadoop WordCount.jar

Linux执行 Hadoop WordCount ubuntu 终端进入快捷键 :ctrl + Alt +t hadoop启动命令:start-all.sh 正常执行效果如下: [email protected]:~$ start-all.sh Warning: $HADOOP_HOME is deprecated. starting namenode, logging to /home/hadoop/hadoop-1.1.2/libexec/../logs/hadoop-hadoop-name

Hadoop fs命令(转)

最近使用hive做一些etl工作,除了日常sql的编写,了解hadoop及hive的一些底层原理性质的东西包括调优非常有必要,一次hive调优就把原来的零散文件做了合并.首先记下hadoop常用的命令:(hadoop fs -help列出全部) 1,hadoop fs –fs [local | <file system URI>]:声明hadoop使用的文件系统,如果不声明的话,使用当前配置文件配置的,按如下顺序查找:hadoop jar里的hadoop-default.xml->$HA