运行hive提示Name node is in safe mode.错误

 1 Logging initialized using configuration in jar:file:/usr/local/hive/lib/hive-common-1.2.2.jar!/hive-log4j.properties
 2 Exception in thread "main" java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException): Cannot create directory /tmp/hive. Name node is in safe mode.
 3 Resources are low on NN. Please add or free up more resources then turn off safe mode manually. NOTE:  If you turn off safe mode before adding resources, the NN will immediately return to safe mode. Use "hdfs dfsadmin -safemode leave" to turn safe mode off.
 4     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkNameNodeSafeMode(FSNamesystem.java:1335)
 5     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3866)
 6     at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:984)
 7     at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:634)
 8     at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
 9     at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)
10     at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:982)
11     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2217)
12     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2213)
13     at java.security.AccessController.doPrivileged(Native Method)
14     at javax.security.auth.Subject.doAs(Subject.java:422)
15     at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1754)
16     at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2213)
17
18     at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)
19     at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:677)
20     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:621)
21     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
22     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
23     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
24     at java.lang.reflect.Method.invoke(Method.java:498)
25     at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
26     at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
27 Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException): Cannot create directory /tmp/hive. Name node is in safe mode.
28 Resources are low on NN. Please add or free up more resources then turn off safe mode manually. NOTE:  If you turn off safe mode before adding resources, the NN will immediately return to safe mode. Use "hdfs dfsadmin -safemode leave" to turn safe mode off.
29     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkNameNodeSafeMode(FSNamesystem.java:1335)
30     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3866)
31     at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:984)
32     at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:634)
33     at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
34     at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)
35     at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:982)
36     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2217)
37     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2213)
38     at java.security.AccessController.doPrivileged(Native Method)
39     at javax.security.auth.Subject.doAs(Subject.java:422)
40     at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1754)
41     at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2213)
42
43     at org.apache.hadoop.ipc.Client.call(Client.java:1476)
44     at org.apache.hadoop.ipc.Client.call(Client.java:1413)
45     at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:229)
46     at com.sun.proxy.$Proxy16.mkdirs(Unknown Source)
47     at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.mkdirs(ClientNamenodeProtocolTranslatorPB.java:563)
48     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
49     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
50     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
51     at java.lang.reflect.Method.invoke(Method.java:498)
52     at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:191)
53     at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
54     at com.sun.proxy.$Proxy17.mkdirs(Unknown Source)
55     at org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:3014)
56     at org.apache.hadoop.hdfs.DFSClient.mkdirs(DFSClient.java:2984)
57     at org.apache.hadoop.hdfs.DistributedFileSystem$21.doCall(DistributedFileSystem.java:1047)
58     at org.apache.hadoop.hdfs.DistributedFileSystem$21.doCall(DistributedFileSystem.java:1043)
59     at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
60     at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirsInternal(DistributedFileSystem.java:1061)
61     at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirs(DistributedFileSystem.java:1036)
62     at org.apache.hadoop.hive.ql.exec.Utilities.createDirsWithPermission(Utilities.java:3678)
63     at org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SessionState.java:597)
64     at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:554)
65     at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:508)
66     ... 8 more

1.问题所在:

内存不足

可以使用df -hl查看内存情况

2.解决方式:

(1)rm -rf 删除限制文件夹及内部内容

(2)使用

hdfs dfsadmin -safemode leave

  强制退出安全模式

原文地址:https://www.cnblogs.com/shareUndergo/p/9076410.html

时间: 2024-08-02 05:05:29

运行hive提示Name node is in safe mode.错误的相关文章

Name node is in safe mode.错误处理方式 hadoop

问题描述: 当用hadoop向hdfs上传文件时,报Name node is in safe  mode错误,上传失败 解决方式: [命令]hadoop  dfsadmin  -safemode  leave [注意]安全模式的几种参数含义 enter ---表示进入安全模式 leave ---表示离开安全模式 get ----表示查看当前是否在安全模式 wait ---表示等待一直到安全模式结束 安全模式简介: 分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情

Hive异常 -- Cannot create directory /tmp/hive. Name node is in safe mode.

环境信息 虚拟机:Centos 7 . Hive版本:1.2.1 异常信息 Cannot create directory /tmp/hive. Name node is in safe mode. 异常处理 正常根据提示,使用 hdfs dfsadmin -safemode leave 即可 但是我遇到了特殊情况,我使用命令hdfs dfsadmin -safemode leave,不生效,幸亏看到一篇文章说可能虚拟机磁盘满了,df -h 看了一眼,果然满了. 记得以前也遇到过类似的事.命令失

[hadoop]Cannot create directory /mdrill/tablelist/fact_seller_all_d. Name node is in safe mode.

在执行mdrill创建表的时候报如下异常(蓝色部分为关键): [[email protected] bin]$ ./bluewhale mdrill create ./create.sql higo execute [create, ./create.sql] Exception in thread "main" org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode.SafeModeE

Name node is in safe mode.

刚才启动hadoop,然后执行rm -r命令,出现这个问题,标记为红色的部分意思是namenode是安全节点, [[email protected] file]$ hadoop fs -rm -r  /input/* 17/04/01 09:41:03 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes. rm:

报错: Name node is in safe mode

将本地文件拷贝到hdfs上去,结果上错误:Name node is in safe mode 这是因为在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,直到安全模式结束.安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块.运行期通过命令也可以进入安全模式.在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可

由“Beeline连接HiveServer2后如何使用指定的队列(Yarn)运行Hive SQL语句”引发的一系列思考

背景 我们使用的HiveServer2的版本为0.13.1-cdh5.3.2,目前的任务使用Hive SQL构建,分为两种类型:手动任务(临时分析需求).调度任务(常规分析需求),两者均通过我们的Web系统进行提交.以前两种类型的任务都被提交至Yarn中一个名称为“hive”的队列,为了避免两种类型的任务之间相互受影响以及并行任务数过多导致“hive”队列资源紧张,我们在调度系统中构建了一个任务缓冲区队列,所有被提交的任务(手动任务.调度任务)并不会直接被提交至集群,而是提交至这个缓冲区队列中,

Eclipse运行程序提示:Exception in thread "main" java.lang.OutOfMemoryError: Java heap space

问题描述: Exception in thread "main" java.lang.OutOfMemoryError: Java heap space 问题原因: 程序中对象引用过多导致堆空间不足,导致内存溢出 解决方案: (增大Java虚拟机的内存空间) 打开Eclipse,选择"Run" - "Run Configurations" - "(x)=Arguments",VM arguments栏中填写 -Xmx800m

Eclipse运行时提示“Failed to load the JNI shared library /Java/jre6/bin/client/jvm.dll”的一个解决方案

出现这个问题的一个原因是eclipse需要的32位jdk,你的环境变量中配的是64位jdk 于是有人建议,重装个32位的jdk,把环境变量换成32位的jdk,但如果你的其它程序需要64位jdk的话,这肯定不是一个好办法 还有一种方法是在 eclipse根目录下有个eclipse.ini文件,添加个 -vm参数 -vm C:/Java32/jdk1.7.0_45/bin/javaw.exe      //这是我的32位jdk 注意位置 -startup plugins/org.eclipse.eq

Silverlight运行时提示未安装silverlight runtime 解决方法

出现该问题是由于电脑上安装的silverlight不是silverlight developer. 一般来说安装完VS之后是不会出现该问题. 但是一旦更改了silverlight中web service中TestPage的minRuntimeVersion版本,因为默认生成的版本号是silverlight sdk(根据创建项目时选择的是silverlight 4还是5来判断是哪个版本的SDK)的版本号.一旦修改的版本号比电脑安装的sdk版本高,则会在第一次运行时提示需要安装更新版本的silver