Hive异常 -- Cannot create directory /tmp/hive. Name node is in safe mode.

环境信息

虚拟机:Centos 7 、 Hive版本:1.2.1

异常信息

Cannot create directory /tmp/hive. Name node is in safe mode.

异常处理

正常根据提示,使用 hdfs dfsadmin -safemode leave 即可

但是我遇到了特殊情况,我使用命令hdfs dfsadmin -safemode leave,不生效,幸亏看到一篇文章说可能虚拟机磁盘满了,df -h 看了一眼,果然满了。
记得以前也遇到过类似的事。命令失效,也是磁盘占满了。

磁盘满了,要么清理磁盘,要么虚拟机磁盘扩容。我选择的是后者。

原文地址:https://www.cnblogs.com/junzifeng/p/11924784.html

时间: 2024-10-10 03:20:48

Hive异常 -- Cannot create directory /tmp/hive. Name node is in safe mode.的相关文章

运行hive提示Name node is in safe mode.错误

1 Logging initialized using configuration in jar:file:/usr/local/hive/lib/hive-common-1.2.2.jar!/hive-log4j.properties 2 Exception in thread "main" java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.n

hive 报错/tmp/hive on HDFS should be writable. Current permissions are: rwx--x--x

启动hive时报如下错误:/tmp/hive on HDFS should be writable. Current permissions are: rwx--x--x 这是/tmp/hive目录权限不够,需要提升权限 操作如下命令即可解决问题: hadoop fs -chmod -R 777 /tmp 版权声明:本文为博主原创文章,未经博主允许不得转载.

spark-local 模式 提示 /tmp/hive hdfs 权限不够的问题

spark版本为2.0 在spark 在 local 模式下启动,有时会报/tmp/hive hdfs 权限不够的问题,但是我们并没有将hdfs-site.xml配置文件放到我们的项目中,spark的文件应该会存在本地电脑上,但是为什么会报这个错误呢?这个问题非常诡异,有的同事会报此错误,有的则不会.都是同样的配置. 这是在2016/10/31 报的错误,之前在本地测试从来不会报这个错误,但是在这天早上2个同事反映起不来项目,我自己试了一下也起不来,同样的错误. 最终发现spark报的错误不准确

initramfs-tools ... update-initramfs: Generating /boot/initrd.img-3.14-kali1-amd64 mktemp: failed to create directory via template `/var/tmp/mki

Processing triggers for initramfs-tools ...update-initramfs: Generating /boot/initrd.img-3.14-kali1-amd64mktemp: failed to create directory via template `/var/tmp/mkinitramfs_XXXXXX': No such file or directoryupdate-initramfs: failed for /boot/initrd

Unable to use slave's temporary directory /tmp - Can't create/write to file '/tmp/SQL_LOAD-' (Errcode: 17)

这个错误时在Mysql主从配置产生的,最后找到这个Mysql的一个bug http://bugs.mysql.com/bug.php?id=62055 bug的主要原因是:打开文件的函数中指定打开模式时,如果O_CREAT和O_EXCL同时指定,那么当文件存在时会导致打开文件出错,这个使用方法本来也没有什么错误,但是当使用Mysql主从备份机制,在一台服务器上安装多个mysqld实例时,就会出问题,代码在Mysql源码中/sql/slave.cc文件中,Mysql5.1.68是在2904行 /*

windows下jdk、hadoop、Scala、Spark的调试环境配置(jdk路径的空格问题, /tmp/hive on HDFS should be writable问题)

1.首先是jdk的路径问题 为了和以后出现的hadoop,spark出现 路径带有空格导致 调用失败的情况, 直接把 jdk的路径 剪切到 没有空格的目录下. D:\>echo %JAVA_HOME% C:\Java\jdk1.8.0_202 到这里,在cmd下,能 看到 scala -version和 spark-shell . 2.spark出现The root scratch dir: /tmp/hive on HDFS should be writable %HADOOP_HOME%\b

大数据技术之_08_Hive学习_01_Hive入门+Hive安装、配置和使用+Hive数据类型

第1章 Hive入门1.1 什么是Hive1.2 Hive的优缺点1.2.1 优点1.2.2 缺点1.3 Hive架构原理1.4 Hive和数据库比较1.4.1 查询语言1.4.2 数据存储位置1.4.3 数据更新1.4.4 索引1.4.5 执行1.4.6 执行延迟1.4.7 可扩展性1.4.8 数据规模第2章 Hive安装.配置和使用2.1 Hive安装地址2.2 Hive安装部署2.3 将本地文件导入Hive案例2.4 MySql安装2.4.1 安装包准备2.4.2 安装MySql服务器2.

[hadoop]Cannot create directory /mdrill/tablelist/fact_seller_all_d. Name node is in safe mode.

在执行mdrill创建表的时候报如下异常(蓝色部分为关键): [[email protected] bin]$ ./bluewhale mdrill create ./create.sql higo execute [create, ./create.sql] Exception in thread "main" org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode.SafeModeE

MFC: Create Directory

Original link: How to check if Directory already Exists in MFC(VC++)? MSDN Links: CreateDirectory function GetFileAttributes function GetLastError function System Error Codes Example: VC++  MFC DLL project #include "stdafx.h" #include <window