Permission denied: user=dr.who, access=READ_EXECUTE, inode="/tmp":student:supergroup:drwx------权限问题

在查看browse directory时,点击tmp,无法进入,报错:“Permission denied: user=dr.who, access=READ_EXECUTE, inode="/tmp":student:supergroup:drwx------”。

有tmp和user,但tmp的权限是drwx------,而user的权限是drwxr-xr-x

文件权限第一个d是目录的意思,后面的9位,每3位分别为用户权限、组权限和其他权限。每位又有r、w、x,即为读权限、写权限、执行权限。

有权限的为1,无权限的为0。

drwx------就是700,代表用户具有读、写、执行的权限,组没有权限、其他没有权限;drwxr-xr-x就是755,代表用户具有读写执行的权限,组具有读、执行的权限,其他具有读、执行的权限。

对于文件目录而言,必须要有执行权限才能进入,所以需要对权限进行设置。

chgrp:改变所属群组,语法:chgrp 群组名 文件或目录(需要修改的群组名必须在etc/group中存在)

chown:改变作者,语法:chown [-R] 用户名 文件或目录  或者chown [-R] 用户名:群组 文件或目录  ([-R]可以对目录下的所有子目录或文件进行作者修改,必须在/etc/passwd中存在,可以直接修改群组名)

chmod:改变权限属性,语法:chmod [-R] xxx 文件或目录   (xxx是指700、755之类的)

所以,只需要在hadoop目录下,运行  bin/hdfs dfs -chmod -R 755 /tmp ,将tmp的权限修改,则可以了。

原文地址:https://www.cnblogs.com/xl-201710/p/9757961.html

时间: 2024-10-29 09:06:13

Permission denied: user=dr.who, access=READ_EXECUTE, inode="/tmp":student:supergroup:drwx------权限问题的相关文章

kylin cube测试时,报错:org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x

异常: org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x at org.apache.hadoop.hdfs.server.namenode.DefaultAuthorizationProvider.checkFsPermission(DefaultAuthoriza

Hive JDBC:Permission denied: user=anonymous, access=EXECUTE, inode=”/tmp”

今天使用JDBC来操作Hive时,首先启动了hive远程服务模式:hiveserver2 &(表示后台运行),然后到eclipse中运行程序时出现错误: Permission denied: user=anonymous, access=EXECUTE, inode="/tmp" 解决办法:报错内容提示hive没有/tmp目录的权限,赋予权限即可: hdfs dfs -chmod 777 /tmp 原文地址:https://www.cnblogs.com/lijinze-tsi

异常-Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=hdfs, access=WRITE, inode="/hbase":root:supergroup:drwxr-xr-x

1 详细异常 Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=hdfs, access=WRITE, inode="/hbase":root:supergroup:drwxr-xr-x at org.apache.hadoop.hdfs.server.namenode.DefaultAu

Eclipse远程连接hadoop时 报 Permission denied:

用Eclipse远程连接hadoop时报org.apache.hadoop.security.AccessControlException: Permission denied: user=DrWho, access=READ_EXECUTE, inode="system":hadoop:supergroup:rwx-wx-wx错误,解决方法: 在hdfs-site.xml 中取消权限校验,即加入以下配置: <property>    <name>dfs.per

eclipse 向HDFS中写入文件报错 permission denied

环境:win7  eclipse    hadoop 1.1.2 当执行创建文件的的时候, 即: fileSystem.mkdirs(Path);//想hadoop上创建一个文件报错 报错: org.apache.hadoop.security.AccessControlException:Permission denied:user=Administrator,access=WRITE,inode="tmp":root:supergroup:rwxr-xr-x 原因: 1. 当前用户

Win下Eclipse提交Hadoop程序出错:org.apache.hadoop.security.AccessControlException: Permission denied: user=D

描述:在Windows下使用Eclipse进行Hadoop的程序编写,然后Run on hadoop 后,出现如下错误: 11/10/28 16:05:53 INFO mapred.JobClient: Running job: job_201110281103_000311/10/28 16:05:54 INFO mapred.JobClient: map 0% reduce 0%11/10/28 16:06:05 INFO mapred.JobClient: Task Id : attemp

HDFS客户端的权限错误:Permission denied

搭建了一个Hadoop的环境,Hadoop集群环境部署在几个Linux服务器上,现在想使用windows上的Java客户端来操作集群中的HDFS文件,但是在客户端运行时出现了如下的认证错误,被折磨了几天,问题终得以解决.以此文记录问题的解决过程. (如果想看最终解决问题的方法拉到最后,如果想看我的问题解决思路请从上向下看) 问题描述 上传文件的代码: private static void uploadToHdfs() throws FileNotFoundException,IOExcepti

Hadoop的distcp命令出现Permission denied错误

Hadoop的distcp命令可以实现将文件从一个hdfs文件系统中拷贝到另外一个文件系统中,如下所示: $ bin/hadoop distcp -overwrite hdfs://123.123.23.111:9000/hsd/t_url hdfs://123.123.23.156:9000/data/t_url 正常情况下应该出现如下运行结果: Java HotSpot(TM) 64-Bit Server VM warning: Insufficient space for shared m

Zookeeper启动Permission denied

Zookeeper 查询状态,出现如下问题: JMX enabled by default Using config: /usr/zookeeper/zookeeper-3.4.5/bin/../conf/zoo.cfg mkdir: cannot create directory `.': Permission denied Mode: leader 而且运行 zkServer.sh start 同样出现如下问题:? JMX enabled by default Using config: /