实现hive proxy4-scratch目录权限问题解决

hive在hdfs中的job中间文件是根据当前登陆用户产生的,其默认值为/tmp/hive-${user.name},这就导致实现proxy的功能时会遇到临时文件的权限问题,比如在实现了proxy功能后,以超级用户hdfs proxy到普通用户user时,在hdfs中的临时文件在/tmp/hive-user目录中,而目录的属主是hdfs,这时再以普通用户user运行job时,对这个目录就会有权限问题,下面说下这里proxy的实现和解决权限问题的方法:
1.实现proxy功能
更改org.apache.hadoop.hive.ql.Context类的构造方法:

public Context(Configuration conf, String executionId)  {
  this.conf = conf;
  this.executionId = executionId;
  if(HiveConf.getBoolVar(conf,HiveConf.ConfVars.HIVE_USE_CUSTOM_PROXY)){
      String proxyUser = HiveConf.getVar(conf, HiveConf.ConfVars.HIVE_CUSTOM_PROXY_USER);
      LOG.warn("use custom proxy,gen Scratch path,proxy user is " + proxyUser);
      if(("").equals(proxyUser)||proxyUser == null||("hdfs").equals(proxyUser)){
          nonLocalScratchPath = new Path(HiveConf.getVar(conf, HiveConf.ConfVars.SCRATCHDIR),executionId);
          localScratchDir = new Path(HiveConf.getVar(conf, HiveConf.ConfVars.LOCALSCRATCHDIR),executionId).toUri().getPath();
      }else{
          localScratchDir = new Path((System.getProperty("java.io.tmpdir") + File.separator + proxyUser),executionId).toUri().getPath();
          nonLocalScratchPath = new Path(("/tmp/hive-" + proxyUser),executionId);
          }
  }else{
      nonLocalScratchPath = new Path(HiveConf.getVar(conf, HiveConf.ConfVars.SCRATCHDIR),executionId);
      localScratchDir = new Path(HiveConf.getVar(conf, HiveConf.ConfVars.LOCALSCRATCHDIR),executionId).toUri().getPath();
  }
  LOG.warn("in Context init function nonLocalScratchPath is " + nonLocalScratchPath);
  LOG.warn("in Context init function localScratchPath is " + localScratchDir);
  scratchDirPermission= HiveConf.getVar(conf, HiveConf.ConfVars.SCRATCHDIRPERMISSION);
}

2.权限问题的解决
在上面的代码中可以看到scratchDirPermission的设置,这个是指创建的目录的权限,默认是700,因为是中间文件,我们可以把权限设置的大一点,比如777,在设置了777之后,却发现目录的权限是755.
根据报错的堆栈可以看到方法在Context中调用的情况:

getExternalTmpPath--->getExternalScratchDir-->getScratchDir-->Utilities.createDirsWithPermission

(目录不存在时,根据HiveConf.ConfVars.SCRATCHDIRPERMISSION的设置创建hdfs tmp目录)
看下getScratchDir方法:

private final Map<String, Path> fsScratchDirs = new HashMap<String, Path>();
.....
  private Path getScratchDir(String scheme, String authority,
                               boolean mkdir, String scratchDir) { // 如果是explain语句mkdir为false
    String fileSystem =  scheme + ":" + authority;
    Path dir = fsScratchDirs.get(fileSystem + "-" + TaskRunner.getTaskRunnerID());
    if (dir == null) {
      Path dirPath = new Path(scheme, authority,
          scratchDir + "-" + TaskRunner.getTaskRunnerID());
      if (mkdir) {
        try {
          FileSystem fs = dirPath.getFileSystem( conf);
          dirPath = new Path(fs.makeQualified(dirPath).toString());
          FsPermission fsPermission = new FsPermission(Short.parseShort(scratchDirPermission.trim(), 8)); 
// 目录权限由HiveConf.ConfVars.SCRATCHDIRPERMISSION 设置
          if (!Utilities.createDirsWithPermission(conf , dirPath, fsPermission)) {
            throw new RuntimeException("Cannot make directory: "
                                       + dirPath.toString());
          }
          if (isHDFSCleanup ) {
            fs.deleteOnExit(dirPath);
          }
        } catch (IOException e) {
          throw new RuntimeException (e);
        }
      }
      dir = dirPath;
      fsScratchDirs.put(fileSystem + "-" + TaskRunner.getTaskRunnerID(), dir);
    }
    return dir;
  }

调用Utilities.createDirsWithPermission方法时,传入的目录的权限(由HiveConf.ConfVars.SCRATCHDIRPERMISSION 设置)默认是700
org.apache.hadoop.hive.ql.exec.Utilities类的createDirsWithPermission方法内容如下:

public static boolean createDirsWithPermission(Configuration conf, Path mkdir,
    FsPermission fsPermission) throws IOException {
  boolean recursive = false; 
  if (SessionState.get() != null) {
    recursive = SessionState.get().isHiveServerQuery() &&
        conf.getBoolean(HiveConf.ConfVars.HIVE_SERVER2_ENABLE_DOAS.varname,
            HiveConf.ConfVars.HIVE_SERVER2_ENABLE_DOAS.defaultBoolVal); 
            //如果是来自hiverserver的请求,并且开启了doas,recursive为true,权限设置为777,umask 000
    fsPermission = new FsPermission((short)00777);
  }
  // if we made it so far without exception we are good!
  return createDirsWithPermission(conf, mkdir, fsPermission, recursive); //默认recursive为false
}
.....
public static boolean createDirsWithPermission(Configuration conf, Path mkdirPath,
    FsPermission fsPermission, boolean recursive) throws IOException {
  String origUmask = null;
  LOG.warn("Create dirs " + mkdirPath + " with permission " + fsPermission + " recursive " +
      recursive);
     
  if (recursive) { //如果recursive为true,origUmask 为000,否则为null
    origUmask = conf.get("fs.permissions.umask-mode");
    // this umask is required because by default the hdfs mask is 022 resulting in
    // all parents getting the fsPermission & !(022) permission instead of fsPermission
    conf.set("fs.permissions.umask-mode", "000"); 
  }
  FileSystem fs = ShimLoader.getHadoopShims().getNonCachedFileSystem(mkdirPath.toUri(), conf);
  LOG.warn("fs.permissions.umask-mode is " + conf.get("fs.permissions.umask-mode"));  //默认为022
  boolean retval = false;
  try {
    retval = fs.mkdirs(mkdirPath, fsPermission);
    resetConfAndCloseFS(conf, recursive, origUmask, fs); 
    //这里因为recursive为false,导致不会重置fs.permissions.umask-mode的配置,
    即fs.permissions.umask-mode为022,因此导致即使设置了权限为777,创建的目录权限最终还是为755
  } catch (IOException ioe) {
    try {
      resetConfAndCloseFS(conf, recursive, origUmask, fs);
    }
    catch (IOException e) {
      // do nothing - double failure
    }
  }
  return retval;
}

hdfs中关于fs.permissions.umask-mode的配置,默认是002

public static final String  FS_PERMISSIONS_UMASK_KEY = "fs.permissions.umask-mode";
public static final int     FS_PERMISSIONS_UMASK_DEFAULT = 0022;

为了实现可以创建777权限的临时文件目录,更改createDirsWithPermission方法如下:

public static boolean createDirsWithPermission(Configuration conf, Path mkdir,
    FsPermission fsPermission) throws IOException {
  boolean recursive = false; 
  if (SessionState.get() != null) {
    recursive = (SessionState.get().isHiveServerQuery() &&
        conf.getBoolean(HiveConf.ConfVars.HIVE_SERVER2_ENABLE_DOAS.varname,
            HiveConf.ConfVars.HIVE_SERVER2_ENABLE_DOAS.defaultBoolVal))||(HiveConf.getBoolVar(conf,HiveConf.ConfVars.HIVE_USE_CUSTOM_PROXY)); 
    fsPermission = new FsPermission((short)00777);
  }
  // if we made it so far without exception we are good!
  return createDirsWithPermission(conf, mkdir, fsPermission, recursive); 
}

这样,就可以创建出777的hdfs目录了。

时间: 2024-10-08 22:06:12

实现hive proxy4-scratch目录权限问题解决的相关文章

实现hive proxy5-数据目录权限问题解决

hive创建目录时相关的几个hdfs中的类: org.apache.hadoop.hdfs.DistributedFileSystem,FileSystem 的具体实现类 org.apache.hadoop.hdfs.DFSClient,client操作hdfs文件系统的类 org.apache.hadoop.fs.permission.FsPermission 文件权限相关类,主要的方法有getUMask和applyUMask方法 org.apache.hadoop.hdfs.Distribu

实现hive proxy3-日志目录权限问题解决

使用proxy之后,目录名为proxy之后的用户名目录,但是生成的文件属主是当前登陆用户,导致不能正常写入,日志目录的创建在org.apache.hadoop.hive.ql.history.HiveHistoryImpl类中,更改后的构造方法(增加了proxy之后的代码): public HiveHistoryImpl(SessionState ss) {   try {     console = new LogHelper(LOG);     if(ss.getConf().getBool

umask值与Linux中文件和目录权限的关系

umask值与文件和目录的权限 1.1 -R参数设置目录权限(chmod) 1.2 权限字母说明 1.3umask说明 1.umask的值决定着文件和目录的权限,创建文件默认最大权限为666(-rw-rw-rw-),默认创建的文件没有可执行权限x位. 2.对于文件来说,umask的设置是在假定文件拥有八进制666的权限上进行的,文件的权限就是666减去umask(umask的各个位数字也不能大于6,如,077就不符合条件)的掩码数值:重点在接下来的内容,如果umask的部分位或全部位为奇数,那么

Mac系统home目录权限修改【转载】

转载自:http://ju.outofmemory.cn/entry/283070 最近,想把某程序安装到mac下的/home目录下面,发现没有权限,即便是使用sudo命令也无法创建程序目录,在网上查询了半天发现可以通过如下方法来提升mac下/home目录的权限. 编译/etc/auto_master文件,注释掉或者移除以/home开头的那一行,保存. sudo vim /etc/auto_master 注释掉 /home 哪一行,如下所示: # # Automounter master map

2.14 文件和目录权限chmod 2.15 更改所有者和所属组chown 2.16 umask 2.17 隐藏权限lsattr/chattr

2.14 文件和目录权限chmod 2.15 更改所有者和所属组chown 2.16 umask 2.17 隐藏权限lsattr/chattr 2.14 文件和目录权限chmod chmod 权限 r=4 w=2 x=1  rwx=7  rw=6 --x=1 rw-r--r--=644 rw-r-xr-x=655 chmod 这个.意味着这个文件受制于selinux 如果selinux 开启,创建的文件或者目录 第一列最后一位就会有个点 ,如果关闭selinux setenforce 0 暂时关

四. Linux文件与目录权限

文件与目录权限,umask, chgrp, chown, chmod 1. 文件与目录权限 (1) 查看/etc/passwd文件属性 [[email protected] ~]# ll -h --full-time /etc/passwd [[email protected] ~]#-rw-r--r--. 1 root root 2.3K 2016-11-09 21:07:03.303125300 +0800 /etc/passwd (2) 文件和目录权限的意义 文件权限 r(read) :

SVN之三:Visualsvn Server简易部署及目录权限

1.概述 Visualsvn Server是一个免费的Windows Apache Subversion服务器包.服务器包包含一个精简Apache HTTP服务器.Subversion服务器.和一个微软管理控制台配置界面,可以一键安装Subversion服务器在Windows平台之上.简单易用,同时也可以实现较为复杂目录权限管理. 官网有两个版本:https://www.visualsvn.com/server/,标准版free.企业版有45天评估期,是no free. 2.环境介绍 serve

文件/目录权限设置命令chmod的详细用法

chmod是文件/目录权限设置的命令,在Linux中经常遇到,本博文以下总结chmod的详细用法. Linux/Unix的档案调用权限分为三级,即档案拥有者user.群组group.其他other.u表示该档案的拥有者,g表示与该档案的拥有者属于同一个群体(group)者,o表示其他以外的人,a表示这三者皆是. + 表示增加权限.- 表示取消权限.= 表示唯一设定权限. r表示可读取,w表示可写入,x表示可执行. 举例说明: (1).将档案file1.txt 设为所有人皆可读取: chmod u

linux文件和目录权限的设置

linux文件和目录权限的设置 修改文件权限 如果想改变文件或目录的权限,可以使用chmod命令,改变文件或目录的权限有两种方法:助记法和八进制法. ·助记法: 语法: 使用u(user).g(group).o(other).a(all)表示要设置权限的位置,使用+表示添加.使用-表示减少权限.使用=表示设置为什么样的权限,使用rwx表示权限. 例如: [email protected] tmp]# touch test.txt [[email protected] tmp]# ll total