使用Java API操作zookeeper的acl权限

默认匿名权限

ZooKeeper提供了如下几种验证模式(scheme):

  • digest:Client端由用户名和密码验证,譬如user:password,digest的密码生成方式是Sha1摘要的base64形式
  • auth:不使用任何id,代表任何已确认用户。
  • ip:Client端由IP地址验证,譬如172.2.0.0/24
  • world:固定用户为anyone,为所有Client端开放权限
  • super:在这种scheme情况下,对应的id拥有超级权限,可以做任何事情(cdrwa)

注意的是,exists操作和getAcl操作并不受ACL许可控制,因此任何客户端可以查询节点的状态和节点的ACL。

节点的权限(perms)主要有以下几种:

  • Create 允许对子节点Create操作
  • Read 允许对本节点GetChildren和GetData操作
  • Write 允许对本节点SetData操作
  • Delete 允许对子节点Delete操作
  • Admin 允许对本节点setAcl操作

Znode ACL权限用一个int型的十进制数字perms表示,perms的5个二进制位分别表示setacl、delete、create、write、read。比如0x1f=adcwr,0x1=----r,0x15=a-c-r。

以下示例在创建节点的时候,赋予该节点的权限为默认匿名权限,权限位为adcwr,换成十进制数字表示就是3
1,十六进制则是0x1f。代码如下:

package org.zero01.zk.demo;

import org.apache.zookeeper.*;
import org.apache.zookeeper.data.ACL;
import org.apache.zookeeper.data.Stat;

import java.util.List;

/**
 * @program: zookeeper-connection
 * @description: zookeeper 操作节点acl权限演示
 * @author: 01
 * @create: 2018-04-27 09:20
 **/
public class ZKNodeAcl implements Watcher {

    // 集群模式则是多个ip
    private static final String zkServerIps = "192.168.190.128:2181,192.168.190.129:2181,192.168.190.130:2181";
    // 超时时间
    private static final Integer timeout = 5000;
    private static ZooKeeper zooKeeper;
    private static Stat stat;

    // Watch事件通知方法
    public void process(WatchedEvent watchedEvent) {
    }

    public static void main(String[] args) throws Exception {
        zooKeeper = new ZooKeeper(zkServerIps, timeout, new ZKNodeAcl());

        // 这样创建的节点是默认匿名权限的:ZooDefs.Ids.OPEN_ACL_UNSAFE
        String result = zooKeeper.create("/testAclNode", "test data".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);

        Thread.sleep(1000);

        // 获取该节点的acl权限信息
        List<ACL> aclList = zooKeeper.getACL("/testAclNode", stat);
        for (ACL acl : aclList) {
            System.out.println("权限scheme id:" + acl.getId());
            // 获取的是十进制的int型数字
            System.out.println("权限位:" + acl.getPerms());
        }
        // 避免与服务端的连接马上断开
        Thread.sleep(1000);
    }
}

控制台输出内容如下:

权限scheme id:‘world,‘anyone

权限位:31

ZooDefs.Ids可以直接使用的权限如下:

ZooDefs.Ids.OPEN_ACL_UNSAFE   // 默认匿名权限,权限scheme id:‘world,‘anyone,权限位:31(adcwr)
ZooDefs.Ids.READ_ACL_UNSAFE  // 只读权限,权限scheme id:‘world,‘anyone,权限位:1(r)

自定义用户权限

本节介绍如何自定义用户权限,这里使用digest进行演示,因为平时工作中digest是用得最多的。我们都知道digest是使用密文进行设置的,所以我们需要自定义一个工具类来加密明文密码得到密文密码。代码如下:

package org.zero01.zk.util;

import org.apache.zookeeper.server.auth.DigestAuthenticationProvider;

public class AclUtils {

    public static String getDigestUserPwd(String id) throws Exception {
        // 加密明文密码
        return DigestAuthenticationProvider.generateDigest(id);
    }
}

然后修改 ZKNodeAcl 类的代码如下:

package org.zero01.zk.demo;

import org.apache.zookeeper.*;
import org.apache.zookeeper.data.ACL;
import org.apache.zookeeper.data.Id;
import org.apache.zookeeper.data.Stat;
import org.zero01.zk.util.AclUtils;

import java.util.ArrayList;
import java.util.List;

/**
 * @program: zookeeper-connection
 * @description: zookeeper 操作节点acl权限演示
 * @author: 01
 * @create: 2018-04-27 09:20
 **/
public class ZKNodeAcl implements Watcher {

    // 集群模式则是多个ip
    private static final String zkServerIps = "192.168.190.128:2181,192.168.190.129:2181,192.168.190.130:2181";
    // 超时时间
    private static final Integer timeout = 5000;
    private static ZooKeeper zooKeeper;
    private static Stat stat;

    public void process(WatchedEvent watchedEvent) {
    }

    public static void main(String[] args) throws Exception {
        zooKeeper = new ZooKeeper(zkServerIps, timeout, new ZKNodeAcl());

        // 自定义用户认证访问
        List<ACL> acls = new ArrayList<ACL>();  // 权限列表
        // 第一个参数是权限scheme,第二个参数是加密后的用户名和密码
        Id user1 = new Id("digest", AclUtils.getDigestUserPwd("user1:123456a"));
        Id user2 = new Id("digest", AclUtils.getDigestUserPwd("user2:123456b"));
        acls.add(new ACL(ZooDefs.Perms.ALL, user1));  // 给予所有权限
        acls.add(new ACL(ZooDefs.Perms.READ, user2));  // 只给予读权限
        acls.add(new ACL(ZooDefs.Perms.DELETE | ZooDefs.Perms.CREATE, user2));  // 多个权限的给予方式,使用 | 位运算符

        // 使用自定义的权限列表去创建节点
        String result = zooKeeper.create("/testDigestNode", "test data".getBytes(), acls, CreateMode.PERSISTENT);
        if (result != null) {
            System.out.println("创建节点:\t" + result + "\t成功...");
        }

        Thread.sleep(1000);

        // 获取该节点的acl权限信息
        List<ACL> aclList = zooKeeper.getACL("/testDigestNode", stat);
        for (ACL acl : aclList) {
            System.out.println("\n-----------------------\n");
            System.out.println("权限scheme id:" + acl.getId());
            System.out.println("权限位:" + acl.getPerms());
        }
        Thread.sleep(1000);
    }
}

控制台输出信息如下:

创建节点:   /testDigestNode 成功...

-----------------------

权限scheme id:‘digest,‘user1:TQYTqd46qVVbWpOd02tLO5qb+JM=

权限位:31

-----------------------

权限scheme id:‘digest,‘user2:CV4ED0rE6SxA3h/DN/WyScDMbCs=

权限位:1

-----------------------

权限scheme id:‘digest,‘user2:CV4ED0rE6SxA3h/DN/WyScDMbCs=

权限位:12

我们可以到服务器上查看该节点的ACL信息是否一致:

[zk: localhost:2181(CONNECTED) 15] getAcl /testDigestNode
‘digest,‘user1:TQYTqd46qVVbWpOd02tLO5qb+JM=
: cdrwa
‘digest,‘user2:CV4ED0rE6SxA3h/DN/WyScDMbCs=
: r
‘digest,‘user2:CV4ED0rE6SxA3h/DN/WyScDMbCs=
: cd
[zk: localhost:2181(CONNECTED) 16] 

如果我们需要操作一个设置了digest权限的节点,那么就需要登录用于相应权限的用户才行。在代码上也是如此,我们需要先通过addAuthInfo添加用户信息(账户:明文密码)才能够操作其拥有权限的节点。以下示例演示如何使用addAuthInfo添加用户信息并操作相应的节点,修改main方法的代码如下:

...
public class ZKNodeAcl implements Watcher {
    ...
    public static void main(String[] args) throws Exception {
        zooKeeper = new ZooKeeper(zkServerIps, timeout, new ZKNodeAcl());

        // 注册过的用户必须通过addAuthInfo才能操作节点,参考命令行 addauth
        zooKeeper.addAuthInfo("digest", "user1:123456a".getBytes());
        String result = zooKeeper.create("/testDigestNode/testOneNode", "test data".getBytes(), ZooDefs.Ids.CREATOR_ALL_ACL, CreateMode.PERSISTENT);
        if (result != null) {
            System.out.println("创建子节点:\t" + result + "\t成功...");
        }
        // 获取节点数据
        byte[] data = zooKeeper.getData("/testDigestNode/testOneNode", false, stat);
        System.out.println(new String(data));
        // 设置节点数据
        zooKeeper.setData("/testDigestNode/testOneNode", "new test data".getBytes(), 0);
        Thread.sleep(1000);
    }
}

控制台输出信息如下:

创建子节点:  /testDigestNode/testOneNode 成功...
test data

ip权限

以上我们简单演示了默认匿名权限以及自定义的digest权限,下面简单演示下自定义ip权限的设置方式。修改 ZKNodeAcl 类中的main方法代码如下:

...
public class ZKNodeAcl implements Watcher {
    ...
    public static void main(String[] args) throws Exception {
        zooKeeper = new ZooKeeper(zkServerIps, timeout, new ZKNodeAcl());

        // ip方式的acl
        List<ACL> aclsIP = new ArrayList<ACL>();  // 权限列表
        // 第一个参数是权限scheme,第二个参数是ip地址
        Id ipId1 = new Id("ip", "192.168.190.1");
        aclsIP.add(new ACL(ZooDefs.Perms.ALL, ipId1));  // 给予所有权限

        // 使用自定义的权限列表去创建节点
        String result = zooKeeper.create("/testIpNode", "this is test ip node data".getBytes(), aclsIP, CreateMode.PERSISTENT);
        if (result != null) {
            System.out.println("创建节点:\t" + result + "\t成功...");
        }

        Thread.sleep(1000);

        // 获取该节点的acl权限信息
        List<ACL> aclList = zooKeeper.getACL(result, stat);
        for (ACL acl : aclList) {
            System.out.println("\n-----------------------\n");
            System.out.println("权限scheme id:" + acl.getId());
            System.out.println("权限位:" + acl.getPerms());
        }
        Thread.sleep(1000);

        // 获取节点数据,验证ip是否有权限
        byte[] data = zooKeeper.getData("/testIpNode", false, stat);
        System.out.println("\n-----------------------\n");
        System.out.println(result + " 节点当前的数据为:" + new String(data));
    }
}

控制台输出信息如下:

创建节点:   /testIpNode 成功...

-----------------------

权限scheme id:‘ip,‘192.168.190.1

权限位:31

-----------------------

/testIpNode 节点当前的数据为:this is test ip node data

原文地址:http://blog.51cto.com/zero01/2108483

时间: 2024-08-13 07:39:04

使用Java API操作zookeeper的acl权限的相关文章

Java API操作ZooKeeper

创建会话 1 package org.zln.zk; 2 3 import org.apache.zookeeper.WatchedEvent; 4 import org.apache.zookeeper.Watcher; 5 import org.apache.zookeeper.ZooKeeper; 6 7 import java.io.IOException; 8 9 /** 10 * Created by sherry on 16/8/27. 11 */ 12 public class

Java API操作HDFS

HDFS是存储数据的分布式文件系统,对HDFS的操作,就是对文件系统的操作,除了用HDFS的shell命令对文件系统进行操作,我们也可以利用Java API对文件系统进行操作,比如文件的创建.删除.修改权限等等,还有文件夹的创建.删除.重命名等等. 使用Java API对文件系统进行操作主要涉及以下几个类: 1.Configuration类:该类的对象封装了客户端或者服务端的配置. 2.FileSystem类:该类的对象是一个文件系统对象,可以利用该对象的一些方法来对文件进行操作,FileSys

HDFS基础和java api操作

1. 概括 适合一次写入多次查询情况,不支持并发写情况 通过hadoop shell 上传的文件存放在DataNode的block中,通过linux shell只能看见block,看不见文件(HDFS将客户端的大文件存放在很多节点的数据块中,Block本质上是一个逻辑概念,它是hdfs读写数据的基本单位) HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间 2. fs 可以使用hdfs shell操作hdfs,常用 fs命令如下: eg: hadoop fs -cat fi

Java代码操作zookeeper

以下为一个完整JAVA操作Zookeeper项目步骤: 1. 项目中pom.xml中添加需要的依赖jar包信息 <dependencies> <dependency> <groupId>org.apache.zookeeper</groupId> <artifactId>zookeeper</artifactId> <version>3.4.9</version> </dependency> <

Hadoop读书笔记(三)Java API操作HDFS

Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 Hadoop读书笔记(二)HDFS的shell操作:http://blog.csdn.net/caicongyang/article/details/41253927 JAVA URL 操作HDFS OperateByURL.java package hdfs; import java.io.InputStream; import jav

使用java api操作Hadoop文件 Robbin

1 package cn.hadoop.fs; 2 3 import java.io.IOException; 4 import java.io.InputStream; 5 import java.net.URI; 6 import java.net.URISyntaxException; 7 8 import org.apache.hadoop.conf.Configuration; 9 import org.apache.hadoop.fs.FSDataOutputStream; 10 i

hive-通过Java API操作

通过Java API操作hive,算是测试hive第三种对外接口 测试hive 服务启动 1 package org.admln.hive; 2 3 import java.sql.SQLException; 4 import java.sql.Connection; 5 import java.sql.ResultSet; 6 import java.sql.Statement; 7 import java.sql.DriverManager; 8 9 public class testHiv

大数据技术之_20_Elasticsearch学习_01_概述 + 快速入门 + Java API 操作 + 创建、删除索引 + 新建、搜索、更新删除文档 + 条件查询 + 映射操作

一 概述1.1 什么是搜索?1.2 如果用数据库做搜索会怎么样?1.3 什么是全文检索和 Lucene?1.4 什么是 Elasticsearch?1.5 Elasticsearch 的适用场景1.6 Elasticsearch 的特点1.7 Elasticsearch 的核心概念1.7.1 近实时1.7.2 Cluster(集群)1.7.3 Node(节点)1.7.4 Index(索引 --> 数据库)1.7.5 Type(类型 --> 表)1.7.6 Document(文档 -->

HBase 6、用Phoenix Java api操作HBase

开发环境准备:eclipse3.5.jdk1.7.window8.hadoop2.2.0.hbase0.98.0.2.phoenix4.3.0 1.从集群拷贝以下文件:core-site.xml.hbase-site.xml.hdfs-site.xml文件放到工程src下 2.把phoenix的phoenix-4.3.0-client.jar和phoenix-core-4.3.0.jar添加到工程classpath 3.配置集群中各节点的hosts文件,把客户端的hostname:IP添加进去