mongodb3.6集群搭建:分片集群认证

上篇集群已经创建,现在加入认证。

1. 生成密钥文件
每个服务器上创建路径: 
mkdir -p /var/lib/mongo/auth

生成64字节的密钥文件
openssl rand -base64 64 > /var/lib/mongo/auth/keyfile.key

把密钥文件复制到集群中每一个结点上(路由结点,元配置结点,分片结点上都要有这个密钥文件)
scp /var/lib/mongo/auth/keyfile.key [email protected]:/var/lib/mongo/auth
scp /var/lib/mongo/auth/keyfile.key [email protected]:/var/lib/mongo/auth

把密钥文件的权限设置为600,owner为mongod(启动mongo实例的用户)
chown -R mongod:mongod /var/lib/mongo/auth
chmod 600 /var/lib/mongo/auth/keyfile.key
2. 创建集群用户
每个结点(每个分片结点,每个路由结点)上都要创建创建admin库的管理员用户
mongo 127.0.0.1:20000/admin

db.createUser(
        {
            user  : "admin",
            pwd   : "admin123456",
            roles : 
            [
                { role : "root", db : "admin" },
                { role : "clusterAdmin", db : "admin" }
            ]
        }
    )

创建业务库用户(这里是test),需要在每个结点(每个分片结点,每个路由结点)上都要创建用户
  use test
  db.createUser(
        {
            user  : "test",
            pwd   : "test123456",
            roles :
            [
                { role : "dbOwner", db : "test" }, 
                { role : "clusterAdmin", db : "admin" } 
            ]
        }
    )

3. 开启集群认证
在每个结点(路由结点,元配置结点,分片结点)的配置文件中加入keyFile的配置项; 
security:
  keyFile: /var/lib/mongo/auth/keyfile.key

在每个元配置结点和分片结点(即除了mongos结点)的配置文件中加入authorization配置项
security:
  authorization: enabled

关闭集群
按照路由结点、分片结点、配置结点顺序,依次关闭各结点服务:
systemctl stop mongod-mongos
systemctl stop mongod-shard3
systemctl stop mongod-shard2
systemctl stop mongod-shard1
systemctl stop mongod-configsvr

重新启动集群
systemctl start mongod-configsvr
systemctl start mongod-shard1
systemctl start mongod-shard2
systemctl start mongod-shard3
systemctl start mongod-mongos

4. 验证集群的认证
mongo 127.0.0.1:20000/admin  
    
use admin
db.auth(“admin”, ” admin123456”)

查看分片状态
db.printShardingStatus()

use test
db.auth(“test”,”test123456”)

查看该库中的该表的集群状态
db.users.stats()
若发现里面最开始的sharded字段是true,则表示添加认证功能后的集群没有出现异常

原文地址:https://www.cnblogs.com/liqing1009/p/8612021.html

时间: 2024-10-11 02:05:59

mongodb3.6集群搭建:分片集群认证的相关文章

MongoDB 搭建分片集群

在MongoDB(版本 3.2.9)中,分片是指将collection分散存储到不同的Server中,每个Server只存储collection的一部分,服务分片的所有服务器组成分片集群.分片集群(Sharded Clustered)的服务器分为三中类型:Router(mongos),Config Server 和 Shard(Replica Set 或 Standalone mongod).使用分片集群,不需要使用强大的计算机,就能存储更多的数据,处理更大的负载.分布式数据库系统的设计目的是:

mongo 3.4分片集群系列之四:搭建分片集群--哈希分片 + 安全 + 区域

这个系列大致想跟大家分享以下篇章(我会持续更新的(^ω^)): 1.mongo 3.4分片集群系列之一:浅谈分片集群 2.mongo 3.4分片集群系列之二:搭建分片集群--哈希分片 3.mongo 3.4分片集群系列之三:搭建分片集群--哈希分片 + 安全 4.mongo 3.4分片集群系列之四:搭建分片集群--哈希分片 + 安全 + 区域 5.mongo 3.4分片集群系列之五:详解平衡器 6.mongo 3.4分片集群系列之六:详解配置数据库 7.mongo 3.4分片集群系列之七:配置数

分布式缓存技术redis学习系列(四)——redis高级应用(集群搭建、集群分区原理、集群操作)

本文是redis学习系列的第四篇,前面我们学习了redis的数据结构和一些高级特性,点击下面链接可回看 <详细讲解redis数据结构(内存模型)以及常用命令> <redis高级应用(主从.事务与锁.持久化)> 本文我们继续学习redis的高级特性--集群.本文主要内容包括集群搭建.集群分区原理和集群操作的学习. Redis集群简介 Redis 集群是3.0之后才引入的,在3.0之前,使用哨兵(sentinel)机制(本文将不做介绍,大家可另行查阅)来监控各个节点之间的状态.Redi

redis高级应用(集群搭建、集群分区原理、集群操作)

文章主目录 Redis集群简介 Redis集群搭建 Redis集群分区原理 集群操作 参考文档 本文是redis学习系列的第四篇,前面我们学习了redis的数据结构和一些高级特性,点击下面链接可回看 <详细讲解redis数据结构(内存模型)以及常用命令> <redis高级应用(主从.事务与锁.持久化)> 本文我们继续学习redis的高级特性--集群.本文主要内容包括集群搭建.集群分区原理和集群操作的学习. 回到顶部 Redis集群简介 Redis 集群是3.0之后才引入的,在3.0

MongoDB集群搭建-副本集

MongoDB集群搭建-副本集 概念性的知识,可以参考本人博客地址: http://www.cnblogs.com/zlp520/p/8088169.html 一.Replica Set方案(副本集或复制集): 1.搭建副本集有两种办法: 其一:在一台服务器上,通过文件的方式及端口号的方式来区分: 其二:找最少三台服务器,每台服务器都通过如下的配置: ip规划每台服务器担任的工作: 192.168.0.100:27017 主机 192.168.0.101:27017 副本集 192.168.0.

mongodb3.6集群搭建:分片+副本集

mongodb是最常用的noSql数据库,在数据库排名中已经上升到了前五.这篇文章介绍如何搭建高可用的mongodb(分片+副本)集群. 在搭建集群之前,需要首先了解几个概念:路由,分片.副本集.配置服务器等.相关概念mongodb集群架构图: 从图中可以看到有四个组件:mongos.config server.shard.replica set.mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它

elk6.2集群搭建,cerebro集群管理

环境准备: 两台centos 7.3 x86_64 这里软件版本是2018 .3月的,如以后最新版本请去官网下载 规划: cm-elk-01: IP:192.168.10.63 安装: elasticsearch kibana:前端展示 cm-elk-02: IP:192.168.10.64 安装: elasticsearch cerebro:查看集群状态 搭建前准备: 1. 两台服务器需要修改最大文件数65536  vim /etc/security/limits.conf   最后添加   

Linux Redis集群搭建与集群客户端实现

我们要在单台机器上搭建Redis集群,方式是通过不同的TCP端口启动多个实例,然后组成集群. 1.启动Redis多个实例 我们在Redis安装目录下创建目录cluster,并编写7000.conf~7005.conf 6个配置文件,这6个配置文件用来启动6个实例,后面将使用这6个实例组成集群. 以7000.conf为例,配置文件需要填写如下几项. port 7000 //端口7000,7002,7003 bind 10.93.84.53 //默认ip为127.0.0.1 需要改为其他节点机器可访

Ceph 存储集群 - 搭建存储集群

一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192.168.0.131 mon.node1 ceph节点,监控节点 node2 192.168.0.132 osd.0 ceph节点,OSD节点 node3 192.168.0.133 o