MongoDB整理笔记のReplica Sets

MongoDB支持在多个机器中通过异步复制达到故障转移和实现冗余。多机器中同一时刻只有一台机器是用于写操作,正因为如此,MongoDB提供了数据一致性的保障。而担当primary角色的机器,可以把读的操作分发给slave。

MongoDB高可用分两种:

  Master-Slave 主从复制

只需要在某一个服务启动时加上–master 参数,而另一个服务加上–slave 与–source 参数,即可实现同步。MongoDB 的最新版本已不再推荐此方案。

Replica Sets 复制集

MonoDB在1.6版本上开发了新功能Replica Sets,这比之前的replication功能要强大一些,增加了故障自动切换和自动修复成员节点,各个DB之间数据完全一致,大大降低了维护成本。auto shard 已经明确说明不支持replication paris,建议使用replica set。

Replica Sets的结构非常类似一个集群。是的,你完全可以把它当作一个集群,因为它实现的功能和集群是一样的,其中一个节点如果出现故障,其它节点马上会将业务接过来,而无需停机操作。

节点的类型:

standard:常规节点,它存储一份完整的数据副本,参与选举投票,有可能成为primary节点。

passive:存储了完整的数据副本,参与投票,不能成为primary节点。

arbiter:仲裁节点,只参与投票,不接收复制的数据,也不能成为primary节点。

一个repica sets节点数量最好为奇数(odd)。

 配置实例(三节点)

    两个standard节点(这两个节点直接可以互切primary secondary)。

    一个arbiter节点,它手中握着一张选票,决定上面两个standard节点中的哪一个可以成为primay。

图例:

配置步骤:

1、启动三个节点

启动第一个standard节点(ip:192.168.0.11)

/mongodb/bin/mongod --dbpath=/mongodb/mongodb_date --logpath=/mongodb/mongodb_log/mongod.log --port 27017 --replSet test/192.168.0.12:27017 --maxConns=2000  --logappend

启动第二个standard节点 (ip:192.168.0.12)

/mongodb/bin/mongod --dbpath=/mongodb/mongodb_date --logpath=/mongodb/mongodb_log/mongod.log --port 27017 --replSet test/192.168.0.11:27017 --maxConns=2000  --logappend

启动arbiter节点,也就是仲裁节点 (ip:192.168.0.13)。注意!--replSet test/后面写的是两个standard节点的ip和端口

/mongodb/bin/mongod --dbpath=/mongodb/mongodb_date --logpath=/mongodb/mongodb_log/mongod.log --port 27017 --replSet test/192.168.0.11:27017,192.168.0.12:27017  --logappend

参数说明:

--dbpath   数据文件路径

--logpath  日志文件路径

--port        端口号,默认是27017.我这里使用的也是这个端口号.

--replSet   复制集的名字,一个replica sets中的每个节点的这个参数都要用一个复制集名字,这里是test.

--replSet test/  这个后面跟的是其他standard节点的ip和端口

--maxConns   最大连接数

--fork       后台运行

--logappend   日志文件循环使用,如果日志文件已满,那么新日志覆盖最久日志。

2、很关键的一步,配置完上面,下面开始初始化各个节点。在第二个启动的节点上,运行mongo

 db.runCommand({"replSetInitiate" : {
    "_id" : "test",
    "members" : [
    {
    "_id" : 0,
    "host" : "192.168.0.11:27017"
    },
    {
    "_id" : 1,
    "host" : "192.168.0.12:27017"
    }
    ]}})

  3、加入arbiter节点

PRIMARY> rs.addArb("192.16.0.13:27017");

注意!!!

添加新节点前,一定要配置好防火墙,开放对应的IP及PORT.

添加普通数据节点:

PRIMARY> rs.add("ip:port")

删除节点

PRIMARY> rs.remove("ip:port")

显示当前谁是primary

PRIMARY> rs.isMaster()

将一个普通数据节点修改为passive节点

除了仲裁节点,其他每个节点都有个优先权,我们可以通过设置优先权来决定谁的成为primay的权重最大。MongoDB replica sets中通过设置priority的值来决定优先权的大小,这个值的范围是0--100,值越大,优先权越高。如果值是0,那么不能成为primay。

1、通过rs.conf()命令查看出节点列表

 PRIMARY> rs.conf()
    {
    "_id" : "test",
    "version" : 22,
    "members" : [
    {
    "_id" : 3,
    "host" : "192.168.22.36:27017"
    },
    {
    "_id" : 5,
    "host" : "192.168.22.10:27017"
    },
    {
    "_id" : 6,
    "host" : "192.168.22.12:27017",
    "priority" : 0,
    "arbiterOnly" : true
    },
    {
    "_id" : 7,
    "host" : "192.168.22.115:27017"
    }
    ]
    }

2、将上面红色的192.168.22.10节点的priority值修改成0,让它只接收数据,不参与成为primary的竞争。

命令格式如下:

 cfg = rs.conf()
 cfg.members[0].priority = 0.5
 cfg.members[1].priority = 2
 cfg.members[2].priority = 2
 rs.reconfig(cfg)

红色中括号中的数字是执行rs.conf()得出的节点顺序,第一个节点在这里写0,第二个节点写1,依次类推。

执行命令

 cfg = rs.conf()
 cfg.members[1].priority = 0
 rs.reconfig(cfg)

3.查看结果,192.168.22.10的优先权变为0.

 PRIMARY> rs.conf()
    {
    "_id" : "test",
    "version" : 22,
    "members" : [
    {
    "_id" : 3,
    "host" : "192.168.22.36:27017"
    },
    {
    "_id" : 5,
    "host" : "192.168.22.10:27017"
    "priority" : 0
    },
    {
    "_id" : 6,
    "host" : "192.168.22.12:27017",
    "priority" : 0,
    "arbiterOnly" : true
    },
    {
    "_id" : 7,
    "host" : "192.168.22.115:27017"
    }
    ]
    }

时间: 2024-11-03 22:23:30

MongoDB整理笔记のReplica Sets的相关文章

MongoDB整理笔记のReplica Sets + Sharding

MongoDB Auto-Sharding 解决了海量存储和动态扩容的问题,但离实际生产环境所需的高可靠.高可用还有些距离,所以有了"Replica Sets + Sharding"的解决方案. shard: 使用Replica Sets,确保每个数据节点都具有备份,自动容错转移,自动回复能力. config: 使用3个配置服务器,确保元数据的完整性. route: 使用3个路由进程,实现负载均衡,提高客户端接入性能. 配置Replica Sets + Sharding 架构图: 配置

MongoDB整理笔记のReplica oplog

主从操作日志oplog MongoDB的Replica Set架构是通过一个日志来存储写操作的,这个日志就叫做"oplog".oplog.rs是一个固定长度的capped collection,它存在于"local"数据库中,用于记录Replica Sets操作日志.在默认情况下,对于64位的MongoDB,oplog是比较大的,可以达到5%的磁盘空间.oplog的大小是可以通过mongod的参数“--oplogSize”来设置. rs1:PRIMARY> u

【Mongodb】 Sharding Replica Sets 分片集群生产环境安装与介绍!

系统环境:Centos 6.5 官网手册:http://docs.mongodb.org/manual/ 参阅资料:<Mongodb权威指南><Mongodb实战><深入学习Mongodb> 由上方的官方拓扑可以看出,Sharding集群成员由Shard.ConfigServer.Router组成 Shard:可以是一个实例,官方推荐生产环境使用副本集Replica Set Config Server:为三台主机,当有1台或者2台Server当机,对于用户而言,集群还是

MongoDB整理笔记の增加节点

MongoDB Replica Sets 不仅提供高可用性的解决方案,它也同时提供负载均衡的解决方案,增减Replica Sets 节点在实际应用中非常普遍,例如当应用的读压力暴增时,3 台节点的环境已不能满足需求,那么就需要增加一些节点将压力平均分配一下.   两种方式:一是通过oplog增加节点,二是通过数据库快照和oplog来增加节点 通过oplog增加节点   1.配置并启动新节点,启用28013这个端口给新的节点 [email protected] ~]# mkdir -p /data

mongodb复制集(Replica sets)+分片(Sharding)环境搭建

1.创建数据目录--server a:# mkdir -p /data/shard1_1# mkdir -p /data/shard2_1# mkdir -p /data/config --server b:# mkdir -p /data/shard1_2# mkdir -p /data/shard2_2# mkdir -p /data/config --server c:# mkdir -p /data/shard1_3# mkdir -p /data/shard2_3# mkdir -p

MongoDB整理笔记の管理Replica Sets

一.读写分离 从库能进行查询,这样可以分担主库的大量的查询请求.   1.先向主库中插入一条测试数据 [[email protected] bin]# ./mongo --port 28010 MongoDB shell version: 1.8.1 connecting to: 127.0.0.1:28010/test rs1:PRIMARY> db.c1.insert({age:30}) db.c2rs1:PRIMARY> db.c1.find() { "_id" :

MongoDB整理笔记のMapReduce

MongDB的MapReduce相当于MySQL中的“group by”,所以在MongoDB上使用Map/Reduce进行并行“统计”很容易. 使用MapReduce要实现两个函数Map函数和Reduce函数,Map函数调用emit(key,value),遍历collection中的所有记录,将key和value传递给Reduce函数进行处理.Map函数和Reduce函数可以使用JS来实现,可以通过db.runCommand或mapReduce命令来执行一个MapReduce操作. 示例she

MongoDB整理笔记のCapped Collection

1.简单介绍 capped collections 是性能出色的有着固定大小的集合,以LRU(Least Recently Used 最近最少使用)规则和插入顺序进行age-out(老化移出)处理,自动维护集合中对象的插入顺序,在创建时要预先指定大小.如果空间用完,新添加的对象将会取代集合中最旧的对象. 2.功能特点 可以插入及更新,但更新不能超出collection 的大小,否则更新失败.不允许删除,但是可以调用drop() 删除集合中的所有行,但是drop 后需要显式地重建集合.在32 位机

MongoDB整理笔记のSharding分片

这是一种将海量的数据水平扩展的数据库集群系统,数据分表存储在sharding 的各个节点上,使用者通过简单的配置就可以很方便地构建一个分布式MongoDB 集群.MongoDB 的数据分块称为 chunk.每个 chunk 都是 Collection 中一段连续的数据记录,通常最大尺寸是 200MB,超出则生成新的数据块.要构建一个 MongoDB Sharding Cluster,需要三种角色:    Shard Server    即存储实际数据的分片,每个Shard 可以是一个mongod