MongoDB高可用部署

规划部署情况如下:

1、准备基础环境

在网上下载mongodb-linux-x86_64-rhel62-3.4.2.gz放到各个服务器上,解压后放在对应的目录下,然后在根目录下新建data文件夹统一用于存放数据和配置信息。

2、搭建配置集群243-244-245

在mongo的根目录下新建start脚本,内容如下

bin/./mongod --dbpath data/ --logpath data/mongo.log  --configsvr --fork --port 20243 --replSet config

其中 configsvr表示配置服务,fork表示后台启动,replSet表示集群,config表示集群名字

同样在其他配置服务上也建立对应的start启动文件,记得修改端口哦。

启动-3台都启动

./start

随便进入一台机器,进入mongo,运行如下命令

>config = { _id:"config", configsvr:true, members:[ {_id:0,host:‘172.16.13.243:20243‘}, {_id:1,host:‘172.16.13.244:20244‘}, {_id:2,host:‘172.16.13.245:20245‘} ] }
{
"_id" : "config",
"configsvr" : true,
"members" : [
{
"_id" : 0,
"host" : "172.16.13.243:20243"
},
{
"_id" : 1,
"host" : "172.16.13.244:20244"
},
{
"_id" : 2,
"host" : "172.16.13.245:20245"
}
]
}
> rs.initiate(config)
{ "ok" : 1 }

查看集群状态

config:PRIMARY> rs.status();
{
"set" : "config",
"date" : ISODate("2017-04-12T09:29:51.889Z"),
"myState" : 1,
"term" : NumberLong(1),
"configsvr" : true,
"heartbeatIntervalMillis" : NumberLong(2000),
"optimes" : {
"lastCommittedOpTime" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"readConcernMajorityOpTime" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"appliedOpTime" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"durableOpTime" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
}
},
"members" : [
{
"_id" : 0,
"name" : "172.16.13.243:20243",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"uptime" : 621,
"optime" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"optimeDate" : ISODate("2017-04-12T09:29:42Z"),
"infoMessage" : "could not find member to sync from",
"electionTime" : Timestamp(1491989360, 1),
"electionDate" : ISODate("2017-04-12T09:29:20Z"),
"configVersion" : 1,
"self" : true
},
{
"_id" : 1,
"name" : "172.16.13.244:20244",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 42,
"optime" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"optimeDurable" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"optimeDate" : ISODate("2017-04-12T09:29:42Z"),
"optimeDurableDate" : ISODate("2017-04-12T09:29:42Z"),
"lastHeartbeat" : ISODate("2017-04-12T09:29:50.238Z"),
"lastHeartbeatRecv" : ISODate("2017-04-12T09:29:51.467Z"),
"pingMs" : NumberLong(0),
"syncingTo" : "172.16.13.243:20243",
"configVersion" : 1
},
{
"_id" : 2,
"name" : "172.16.13.245:20245",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 42,
"optime" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"optimeDurable" : {
"ts" : Timestamp(1491989382, 1),
"t" : NumberLong(1)
},
"optimeDate" : ISODate("2017-04-12T09:29:42Z"),
"optimeDurableDate" : ISODate("2017-04-12T09:29:42Z"),
"lastHeartbeat" : ISODate("2017-04-12T09:29:50.237Z"),
"lastHeartbeatRecv" : ISODate("2017-04-12T09:29:51.537Z"),
"pingMs" : NumberLong(0),
"syncingTo" : "172.16.13.243:20243",
"configVersion" : 1
}
],
"ok" : 1
}

3、搭建分片集群246-247

在246机器的mongo的根目录下新建start脚本,内容如下

[[email protected] mongodb-32246]# cat start 
bin/./mongod --dbpath data/ --logpath data/mongo.log --fork --port 32246 --replSet 246  --shardsvr

replSet代表集群,shardsvr代表分片,246代表集群的名字,在246的其他mongo目录下也建立对应的start脚本,记得修改端口,启动脚本。

运行如下命令

config = {
... _id:‘246‘,
... members:[
... {_id:0,host:‘172.16.13.246:30246‘},
... {_id:1,host:‘172.16.13.246:31246‘},
... {_id:2,host:‘172.16.13.246:32246‘}
... ]
... }
{
"_id" : "246",
"members" : [
{
"_id" : 0,
"host" : "172.16.13.246:30246"
},
{
"_id" : 1,
"host" : "172.16.13.246:31246"
},
{
"_id" : 2,
"host" : "172.16.13.246:32246"
}
]
}
>    rs.initiate(config)
{ "ok" : 1 }

查看集群状态

这里不在列出,同样的操作在247上执行一次,记得修改集群名字

4、搭建mongos

在241的mongos根目录下建立start脚本

[[email protected] mongodb-3.4.2]# cat start 
bin/./mongos --logpath data/mongo.log --fork  --configdb config/172.16.13.243:20243,172.16.13.244:20244,172.16.13.245:20245

进入mongos的命令界面,

添加分片

mongos> sh.addShard("246/172.16.13.246:30246,172.16.13.246:31246,172.16.13.246:32246")
{ "shardAdded" : "246", "ok" : 1 }
mongos> sh.addShard("247/172.16.13.247:30247,172.16.13.247:31247,172.16.13.247:32247")
{ "shardAdded" : "247", "ok" : 1 }

在242上也运行上述命令。

设置test.aj表根据_id字段按照hash方式分配数据

mongos> sh.enableSharding("test")
{ "ok" : 1 }
mongos> sh.shardCollection("test.aj", { _id: ‘hashed‘})
{ "collectionsharded" : "test.aj", "ok" : 1 }

5、插入数据

for (var id = 1; id <= 10000; id++) db.aj.save({
  "_class" : "java.util.HashMap",
  "CAh" : "123",
  "CCbrXm" : "wangchy",
  "valid" : 0,
  "fydm" : "2400",
  "CAjmc" : "ptest",
  "CCbr" : "ptest",
  "WCreateTime" : ISODate("2015-10-13T18:29:06.649Z")
});

6、验证结果

246主节点验证数据量

246:PRIMARY> db.aj.count();
5082

246子节点验证数据量

246:SECONDARY> use test
switched to db test
246:SECONDARY> db.getMongo().setSlaveOk();
246:SECONDARY> db.aj.count();
5082

247重复上述操作

247:PRIMARY> db.aj.count();
4918
247:SECONDARY> use test;
switched to db test
247:SECONDARY> db.getMongo().setSlaveOk();
247:SECONDARY> db.aj.count();
4918
时间: 2024-10-10 07:44:53

MongoDB高可用部署的相关文章

MongoDB 高可用集群副本集+分片搭建

MongoDB 高可用集群搭建 一.架构概况 192.168.150.129192.168.150.130192.168.150.131 参考文档:https://www.cnblogs.com/vadim/p/7100683.html mongos mongos    mongos Config   server      Config server  Config serverShared1 server 1 Shared1 server 1 副本 Shared1 server 1 仲裁/隐

开源jms服务ActiveMQ的负载均衡+高可用部署方案探索

一个文件(或目录)拥有若干个属性,包括(r/w/x)等基本属性,以及是否为目录(d)与文件(-)或连接文件(l)等属性.此外,Linux还可以设置其他系统安全属性,使用chattr来设置,以lsattr来查看,最重要的是可以设置其不可修改的特性,即便是文件的拥有者都不能进行修改.这个属性相当重要,尤其是在安全机制方面(security). 文件默认权限:umask 当建立一个新的文件或目录时,它的默认属性是与umask有关的.通常,umask就是指定当前用户在建立文件或目录时的属性默认值.那么,

MongoDB 高可用集群架构简介

在大数据的时代,传统的关系型数据库要能更高的服务必须要解决高并发读写.海量数据高效存储.高可扩展性和高可用性这些难题.不过就是因为这些问题Nosql诞生了. 转载自严澜的博文--<如何搭建高效的MongoDB集群> NOSQL有这些优势: 大数据量,可以通过廉价服务器存储大量的数据,轻松摆脱传统mysql单表存储量级限制. 高扩展性,Nosql去掉了关系数据库的关系型特性,很容易横向扩展,摆脱了以往老是纵向扩展的诟病. 高性能,Nosql通过简单的key-value方式获取数据,非常快速.还有

利用NLB群集实现WEB站点的高可用部署

利用NLB群集实现WEB站点的高可用部署 前面的博文中和各位博友聊了如何搭建一个WEB站点,那么今天就和大家聊聊如何实现WEB站点的高可用性. 在本文中我们利用NLB来为大家讲解如何实现WEB站点的高可用: NLB简介: 网络负载平衡群集(简称:NLB),起作用时防止单一的节点故障,其部署至少需要两台服务器,NLB的作用就是当群集中的某个节点出现故障或者停止工作是,其运行服务会自动切换到群集的另一台主机,当然和我们其他群集一样,当来访流量过多的时候NLB群集会自动实现网络负载,防止负载不均,从而

Redis高可用部署及监控

Redis高可用部署及监控 目录                        一.Redis Sentinel简介 二.硬件需求 三.拓扑结构 1.单M-S结构 2.双M-S结构 3.优劣对比 四.配置部署 1.Redis配置 2.Redis Sentinel配置 3.启动服务 4.故障模拟检测 五.备份恢复 1.备份策略 2.灾难恢复 六.运维监控 1.安全监控 2.性能监控   一.           Redis Sentinel简介   Redis Sentinel是redis自带的集

Exchange Server 2013 DAG高可用部署(一)-前期准备

微软Exchange邮件服务器想必在当今这个信息产业发达的社会,大家都不陌生.我们的生活和工作现在已经离不开电子邮件,作为企业信息化的IT人员,如何给大家带来更高更好的邮件服务,这个应该是我们着重关注的地方.今天,通过我的一个项目实施,给大家分享一下Exchange Server 2013 的高可用部署.此次项目实施结构不复杂,但是架构很典型,具有很高的代表性,希望能够帮助到大家.关于产品介绍这些就不吹给大家听了,相信有很多资料都可以查到,今天直接给大家分享实实在在的干货和我自己总结的一些部署中

Exchange Server 2013 DAG高可用部署(七)-DAG配置(下)

接上文 25. 添加数据库副本 我们在第17步已经描述了如何删除默认邮箱数据库和新建数据库,且DAG已经建好,DAG网络也已配置,接下来我们就来添加邮箱数据库的副本(以下截图仅以一个数据库为例) 在ECP中,选择"服务器"-"数据库",然后选中一个邮箱数据库点击"添加数据库副本" 我们可以看到这个数据库本身承载在EMBX-001服务器上,所以我们对它再添加一个指定的邮箱服务器EMBX-002,使得这个数据库在两台MBX上都有完全相同的数据文件副本

eql高可用部署方案

运行环境 服务器两台(后面的所有配置案例都是以10.96.0.64和10.96.0.66为例) 操作系统CentOS release 6.2 必须要有共同的局域网网段 两台服务器都要安装keepalived(双机热备)和eql服务 软件部署 keepalived 部分 keepalived是一个用于做双机热备(HA)的软件,常和haproxy联合起来做热备+负载均衡,达到高可用. keepalived通过选举(看服务器设置的权重)挑选出一台热备服务器做MASTER机器,MASTER机器会被分配到

Heartbeat高可用部署(二)

三:Heartbeat高可用部署基础准备 3.1 搭建虚拟机模拟真实环境 我们安装前面的主机规划来进行配置主机 首先我们准备两台机器 给虚拟机配置IP和主机名,hosts 按照主机规划给服务器配置IP地址,如果是双网卡的机器,要记得添加网卡设备,尽可能在关机状态下添加网卡设备,然后开机登录后,执行/etc/init.d/kudzu start(centos6已经没有这个命令,可以使用start_udev来管理)检查新硬件 完成之后重启两台主机,然后通过setup配置 注意:这里不用设置网关和DN