Replica Set副本集方式的mongodb集群搭建

1.环境:

单台服务器上开启四个mongodb实例来实现mongodb的Replica Set副本集方式的集群搭建

2.配置文件:

master主实例配置文件:

[[email protected] ~]# cat /usr/local/mongodb/mongod.cnf

logpath=/data/mongodb-master/logs/mongodb.log

logappend = true

#fork and run in background

fork = true

port = 27017

dbpath=/data/mongodb-master/data

#location of pidfile

pidfilepath=/data/mongodb-master/mongod.pid

auth = true

keyFile = /tmp/mongo-keyfile

nohttpinterface=true

replSet=shard1

slave1实例配置文件:

[[email protected] ~]# cat /usr/local/mongodb/mongod1.cnf

logpath=/data/mongodb-slave/logs/mongodb.log

logappend = true

#fork and run in background

fork = true

port = 27018

dbpath=/data/mongodb-slave/data

#location of pidfile

pidfilepath=/data/mongodb-slave/mongod.pid

auth = true

keyFile = /tmp/mongo-keyfile

nohttpinterface=true

replSet=shard1

slave2实例配置文件:

[[email protected] ~]# cat /usr/local/mongodb/mongod2.cnf

logpath=/data/mongodb-slave1/logs/mongodb.log

logappend = true

#fork and run in background

fork = true

port = 27019

dbpath=/data/mongodb-slave1/data

#location of pidfile

pidfilepath=/data/mongodb-slave1/mongod.pid

auth = true

keyFile = /tmp/mongo-keyfile

nohttpinterface=true

replSet=shard1

arbiter冲裁节点实例部署:

[[email protected] ~]# cat /usr/local/mongodb/arbiter.cnf

logpath=/data/mongodb-arbiter/logs/mongodb.log

logappend = true

#fork and run in background

fork = true

port = 27020

dbpath=/data/mongodb-arbiter/data

#location of pidfile

pidfilepath=/data/mongodb-arbiter/mongod.pid

keyFile = /tmp/mongo-keyfile

nohttpinterface=true

replSet=shard1

3.单实例mongodb的启动脚本:

[[email protected] data]# cat /etc/init.d/mongod

#!/bin/sh

## chkconfig: 2345 66 40

source /etc/profile

CONFIG=/usr/local/mongodb/mongod.cnf

PROGRAM=/usr/local/mongodb/bin/mongod

MONGOPID=`ps -ef | grep ‘mongod --config‘ | grep -v grep | awk ‘{print $2}‘`

test -x $PROGRAM || exit 0

case "$1" in

start)

echo "Starting MongoDB Server..."

$PROGRAM --config $CONFIG &

;;

stop)

echo "Stopping MongoDB Server..."

if [ ! -z "$MONGOPID" ]; then

kill -15 $MONGOPID

fi

;;

status)

if [  -z "$MONGOPID" ]; then

echo "MongoDB is not running!"

else

echo "MongoDB is running!("$MONGOPID")"

fi

;;

restart)

echo "Shutting down MongoDB Server..."

if [ ! -z "$MONGOPID" ]; then

kill -15 $MONGOPID

fi

echo "Starting MongoDB..."

$PROGRAM --config $CONFIG &

;;

*)

log_success_msg "Usage:/etc/init.d/mongod {start|stop|status|restart}"

exit 1

esac

exit 0

4.启动mongodb实例:

[[email protected] data]# ps -ef|grep mongo

root      7226     1  0 13:12 ?        00:00:41 /usr/local/mongodb/bin/mongod --config /usr/local/mongodb/arbiter.cnf

root     11262     1  0 13:54 ?        00:00:29 /usr/local/mongodb/bin/mongod --config /usr/local/mongodb/mongod.cnf

root     13097     1  0 14:22 ?        00:00:19 /usr/local/mongodb/bin/mongod --config /usr/local/mongodb/mongod1.cnf

root     13214     1  0 14:22 ?        00:00:19 /usr/local/mongodb/bin/mongod --config /usr/local/mongodb/mongod2.cnf

5.配置主,备,仲裁节点:

可以通过客户端连接mongodb,也可以直接在三个节点中选择一个连接mongodb。

登陆mongodb-master主实例来配置:

[[email protected] ~]# mongo 127.0.0.1:27017

MongoDB shell version: 3.0.5

connecting to: 127.0.0.1:27017/test

shard1:PRIMARY> use admin;

switched to db admin

> cfg={ _id:"shard1", members:[ {_id:0,host:‘127.0.0.1:27017‘,priority:3}, {_id:1,host:‘127.0.0.1:27018‘,priority:2},

... {_id:2,host:‘127.0.0.1:27019‘,priority:1}, {_id:3,host:‘127.0.0.1:27020‘,arbiterOnly:true} ] };

{

"_id" : "shard1",

"members" : [

{

"_id" : 0,

"host" : "127.0.0.1:27017",

"priority" : 3

},

{

"_id" : 1,

"host" : "127.0.0.1:27018",

"priority" : 2

},

{

"_id" : 2,

"host" : "127.0.0.1:27019",

"priority" : 1

},

{

"_id" : 3,

"host" : "127.0.0.1:27020",

"arbiterOnly" : true

}

]

}

> rs.initiate(cfg);  (初始化配置)

{ "ok" : 1 }

shard1:PRIMARY> rs.conf();  (查看配置信息)

{

"_id" : "shard1",

"version" : 1,

"members" : [

{

"_id" : 0,

"host" : "127.0.0.1:27017",

"arbiterOnly" : false,

"buildIndexes" : true,

"hidden" : false,

"priority" : 3,

"tags" : {

},

"slaveDelay" : 0,

"votes" : 1

},

{

"_id" : 1,

"host" : "127.0.0.1:27018",

"arbiterOnly" : false,

"buildIndexes" : true,

"hidden" : false,

"priority" : 2,

"tags" : {

},

"slaveDelay" : 0,

"votes" : 1

},

{

"_id" : 2,

"host" : "127.0.0.1:27019",

"arbiterOnly" : false,

"buildIndexes" : true,

"hidden" : false,

"priority" : 1,

"tags" : {

},

"slaveDelay" : 0,

"votes" : 1

},

{

"_id" : 3,

"host" : "127.0.0.1:27020",

"arbiterOnly" : true,

"buildIndexes" : true,

"hidden" : false,

"priority" : 1,

"tags" : {

},

"slaveDelay" : 0,

"votes" : 1

}

],

"settings" : {

"chainingAllowed" : true,

"heartbeatTimeoutSecs" : 10,

"getLastErrorModes" : {

},

"getLastErrorDefaults" : {

"w" : 1,

"wtimeout" : 0

}

}

}

shard1:OTHER> rs.status()   (查看副本集)

{

"set" : "shard1",

"date" : ISODate("2017-09-14T05:23:16.893Z"),

"myState" : 1,

"members" : [

{

"_id" : 0,

"name" : "127.0.0.1:27017",

"health" : 1,

"state" : 1,

"stateStr" : "PRIMARY",

"uptime" : 1117,

"optime" : Timestamp(1505366494, 1),

"optimeDate" : ISODate("2017-09-14T05:21:34Z"),

"electionTime" : Timestamp(1505366495, 1),

"electionDate" : ISODate("2017-09-14T05:21:35Z"),

"configVersion" : 1,

"self" : true

},

{

"_id" : 1,

"name" : "127.0.0.1:27018",

"health" : 1,

"state" : 2,

"stateStr" : "SECONDARY",

"uptime" : 102,

"optime" : Timestamp(1505366494, 1),

"optimeDate" : ISODate("2017-09-14T05:21:34Z"),

"lastHeartbeat" : ISODate("2017-09-14T05:23:16.113Z"),

"lastHeartbeatRecv" : ISODate("2017-09-14T05:23:16.663Z"),

"pingMs" : 0,

"configVersion" : 1

},

{

"_id" : 2,

"name" : "127.0.0.1:27019",

"health" : 1,

"state" : 2,

"stateStr" : "SECONDARY",

"uptime" : 102,

"optime" : Timestamp(1505366494, 1),

"optimeDate" : ISODate("2017-09-14T05:21:34Z"),

"lastHeartbeat" : ISODate("2017-09-14T05:23:16.127Z"),

"lastHeartbeatRecv" : ISODate("2017-09-14T05:23:16.668Z"),

"pingMs" : 0,

"configVersion" : 1

},

{

"_id" : 3,

"name" : "127.0.0.1:27020",

"health" : 1,

"state" : 7,

"stateStr" : "ARBITER",

"uptime" : 102,

"lastHeartbeat" : ISODate("2017-09-14T05:23:16.055Z"),

"lastHeartbeatRecv" : ISODate("2017-09-14T05:23:16.674Z"),

"pingMs" : 1,

"configVersion" : 1

}

],

"ok" : 1

}

shard1:PRIMARY>

到此处配置成功:

6.测试验证:

参考文档:http://blog.csdn.net/zhang_yanan/article/details/25972693 进行测试验证

在master上创建用户和数据库进行测试验证集群是否成功

db.createUser(

{

user: "root",

pwd: "[email protected]",

roles: [ { role: "root", db: "admin" } ]

}

)

use admin

db.createUser(

...  {

...  user: "DBA3",

...    pwd: "[email protected]",

...     roles: [ { role: "readWrite", db: "dbtest001" } ]

...  }

...  )

也可以安装mongodb客户端软件来操作进行验证集群搭建是否成功

7.部署参考文档:

http://blog.csdn.net/luonanqin/article/details/8497860;

http://suifu.blog.51cto.com/9167728/1853478

http://blog.csdn.net/zhang_yanan/article/details/25972693

MongoDB高可用集群配置的几种方案参考:https://yq.aliyun.com/articles/61516

时间: 2024-10-08 17:18:13

Replica Set副本集方式的mongodb集群搭建的相关文章

在CentOS6.6上以replSet方式部署MongoDB集群

部署方式在3台centos6.6系统上以Replica Set方式部署mongodb3.0.2集群. 官方参考资料: http://docs.mongodb.org/manual/tutorial/deploy-replica-set/ http://docs.mongodb.org/manual/tutorial/install-mongodb-on-red-hat/ 集群的IP地址分配# node01: 192.168.35.173(PRIMARY node)# node02: 192.16

Mongodb的Replica Set 副本集集群搭建

实验性的搭建一个集群做练手. 配置和环境: win10(本机)和linux(CentOs7)内网服务器各一台. Mongodb3.07 目标:Replica set 副本集结构,一个primary一个slave,实现读写分离的同步数据集群. 一.本机和内网服务器安装mongo 可参考我的另外两篇文章: Mongodb在windows和linux平台的安装配置(http://fykknd.blog.51cto.com/3175618/1716343) Mongodb权限管理(http://fykk

Mongodb集群搭建的三种方式

Mongodb是时下流行的NoSql数据库,它的存储方式是文档式存储,并不是Key-Value形式.关于Mongodb的特点,这里就不多介绍了,大家可以去看看官方说明:http://docs.mongodb.org/manual/ 今天主要来说说Mongodb的三种集群方式的搭建:Replica Set / Sharding / Master-Slaver.这里只说明最简单的集群搭建方式(生产环境),如果有多个节点可以此类推或者查看官方文档.OS是Ubuntu_x64系统,客户端用的是Java客

MongoDB集群搭建-副本集

MongoDB集群搭建-副本集 概念性的知识,可以参考本人博客地址: http://www.cnblogs.com/zlp520/p/8088169.html 一.Replica Set方案(副本集或复制集): 1.搭建副本集有两种办法: 其一:在一台服务器上,通过文件的方式及端口号的方式来区分: 其二:找最少三台服务器,每台服务器都通过如下的配置: ip规划每台服务器担任的工作: 192.168.0.100:27017 主机 192.168.0.101:27017 副本集 192.168.0.

mongodb 3.4 集群搭建:分片+副本集

mongodb是最常用的nodql数据库,在数据库排名中已经上升到了前六.这篇文章介绍如何搭建高可用的mongodb(分片+副本)集群. 在搭建集群之前,需要首先了解几个概念:路由,分片.副本集.配置服务器等. 相关概念 先来看一张图: 从图中可以看到有四个组件:mongos.config server.shard.replica set. mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把

linux下Mongodb集群搭建:分片+副本集

三台服务器 192.168.1.40/41/42 安装包 mongodb-linux-x86_64-amazon2-4.0.1.tgz 服务规划  服务器40  服务器41  服务器42  mongos  mongos  mongos  config server  config server  config server  shard server1 主节点  shard server1副节点  shard server1仲裁  shard server2 仲裁  shard server2 

Mongodb集群架构之副本集

本文介绍了热门的NoSQL数据库MongoDB的副本集这种分布式架构的一些概念和操作.主要内容包括: MongoDB副本集相关概念 MongoDB副本集环境搭建 MongoDB副本集的读写分离 MongoDB副本集的故障转移 MongoDB副本集的优点 MongoDB副本集的缺点 1.副本集相关概念 主节点. 在一个副本集中,只有唯一一个主节点.主节点可以进行数据的写操作和读操作.副本集中各个节点的增伤改等配置必须在主节点进行. 从节点. 在一个副本集中,可以有一个或者多个从节点.从节点只允许读

搭建mongodb集群(副本集+分片)

完整的搭建mongodb集群(副本集+分片)的例子... 准备四台机器,分别是bluejoe1,bluejoe2,bluejoe3,以及bluejoe0 副本集及分片策略确定如下: 将创建3个副本集,命名为shard1,shard2,shard3: 以上3个副本集作为3个分片: 每个副本集包含2个副本(主.辅): 副本分开存储,即shard1存在bluejoe1和bluejoe2上各一份...以此类推 将创建3个配置库实例,一台机器一个 bluejoe0上配置一个mongos(mongos一般可

搭建高可用mongodb集群(二)—— 副本集

http://www.lanceyan.com/tech/mongodb/mongodb_repset1.html 在上一篇文章<搭建高可用MongoDB集群(一)——配置MongoDB> 提到了几个问题还没有解决. 主节点挂了能否自动切换连接?目前需要手工切换. 主节点的读写压力过大如何解决? 从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的时候能否做到自动扩展? 这篇文章看完这些问题就可以搞定了.NoSQL的产生就是为了解决大数据量.高扩展性.高