mongo复制集、分片集(亲测)

1.1 架构思路:

192.168.50.131              192.168.50.131             192.168.50.132


mongos


mongos


mongos


configsvr


configsvr


configsvr


Shard1


Shard1


Shard1


Shard2


Shard2


Shard2


Shard3


Shard3


Shard3

1.2 安装使用虚拟机:

192.168.50.130,192.168.50.131,192.168.50.132

1.3 软件包:

mongodb-linux-x86_64-rhel62-3.4.0.tar.gz

1.4 创建软连接(三台机器)

ln -s /usr/local/ mongodb-linux-x86_64-rhel62-3.4.0/bin/mongo /usr/bin/mongo

ln -s /usr/local/ mongodb-linux-x86_64-rhel62-3.4.0/bin/mongos /usr/bin/mongos

ln -s /usr/local/ mongodb-linux-x86_64-rhel62-3.4.0/bin/mongod /usr/bin/mongod

1.5 创建数据和日志目录(三台机器)

mkdir -p /data/mongodb && cd /data/mongodb/ && mkdir -p conf/data conf/log mongos/log shard{1..3}/data shard{1..3}/log

1.6 创建configsvr(三台机器)

mongod --configsvr --replSet configset --dbpath /data/mongodb/conf/data --port 27100 --logpath /data/mongodb/conf/confdb.log   --bind_ip 0.0.0.0  --fork

1.7 将configsvr初始化为复制集

mongo192.168.25.131:27100

config_replset={_id:"configset",members:[{_id:0,host:"192.168.25.130:27100"},{_id:1,host:"192.168.25.131:27100"},{_id:2,host:" 192.168.25.132:27100"}]}

rs.initiate(config_replset)

1.8 配置mongos(三台机器)  路由

mongos

--configdb configset/192.168.25.130:27100,192.168.25.131:27100,192.168.25.132:27100 --port 27200 --logpath /data/mongodb/mongos/mongos.log --fork

1.9 配置shard(三台机器)  分片

mongod --shardsvr --replSet shard1 --port 27001 --bind_ip 0.0.0.0 --dbpath /data/mongodb/shard1/data --logpath /data/mongodb/shard1/log/shard1.log --directoryperdb --fork

mongod --shardsvr --replSet shard2 --port 27002 --bind_ip 0.0.0.0 --dbpath /data/mongodb/shard2/data --logpath /data/mongodb/shard2/log/shard2.log --directoryperdb --fork

mongod --shardsvr --replSet shard3 --port 27003 --bind_ip 0.0.0.0 --dbpath /data/mongodb/shard3/data --logpath /data/mongodb/shard3/log/shard3.log --directoryperdb --fork

1.10 初始化shard复制集

1.10.1 第一台机器(192.168.25.130没有显示只当主节点,会选择登陆的机器为主节点)

mongo --port 27001

use admin

rs.initiate({

_id: ‘shard1‘,

members: [

{_id: 84, host: ‘192.168.25.130:27001‘},

{_id: 89, host: ‘192.168.25.131:27001‘},

{_id: 90, host: ‘192.168.25.132:27001‘}

]

});

1.10.2 第二台机器(192.168.25.131)

mongo --port 27002

use admin

rs.initiate({

_id: ‘shard2‘,

members: [

{_id: 84, host: ‘192.168.25.130:27002‘},

{_id: 89, host: ‘192.168.25.131:27002‘},

{_id: 90, host: ‘192.168.25.132:27002‘}

]

});

如果要设置仲裁节点的话:

config = {_id: ‘shard3‘, members: [{_id: 0, host: ‘192.168.10.202:27022‘},{_id:1, host: ‘192.168.10.204:27022‘},{_id: 2, host: ‘192.168.10.203:30001‘, arbiterOnly:true}]}

rs.initiate(config);

1.10.3 第三台机器(192.168.25.132)

mongo --port 27003

use admin

rs.initiate({

_id: ‘shard3‘,

members: [

{_id: 84,
host: ‘192.168.25.130:27003‘},

{_id: 89,
host: ‘192.168.25.131:27003‘},

{_id: 90,
host: ‘192.168.25.132:27003‘}

]

});

1.11 在mongos中注册shard

Mongo –port 27200

use admin

db.runCommand({addShard: ‘shard1/192.168.25.130:27001,192.168.25.131:27001,192.168.25.132:27001‘});

db.runCommand({addShard:
‘shard2/192.168.25.130:27002,192.168.25.131:27002,192.168.25.132:27002‘});

db.runCommand({addShard:
‘shard3/192.168.25.130:27003,192.168.25.131:27003,192.168.25.132:27003‘});

查看shard

use admin

db.runCommand({listshards: 1});

{

"shards" : [

{

"_id" : "shard1",

"host" :
"shard1/10.199.144.84:27001,10.199.144.89:27001"

},

{

"_id" : "shard2",

"host" :
"shard2/10.199.144.89:27002,10.199.144.90:27002"

},

{

"_id" : "shard3",

"host" :
"shard3/10.199.144.90:27003,10.199.144.84:27003"

}

],

"ok" :
1

}

1.12 插入数据测试

mongo --port 27200

use admin

db.runCommand({enablesharding: ‘dbtest‘});

db.runCommand({shardcollection: ‘dbtest.coll1‘, key: {id:
1}});

use dbtest

db.coll1.stats()

结果是数据分配不平均,因为id没hash

此处对sano1y库的testtb使用hash策略:

  1. mongos> use
    admin
  2. switched to db admin
  3. mongos> db.runCommand({"enablesharding":"sano1y"})
  4. { "ok" : 1
    }
  5. mongos> db.runCommand({"shardcollection":"sano1y.testtb","key":{"_id":"hashed"}})
  6. { "collectionsharded" : "sano1y.testtb", "ok" : 1
    }

目前为止,已经对sano1y库的testtb集合进行了shard配置。

测试:

  1. mongos> use
    sano1y
  2. switched to db sano1y
  3. mongos> for(i=0;i<100000;i++) {db.testtb.insert({"id":i,"name":"test_hash"});}

稍等片刻,等待插入完毕:

  1. WriteResult({ "nInserted" : 1
    })

进入shard1(187)的PRIMARY实例检查

  1. shard1:PRIMARY> use sano1y
  2. switched to db sano1y
  3. shard1:PRIMARY> db.testtb.find().count()
  4. 49983
  5. shard1:PRIMARY> db.testtb.find()
  6. { "_id" : ObjectId("5837ef1dea1fd54fb38d845c"), "id" : 0, "name" : "test_hash" }
  7. { "_id" : ObjectId("5837ef1dea1fd54fb38d845d"), "id" : 1, "name" : "test_hash" }
  8. { "_id" : ObjectId("5837ef1dea1fd54fb38d845e"), "id" : 2, "name" : "test_hash" }
  9. { "_id" : ObjectId("5837ef1dea1fd54fb38d8460"), "id" : 4, "name" : "test_hash" }
  10. { "_id" : ObjectId("5837ef1dea1fd54fb38d8461"), "id" : 5, "name" : "test_hash" }
  11. { "_id" : ObjectId("5837ef1dea1fd54fb38d8465"), "id" : 9, "name" : "test_hash" }
  12. { "_id" : ObjectId("5837ef1dea1fd54fb38d8468"), "id" : 12, "name" : "test_hash" }
  13. { "_id" : ObjectId("5837ef1dea1fd54fb38d846f"), "id" : 19, "name" : "test_hash" }
  14. { "_id" : ObjectId("5837ef1dea1fd54fb38d8471"), "id" : 21, "name" : "test_hash" }
  15. { "_id" : ObjectId("5837ef1dea1fd54fb38d8475"), "id" : 25, "name" : "test_hash" }
  16. { "_id" : ObjectId("5837ef1dea1fd54fb38d8476"), "id" : 26, "name" : "test_hash" }
  17. { "_id" : ObjectId("5837ef1dea1fd54fb38d8479"), "id" : 29, "name" : "test_hash" }
  18. { "_id" : ObjectId("5837ef1dea1fd54fb38d847d"), "id" : 33, "name" : "test_hash" }
  19. { "_id" : ObjectId("5837ef1dea1fd54fb38d847e"), "id" : 34, "name" : "test_hash" }
  20. { "_id" : ObjectId("5837ef1dea1fd54fb38d8480"), "id" : 36, "name" : "test_hash" }
  21. { "_id" : ObjectId("5837ef1dea1fd54fb38d8481"), "id" : 37, "name" : "test_hash" }
  22. { "_id" : ObjectId("5837ef1dea1fd54fb38d8483"), "id" : 39, "name" : "test_hash" }
  23. { "_id" : ObjectId("5837ef1dea1fd54fb38d8486"), "id" : 42, "name" : "test_hash" }
  24. { "_id" : ObjectId("5837ef1dea1fd54fb38d848b"), "id" : 47, "name" : "test_hash" }
  25. { "_id" : ObjectId("5837ef1dea1fd54fb38d848d"), "id" : 49, "name" : "test_hash" }

另外如果到shard2可以看到shard1这些不连续的id。

可发现shard1和2中的document数量,还是比较均匀的。

shard1: 33320

shard2: 33421

Shard3: 33259

可以看出,count数量基本还是保持平衡的,又很小的落差

原文地址:https://www.cnblogs.com/byfboke/p/9105178.html

时间: 2024-10-24 09:33:49

mongo复制集、分片集(亲测)的相关文章

mongo 3.4分片集群系列之八:分片管理

这个系列大致想跟大家分享以下篇章: 1.mongo 3.4分片集群系列之一:浅谈分片集群 2.mongo 3.4分片集群系列之二:搭建分片集群--哈希分片 3.mongo 3.4分片集群系列之三:搭建分片集群--哈希分片 + 安全 4.mongo 3.4分片集群系列之四:搭建分片集群--哈希分片 + 安全 + 区域 5.mongo 3.4分片集群系列之五:详解平衡器 6.mongo 3.4分片集群系列之六:详解配置数据库 7.mongo 3.4分片集群系列之七:配置数据库管理 8.mongo 3

mongo 3.4分片集群系列之四:搭建分片集群--哈希分片 + 安全 + 区域

这个系列大致想跟大家分享以下篇章(我会持续更新的(^ω^)): 1.mongo 3.4分片集群系列之一:浅谈分片集群 2.mongo 3.4分片集群系列之二:搭建分片集群--哈希分片 3.mongo 3.4分片集群系列之三:搭建分片集群--哈希分片 + 安全 4.mongo 3.4分片集群系列之四:搭建分片集群--哈希分片 + 安全 + 区域 5.mongo 3.4分片集群系列之五:详解平衡器 6.mongo 3.4分片集群系列之六:详解配置数据库 7.mongo 3.4分片集群系列之七:配置数

mongo 3.4分片集群系列之六:详解配置数据库

这个系列大致想跟大家分享以下篇章(我会持续更新的(^ω^)): 1.mongo 3.4分片集群系列之一:浅谈分片集群 2.mongo 3.4分片集群系列之二:搭建分片集群--哈希分片 3.mongo 3.4分片集群系列之三:搭建分片集群--哈希分片 + 安全 4.mongo 3.4分片集群系列之四:搭建分片集群--哈希分片 + 安全 + 区域 5.mongo 3.4分片集群系列之五:详解平衡器 6.mongo 3.4分片集群系列之六:详解配置数据库 7.mongo 3.4分片集群系列之七:配置数

Mongodb 副本集+分片集群搭建

环境需求: 在三台机器上搭建副本集,在副本集上做分片 服务器IP: 192.168.1.232/192.168.1.238/192.168.1.241 安装Mongodb all nodes: tar zxvf mongodb-linux-x86_64-rhel62-3.4.4.tgz cp -rvf  mongodb-linux-x86_64-rhel62-3.4.4  /opt/mongodb_3.4.4 cd /opt/mongodb_3.4.4/ mkdir -pv conf logs

MongoDB高可用复制集分片集群搭建

1     逻辑架构 1.1     逻辑架构图 1.2     组件说明 一.mongos(query routers):查询路由,负责client的连接,并把任务分给shards,然后收集结果.一个集群可以有多个query routers(replica sets),以分担客户端请求(负载均衡). 二.config server:配置服务器.保存了集群的元数据(比如数据放在哪个shards上),query router通过config server中的配置信息决定把任务分配到哪个shards

MongoDB分片集群机制及原理

1. MongoDB常见的部署架构 * 单机版 * 复制集 * 分片集群 2. 为什么要使用分片集群 * 数据容量日益增大,访问性能日渐下降,怎么破? * 新品上线异常火爆,如何支撑更多用户并发? * 单库已有10TB数据,恢复需要1-2天,如何加速? * 地理分布数据 3. 分片如何解决问题? 银行交易表单内10亿笔资料超负荷运转,交易号 0-1,000,000,000 把数据分成两两半,放到两个库里. 交易号:0-500,000,000 交易号:500,000,001-1,000,000,0

学习mongo系列(九)索引,聚合,复制(副本集),分片

一.索引 二.聚合 三.复制(副本集) 四.分片 尚未实践操作. 详见http://www.runoob.com/mongodb/mongodb-indexing.html

MongoDB之分片集群与复制集

分片集群 1.1.概念 分片集群是将数据存储在多台机器上的操作,主要由查询路由mongos.分片.配置服务器组成. ●查询路由根据配置服务器上的元数据将请求分发到相应的分片上,本身不存储集群的元数据,只是缓存在内存中. ●分片用来存储数据块.数据集根据分片键将集合分割为数据块,存储在不同的分片上.在生产环境下,通常一个分片由一个复制集组成. ●配置服务器存储集群的元数据,包括数据与分片的映射关系,配置服务器一旦挂掉,集群将无法工作. 注意: ●当mongos重启时,会从配置服务器读取元数据更新自

单机模拟分片为复制集的集群部署

概述 可使用单个数据服务器作为分片,也可使用复制集作为分片. 复制集为具有自动故障恢复功能的主从集群,并且其主从角色可自动变更. 每个复制集包括3种角色:主服务器.从服务器.仲裁服务器 部署图 部署过程 Shard1(为1个复制集) Shard2(为1个复制集) ConfigServer ConfigA ConfigB RouteServer 先启动 再配置 单机模拟分片为复制集的集群部署

mongodb复制+分片集原理

----------------------------------------复制集---------------------------------------- 一.复制集概述: 组成: Mongodb复制集(副本集replica set)由一组Mongod实例(进程)组成,包含一个Primary节点和多个Secondary节点,Mongodb Driver(客户端)的所有数据都写入Primary,Secondary通过oplog来同步Primary的数据,保证主节点和从节点数据的一致性,