mysql迁移到mongodb shared架构的过程中踩到的一个坑

Mysql库中有一个表,数据量在10亿左右,基本上对于这个表的操作都是没有意义的,因此想测试一下迁移到mongodb的shared架构上是否会有所改善。于是哼哧哼哧的搭建了一个3分片的mongo环境,并将mysql中这个大表的数据导出成了csv的格式,最终使用mongoimport工具成功将10亿多的数据导入mongo集群中去。但是导完后查看了下mongodb中对应的db的信息,差点没吓出尿来,请看:

## 在mongos中查看db的信息,显示迁移后的lens_mobapp_trace库大小为1197.416GB
mongos> show dbs;
admin                 0.016GB
config                0.109GB
lens_mobapp_trace  1197.416GB
test                  0.031GB

而我从mysql中导出的数据文件大小只有259GB,格式为csv,如下:

## 大小
$ ll -h 
total 259G
-rw-r--r-- 1 root root 259G Mar 25 16:27 NL_MOB_APP_ERROR_TRACE.txt
## 格式:逗号分隔的csv文件
$ head -2 NL_MOB_APP_ERROR_TRACE.txt 
"1551445226","2015-02-11 00:00:01","4613","5969","2","19796","1","5397","73","0","0","46000","4","0","499","2","903","1","-370443099","http://pingma.qq.com/mstat/report","nbfs://2015/2/11/4613/4613.0.txt?2444,2#93b"
"1551445229","2015-02-11 00:00:01","4611","7259","1","34","2","1038","71","48","4815","16","1","1482","412161","2","903","1","1429877488","http://api.mobile.cosmeapp.cn/cosmeapi","nbfs://2015/2/11/4611/4611.0.txt?38200,750#2c2"

这259G的数据在mysql库中的大小如下:

## 数据大小228GB
mysql> select sum(data_length)/1024/1024/1024 as size from information_schema.tables where table_name =‘NL_MOB_APP_ERROR_TRACE‘ and table_schema=‘lens_mobapp_trace‘;
+-----------------------+
| size                  |
+-----------------------+
|     227.9790587359032 |
+-----------------------+
1 row in set (0.59 sec)
## 数据+索引总大小404GB
mysql> select sum(data_length+index_length)/1024/1024/1024 from information_schema.tables where table_name =‘NL_MOB_APP_ERROR_TRACE‘ and table_schema=‘lens_mobapp_trace‘;
+-----------------------+
| size                  |
+-----------------------+
|     404.3463549343156 |
+-----------------------+
1 row in set (0.00 sec) 
## 记录数
mysql> select count(*) from  NL_MOB_APP_ERROR_TRACE;
+------------------+
| count(*)         |
+------------------+
| 1079684226       |
+------------------+
1 row in set (23 min 18.06 sec)

看到迁移到mongodb中数据量变为1197.416GB,一开始我是拒绝的,怀疑是加了特技,因为都说mongodb会预分配大文件用于存储,于是到mongos上去看了看后端分片真实的存储状况

mongos> use lens_mobapp_trace
switched to db lens_mobapp_trace
## 这里只抽取一个分片来说明问题
mongos> db.stats();
{
    "raw" : {
               ........
        "udb-q12c20/10.6.14.38:27017" : {
            "db" : "lens_mobapp_trace",
            "collections" : 4,
            "objects" : 352321865,
            "avgObjSize" : 1005.7750069868641,
            "dataSize" : 354356526232,
            "storageSize" : 371299001584,
            "numExtents" : 711,
            "indexes" : 3,
            "indexSize" : 64238570368,
            "fileSize" : 437856239616,
            "nsSizeMB" : 16,
            "dataFileVersion" : {
                "major" : 4,
                "minor" : 5
            },
            "extentFreeList" : {
                "num" : 4,
                "totalSize" : 180224
            },
            "ok" : 1
        },
                 .......
}

"objects" : 352321865                    ## 该分片上的记录数

"avgObjSize" : 1005.7750069868641        ## 每条记录平均大小

"dataSize" : 354356526232                ## 真实的数据大小

"storageSize" : 371299001584             ## 数据大小+预分配表空间(2G)

"indexSize" : 64238570368                ## 索引的大小

"fileSize" : 437856239616                ## 整个数据文件的大小

可以看到每条记录在mongodb中占用约1k的空间,而在mysql中每条记录的平均大小为227bytes,所以数据迁移到mongodb后数据会变的这么大。那么具体原因是什么呢?mongodb对插入的每一条记录都会自动的添加一个唯一标识的字段_id,该字段大小为12bytes,还有就是mongodb每条记录都会预留一些replace的空间用于记录的更新操作,再有就是预分配功能也会占用一定的空间(最大为2GB)。mongodb和mysql对与表空间的管理是不同的,但是有一点是可以肯定的,那就是数据从mysql迁移到mongodb上数据是膨胀的。

我们上面这个测试采用的版本是mongodb2.6.9。mongodb3.0之后对底层存储做了改进,使用WiredTiger作为内建的存储引擎,官方的说这一举措能够为MongoDB带了文档级锁的并发控制和高效的文档压缩功能,且自身性能也有了重大的提升,提升MongoDB 7-10倍的写操作性能、降低了80%的存储占用空间、降低了高达95%操作开销、支持高达50个副本集,好奇心的驱动,于是做了一个简单测试,过程如下:mongodb采用WiredTiger引擎启动,然后导入了5G的数据,最后查看导入后的数据大小。

## mongodb3.0.1采用WiredTiger引擎,启动服务
mongod --dbpath=/data/db/ --logpath=/data/db/logs/mongodb.log --logappend --port=27017 -storageEngine wiredTiger --fork  >/dev/null
## 数据样本大小
[[email protected] opt]# ll -h xaa
-rw-r--r-- 1 root root 5.0G Apr 22 16:57 xaa
## 数据样本记录数
[[email protected] opt]# wc -l xaa
21300000 xaa
## 数据样本格式
[[email protected] opt]# head -2 xaa
"1551445226","2015-02-11 00:00:01","4613","5969","2","19796","1","5397","73","0","0","46000","4","0","499","2","903","1","-370443099","http://pingma.qq.com/mstat/report","nbfs://2015/2/11/4613/4613.0.txt?2444,2#93b"
"1551445229","2015-02-11 00:00:01","4611","7259","1","34","2","1038","71","48","4815","16","1","1482","412161","2","903","1","1429877488","http://api.mobile.cosmeapp.cn/cosmeapi","nbfs://2015/2/11/4611/4611.0.txt?38200,750#2c2"

采用mongoimport的方式导入mongodb,然后在库中查看库的大小和记录数

## 库中查看
> show dbs;
lens_mobapp_trace  2.847GB
local              0.000GB
> use lens_mobapp_trace
switched to db lens_mobapp_trace
> show collections;
NL_MOB_APP_ERROR_TRACE
> db.NL_MOB_APP_ERROR_TRACE.count();
21300000
## 查看文件系统中数据目录的大小
[[email protected] db]# ll -h 
total 2.9G
-rw-r--r-- 1 mongodb mongodb  16K Apr 22 22:28 collection-0-3862414736807305835.wt
-rw-r--r-- 1 root    root    2.7G Apr 22 23:03 collection-2-3862414736807305835.wt
-rw-r--r-- 1 mongodb mongodb  16K Apr 22 22:28 index-1-3862414736807305835.wt
-rw-r--r-- 1 root    root    185M Apr 22 23:03 index-3-3862414736807305835.wt
drwxr-xr-x 2 mongodb mongodb 4.0K Apr 22 23:03 journal
drwxr-xr-x 2 mongodb mongodb 4.0K Apr 22 22:26 logs
-rw-r--r-- 1 mongodb mongodb  32K Apr 22 22:31 _mdb_catalog.wt
-rwxr-xr-x 1 mongodb mongodb    5 Apr 22 22:27 mongod.lock
-rw-r--r-- 1 mongodb mongodb  36K Apr 22 23:05 sizeStorer.wt
-rw-r--r-- 1 mongodb mongodb   95 Apr 22 22:27 storage.bson
-rw-r--r-- 1 mongodb mongodb   46 Apr 22 22:27 WiredTiger
-rw-r--r-- 1 mongodb mongodb  495 Apr 22 22:27 WiredTiger.basecfg
-rw-r--r-- 1 mongodb mongodb   21 Apr 22 22:27 WiredTiger.lock
-rw-r--r-- 1 root    root     886 Apr 22 23:06 WiredTiger.turtle
-rw-r--r-- 1 mongodb mongodb  44K Apr 22 23:06 WiredTiger.wt

看到这个结果不由得让人欣喜,看来mongodb3.0之后,确实提升了很多,导入5GB数据,压缩比在57%左右,如果导入较大的数据量的话,那么这个压缩比应该是会有所提高,看来与官方说的80%出入不大,这个测试结果是不是又燃起了你对mongodb的信心?哈哈,看来是有必要学习一下3.0的新版本了,新技术层出不穷,it海中漂泊,唯有day day up。

时间: 2024-10-19 03:57:01

mysql迁移到mongodb shared架构的过程中踩到的一个坑的相关文章

Jedis使用过程中踩过的那些坑

1. 一个 大坑:若实例化 JedisShardInfo 时不设置节点名称(name属性),那么当Redis节点列表的顺序发生变化时,会发生“ 键 rehash 现象” 使用BTrace追踪redis.clients.util.Sharded的实时状态,验证“Jedis分片机制的一致性哈希算法”实现: 发现一个致命坑:若JedisShardInfo不设置节点名称(name属性),那么当Redis节点列表的顺序发生变化时,会发生“键 rehash 现象”.见Sharded的initialize(.

使用ffmpeg视频编码过程中踩的一个坑

今天说说使用ffmpeg在写视频编码程序中踩的一个坑,这个坑让我花了好多时间,回头想想,很多时候一旦思维定势真的挺难突破的.下面是不正确的编码结果: 使用ffmpeg做视频编码过程中,首先要新建数据帧,并为数据帧分配相应内存,以便于保存图像数据,为数据帧分配内存需要用到av_image_alloc()这个函数,该函数将根据传入的图像宽.高.图像格式.数据对齐基数等参数进行内存分配. 这其中有一个参数可能会让人迷惑,那就是数据对齐基数这个参数该设置多少?顺便说说为什么要数据对齐,之所以要对齐,主要

mongodb副本集搭建过程中的问题和解决技巧

在我以往的认知中,一个系统一旦正式上线,多半不会轻易的迁移服务器,尤其是那种涉及到多个关联应用,涉及到多台硬件服务器的系统,因为这种迁移将是牵一发而动全身的. 但是,却仍然有这种情况存在,就如我这几天主要负责的事,就是一个系统的全部服务器迁移中的部分机器迁移,还有一部分由别人负责. 这个系统涉及到flume数据采集,storm数据分析,rabbitmq消息分发,ehcache缓存提升系统性能,mongodb副本集存储数据,tomcat管理系统应用等,架构基本如下: 而这里我主要负责的是rabbi

Mysql在Linux下安装和使用过程中出现的问题及解决方案

一.       CentOS  7.**版本无法安装Mysql: 原因分析: MariaDB数据库管理系统是MySQL的一个分支,主要由开源社区在维护,采用GPL授权许可.开发这个分支的原因之一是:甲骨文公司收购了MySQL后,有将MySQL闭源的潜在风险,因此社区采用分支的方式来避开这个风险.MariaDB的目的是完全兼容MySQL,包括API和命令行,使之能轻松成为MySQL的代替品.因此CentOS 7上为了防范这个潜在问题的出现,已经将MariaDB作为首要数据库进行了打包安装.这样的

配置ECS上自建MySQL作为RDS从库过程中踩到的坑

环境: RDS版本:阿里云的5.6 ECS自建MySQL5.6.34(官方版本) 通过将阿里云rds的自动全量备份下载到ECS上,按照官方的步骤解压--> aploy-log ---> mv 到mysql的datadir 并启动mysql. 然后执行 reset slave all; reset master; change master to master_host='rm-xxxxxxxxx.mysql.rds.aliyuncs.com', master_user='rpl', maste

综合架构搭建过程中不可缺少的部分——全网备份

2.全网备份2.1.全网备份的作用此项目可以将web服务器与存储服务器的数据,以编写脚本的方式将数据文件和目录统一备份到备份服务器,然后以法邮件的方式提醒用户2.2.全网备份部署过程2.2.1.服务端部署#!/bin/bash # 01: 验证备份数据完整性 find /backup/ -type f -name "finger.txt"|xargs md5sum -c >/tmp/check_finger.txt # 02: 将指纹文件验证结果发送给运维人员 mail -s &

Session的使用过程中应注意的一个小问题

在学习AllEmpty大神的从零开始编写自己的C#框架系列文章中,发现的问题:在验证码的缓存Session["vcode"]的赋值时,发现Session["vcode"]的值一直为null. 发现原来是在调用验证码生成类给Session["vcode"]赋值时,这个Session["vcode"]还没有创建,所以无法赋值. 1 //生成验证码 2 imgCaptcha.ImageUrl = "Application/

谈谈使用echarts过程中踩过的坑

小结: 1. 使用jquery获取json对象遇到的问题 由于自己对ajax用的还不熟练,之前都是拷贝别人的代码拿来用的,这次自己写的时候倒是碰到好多麻烦一一列举如下: 1.1 在$ 与ajax之间还需要有个点号,即 $.ajax({...... }); 1.2 在返回值那里对于返回类型是text或是json格式时,不知道哪种使用eval,哪种使用 (.属性)来解析,正确方式如下 当返回类型是text时,使用eval解析,书写方式如下 var obj = eval("(" + data

kafka 并发数配置过程中踩到的坑 InstanceAlreadyExistsException

2017-07-05 13:09:15.460 [kafka_spout:7-MultipleThreadSpoutExecutors] WARN o.a.kafka.common.utils.AppInfoParser - Error registering AppInfo mbean javax.management.InstanceAlreadyExistsException: kafka.consumer:type=app-info,id=gx-test-20170629 at com.