redis 数据迁移

最近有个项目因为要搬迁服务器的原因,去找了服务器公司的运维,需要收费,于是果断决定自己实现这个功能。现在百度上已经一大把redis数据库迁移的教程,大部分是利用主从复制或者利用redis的RDB备份之后在需要迁移到的redis放进去来达到迁移的目的。下面的是两种不同情况下可以用到的命令,比较简单

1.move迁移

迁移之前:

迁移命令:

命令:redis-cli -n 2 keys ‘*‘ | xargs -I ‘{}‘ redis-cli -n 2 move ‘{}‘ 1

迁移结果:

move迁移有个弊端就是会删除源库的所有key迁移到目标库中

2.migrate迁移

迁移之前:

迁移命令:

命令:redis-cli -n 2 keys ‘*‘ | xargs -I ‘{}‘ redis-cli -n 2 migrate 目标IP 6379 ‘‘ 2 10000 COPY keys ‘{}‘

迁移结果:

migrate迁移不会删除原有的key并且迁移到目标库中

原文地址:https://www.cnblogs.com/lina520/p/9606378.html

时间: 2024-10-11 10:56:25

redis 数据迁移的相关文章

Redis数据迁移方案

场景 Redis实例A ---> Redis实例B,整库全量迁移 方案一: mac环境 brew install npm npm install redis-dump -g 针对RedisA: redis-dump -h host1 -p 6379 -d 1 --json > mydb.json针对RedisB: cat mydb.json | redis-dump --convert | redis-cli 方案二:参考: http://www.zlovezl.cn/articles/mig

redis 数据迁移笔记

老服务器上内存一直报警,所以要把一部分redis数据迁移到新服务器上去. 迁移的方式有两种,一种是停服务器,搬迁数据:另一种通过主从同步转移. 停服务器,搬迁数据 首先在原服务器上执行redis-cli shutdown命令,该命令会触发保证写RDB文件以及将AOF文件写入磁盘,不会丢失数 停服务器,搬迁数据 首先在原服务器上执行redis-cli shutdown命令,该命令会触发保证写RDB文件以及将AOF文件写入磁盘,不会丢失数据. 如果是kill -9 pid就会丢失数据. 然后将RDB

redis数据迁移

实验环境1.自建redisnode1.purchase268-3.redis.jst.opsbs.intranet.shuyun.com 31691 密码 2.阿里云redisr-vy13fc5bc195fb84.redis.rds.aliyuncs.com 6379 密码 1.直接进入自建redis的后台,因为redis跑在docker里面,本机上没有安装redis客户端,需要先安装个redis客户端wget http://download.redis.io/redis-stable.tar.

redis数据迁移(不同机器间)

参见博文: http://www.cnblogs.com/zhoubaojian/articles/7866595.html 个人脚本文件: #!/bin/bash src_ip=192.168.200.130 src_port=6379 dest_ip=192.168.200.136 dest_port=6379 i=1 ./redis-cli -h $src_ip -p $src_port keys "*" | while read key do ./redis-cli -h $s

redis数据导入导出

在2017年,项目上的redis集群需要从2.8版本更换为3.2版本,此时涉及到redis数据key的迁移,经百度.×××,发现有三种方法可以实现1.第三方工具redis-dump.redis-load实现2.通过aof机制导入导出,需要开启aof功能3.通过rdb存储机制迁移数据,此方法最为简单,直接dump $key.restore $key即可 此篇主要介绍第一种方式,redis-dump.redis-load实现redis的数据导入导出,直接进入主题 redis-dump,要求ruby版

从MySQL到Redis 提升数据迁移的效率

场景是从MySQL中将数据导入到Redis的Hash结构中.当然,最直接的做法就是遍历MySQL数据,一条一条写入到Redis中.这样可能没什么错,但是速度会非常慢.而如果能够使MySQL的查询输出数据直接能够与Redis命令行的输入数据协议相吻合,可能就省事多了.根据测试800w的数据迁移,时间从90分钟缩短到2分钟.具体案例如下:MySQL数据表结构: CREATE TABLE events_all_time (id int(11) unsigned NOT NULL AUTO_INCREM

redis的数据迁移

redis-migrate-tool工具是由唯品会开源的,用于在多种redis架构间迁移数据.该工具基于redis复制,在迁移过程中,源redis集群仍可对外提供服务:若目标集群是Twemproxy,其会将数据直接导入后端的redis节点:能通过监控端口,查看迁移状态,且迁移完成后,可进行抽样检查. 安装redis-migrate-tool # yum install automake libtool autoconf bzip2 -y # git clone https://github.co

redis cluster异地数据迁移,扩容,缩容

由于项目的服务器分布在重庆,上海,台北,休斯顿,所以需要做异地容灾需求.当前的mysql,redis cluster,elastic search都在重庆的如果重庆停电了,整个应用都不能用了. 现在考虑第一步做重庆和上海的异地容灾,大概测试了一下重庆的几台服务器之间大概是13m/s的传输速度也就是说100M的局域网带宽,重庆到上海只有1.2m/s的传输速度,大概10M的局域网带宽. 第一个方案先考虑简单的  mysql 重庆上海主主同步  redis cluster的master节点默认都设置在

数据迁移工作总结

这两天,公司项目excel数据功能扩展,需要对历史数据进行数据迁移. 公司最近几次重大功能的上线,都设计到数据迁移问题.可以说数据迁移是产品上线之前,重要的一个环节.数据迁移一般设计的问题较多,不单单是数据位置的变动,更多的是数据格式要变化. 这两天我的任务就是根据原有的四个数据库表合成新的三张数据库表,同时将历史的excel数据格式进行转换,存储的MongoDB中.这数据迁移的过程中,还是有很多问题需要注意的. 首先,就是数据迁移时间问题.数据迁移尽量要在短时内搞定,因为只有在短时间内搞定,保